Trop Robot pour être vrai

De April MediaWiki


Titre : Trop Robot pour être vrai ?

Intervenant·e·s : Laurence Devillers - Rodolphe Gélin - Natacha Triou

Lieu : Émission Eurêka ! - France Culture

Date : 31 juillet 2021

Durée : 58 min

Podcast

Page de présentation de l'émission

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Quand invente-t-on les premiers robots ? Quelles étaient leurs premières utilités ? Peut-on considérer que la robotique a d'abord été élaborée dans la littérature, avant de devenir un projet scientifique ? Comment les rapports entre humains et robots ont-ils évolué à travers le temps ?

Transcription

Voix off : Mais oui, bien sûr, je le savais ! Eurêka !

Natacha Triou : À la fin de l’année 2020, la firme Boston Dynamics, spécialisée dans la robotique, a publié une vidéo vue depuis des millions de fois. On y voit un robot humanoïde twister en rythme avec un robot mi-chien mi-autruche et une troisième machine. Leurs pas de danse, leur souplesse et leur chorégraphie sont si stupéfiantes que l’on a cru à un canular. Pourtant, la vidéo de Boston Dynamics n’est pas tronquée. C’est que les robots ont d’abord frappé nos imaginaires avant d’arriver dans nos vies et que leur histoire est tout juste en train de s’écrire.
« Trop robot pour être vrai ? », c’est notre invention du jour, une invention mécatronique. Bienvenue dans Eurêka !.
Laurence Devillers, bonjour.

Laurence Devillers : Bonjour.

Natacha Triou : Vous êtes avec nous et vous êtes professeure en intelligence artificielle à la Sorbonne, chercheuse au CNRS et autrice du livre Les robots émotionnels en 2020 à L’Observatoire.
Rodolphe Gélin, bonjour.

Rodolphe Gélin : Bonjour.

Natacha Triou : Vous êtes directeur de recherche et expert en robotique et en intelligence artificielle et auteur de l’ouvrage L'intelligence artificielle, avec ou contre nous ? à la Documentation française.
Merci à vous deux d’avoir accepté notre invitation en direct des studios de France Culture et à toute heure en podcast.
Avant de parler des premiers balbutiements de la robotique, des premiers humanoïdes et des progrès en cours, écoutons d’abord comment la jeunesse d’hier se représentait les robots de notre époque.

Diverses voix off : Comment seront les métiers en l’an 2000 ?
Il suffira d’appuyer sur un bouton et puis tout se fera mécaniquement. Je ne crois pas quand même qu’il y aura des robots, mais pourquoi pas.
Si ça marche tout électriquement avec des robots comme tu dis un peu, il n’y aura plus de travail pour les chômeurs et tous ces gens-là seront obligés de traîner dans les rues et ils mourront, pour ainsi dire, de faim.
Non, parce qu’il faudra bien des hommes pour faire marcher les robots.
Pour vous les robots, certains imaginent des bonhommes qui marchent comme ça là, moi je crois que ce sont des machines par exemple comme une machine à laver le linge, une machine à laver la vaisselle, comme, je ne sais pas moi, moi je dis que c’est ça un robot parce que ça remplace ce que fait l’homme.
Les gens n’auraient plus rien à faire, ils ne travailleraient plus. Une fois qu’il y aurait des robots, il y aurait des robots pour fabriquer des robots. Les robots feraient la guerre et les gens grossiraient, ils ne feraient plus rien. Ils grossiraient et je crois que la race de l’homme se perdrait.

Natacha Triou : Une archive de 1969 où on entend que l’imaginaire des robots est très présent. Tout le monde parle des robots depuis longtemps, mais on n’en voit le bout que maintenant, Rodolphe Gélin.

Rodolphe Gélin : En effet, on en parle depuis très longtemps. Déjà ça a existé dans les livres et dans les films bien avant que ça existe en vrai et puis ça s’est mis à exister en vrai et c’est un long chemin pour arriver à ce que la réalité rattrape la fiction et on est tous, les chercheurs, à courir derrière ce qu’ont vendu Asimov et tous les autres auteurs parce qu’ils sont toujours très en avance sur nous.

Natacha Triou : Laurence Devillers, pour vous c’est aujourd’hui que la robotique s’invente ?

Laurence Devillers : Non. Comme l’a dit Rodolphe, on a inventé la robotique dans les années 60/70. En 1920 déjà on crée ce mot de « robot » dans une pièce de théâtre de science-fiction de Karel Čapek qui écrit ce mot. « Robot » veut dire esclave, en russe rabota signifie « travailler ». Donc cette machine est destinée à automatiser certaines tâches et à nous aider.
Effectivement, réellement les robots sont dans nos vies depuis longtemps, on parle des robots qui sont dans les entreprises, dans les usines pour, par exemple, peindre des voitures, mais ce ne sont pas des robots capables d’être autonomes, ce sont des machines automatiques. Donc il y a à définir vraiment ce qu’est un robot capable de percevoir dans son environnement, de décider quelque chose et d’avoir une action. Donc on parle d’autonomie de ces machines ; celles-là sont assez récentes.

Natacha Triou : Vous évoquez, en effet, la pièce de Karel Čapek. Écoutons un extrait.

[Extrait de la pièce R. U. R. - Rossum's Universal Robots de Karel Čapek]

— Le vieux Rossum, qui était un de ces savants comme on n’en fait plus, s’est mis dans la tête de fabriquer un homme dans ses moindres détails. Il a mis dix ans à composer une espèce de monstre humain. Sur ce, le jeune Rossum est arrivé. Quand il a vu le travail de son oncle, il s’est écrié « c’est absurde ! Mettre dix ans à fabriquer un homme n’est pas rentable. Ou bien on tourne plus vite que la nature ou alors on ferme boutique ». Le jeune Rossum a créé l’ouvrier le plus rentable et, pour ce faire, il a été obligé de le simplifier. Il a rejeté tout ce qui n’était pas proprement fonctionnel, ce qui était inutile au travail. En fait, il a rejeté ce qui est humain et il a fabriqué le robot. Chère mademoiselle, les robots ne sont pas des hommes. Mécaniquement ils sont bien plus au point que nous, ils ont une intelligence supérieure et c’est tout ce qu’ils ont ! De ce point de vue-là, la création de Rossum est bien supérieure à celle de la nature.

— On dit que c’est Dieu qui créa l’homme.

— Peut-être, mais à cette époque Dieu n’avait aucune notion de la technique moderne. Il a fait quelques erreurs !

[Fin de l’extrait]

Natacha Triou : Une archive de la pièce de théâtre Rossum's Universal Robots de l’écrivain tchèque Karel Čapek en 1920.
Donc le mot robota en tchèque, « robot ». En tout cas il y a tout de suite l’idée que le robot fait le sale boulot.

Rodolphe Gélin : Oui, c’est ça. robota, comme le disait Laurence, ça veut dire « esclave », « travail », donc c’est exactement pour ça qu’on l’a créé, pour soulager l’homme de tâches qui sont répétitives, qui sont difficiles, qui sont dangereuses, et aujourd’hui personne ne s’insurge sur le fait que les robots aillent dans les centrales nucléaires pour faire le sale boulot, aillent faire la guerre, éventuellement, comme disait un des enfants en 1969. Est-ce que c’est mieux que ce soit un robot qui se fasse casser qu’un être humain ? Probablement. Est-ce que c’est mieux que ce soit un robot qui tue un être humain plutôt qu’un autre être humain, je n’en sais rien. C’est vraiment un bon exemple de sale boulot et aller sur Mars aussi, pour l’instant on est content que ce soit des robots qui y aillent ou sur des comètes. Je pense que des gens seraient contents d’y aller, mais pratiquement c’est quand même plus facile d’envoyer des machines pour l’instant.

Natacha Triou : Est-ce qu’on peut définir ce qu’un un robot, Rodolphe Gélin ?

Rodolphe Gélin : J’ai travaillé à l’ISO, le standard international, l’organisation des standards internationaux sur la définition d’un robot. Je dirigeais le groupe de travail sur le vocabulaire, c’était, je pense, il y a 15 ans et on continue toujours à se disputer pour savoir ce qu’est un robot.

Natacha Triou : Il y a débat.

Rodolphe Gélin : On est à peu près tous d’accord sur le principe, comme l’a dit Laurence, c’est cette boucle entre la perception, donc c’est un objet qui regarde l’environnement, qui prend des décisions à partir de ça et qui va faire une action, qui va bouger physiquement dans le monde. En ce sens les robots dont on parle, les moteurs de recherche, ne sont pas des robots parce qu’ils sont purement numériques, ils ne font pas d’action sur le monde. En revanche, la machine à laver qu’évoquait un des enfants, c’est une très bonne question parce qu’en effet il y a de la perception dans une machine à laver, il y a une décision, il faut continuer à tourner, il faut continuer à chauffer et puis ça bouge à l’intérieur, donc on pourrait presque dire que c’est un robot. Là on a trouvé des trucs en disant il faut que ça bouge à l’extérieur, il faut que le mouvement se voie, bref ! Mais vous voyez, c’est vraiment très difficile.
Un des pères, celui qu’on appelle le père de la robotique, qui s’appelait Joseph Engelberger, qui faisait les premiers robots dans les usines, disait « je suis incapable de vous dire ce qu’est un robot, en revanche quand j’en vois un, je le reconnais. » C’est en effet très difficile de définir ; il faut que ça bouge, il faut que ça perçoive son environnement, il faut que ça adapte son comportement à ce que ça perçoit.

Natacha Triou : Laurence Devillers, sur les définitions du robot.

Laurence Devillers : Je crois qu’on peut rajouter à ces trois dimensions, en fait, la dimension d’apprentissage. Jusqu’à présent les robots étaient juste avec les capacités qu’on leur donnait, qu’un ingénieur ou une équipe d’ingénieurs avaient construites et mettaient dans le robot. À l’heure actuelle, nous sommes sur des robots qui sont capables d’apprendre dans l’interaction avec les humains, en les imitant ou en association, en coopération avec les humains. Et puis ils peuvent aussi avoir des capacités dites affectives, c’est-à-dire qu’on va leur donner quelques capacités de détecter ou, en tout cas, d’interpréter des émotions des humains, très peu parce que ce sont des capacités extrêmement complexes à mettre en œuvre, mais aussi à générer, peut-être, des sons affectifs et d’avoir un langage émotionnel ou empathique qui embarque l’humain dans une projection, en fait, de capacités humaines sur cette machine.

Natacha Triou : Le robot c’est aussi une existence physique, Laurence Devillers ?

Laurence Devillers : Oui, c’est vrai que si je compare un même système de dialogue, puisque je travaille plutôt sur cet aspect de langage que l’on donne aux machines, si je fais le même système de dialogue que j’embarque sur un Google Home, ces enceintes qui n’ont ni bras ni tête, ou que je mets sur un robot Pepper que connaît bien Rodolphe ou que je mets sur un robot vraiment très proche d’un humain comme ce que font des collègues japonais, le professeur Ishiguro par exemple qui fait son clone en robot, son géminoïde, son jumeau d’humain robotique, ces personnes vont penser que celui qui ressemble le plus à l’humain est plus intelligent, avec la même capacité dans chacun.

Natacha Triou : Rodolphe Gélin, est-ce que le robot c’est aussi cet aspect décisionnaire, un robot qui prend des décisions ?

Rodolphe Gélin : Oui, c’est un peu ce qui le différencie de l’automate en fait. C’est comme ça que l’on peut s’en sortir entre les deux sachant que ce n’est pas toujours aussi simple, mais on peut dire ça, en effet. Certaines machines font du travail très répétitif, les imprimantes, ce ne sont pas vraiment des robots dans le sens où il n’y a pas un environnement qui varie et, du coup, une action qui va varier en dynamique en fonction de ce qui se passe dans l’environnement. Cette partie prise de décision c’est vraiment ce qui va spécifier, définir, caractériser un robot par rapport à un automate.
Les automates, par exemple, sont des engins qui étaient formidables, qui jouaient du piano mais là il y avait une partition et le système ne faisait que lire la partition. Ce n’est déjà pas mal, d’un point de vue mécanique c’était incroyable, mais c’était sous forme de fiches perforées et le système ne faisait qu’exécuter quelque chose qui était écrit à l’avance, donc pas du tout d’adaptation et c’est ça qui le distingue d’un robot. Mais les contours sont quand même extrêmement flous parce qu’il y a des robots, par exemple les exosquelettes, qu’on fait porter aux personnes lourdement handicapées, ne prennent absolument aucune décision, c’est bien la personne qui est dedans qui décide ce qu’il faut faire, néanmoins c’est difficile de ne pas dire qu’un exosquelette ce n’est pas un robot parce qu’il y a toute la technologie, la mécanique, l’électronique de la robotique qui est là-dedans. Donc les contours sont vraiment très flous.

Natacha Triou : Vous parlez des exosquelettes qui sont liés à la mécatronique. Peut-on définir aussi cette discipline ?

Rodolphe Gélin : La mécatronique c’est tout ce qui est beau en robotique. Évidemment, Laurence va dire qu’il y a d’autres choses qui sont bien plus belles. Moi, si j’aime les robots, c’est parce que c’est cet ensemble de mécanique donc un objet, comme vous disiez, qui a une présence physique qui est fait, en général, de plastique, de métal et qui bouge de façon synchronisée, de façon fluide. La mécatronique c’est ça, c’est l’art d’allier la mécanique avec l’électronique pour générer du mouvement.

Natacha Triou : On a évoqué en tout début d’émission que les robots existent dans nos imaginaires depuis très longtemps. Quand trouve-t-on des traces de ces premiers robots en littérature ? À partir de quand imagine-t-on ces objets-là ?

Rodolphe Gélin : Jean-Paul Laumond, qui est un grand roboticien français, dans sa leçon inaugurale au Collège de France a parlé de Héphaïstos, le dieu forgeron boiteux qui avait inventé à la fois des tables qui bougeaient elles-mêmes, des statues aussi, donc des servantes en or qui étaient capables de rendre des services, de faire tout le travail, donc ça fait vraiment très longtemps. On retrouve aussi cette idée de construire mécaniquement l’équivalent d’êtres humains ou d’objets bougeant dans les légendes du Golem. C’est vraiment dans notre imaginaire depuis très longtemps cette volonté.
Comme ça a été évoqué, on est l’équivalent de Dieu parce qu’on va recréer une créature qui bouge, qui est autonome. Frankenstein, certains disent que Frankenstein est un bout de robot un peu organique, on l’a recollé et puis on a essayé de le commander, donc c’est vraiment ancré depuis très longtemps dans notre imaginaire. Par exemple Pinocchio aussi, cette espèce de petit robot en bois ; là toute la difficulté est plus portée sur l’intelligence, la conscience, Laurence pourra peut-être nous en parler un peu plus.
Mais vraiment cette idée de fabriquer nous-mêmes des objets qui vont bouger pour nous rendre service, obéir au doigt et à l’œil en appuyant sur un bouton comme a dit un petit garçon, ça fait en effet vraiment très longtemps que ça traîne dans la tête de l’humanité.

Natacha Triou : Laurence Devillers, sur l’imaginaire robotique.

Laurence Devillers : Oui, ça remonte effectivement à l’Antiquité. Je citerai aussi, en complément, le mythe du sculpteur de Chypre qui crée le mythe de Pygmalion, qui crée en fait aussi une sculpture parfaite qui va représenter une femme. On va beaucoup trouver ce fantasme de faire des femmes artificielles dans ce domaine qui est très masculin, d'ailleurs.
Le mythe de Frankenstein, dont on vient de parler, c’est un roman qui est publié par Mary Shelley, qui est une femme, en 1818, roman qui s’appelle Frankenstein ou le Prométhée moderne, qui raconte comment on va donner vie à une créature et comment cette créature va finalement se retourner contre les humains. Nous avons ceci dans notre imaginaire collectif. De la même façon que pour le Golem il y a aussi cette image d’un monstre créé qui, au début, est là pour aider les humains, connu particulièrement dans le quartier juif, la population qui était là, qui était en souffrance et qui, à un moment donné, va faire des actes qui sont non admissibles et dangereux.
Je crois que notre imaginaire collectif est très nourri de ces histoires alors que, par exemple au Japon, il y a aussi des mythes fondateurs qui montrent les robots comme des êtres artificiels certes, mais bienveillants, qui viennent aider les humains pour construire un monde meilleur. Donc au Japon, à travers les mangas, la science-fiction, les films il y a cette mise en avant de héros artificiels venant nous aider.
Vous voyez que ça joue énormément en fait sur la façon dont on les appréhende ensuite dans la vie de tous les jours.

15’ 20

Natacha Triou : Il y a un auteur qui a appréhendé ces robots. Impossible de ne pas parler d’Isaac Asimov dans cette émission, maître de la science-fiction, qui était un scientifique de formation. En quoi a-t-il été précurseur, Laurence Devillers ?

Laurence Devillers : Il était incroyable. Relire tous les cycles sur les robots d’Isaac Asimov, effectivement je l’ai fait dans un premier livre qui s’appelle Des robots et des hommes. C’est fantastique de voir à quel point il était visionnaire. Il a essayé non seulement de créer des environnements où ces robots allaient réagir, mais également il a regardé comment ils vont réagir avec les humains et quelles sont les règles éthiques qu’il faudrait pouvoir mettre en œuvre pour que nous puissions collaborer, coopérer et, tout simplement, exister au même endroit.
Les trois lois et la loi Zéro d’Asimov ce sont, en fait, les premières pistes vers cette idée d’une machine éthique, d’une machine ayant une certaine morale. Si je vous les redis, la première loi c’est qu’un robot ne peut pas porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger sauf s’il y a une contradiction avec une autre loi, notamment la loi qu’il appelle la loi Zéro qui va naître après.
La deuxième loi c’est que le robot doit obéir aux ordres que lui donne un humain.
La troisième loi c’est qu’un robot doit protéger son existence tant que cette loi n’entre pas en conflit avec les autres lois.
Et la loi Zéro c’est : un robot ne doit pas porter atteinte à l’humanité ni par le fait de ne rien faire qui permettrait d’exposer au danger l’humanité.
Il prévoit cela, il l’explicite à travers différents contextes dans ses livres et c’est réellement quelqu’un qui était extrêmement visionnaire.

Natacha Triou : Rodolphe Gélin, Isaac Asimov écrit les trois lois de la robotique en 1942 alors que les robots n’existent pas encore.

Rodolphe Gélin : Non, en effet.

Natacha Triou : Et pour les scientifiques, les chercheurs qui ont baigné, qui ont été nourris de science-fiction j’imagine que ça a eu un impact, par exemple même pour vous.

Rodolphe Gélin : Bien sûr, on est tous inspirés. Bruno Maisonnier qui est celui qui avait créé la société Aldebaran, les robots humanoïdes Nao et Pepper, était un grand fan de science-fiction et d’Asimov en particulier. Je dirais qu’Asimov nous avait tiré aussi une belle balle dans le pied en disant « attention, vos robots sont super dangereux, ils vont prendre des décisions incroyables ». Je pense qu’il fait partie des gens qui sont presque encore plus dangereux que les autres, parce que comme il était très intelligent, très cultivé, qu’il a beaucoup réfléchi, tout ce qu’il a dit a été pris très au sérieux, alors qu’au donc ce n’est pas un roboticien, c’est un biologiste. Je le taquine parce qu’en effet c’est formidable, il y a plein de choses à prendre et plein de choses à apprendre dans ce qu’il a écrit, mais du coup plein de gens ont ça en tête. Quand on arrive avec les robots les gens nous disent : « Est-ce que vous avez implémenté les trois lois de la robotique ? — Non, on ne peut pas, ce n’est pas possible, c’est trop compliqué ». Comment vous définissez comment vous portez atteinte à l’être humain. Évidemment s’il s’agit de lui taper sur la tête c’est facile et encore, vous pouvez lui taper sur la tête pour le réveiller, donc c’est vraiment très compliqué d’implémenter ça et Asimov nous a vraiment mis un challenge incroyable en nous mettant ces lois qu’on serait censés respecter.

Natacha Triou : « Le Canard de Vaucanson était remarquable. Il était de grosseur naturelle et imitait si parfaitement l’animal vivant que tous les spectateurs subissaient l’illusion. Il exécutait, dit Brewster, toutes les attitudes et tous les gestes de la vie, mangeait et buvait avec avidité, accomplissait tous les mouvements de tête et de gosier qui sont le propre du canard et, comme lui, troublait vivement l’eau qu’il aspirait avec son bec. Il produisait aussi le cri nasillard de la bête avec une vérité complète de naturel. Dans la structure anatomique, l’artiste avait déployé la plus haute habilité. Chaque os du canard réel avait son correspondant dans l’automate et les ailes étaient anatomiquement exactes. Chaque cavité, apophyse ou courbure, était strictement imitée et chaque os opérait son mouvement propre. Quand on jetait du grain devant lui, l’animal allongeait le cou pour le becqueter, l’avaler et le digérer. »
Un extrait de la nouvelle d’Edgar Allan Poe, Le Joueur d'échecs de Maelzel en 1836 qui décrit l’un des premiers automates de l’histoire, le fameux Canard de l’ingénieur français Vaucanson. On ne peut pas encore parler de robot puisqu’il s’agit d’automate, mais tout de même, dès la description de cet automate, il y a tout de suite l’idée, Rodolphe Gélin, d’une imitation anatomique parfaite.

Rodolphe Gélin : Oui. C'est à la fois une inspiration et un leurre parce que, comme c’était dit dans la pièce de théâtre de Čapek, il y a plein de choses dans l’être humain qui ne sont peut-être pas indispensables aux fonctions qu’on veut voir effectuer par le robot. Lui parlait plus de questions plutôt émotionnelles, etc. C’est ce qu’on appelle le bio-morphisme, on va s’inspirer de la vie humaine pour reproduire la fonction. Recopier tout, exactement à l’identique, parfois c’est très compliqué et c’est plus se faire plaisir d’un point de vue ingénierie ou artistique, j’ai entendu qu’il le citait comme un artiste et c’est un bon point. Après il faut voir ce qu’on cherche à faire. Est-ce qu’on cherche à imiter exactement l’animal ? Bon ! C’est un défi en soi, une peu comme Ishiguro qui essaye de reproduire exactement un être humain, à quoi ça sert ? on ne sait pas très bien, mais c’est un défi en soi donc c’est très bien qu’on s’y intéresse. Après il y a la fonction qu’on veut voir remplir à son objet. Un canard qui mange du grain, qui digère, c’est plus une performance, un peu comme Ishiguro, c’est une performance technique, éventuellement artistique, en revanche d’un point de vue d’ingénieur ce n’est pas d’un très grand intérêt.
Sur l’histoire de la digestion des gens s’étaient plaints en disant « en fait le canard ne digère pas vraiment, il recrache autre chose qu’il avait bu avant ». Quand on n’avait plus que ça à reprocher au Canard de Vaucanson, ça prouve que c’était vraiment une mécanique incroyable. Aujourd’hui on voit beaucoup toute la robotique avec l’intelligence artificielle, mais ce qui fait la spécificité du robot c'est son existence physique, comme vous avez dit, et toute cette mécanique qu’il y a derrière pour faire les gestes, les gestes de Boston Dynamics sont incroyables, derrière il y a toute une science de la mécanique, aujourd’hui un peu galvaudée, parce que c’est quand même mieux de faire des sites web et de l’informatique que de la mécanique, mais la mécanique c’est vraiment une très belle science et Vaucanson et toute l’horlogerie, tout ça porte ce qu’aujourd’hui est la robotique.

Natacha Triou : Il y a aussi l’idée de comprendre comment fonctionne le vivant et de reproduire ça dans une machine ?

Rodolphe Gélin : Absolument. On l’a bien vu sur les robots marcheurs, sur les robots bipèdes et pour une bonne partie, quand on a commencé à faire des robots humanoïdes à jambes, avec des jambes, c’était pour essayer de comprendre comment fonctionnait la marche. Je pense que les gens le savaient, mais on s’aperçoit que si on essaie d’implémenter une marche qui est très simple en disant la marche il suffit d’être en équilibre à chaque fois qu’on bouge un pied, ce n’est pas vrai, ça fait une marche, justement, très robotique et ce n’est pas ce qu’on veut. On veut faire une marche humaine et on s’aperçoit que la mécanique de la marche est très compliquée. En implémentant en effet, c’est pareil pour l’IA, en voulant implémenter ce que l’homme fait naturellement on s’aperçoit combien la mécanique humaine est complexe.

Natacha Triou : Au début du 20e siècle, au milieu du 20e siècle, on commence à avoir des prémisses de la robotique, vraiment des premiers robots qui peuvent s’apparenter à des robots.

Rodolphe Gélin : Oui. On discutait avec un de vos collègues de Chaki. C’était un robot très simple parce que c’était deux roues, ce qu’on appelle aujourd’hui un robot mobile, c’était deux roues avec un ordinateur, il était énorme, aujourd’hui tout cela tient sur une carte de crédit. C’était justement plus un robot dédié à mettre en avant l’intelligence artificielle, il planifiait ses actions, il disait « je vais d’abord passer à tel endroit pour prendre tel objet puis aller réaliser ma tâche, etc. » Justement on avait mis beaucoup d’intelligence dans ce robot, il était développé par le laboratoire d’intelligence artificielle, en revanche la mécanique était un petit peu délaissée, ils s’en étaient un peu moins occupé à tel point que ce robot s’appelait Chaki parce qu’en anglais ça veut dire « la tremblote ». En fait dès qu’il bougeait il tremblait de partout parce que ce n’était pas vraiment des mécaniciens qui s’en étaient occupé, mais plutôt des gens du logiciel. Cet exemple est très bien parce qu’il montre que bouger c’est nécessaire, être intelligent c’est nécessaire et c’est le mélange des deux qui va faire le robot utile.

Natacha Triou : Chaki qui, je crois, a inspiré les créateurs de Wall-E, le film d’animation Pixar qui y ressemble beaucoup. Laurence Devillers.

Laurence Devillers : J’aurais tendance à être d’un avis un peu différent pour cela parce qu’on ne peut pas dire que bouger suffit. Nous avons, en fait, montré, Antonio Damasio qui est un neuroscientifique américain a apporté une vision nouvelle sur la manière dont les émotions se manifestent dans une inter-corrélation avec le corps et le cerveau dans la perception des objets. C’est la même chose pour différentes attitudes que nous avons. Il y a dans notre mémorisation des choses un côté rationnel, si on veut, et un côté émotionnel. Et le corps doit être pris en compte dans toute sa complexité. Or, dans ces machines, même si elles bougent de façon mécatronique, on est vraiment sur la surface, sur un mouvement qui n’a pas toutes ses capacités. Quand on parle du Canard de Vaucanson c’est aussi une imitation extrêmement simplifiée.
Je pense qu’on devrait à chaque fois redire, redonner l’idée de cette simplification, parce que nous sommes, en fait, non pas des machines algorithmiques capables de reproduire des mouvements qu’on saurait reproduire, on en est très loin, on ne connaît même pas vraiment comment la cellule marche, on est à des années-lumière de savoir refaire ce que fait un cerveau humain sur une machine. Dans le corps lui-même il y a des fonctions de mémorisation, de décision qu’on n’a pas du tout appréhendées dans ces machines. On cherche à faire du biomimétisme mais à un niveau extrêmement de surface, sans prendre en compte l’intériorité du corps qui est utile pour la perception, les décisions et les actions. Donc il y a là une grande différence.
Sinon Isaac Asimov, pour revenir à ce que vous disait tout à l’heure Rodolphe, écrit aussi qu’il faut garder la foi en notre vieux cerveau d’homme, notre plus grande richesse, c'est notre génie créateur. C’est aussi ce sur quoi je voulais insister. Ce canard automate, par exemple, sait faire un certain nombre de choses, mais si vous faites un mouvement qui n’est pas prévu ou si vous le mettez dans une situation qui n’a pas été pré-câblée ou prévue au préalable, il ne saura pas réagir. Supposons qu’on lui donne quelque chose qu’il n’est pas capable d’ingérer il ne pourra pas le recracher, ce que ferait un animal. Donc il n’y a pas, en cas de situation non prévue, de solution, parce que la machine ne sait pas s’adapter de façon créative.

Natacha Triou : Nous parlons des prémisses de la robotique. Rodolphe Gélin, ces prémisses ça démarre vraiment quand il y a une demande industrielle, c’est-à-dire dans les années 60 ?

Rodolphe Gélin : Ça commence là. Disons qu’un des moteurs positifs, on va dire utilitaires, c’est en effet la demande industrielle. À la suite de la Ford T, de la façon de construire les objets de façon systématique, très organisée, le développement du premier robot, justement par Joseph Engelberger que je citais tout à l’heure, a été l’étape d’après dans la mécanisation et dans l’automatisation, aussi dans la façon de reconfigurer facilement des tâches. Parce qu’on peut reprogrammer un robot, même s’il exécute une tâche, comme disait Laurence, sans beaucoup d’imagination, il ne peut pas s’adapter à quelque chose qui se passe mal, en revanche on peut le reprogrammer, par exemple les robots de cette époque-là, pour qu’un jour il aille faire des Twingos, le lendemain il fera des Clios et tout ça sans qu’on ait besoin de changer la machine, à la différence des machines qu’on voit d’habitude dans les usines : une machine fait une pièce et puis c’est tout. Là, un même robot peut être reprogrammé pour fabriquer de nouveaux objets et c’est ça qui a été la grande trouvaille et qui a fait qu’on appelle ce monsieur le père de la robotique. Aujourd’hui, pour les roboticiens, faire des robots dans les usines ce n’est pas le côté prestigieux de la robotique, mais c’est quand même là que tout a commencé et là que se sont posés les premiers vrais problèmes de robotique, notamment ceux sur la commande, comment on fait pour avoir des mouvements fluides, précis, rapides.
Donc c’est là que ça a commencé. Mais en parallèle de ça il y avait aussi, ce que vous disiez tout à l’heure, des chercheurs qui travaillaient pour comprendre comment l’homme fonctionne. Donc il y a les deux qui sont arrivés. Une partie a été poussée par le côté utilitaire, on va fabriquer plus vite, mieux, moins cher, et puis on va aussi continuer à comprendre, faire avancer la science, donc il y a aussi une recherche fondamentale derrière la robotique et les deux ont poussé.
Dans les années 50 il y avait aussi, parmi les gens un peu rêveurs, des gens qui faisaient des tortues robotisées qui étaient capables d’aller vers la lumière. Les applications, à cette époque-là, n’étaient pas trop évoquées, c’était juste pour voir ce qu’on pouvait faire.

Natacha Triou : On parlait de perception environnementale, c’était en effet des tortues qui se repéraient avec la lumière.

29’ 28

Rodolphe Gélin : Voilà. À l’époque, on est dans les années 50, il n’y a pas les caméras qu’on a aujourd’hui, qu’on peut facilement embarquer, il n’y a pas le traitement d’images, dont on pourra peut-être reparler, qui fait qu’on comprend ce qu’on voit. La seule chose qu’on était capable de percevoir dans l’environnement c’était s’il y avait une lumière allumée ou éteinte avec des diodes assez simples. C’était très facile de dire « il y a de la lumière par là, je tourne jusqu’à optimiser la lumière que je vois, si je tourne trop loin la lumière va baisser donc je reviens et après je me rapproche de cette lumière ». Donc on simulait là un animal qui se rapproche d’un point d’intérêt. Seulement là on avait adapté le point d’intérêt, qui était le seul truc qu’on était capable de détecter, qui était une source lumineuse.

Natacha Triou : C’est vrai que tout bascule avec le perfectionnement de l’informatique ?

Laurence Devillers : Avec l’IA !

[Rires]

Natacha Triou : Avant d’arriver à l’IA, vraiment même dans les années 75, le perfectionnement de l’informatique, qu’est-ce que ça permet, justement, sur ces premiers robots industriels ?

Rodolphe Gélin : Laurence a raison, l’IA commence très tôt, en fait, et quand on parlait de Chaki, en effet c’était dans les années 60, fin des années 60, c’était les prémisses de l’IA avec aussi cette capacité à prendre en compte l’environnement. Là où ce que vous dites est vrai, c’est le fait qu’on puisse miniaturiser tout ça, qu’on puisse l’embarquer sur un objet qui bouge. Aujourd’hui on peut faire une très grosse intelligence sur un très gros ordinateur, et puis avec le wifi, le Bluetooth, le robot lui-même a tout petit cerveau éventuellement. À l’époque tout cela n’existait pas, donc il fallait embarquer et tant que votre ordinateur pesait deux tonnes, il y avait quand même peu de chances que votre robot puisse vraiment être intelligent. Donc c’est avec la miniaturisation de l’électronique, les débuts de l’informatique, qu’on a commencé à avoir des objets autonomes dans le sens qu’ils n’étaient reliés à rien physiquement et qu’ils pouvaient prendre des décisions et agir.
En effet on peut dire qu’on est passé de l’automate au robot avec le développement de l’électronique analogique puis l’informatique.

Natacha Triou : Laurence Devillers.

Laurence Devillers : Oui, on est passé, en fait, au déploiement de machines qui sont capables d’apprendre. Je pense que c’est là le grand saut. En fait on fait des systèmes experts dans les années 90 et tout l’apprentissage machine, l’apprentissage à partir de données qui nous permet, en fait, d’aller beaucoup plus loin dans les performances que ce qu’on savait faire avec des règles explicites, c'est-à-dire écrites à la main par des experts, débarque justement dans les années 1990/2000. 2010 on est au sommet deep learning comment ça marchait, on voit AlphaGo c’est-à-dire un système capable de battre un champion de jeu de go, comme on l’avait vu aux échecs avant, et de plus en plus de tâches, comme ça, qui étaient supposées être liées à de l’intelligence, calculatoires en tout cas, qui étaient difficiles pour les humains.
C’est là où on a, finalement, cet engouement pour l’IA qui était née dans les années 56 par des chercheurs américains qui avaient une vingtaine d’années et qui, lors d’un séminaire, décident de se demander s’il est possible de faire penser les machines. C’est une métaphore d’ingénieur, c’est-à-dire qu’on est très loin de cela même encore maintenant, même le mot intelligence est très galvaudé. Ce n’est absolument pas intelligent comme un humain, c’est autre chose, c’est une capacité calculatoire, une capacité dans un immense possible, un ensemble de possibles de trouver une solution qui dépasse notre capacité de mémoire, de projection cérébrale. La machine est plus douée que nous pour cela, chercher dans un grand ensemble.
Au niveau de la perception elle a aussi quelque chose que nous n’avons pas. Nous sommes des animaux qui nous adaptons très vite, capables justement d’apprendre à partir de très peu de choses et la machine n’a pas cette adaptation très rapide, elle n’est pas capable de faire cela. Il faut un apprentissage très long, à partir d’un grand nombre de données, pour arriver à obtenir quelque chose. Donc cette faculté est à la fois un défaut, c’est-à-dire qu’on peut passer finalement à côté d’un sujet parce qu’on a une intuition qui est fausse et on fait quelques erreurs. Il y a des biais cognitifs très connus chez l’humain et, en même temps, on ne perçoit pas tout dans une image. La machine perçoit tout au plus bas niveau, nous, nous avons des couches de connaissance qui font qu’on va chercher dans une image des visages connus, des objets connus et qu’on ne descend pas plus bas, alors que la machine descend au plus bas, au pixel.
Pour l’écoute du son, c’est la même chose et, en cela, elle va interpréter différemment de nous les images, le son et être capable d’aller chercher des indices pour détecter des choses, des indices qui ne sont pas humains. Donc elle a des capacités d’apprentissage et de modélisation non humaines qu’on devrait pouvoir comprendre et utiliser pour nous, pour augmenter notre capacité de compréhension du monde et notre connaissance du monde.

Natacha Triou : Vous évoquez, Laurence Devillers, la perception. Je voulais précisément aller sur ce point parce que, parmi les innovations, on peut parler des capteurs qui bouleversent, justement, la perception.

Rodolphe Gélin : Je voudrais que l’émission reste sur la robotique et pas sur l’intelligence artificielle.

Natacha Triou : Les deux sont liés.

Rodolphe Gélin : Et AlphaGo ce n’est pas de la robotique.

Natacha Triou : En effet, au jeu de go, on n’est pas dans une existence physique, c’est vrai.

Rodolphe Gélin : C’est normal, Laurence et moi ne sommes pas tout à fait dans la même chapelle. Parmi les robots les plus spectaculaires du moment il y a le robot SUN Dynamics dans lequel il n’y a, à ma connaissance, pas d’intelligence artificielle du tout et pourtant c’est la quintessence de ce qu’on peut faire en robotique. Effectivement si on peut marier les deux ce sera encore mieux.
Il faut bien prendre en compte que le développement de la robotique ne dépend pas que du développement de l’IA. Les deux ont besoin l’un de l’autre. À mon avis une IA qui ne fait que tourner dans un ordinateur n’a aucun intérêt, je grossis le trait pour énerver Laurence. Et un robot qui n’a pas d’IA c’est vrai qu’il n’ira jamais très loin, il ne rendra pas de grands services, il ne sera pas apprécié par les humains. C’est vrai que les deux ont besoin l’un de l’autre. Cette mécanique, le travail sur cette mécanique, la commande, la fluidité des mouvements c’est ça qui fait la beauté de la robotique.
Laurence le sait aussi, parce que même dans tout ce qu’elle fait, elle travaille sur l’émotivité, si les gestes d’un robot ne sont pas proches de ceux d’un humain on va être mal à l’aise aussi vis-à-vis de ça, donc le mouvement lui-même transmet de l’émotion.

Natacha Triou : Par rapport, justement, au mouvement des robots, je reviens sur cette idée de capteurs en tant qu’innovation quand même très importante, le moment où on passe sur des capteurs extéroceptifs.

Rodolphe Gélin : Absolument. C’est vrai que pour prendre des décisions le robot doit aller regarder ce qui se passe à l’extérieur. Évidemment les premiers robots, les robots qui sont dans les usines ont déjà des capteurs, mais ils ont des capteurs pour savoir où est leur propre position. Si on demande au robot d’attraper un objet qui a telle position, il faut qu’il connaisse la position de chacune de ses articulations et pour ça il a des capteurs internes qu’on appelle les capteurs proprioceptifs, comme on a dans notre corps humain, c’est-à-dire que le robot sait où il est. Il sait la forme de son corps, en revanche il ne sait pas s’il est à côté d’une bouteille, en fait il travaille avec les yeux fermés.
Avec les capteurs extéroceptifs on va lui ouvrir les yeux, on va lui ouvrir les oreilles et il va découvrir le monde. Il va s’apercevoir que le geste qu’il faisait de façon complètement répétitive parfaite, eh bien il est toujours juste à côté de la bouteille. On va dire « ce n’est pas ça qu’il faut faire ».
Jusqu’à présent ce qu’on faisait jusqu’à présent c’est qu’on amenait la bouteille là où le robot mettait son bras, pour grossir le trait, et puis petit à petit on va lui dire « maintenant tu as vu où est la bouteille, donc corrige toi-même ton geste pour attraper la bouteille ». En effet, le fait qu’on ait maintenant des capteurs de vision qui ne soient pas chers, qui soient robustes et toute l’informatique de traitement de l’image pour détecter où est la bouteille – et là on retrouve ce que disait Laurence, cette partie computer vision, vision par ordinateur qui utilise du deep learnig – tout ça va en effet démultiplier la puissance et les applications possibles de nos robots.

Pause musicale : Les robots par Jacques Higelin.

Natacha Triou : Celle-ci je ne la connaissais pas, Les robots de Jacques Higelin, à 16 heures 35 sur France Culture pour l’émission Eurêka ! !, car nous parlons de l’invention des premiers robots avec nos deux invités du jour Rodolphe Gélin, expert en robotique et en intelligence artificielle, et Laurence Devillers, professeure en intelligence artificielle à la Sorbonne, chercheuse au CNRS.
Nous venons de parler de l’évolution des robots dans un contexte industriel. Est-ce que, avec les robots, les premiers robots humanoïdes comme ASIMO avec Honda c’est une révolution, Laurence Devillers ?

Laurence Devillers : Oui, d’une certaine manière c’était une révolution, mais, à l’heure actuelle c’est plus Boston Dynamics pour moi, ou des robots plus humanisés, en fait, qui sont les réelles avancées. Si je regarde les chercheurs les plus à la pointe, il y a des personnes qui cherchent, par exemple, à mettre des émotions dans ces machines, à créer une espèce d’intériorité dans les machines, qui ferait qu’elles auraient une simulation de ce que c’est que le plaisir et la douleur, voire avoir des intentions. Vous voyez, ça va jusque là. Et si on continue à regarder ce que fait la robotique, elle va de plus en plus vers le champ du langage. On a vu émerger énormément de progrès avec différentes technologies récemment sur le traitement automatique de la langue, c’est-là-dire les Siri, Google Home et tous ces objets qui ne sont pas robotiques, effectivement, comme dira Rodolphe, mais qu’on cherche à mettre dans des robots. C’est-à-dire qu’on ferait des robots capables de mouvement et, sans doute, de tâches plus complexes mais en même temps capables de coopérer avec des humains en leur parlant.
Ce sont des avancées importantes. L’assistance aux personnes âgées, l’assistance à des enfants qui seraient autistes et qui auraient besoin d’un soutien dans certaines circonstances, ce sont aussi des objectifs de la robotique et qui sont extrêmement importants à comprendre.
Pour l’instant, en tout cas, on ne sait pas produire des robots très intelligents, même intelligents tout court. On les produit, par contre, de façon spécialisée sur certaines tâches et cela peut être extrêmement profitable à la société si on sait le faire de façon vérifiée, évaluée, régulée, avec une conscience que cette machine n’a pas de droits. Elle est un objet construit par des humains.

Natacha Triou : Pour revenir sur ces premiers robots humanoïdes comme ASIMO, en tout cas ce qui est intéressant là aussi c’est qu’on voit la bipédie, la marche bipédique et c’est aussi une prouesse technologique, Rodolphe Gélin.

Rodolphe Gélin : Oui. C’est avant tout une prouesse technologique. Moi qui ai fait des projets de robots bipèdes j’ai plein d’arguments pour dire pourquoi c’est super intéressant et super utile. Mais le fait est qu’il y a déjà plein de tâches qu’on peut avoir sans avoir la bipédie. C’est vraiment une performance technologique, c’est une démonstration de savoir-faire et c’est très bien qu’il y ait des entreprises qui investissent là-dessus parce que ça fait avancer des tas de choses sur la compréhension de la dynamique du mouvement.
C’est vrai qu’aujourd’hui ASIMO, d’un point de vue purement robotique, est un peu enfoncé par Boston Dynamics qui fait des sauts périlleux. Je ne sais pas si les auditeurs voient ce qu’était ASIMO, ça ressemblait à un petit cosmonaute, il est très mignon, il est tout en blanc, il a un casque avec une grosse visière. Il est beaucoup moins effrayant que Atlas de Boston Dynamics, mais il fait quand même un petit peu aussi science-fiction. On était tous extrêmement impressionnés le jour où ASIMO, qui marchait jusque-là, s’est mis à courir. Il courait, il avait une toute petite foulée. Pour courir, le critère c’est qu’à un moment donné les deux pieds soient décollés du sol. On voyait des ralentis des pieds d’ASIMO pris de profil et on voyait qu’en effet, à un moment, les deux pieds étaient à deux millimètres du sol et toute la communauté de la robotique était comme des fous à dire « ça y est, ils ont réussi à courir et tout ! » Aujourd’hui, évidemment, on fait beaucoup mieux, mais moi je trouve qu’on a vu, au travers de la marche, cette évolution des performances de la robotique. Et la prochaine étape c’est la manipulation.

Natacha Triou : Quel est le secret de dextérité de ces robots, même ceux de Boston Dynamics ?

Rodolphe Gélin : C’est l’intégration d’un point de vue mécanique. Ce qui est très compliqué, en robotique, c’est de faire un compromis entre la puissance dont vous avez besoin et le poids que vous allez devoir transporter. Je me souviens quand on fabriquait notre robot Roméo chez Aldebaran, eh bien on disait pour dimensionner les moteurs il faut savoir combien le robot va peser. Au début on ne sait pas grand-chose, donc on dit ça serait bien qu’il pèse 40 kg. On calcule tous les moteurs notamment des jambes pour qu’il puisse porter 40 kg. Mais une fois qu’on a mis tous ces moteurs, ils sont trop lourds donc ça pèse 50 kg, donc on va mettre des moteurs plus gros, etc.
La difficulté est là, c’est de trouver ce bon compromis. Il faut que non seulement le robot soit fort mais aussi qu’il soit puissant, qu’il soit rapide pour avoir des gestes, une réactivité assez importante. Notre robot était très sympa, il finissait par se porter. En revanche, si vous le bousculiez un peu, il n’allait pas assez vite pour se rattraper, donc il a fallu aussi travailler sur la dynamique du robot et pas seulement sur sa puissance.

Natacha Triou : On voit aussi d’ailleurs aujourd’hui les robots de Boston Dynamics qui encaissent les coups et qui ne tombent pas.

Rodolphe Gélin : On savait le faire aussi, mais c’est vrai qu’ils ont poussé ça à un niveau vraiment super spectaculaire.

Voix off : J’ai vu tant de choses que vous, humains, ne pourriez pas croire. De grands navires de guerre en feu, surgissant de l’épaule d’Orion. J’ai vu des rayons fabuleux, des rayons C briller dans l’ombre de la Porte de Tannhäuser. Tous ces moments se perdront dans l’oubli comme les larmes dans la pluie. Il est temps de mourir.

Natacha Triou : Le poème de l’androïde Roy Batty dans Blade Runner de Ridley Scott.
Nous venons de parler de la dextérité, de l’apprentissage de la marche des robots.
Laurence Devillers, on voit apparaître les premiers robots émotionnels.

45’ 43

Laurence Devillers : Oui. On voit apparaître quelques idées autour de ces robots « émotionnels », qui ne sont pas émotionnels, il faut le voir avec des guillemets.

Natacha Triou : D’ailleurs de quoi parle-t-on quand on parle de robots émotionnels ? Qu’est-ce que ça signifie ?

Laurence Devillers : En fait, c’est lié à une discipline qui s’appelle l’informatique affective, qui est née en 1997 dans les laboratoires du MIT, Massachusetts Institute of Technology à Boston aux États-Unis, et qui vise trois technologies : détecter les émotions des humains, certaines émotions un peu extrêmes, puisque c’est l’expressivité qui va être détectée et pas l’émotion qui est cachée ; prendre en compte ces informations pour changer la façon dont on interagit avec la machine, par exemple adapter le dialogue, et enfin générer des réponses qui soient affectives à la fois dans le texte et puis, peut-être, dans la synthèse et dans la mimique. Donc on va chercher des informations multimodales dans le son, dans le visage, les gestes de la personne, sa posture, etc., pour essayer de trouver dans quel état elle est. Et puis le robot, comme ça, peut s’adapter mieux à l’intention de la personne.

Natacha Triou : Vous voulez dire que ce sont les robots qui cherchent à imiter l’empathie ?

Laurence Devillers : Les robots qui cherchent à imiter l’empathie, effectivement, ils cherchent à se mettre, si vous voulez à s’aligner sur la personne. S’ils repèrent que la personne est dépressive, imaginons, eh bien ils pourraient dire « ah là, là je suis triste pour toi ! » et essayer de l’aider. Ce sont des sujets qui sont complexes parce que l’utiliser pour manipuler les personnes c’est assez facile, donc il faut qu’on ait conscience que ce sont des objets en fait.
Lorsque la parole est donnée à un robot, lorsque le robot va parler, ce n’est pas une parole humaine, c’est une parole donnée par une machine qui ne comprend pas ce qu’elle dit et qui n’est en rien responsable de ce qu’elle dit. Je crois que nous avons besoin de former et d’éduquer sur ces sujets-là parce que la responsabilité n’est pas dans la machine, elle est liée, en fait, à la construction de cette machine. C’est peut-être aussi une coresponsabilité si la machine peut s’adapter à la personne.
Donc vous voyez qu’on a encore à travailler sur ces sujets pour parler de mettre, demain, des robots émotionnels dans la boucle pour des personnes âgées, pour différents sujets. Mais on sent qu’il y a une capacité d’assistance intéressante et de compréhension, en fait, du dialogue.
Pour vous donner un tout petit exemple, avant de travailler sur les émotions sur les robots, j’ai travaillé dans des centres d’appel. Lorsque la machine recevait le message et quelqu’un disait « Ouais ! Elle ne marche pas cette machine ! », la machine disait « veuillez répéter votre question ». Si je suis capable de comprendre, dans le ton de la voix, que la personne est en colère, je vais réagir différemment. À travers un robot incarné devant la personne on peut imaginer aussi cette adaptation au dialogue plus intéressante si on sait capturer, justement, les inflexions dans la voix ou le comportement de la personne. Mais c’est très difficile à faire.

Natacha Triou : Pourtant on voit des robots comme le robot Nao, le robot Pepper ou encore Sophia, la gynoïde saoudienne, qui sont des robots qui prennent des formes anthropomorphes. Pourquoi va-t-on souvent vers une telle ressemblance avec l’humain, Rodolphe Gélin ?

Rodolphe Gélin : On dit que c’est pour simplifier l’interaction homme/machine. Vous n’allez pas spontanément discuter et interagir à un haut niveau de sémantique avec une boîte de conserve. On l’a vu dans La Guerre des étoiles, j’aime bien citer le moment où on voit les deux robots, R2-D2 qui est une boîte de conserve et C-3PO qui est plus un humanoïde, spontanément on va plus parler à un robot qui a des yeux, qui a une tête, et on va le sentir plus proche qu’une simple boîte de conserve comme était Chaki où là on va se trouver un peu bête de parler à quelque chose qui n’a pas d’yeux, pas d’oreilles, pas de réactivité. Mais tout ça change, ça va changer. On parle à sa voiture, on parle à son téléphone, on parle à ses enceintes connectées, donc ça va peut-être se tasser. Mais je pense qu’au début, pour des raisons d’acceptabilité, ce n’était pas mal de donner cette forme humaine. Et cette forme humaine aussi, on le disait, pour s’intégrer à notre environnement c’est bien d’avoir des mains pour ouvrir des poignées de porte, c’est bien d’avoir des jambes pour monter les marches et puis c’est bien d’avoir des yeux pour qu’on sache où parler, des oreilles pour savoir où parler quand on s’adresse à la machine.

Diverses voix off : Dans cette ville, dans l’ombre propice de la nuit, quelqu’un est à la recherche de Sarah Connor.
— Sarah Connor ?
— Oui.
— Je deviens folle. Tu l’as tué. Comment peut-il se relever ?
— Ce n’est pas un homme, c’est une machine.
— Des êtres comme ça, ça n’existe pas.
— C’est vrai, pas avant 40 ans. — Une apparence humaine, mais un corps d’acier. Il n’est programmé que pour tuer. Un film autre que ceux que vous avez vus jusqu’à présent. Arnold Schwarzenegger est le Terminator.

Voix off : France Culture – Eurêka ! - Natacha Triou

Natacha Triou : Laurence Devillers, quand vous avez une plateforme robotique, vous cherchez à lui transmettre des comportements langagiers. Est-ce que vous pouvez nous préciser un peu comment vous travaillez ? Qu’est-ce que vous développez ?

Laurence Devillers  : En fait on développe des logiciels, grâce à de l’apprentissage machine, qui sont capables, par exemple, de passer du signal acoustique, donc quand on parle, qui est enregistré par un micro, capables de passer de ce signal enregistré à l’étiquette, d’abord à la reconnaissance de la parole, donc ce qui est dit, et comment cela est dit, donc avec l’idée qu’on a préalablement construit des modèles sur le son de la voix, sur le timbre de la voix, pour dire là il est plutôt en colère ou il serait plutôt content, etc. Ensuite, lorsque la personne parle à la machine, ces modèles sont utilisés pour décrypter les comportements qui sont adoptés par la personne, les comportements émotionnels. Puis ils nourrissent un système de dialogue qui va répondre et changer la façon de répondre en fonction de ce qui a été détecté avant.
Donc on a ces systèmes de dialogue adaptés avec des capacités affectives qu’on utilise dans des différents cadres. On fait des tests auprès de personnes âgées dans des EHPAD. À l’hôpital Broca, on a fait des tests comme cela pour voir quelle était l’utilité, comment les gens pourraient accepter ces systèmes et la robustesse qui est nécessaire. On travaille aussi dans des jeux éducatifs pour les enfants. Donc il y a énormément de domaines dans lesquels ces systèmes peuvent être utiles. Maintenant il faut prendre un certain nombre de précautions et je travaille beaucoup sur ces sujets d’éthique, de normalisation. Je suis copilote, à l’heure actuelle, d’un groupe à l’Afnor, donc les normes françaises, autour de ces systèmes qui sont capables de nous répondre pour nous inciter à faire des choses, donc sur le langage.

Natacha Triou : C’est depuis le développement de l’intelligence artificielle en robotique qu’on se pose, justement, toutes ces questions éthiques et sociétales ?

Laurence Devillers  : Oui. La plateforme robotique est extrêmement intéressante parce qu’elle est complexe. C’est-à-dire qu’on embarque sur la même plateforme des capacités langagières, des capacités de bouger, d’actionner les bras, les jambes. Tout à l’heure vous parliez de la marche avec Rodolphe Gélin, on marche avec sa tête, on marche avec la vision des choses autour de nous. On comprend mieux cette complémentarité des sens, c’est-à-dire que les actions doivent mettre en œuvre un ensemble de ces différentes perceptions dans les décisions, par exemple. Donc cette capacité de mettre ensemble des modules d’IA est extrêmement intéressante. Pour l’instant on ne sait pas bien faire. Donc il faut revenir à des choses, à des capacités état de l’art de ces systèmes. On projette dessus, on « surcapacite », si vous voulez, tous ces systèmes à cause des films qui nous donnent l’impression que tout est réalisé, mais on en est très loin.
Si Boston Dynamics sait faire faire des loopings à ses systèmes c’est hors sol, c’est-à-dire que le système n’a pas conscience de l’environnement et si jamais il y a un grain de sable dans tout ça il va se casser la figure et voilà. Il y a certains grains de sable qui sont prévus, mais pour l’instant nous sommes encore assez loin sur les capacités. Là où c’est le plus avancé pour moi, c’est sur le langage, ce qu’on voit dans Siri ou Google Home, qui serait embarqué dans des machines. Et encore ! On a besoin entre ces disciplines de robotique et de traitement automatique de la langue de travailler ensemble pour comprendre que là ce sont des systèmes qui sont incarnés dans notre monde et qui donc ont des perceptions d’un environnement contextuel. Et ça donne encore des difficultés à la compréhension dans le langage. On ne comprend pas le sens commun, ces systèmes sont perdus. Lorsqu’on met un robot dans un environnement avec quelqu’un qui dit « prend ça là et fais ci », waouh comment fait-il pour comprendre ce que l’humain essaie de dire ?

Natacha Triou : Rodolphe Gélin, sur ces prémisses de dialogue humain/machine, comment percevez-vous ça ?

Rodolphe Gélin : En effet, quand on commence à parler à un robot, on le voyait très bien avec les robots Pepper et Nao, les gens se lâchent, ils disent « ça y est, on peut lui parler, il est super intelligent, donc on peut lui parler de tout. » À chaque fois il fallait que qu’on explique « attention, on lui a appris à répondre bonjour, à donner la météo, éventuellement donner des conseils sur le vin, mais sorti de ça, il ne comprend rien et il ne peut pas vous parler ». C’est un peu un point que je voyais apparaître dans tout ce que disait Laurence. Ce qui est très difficile c’est de spécifier ce que va faire un robot. En fait, quand vous discutez avec quelqu’un qui dit « moi je veux un robot dans mon magasin », eh bien décrivez-moi ce que vous voulez qu’il fasse. Eh bien ça c’est très compliqué parce qu’on dit qu’on voudrait qu’il fasse comme un être humain, comme mon vendeur. Expliquez-moi tout ce que fait votre vendeur. Ben c’est simple, quoi ! Et c’est un des problèmes de l’intelligence artificielle de manière générale, c’est de spécifier à une intelligence artificielle ce qu’elle doit savoir faire. Et en général il faut lui montrer par des exemples. Souvent on n’a pas tous les exemples et, comme dit Laurence, il manque le sens commun. Vous n’allez pas dire à un jeune conducteur « il ne faut pas écraser un enfant avec un pull rouge, il ne faut pas écraser un enfant avec un pull bleu », vous allez lui dire « il ne faut pas écraser les gens du tout » et après il s’adaptera. S’il voit des gens qu’il n’a jamais vus avant, un genre de gens, il va s’adapter. L’intelligence artificielle ne va pas faire ça.
Avec le langage on est devant une explosion combinatoire de tout ce qu’il faut traiter qui est incroyable. À mon avis ça fait partie, en effet, des situations, des contextes qui sont les plus difficiles à traiter parce que quand l’homme parle à la machine il est sans pitié ; il lui demande tout et n’importe quoi. Et, pour le robot, être capable de dire « là je ne comprends pas, je ne suis pas formé à répondre à ça » c’est très difficile. En fait, pour une intelligence artificielle détecter l’inconnu c’est très difficile.

Natacha Triou : Merci à vous deux pour cette histoire de la jeunesse de la robotique.
Pour notre générique de fin, on se quitte sur ce fameux twist et la chorégraphie des robots de Boston Dynamics. Une chorégraphie qui a nécessité un an et demi de programmation pour trois minutes de danse sur le tube de The Contours, Do you love me.

Merci à toute l’équipe d’Eurêka !, Anne-Toscane Viudes, Eléonore Peres, Mariam Ibrahim, Antonin Hamburger, Nicolas Berger à la réalisation et Jordan Fuentes à la technique. Eurêka ! continue tout l’été…