Le robot, mon ami - Talk Sapiens

Aller à la navigationAller à la recherche


Titre : Le robot, mon ami ? Talk Sapiens - La Tribune #9

Intervenant·e·s : Laurence Devillers - Ysens de France - Serge Tisseron - Olivier Babeau - Philippe Mabille

Lieu : Talk Sapiens- La Tribune #9

Date : juillet 2018

Durée : 49 min 40

Écouter le podcast

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Description

Santé, industrie, défense, marketing, automobile : les applications liées à la robotique sont légion et se développent à grande vitesse. Cette omniprésence, souvent associée à un anthropomorphisme délibéré, ne risque-t-elle pas de brouiller la frontière entre humains et robots ?
Cette question était au cœur du 9ème Talk Sapiens-La Tribune

Transcription

Olivier Babeau, voix off : Bonjour. Je suis Olivier Babeau le président de l’Institut Sapiens, la première think tank française qui replace l’humain au cœur du numérique. Le Talk Sapiens c’est une fois par mois, une discussion approfondie entre experts pour mieux comprendre les grands enjeux de ce siècle qui commence.

Philippe Mabille : Bonjour à toutes et à tous et bienvenue pour ce nouveau podcast organisé par l’Institut Sapiens et le journal La Tribune que je dirige. Je suis ravi de vous retrouver après une longue absence liée au confinement. Nous ne sommes non pas encore confinés, je suis à mon bureau, et nous essayons de déconfiner nos esprits avant de démarrer dans l’été pour parler d’un sujet qui aurait pu nous rendre bien des services pendant le confinement, d’ailleurs pour certains ça a peut-être été le cas, même si on a vu que la pandémie covid a montré que l’humain restait quand même essentiel ; que ce soit dans la santé ou pour la distribution alimentaire, heureusement qu’il y a encore des humains qui sont là ! Peut-être que pour la prochaine épidémie ou la prochaine vague si jamais elle aura lieu, se posera la question de l’usage des robots pour nous remplacer et prendre moins de risques. C’est vrai que ça pourrait être bien pratique face au virus d’avoir des robots dans les hôpitaux ou des robots dans les supermarchés.
Pour parler justement de l’avenir des robots, à supposer que la question de savoir si le robot peut-être ou pas notre ami et où est-ce qu’on en est de cette technologie, on a trois invités très prestigieux et je suis ravi de les avoir avec nous pour ces 45 minutes de débat. Nous avons Laurence Devillers. Bonjour Laurence.

Laurence Devillers : Bonjour.

Philippe Mabille : Vous êtes professeure à Sorbonne Université en informatique appliquée aux sciences humaines et sociales. Vous dirigez la chaire de recherche en intelligence artificielle HUMAAINE en apprentissage machine, détection des émotions et interaction homme-machine. On va beaucoup parler de ces sujets-là. Vous avez publié en mars dernier, pendant le confinement, Les robots émotionnels aux Éditions de l’Observatoire.
Avec nous également Serge Tisseron, vous êtes psychiatre. Bonjour Serge.

Serge Tisseron  : Bonjour.

Philippe Mabille : Psychiatre et psychanalyste, membre du Conseil scientifique du CRPMS [Centre de Recherche Psychanalyse Médecine et Société], vous nous direz ce que c’est, à l’Université de Paris et membre de l’Académie des technologies. Vous êtes à l’origine de la fameuse règle « 3, 6, 9, 12 » qui donne des repères sur l’utilisation des écrans en fonction de l’âge de l’enfant. C’est vrai qu’aujourd’hui la question de l’intrusion des écrans dans nos vies, peut-être demain des robots, posera des tas de questions psychologiques nouvelles, on va en parler. Vous venez de publier L'Emprise insidieuse des machines parlantes, plus jamais seul aux Éditions Les Liens qui libèrent.
Et enfin avec nous, directrice de la prospective à l’Institut Sapiens, Ysens de France. Bonjour Ysens.

Ysens de France : Bonjour.

Philippe Mabille : Vous êtes docteure en droit international public et vous êtes spécialisée en robotique militaire terrestre notamment, vous avez publié une thèse sur le sujet, et vous êtes également directrice adjointe de l’Observatoire éthique et intelligence artificielle à l'Institut Sapiens avec qui nous sommes partenaires.
Après cette présentation un peu longue qui permet de savoir qui parle et d’où il ou elle parle, nous allons commencer avec Laurence Devillers par nous interroger sur la définition, simplement : c’est quoi, dans le monde d’aujourd’hui, quand on parle de robot et comment on fait la différence entre le robot et l’intelligence artificielle alors qu’il y a une interaction de ces technologies de plus en plus importante dans nos vies ?

Laurence Devillers : Merci. Je pense qu’il est essentiel déjà de définir. Donc en trois points.
Il faut différencier la robotique de ce qui est automate, c’est-à-dire que les premiers robots qu’on a vu arriver dans les usines, qui sont les plus connus, ce sont des systèmes qui enchaînent des actions qui sont déterminées, l’ordre est déterminé il n’y a pas de choix fait par la machine.
Quand on parle de robotique, eh bien on parle d’un outil qui est capable de percevoir dans son environnement, de raisonner sur ce qu’il a perçu, avec des connaissances qu’il peut avoir, de l’ontologie, c’est-à-dire une représentation de notre monde, et puis il est capable de réagir. Il peut être doué de langage et doué d’action dans notre monde en trois dimensions.
Je le distingue du bot qui est peut-être sur mon téléphone ou sur un ordinateur ; je le distingue du chatbot qui est un bot capable de converser ou, en tout cas, d’interaction verbale, parce qu’il ne converse pas. On parle aussi de ces enceintes vocales qui sont des objets, effectivement, mais qui sont des haut-parleurs avec un micro.
Pour revenir à l’IA, l’intelligence artificielle, qui est un oxymore, l’intelligence c’est humain et artificiel c’est artifice, c’est machine, eh bien ces objets que ce soit le robot, l’enceinte vocale, Siri sur mon téléphone, utilisent des modules d’intelligence artificielle pour faire de l’analyse du signal, de la reconnaissance de la parole, de la compréhension, voire de la reconnaissance des émotions, qui est mon domaine, pour générer des réponses, faire des actions. Donc il y a une foultitude de différents modules d’intelligence artificielle et un système qui essaie d’utiliser ces différents modules pour faire cette interaction avec les machines.
Je finirai juste. Il est essentiel aujourd’hui de mieux comprendre comment elles sont faites et quels sont les usages qu’on peut avoir avec, en regardant également les points de vue éthiques. On verra en discutant dans cette session qu’on n’a pas de loi qui réglemente, qui vérifie, qui audite ces systèmes à l’heure actuelle et qu’il n’est pas évident d’en faire non plus pour tout et qu’il sera aussi nécessaire de faire des chartes éthiques de bonne pratique pour encadrer ces objets.
Dernier point. J’appartiens à un comité d’éthique aussi puisqu’on en a parlé avant, j’appartiens au Comité national, pilote, éthique du numérique, qui est proche du CCNE [Comité consultatif national d'éthique] qu’on connaît bien, qu’on a vu beaucoup pendant la pandémie avec le professeur Delfraissy qui est la tête de ce CCNE.

Philippe Mabille : Merci beaucoup Laurence.
Avant de revenir sur les usages des robots et de leurs interactions avec nous humains, j’en parlais un tout petit peu avant dans mon introduction, je vais maintenant passer la parole à Serge Tisseron peut-être pour évoquer cette intrusion, cette arrivée des machines dans nos vies. On parle de machines parlantes, ça va de Siri qui converse sur nos téléphones, pour ne citer qu’eux, en tout cas il y a des robots conversationnels aujourd’hui dans nos smartphones. Il y a également, aujourd’hui, de plus en plus de robotique ou d’intelligence artificielle, certes des robots qui ont des yeux avec des caméras, des caméras de surveillance. Donc la voix, les yeux, peut-être demain les bras, on a tous le souvenir de Boston Dynamics qui, avec son chien dont j’ai oublié le nom, son chien robotique qui réalise des performances de plus en plus spectaculaires et qui pose vraiment la question de où s’arrête la frontière. Justement, j’allais vous poser cette même question sur la définition de la robotique aujourd’hui et où s’arrête la frontière.

Serge Tisseron  : Merci tout d’abord. Laurence a très bien parlé de l’intelligence artificielle et du robot, la différence entre les deux. Je voudrais ajouter un troisième élément qui me paraît vraiment essentielle, ce sont les données, les fameuses big data. Il ne faut pas oublier que l’intelligence artificielle est très dépendante des données qu’on y entre, il va y avoir des tas de biais dans les données qui sont entrées qui font que l’intelligence artificielle dysfonctionne pas parce que l’algorithme est mauvais, parce que les données sont insuffisantes ou bien biaisée. Il faut bien comprendre que quand l’intelligence artificielle va faire fonctionner le robot, le robot va être indirectement dépendant aussi de ces données.
C’est pour ça que c’est très important d’établir cette chaîne avec les données, l’intelligence artificielle, le robot. Le robot est en quelque sorte le terminal qui est présent dans une notre environnement, qui a une présence physique, mais il y a toute une chaîne en amont, que nous ne voyons pas, dont il faut vraiment réaliser l’importance.
Sinon, par rapport à votre question, oui, aujourd’hui on s’aperçoit que finalement l’être humain est extrêmement prêt à accorder des compétences presque humaines à une machine. Si vous voulez on croyait que l’être humain était un être de raison, depuis le 18e/19e siècles on en était persuadés. On s’aperçoit que ce n’est pas si vrai que ça et lorsqu’une machine est capable de nous regarder, lorsqu’une machine est capable de nous parler comme un humain, beaucoup d’entre nous, finalement, se laissent bercer par l’illusion que cette machine, pas humaine, ne disons pas de bêtises, mais que cette machine pourrait avoir des compétences très supérieures à celles qu’elle présente.
Quand je parle avec humain pour lui demander une revue, pour lui demander le prix du pain, je sais bien que cet humain a beaucoup plus de compétences que celles qu’il me manifeste. Aussitôt qu’une machine est capable de regarder, même si ses yeux sont manifestement des yeux mécaniques, il a été montré que l’humain qui interagit avec elle, c’est ??? qui montre ça, l’humain qui interagit avec la machine la regarde dans les yeux, comme si l’humain attendait quelque chose de ce regard. Et dès qu’on introduit la voix dans une machine, on le voit aujourd’hui avec les enceintes connectées, beaucoup de gens sont prêts à se laisser gagner par l’illusion que la machine aurait des compétences plus grandes que ce qu’elle n’en a. Les gens font des expérimentations, essayent de coincer un peu la machine avec des questions tordues, puis ils s‘aperçoivent qu’elle n’est pas si maligne que ça et qu’est-ce qu’ils se disent ? Ils se disent vivement la prochaine pour qu’elle soit un peu plus intelligence.
L’idée, comme je le dis toujours, dans le développement de l’intelligence artificielle, dans la relation de l’homme à l’intelligence artificielle, le maillon faible c’est l’homme. Nous sommes prêts à accorder à ces machines des compétences bien plus grandes que celles qu’elles n’ont. Ça veut dire qu’il faut constamment remettre les choses au clair sur les compétences réelles de ces machines mais aussi se préoccuper des personnes particulièrement fragiles, traditionnellement les enfants, les personnes âgées, dans les confusions qui pourraient se créer chez elles quand elles utilisent ces machines.

Philippe Mabille : Absolument. Jusqu’au risque de la perte de contrôle, on va peut-être en parler tout de suite avec Ysens de France puisqu’elle a travaillé sur la robotique militaire. Un des rêves de l’humanité c’est de pouvoir effectivement se faire assister de robots, mais on le voit bien dans le film Terminator dont on entend beaucoup parler à propos de la robotique militaire, jusqu’à quel point l’homme garde-t-il le contrôle de la machine quand il l’automatise ? Cette question peut se poser de façon peut-être pas si facile, dérisoire que ça dans la vie quotidienne, mais dans les questions militaires et l’armée évidemment ça serait un danger considérable. Où est-ce qu’on en est, déjà, vous qui connaissez ce sujet, en matière de robotique militaire ? On va basculer très vite dans notre discussion sur ces questions-là, est-ce que des règles éthiques peuvent empêcher l’humain qui est effectivement le maillon faible, et qui pourrait devenir tellement faible qu’il se ferait dépasser ?
Ysence.

11’ 30

Ysens de France : Quand on s’intéresse à la robotique militaire terrestre et plus spécifiquement quand on s’adresse à ces questions à travers le prisme juridique, la première question qu’on se pose c’est déjà qu’est-ce qu’un robot et à travers mes analyses et à travers recherches, premier constat, le robot n’existe pas. Le robot n’existe pas parce que dans les armées, mais on l’a vu également à la Commission européenne, je reviendrai dessus après, on considère que le robot est une machine qui est capable de décider. Aujourd’hui ça n’existe pas. Donc comme ça n’existe pas il ne peut pas y avoir d’identification juridique qui lui soit propre. C’est très important, en fait, de prendre le temps de bien définir et de qualifier ce que c’est qu’un robot, parce que ce qu’on voit par exemple dans la robotique militaire terrestre, il y a eu des conversations qui ont été engagées au niveau des États, au sein de l’ONU, et quand ils ont commencé à introduire ces conversations, forcément ils ont parlé de robots. Qu’est-ce qu’on fait des robots militaires ? Qu’est-ce qu’on fait des killers robots ? Qu’est-ce qu’on fait de Terminator ? Et très vite ils se sont dit on va arrêter d’utiliser ce terme-là parce que ça n’existe pas, qu’il y a trop de projections et qu’on a l’impression qu’on va remplacer les militaires dans les conflits armés. C’est pour ça que très vite ils se sont dit on va utiliser un terme plus approprié qui est le « système d’armes », on parle de système d'armes létales autonome quand il est en pleine capacité de décider de laisser vivre ou de tuer. Mais c’est important en fait cette qualification de système d’armes, parce que le signal est fort en fait dans les armées. Le robot restera un objet. Dans ce cadre-là, une fois qu’ils ont défini ça comme un objet, donc un équipement militaire, fait qu’ils parlent moins de confiance que finalement de vigilance, de prudence, de capacités, de capacités de contrôle, de capacités de maîtrise. En fait ce qu’on a vu aussi lors de ces conversations, c’est qu’au début ils étaient très focus sur la technologie, quelles étaient les capacités de la technologie et très vite, au bout deux/trois ans de conversations, ils se sont dit non, en fait, on va s’intéresser surtout aux capacités de l’homme à maîtriser et à contrôler cette technologie.
Ce qui est intéressant, pareil, avec l’aspect juridique, c’est qu’on peut lui donner une seule qualification, c’est une technologie qu’on appelle duale, c’est-à-dire que c’est une technologie qui a une application à la fois militaire et à la fois civile : vous avez un robot chez vous, vous l’armez, ça devient un robot armé.
Ce qui m’a pas inquiétée, mais j’étais assez dubitative justement en travaillant sur ces questions, c’est que j’ai vu deux choses, deux dissonances. Robot militaire on a affirmé son statut d’objet donc le pouvoir de l’être humain de maîtriser, de toujours contrôler son outil et c’est très important dans les conflits armés parce que ça permet de savoir quel est le rôle et la place de chacun lors d’une mission – ce qui compte c’est la performance de la mission – et j’ai vu que dans la robotique civile il y avait une espèce de glissement. On a voulu absolument personnifier absolument le robot, on a essayé de lui donner une personnalité juridique du robot. Et ce qui est très important c’est qu’au nom de la sécurité juridique vous ne pouvez pas, pour un même objet, qualifier d’un côté cet objet-là d’objet et de l’autre dire en fait non, ça va être une personne. C’est impossible en droit parce que ça voudrait dire que d’un côté l’homme restera responsable coûte que coûte et de l’autre on glisserait vers des mécanismes juridiques où on finirait par donner, en fait, de la responsabilité aux robots. Et au sein des conflits armés, dire que c’est un objet c’est accorder une place extrêmement importante à l’humain dans les conflits armés, et ça c’est déterminant pour les combats, pour la performance de la mission. Voilà ce que j’ai juridiquement.

Philippe Mabille : Merci.
Serge Tisseron, on est au cœur du débat éthique et objet ou pas, « objets inanimés avez-vous une âme ? », comme disait le poète. Est-ce que le robot, finalement, qu’on voit plutôt comme un auxiliaire, ça peut être un auxiliaire dans la santé, je l’ai dit, ça peut être effectivement un auxiliaire militaire, ça peut être un auxiliaire dans l’industrie, énormément aujourd’hui de travailleurs de l’industrie sont confrontés à la robotique, plutôt d’ailleurs pour les libérer d’un certain nombre de tâches. J’aimerais demander au psychiatre, au psychanalyste que vous êtes, qu’est-ce que ça change dans le cerveau humain de travailler avec cet objet, ce robot ? Est-ce qu’on se sent plus puissant ou est-ce qu’on se sent affaibli, diminué ?

Serge Tisseron : Pour répondre à la fameuse phrase.

Philippe Mabille : Les deux mon général. C’est ça ?

Serge Tisseron : Non, attendez. « Objets inanimés avez-vous donc une âme ? », oui, celle que nous leur donnons, celle dont nous les créditons.

Philippe Mabille : Absolument.

Serge Tisseron : Par rapport à la robotique militaire, c’est tout à fait vrai pour les militaires, le robot est un objet, un outil et les militaires envisagent l’augmentation du soldat, on parle beaucoup d’augmentation du soldat dans les années à venir. Il y a des augmentations exogènes avec des outils dont le robot fait partie et puis il y a des augmentations endogènes celles qui modifient la psychologie du combattant. C’est dans cette logique-là, vous voyez, qu’est pensé aujourd’hui le robot militaire.
Pour répondre à votre question, le problème des robots, une fois dit que ce sont des objets, ça va être comment l’homme va les considérer. Il y a quelques années l’état-major américain s’est aperçu que des soldats en charge de robots démineurs voyaient leur robot très différemment d’un simple objet.

Laurence Devillers : Ce n’étaient pas des robots. Ce sont des objets téléopérés.

Serge Tisseron : Voilà, d’accord !

Philippe Mabille : C’est dans la définition.

Serge Tisseron : C’est ce nom de robot apparaît partout dans la littérature.

Laurence Devillers : Je suis désolée de la métaphore.

Serge Tisseron : Oui, « robots » entre guillemets, on va dire des robots entre guillemets, et encore même pas de robots, ils ne sont pas dotés de la voix, ils n’ont pas des yeux, ils se présentent un peu comme une caisse montée sur chenille, avec un bras articulé et une caméra. Donc on va dire que ce ne sont pas des robots, mais on va dire que ce sont des objets téléopérés. Ces objets téléopérés, tout téléopérés qu’ils soient par une intervention humaine, l’état-major américain s’est aperçu que certains soldats déprimaient quand leur machine était endommagée, que certains demandaient que les honneurs de la guerre soient rendus à leur machine avant d’être totalement détruite et, plus intéressant encore, certains demandaient que cette machine même très endommagée soit réparée quel qu’en soit le prix de manière à ce que ces personnes puissent récupérer la même machine avec le même numéro de série, une machine à laquelle, un peu, ils s’étaient émotionnellement attachés. Donc vous voyez qu’on rencontre le problème qui ???

Philippe Mabille : Est-ce que c’est différent de l’attachement à une voiture qu’on possède depuis des années ?

Serge Tisseron : La différence c’est qu’une voiture elle va commencer à vous parler mais aujourd’hui elle ne vous parle pas.

Philippe Mabille : C’est vrai qu’elle devient robotisée.

Laurence Devillers : Une voiture c’est un robot.

Serge Tisseron : Ce qui fait la différence quand même c’est que ces machines vont très bientôt être capables de nous interpeller, c’est ça qui fait la différence. Quand vous allez vers une machine, par exemple vous allez vers un distributeur de billets dans une gare SNCF, si vous lui parlez déjà ça simplifie beaucoup vos démarches avec la machine, pour beaucoup de gens c’est une libération de pouvoir parler à ces machines plutôt que de tapoter sur un clavier qui souvent ne marche pas. En revanche, le jour où vous avez dans votre environnement une machine qui vous interpelle comme certains robots placés d’ores et déjà dans des hôpitaux, qui peuvent dire « bonjour Monsieur machin, bonjour Madame truc, comment allez-vous ? est-ce que vous avez bien dormi ? », à partir de ce moment-là il est bien évident que les compétences dont on va créditer le robot, la machine, vont être beaucoup plus importantes.
Donc si vous voulez, la question qu’on se pose tout le temps à l’Institut pour l’étude des relations aux robots, fondé en 2013, c’est cette question-là, c’est-à-dire de quelle façon des machines qui ne sont pas conçues avec l’idée de remplacer l’humain de quelque manière que ce soit, vont quand même, pour certains usagers, êtres amenées à remplacer des partenaires humains dans l’imagination qu’ils en ont.

Philippe Mabille : Laurence, la controverse est lancée, allez-y !

Laurence Devillers : D‘abord tout ce qui est anxiogène passionne tout le monde en ce moment. À chaque fois qu’on a des aspects très négatifs ou très caricaturaux autour de ces machines on envole les gens qui oublient de revenir à l’état de l’art. L’état de l’art voulant dire qu’est-ce que sont capables vraiment de faire ces machines. À l’heure actuelle pas grand-chose. Elles sont d’une autonomie très limitée. Quand on parle d’agents conversationnels ils ne conversent pas, ils ne comprennent rien à ce qu’on dit, ils n’ont pas d’émotion et ils ne font qu’imiter des choses qu’on leur a données. L’intelligence vient de l’humain qui a su faire ces machines et en aucune manière la machine va devenir créative et va se doter de fonctions qu’un ingénieur n’aurait pas prévu de lui donner. À la limite elle pourra capturer quelques données en plus, peut-être qu’elle va d’ailleurs faire que son système sera moins performant parce qu’elle n’aura pas assez de connaissances pour juger des qualités des données qu’elle va réutiliser.
Donc il est urgent dans la société qu’on fasse expérimenter ces objets pour qu’on oublie d’avoir peur à chaque fois qu’on parle de ces sujets.
Maintenant je vais à l’inverse. À l’inverse on cherche à faire dans certains domaines – la robotique sexuelle en est un – des choses qui nous ressemblent extrêmement fortement, des clones, des ???, des jumeaux de l’humain, avec la même apparence, vides. À l’intérieur on n’a évidemment pas de viscères, on n’a pas de ressenti, on n’a pas de chair. Comme de toute façon non ne sait pas encore vraiment modéliser la cellule ni ce que c’est que la pensée humaine, nous sommes dans un balbutiement des choses. On imite en surface, on fait des avions qui volent ce n’est pas pour ça que ce sont des oiseaux. Là on fait des systèmes qui nous ressemblent, qui ont certaines de nos fonctionnalités, mais sûrement pas notre capacité d’humains à ressentir, à créer, à imaginer et à être en solidarité avec les autres, il n’y a rien de tout ça !, même si je connais des chercheurs qui essaient de faire de l’homéostasie dans un robot c’est-à-dire modéliser une certaine douleur, un certain plaisir, pour que le robot ait des intentions.
Dans le monde de la recherche on manie fortement la métaphore également. Si je prends maintenant les usagers, les non-experts qui sont devant ces machines, eh bien pour avoir fait beaucoup d’interactions avec des personnes âgées dans des Ehpad ou dans des systèmes avec des gens qui avaient un certain handicap, des jeunes et des moins jeunes, il n’y a pas beaucoup de confusion. Il n’y a pas beaucoup de confusion avec l’humanité. Il y a des projections voulues. Quand l’enfant est petit il adore son nounours ou quand le gars adore sa voiture, il fantasme aussi sur la relation qu’il a avec ces objets. Or ces objets maintenant sont plus sophistiqués, on ne peut plus tellement dire que ce sont des outils, ce sont des systèmes qui réagissent fortement, qui peuvent nous parler et là il peut y avoir manipulation. Mon objectif de recherche à l’heure actuelle, dans la chaire dont vous avez parlé tout à l’heure, c’est justement de travailler sur ces objets conversationnels, c’est l’objet de mes recherches, la parole dans l’interaction, le pouvoir de la parole et le pouvoir de manipulation de la parole.
À travers ça, j’aimerais vous faire prendre conscience de la chose suivante, ce sont des économistes qui l’ont dit, non pas des psychologues ou des psychiatres : nous sommes régis, caricaturalement parce que c’est à mon avis un champ de recherche qui est totalement ouvert, sur des réactions, des prises de décision de l’humain qui sont soit sur système 1, extrêmement rapides par intuition, et on fait beaucoup de choses par intuition, et par un système 2 qui lui raisonne autour de toute la circonstance, etc.
Il faut qu’on fasse mieux comprendre que ces objets manipulent sur ces deux systèmes et nous obligent à aller très vite. L’attention des machines, le fait qu’il faut réagir très vite, ça c’est de l’ordre du système 1, l’intuition : un objet vous dit quelque chose, tac, on va tout de suite répondre sans analyser finalement si que c’est fake, si ce qu’il nous a dit avait une réalité, etc. Ça ce sont des vrais sujets. Ce sont des sujets d’éthique du numérique qui sont apparentés à des désirs commerciaux, à des désirs des géants, des GAFA, à des désirs de gens dont on ne lève pas le capot sur les objectifs, ni sur ce qu’ils font des données, ni sur quels sont les désirs de manipulation.
Si demain je parle à mon Google Home je lui dis « je voudrais une pizza », il va m’envoyer une pizza d’un commerçant. La manipulation est là, à qui il demande ?, à quelqu’un qui a peut-être donné de l’argent pour faire cela. Il faut un peu démystifier ce côté anthropomorphisme qu’on a dans les machines et ne pas cultiver cette anxiété parce que finalement, je n’ai pas tellement trouvé, en fait, de personnes qui se faisaient avoir par ces systèmes. À l’heure actuelle ils ne sont pas assez intelligents et on peut apprendre à les débusquer : je peux converser avec un système et l’amener à dire des choses qu’une machine ferait parce que c’est incongru, c’est n’importe quoi.
Si on avait cette éducation de pouvoir démystifier, de savoir comment on interagit avec ces systèmes sans savoir coder, il ne s’agit pas que tout le monde sache coder, il s’agit au contraire qu’on ait des systèmes de défense par compréhension des objets sur lesquels on travaille et, de l’autre côté, pousser les industriels à être en capacité de faire des machines plus transparentes, qu’ils expliquent un peu plus leurs capacités et qu’on sache l’écosystème :où vont les données ? À qui ça sert ? Qui gagne de l’argent avec cet objet ?

25’ 42

Serge Tisseron : Laurence, tout ce que vous racontez là c’est intéressant, on voit ça dans des films de science-fiction, c’est-à-dire que Hollywood, finalement, nous a permis de nous préparer à ce monde-là. Prenez Blade Runner, c’est quoi ? C’est on chasse des robots en essayant de deviner et ils sont tellement bien faits qu’il faut leur poser une dizaine, une vingtaine de questions pour essayer de déceler la part de machine qui reste en eux. Donc on voit bien, et je reviens sur ce que je disais Ysens, que la question juridique est en train de rejoindre la question éthique. C’est-à-dire que ce Blade Runner nous dit de l’avenir qui, je l’espère, n’aura certainement pas lieu, mais on ne sait pas parce que si jamais un jour on fabriquait, justement, des robots à notre image, on pourrait être confrontés à ce type de question. Donc est-ce que le débat n’est pas d’abord juridique ? Est-ce qu’on peut se poser la question d’un droit des robots ?

Laurence Devillers : Non !

Serge Tisseron : Je voudrais juste dire un petit mot parce que Laurence Devillers pourrait laisser imaginer que j’ai des peurs. J’ai fait des calculs de risque, d’ailleurs elle me connaît bien pour savoir que ce n’est pas la peur.

Laurence Devillers : Ce n’est pas vous qui avez peur, c’est le langage qui fait peur.

Serge Tisseron : Le pouvoir de la manipulation de la parole, c’est exactement le sujet que je ??? dans mes livres, l’emprise insidieuse de la parole.

Laurence Devillers : Et du mien aussi.

Serge Tisseron : Laurence parlait des deux systèmes, décision lente, décision rapide. L’être humain est doté de deux autres systèmes qui lui permettent de distinguer le vivant du non-vivant. çe premier système est de considérer si l’objet, la créature est dotée d’une autonomie d’objectif, c’est le vivant qui est doté d’une autonomie d’objectif, donc de ce point de vue-là l’être humain ne se trompe pas : évidemment la machine n’est pas dotée d’une autonomie d’objectif, elle a un programme derrière elle, elle est programmée, etc.
En revanche l’être humain a un autre système qui lui permet d’organiser sa vie, ses relations avec son environnement, c’est le fait d’intégrer ou pas une créature dans son réseau relationnel. Or ces machines, bien que nous ne leur accordions jamais la capacité d’être vivants ou d’être autonomes, nous allons les intégrer de plus en plus dans notre vie relationnelle.
Oui, effectivement nos smartphones avec Siri, j’en parlais

Laurence Devillers : On est déjà la !

Serge Tisseron : Oui, sauf qu’avec nos smartphones nous parlons beaucoup à des gens que nous connaissons ou que nous ne connaissons pas, mais nous parlons peu avec notre smartphone. En revanche, dans quelques années, nous parlerons probablement beaucoup avec nos smartphones avec ce robot conversationnel et surtout la figurine animée dont on voit un visage sur un écran et qui parle en même temps, c’est vraiment promis à un bel avenir.
Aujourd’hui pour résumer, pour moi, dans le domaine de la robotique, on en est où on en était avec les automobiles en 1910. Le problème c’est qu’à l’époque personne ne s’est vraiment préoccupé des dangers qu’il pouvait y avoir à ne pas sécuriser l’habitacle, à ne pas se préoccuper de la puissance du moteur. Du coup, aujourd’hui, on est exactement dans la même situation. Donc les robots c’est formidable, je m’y intéresse parce que j’espère en voir des plus perfectionnés possible, de vivre très longtemps pour voir des robots très perfectionnés.

Laurence Devillers : Attention !

Serge Tisseron : J’en ai vraiment envie, mais, en même temps, je ne peux pas sous-estimer le risque, je ne veux pas que les mêmes conneries soient faites avec la robotique qu’avec l’automobile ou avec le smartphone puisqu’aujourd’hui on voit des tas de gens qui me disent dans des conférences : « Monsieur Tisseron, il fallait nous dire un peu plus tôt qu’il ne fallait pas confier un smartphone à un enfant ». D’ailleurs dans mon dernier livre, j’explique que les balises « 3,6,9,12 » que vous avez eu la gentillesse d’évoquer tout à l’heure pour les écrans, eh bien on peut aussi les appliquer aux différentes formes de machines parlantes ou d’objets téléopérés qui vont de plus en plus occuper notre environnement, avant 6 ans, même jusqu’à 6 ans, ces objets vont être très problématiques.

Philippe Mabille : Je voudrais passer de nouveau la parole à Ysens qui n’a pas beaucoup parlé. J’aurais voulu, Ysens, au-delà de la question militaire que vous connaissez bien, jusqu’à quel point effectivement on doit se poser la question d’une législation, d’un droit des robots, d’un droit de l’humain par rapport aux robots et peut-être demain faudra-t-il se poser la question, si on met de plus en plus d’humanité dans ces robots, d’un droit des robots à être protégés contre la méchanceté des humains.

Ysens de France : Je reviendrai juste deux petites secondes sur ce qui vient d’être dit. Effectivement l’utilisation du terme robot c’est d’abord un outil d’influence, un outil de puissance et de pouvoir dont se servent les États au sein d’une course technologique. C’est hyper-important de faire aussi de la géopolitique quand on fait de la robotique parce que c’est vraiment le symbole d’une course technologique entre les Américains, les Chinois dans une moindre mesure, mais quand même les Chinois, les Israéliens.

Laurence Devillers : Les Japonais.

Ysens de France : Les Japonais, bien sûr, et en fait on le bien quand Poutine dit « il y a Teminator qui défile » et juste après on a tout le ministère des Armées qui dit « il n’y a aura jamais de Terminator le 14 juillet chez nous », on sent bien qu’on est avant tout dans un discours politique et il est très important de comprendre qu’on est avant tout dans une course technologique qui est ce qu’on appelle une guerre froide 2.0 C’est qui va avoir une technologie la plus avancée.
Je me permettrai juste de rappeler quelque chose. On imagine que cette guerre est très technologique, en réalité je pense que cette guerre est avant tout juridique, parce qu’on voit bien qu’en fait chacun, tous les pays finalement auront accès à cette technologie, disposeront de cette technologie. En réalité le premier pays qui arrivera à créer un véritable droit de la robotique, pas du robot, ça c’est très important, comme vous ne dites pas « un droit de l’ordinateur », vous ne direz pas « un droit du robot ».

Laurence Devillers : Un droit de la voiture !

Ysens de France : Et la Commission européenne là-dessus a vraiment, pour moi ,une longueur d’avance parce qu’il y a quand même des réflexions.

Laurence Devillers : Ah non !

Ysens de France : C’est très bien, comme ça on va pouvoir en parler.

Laurence Devillers : C’est intéressant ce que vous dites.

Ysens de France : Je veux dire que les réflexions sont là, les réflexions éthiques sont là. Mais à quoi sert l’éthique ? En fait il faut lier l’éthique et le droit. Comme je le disais tout à l’heure, le droit ne peut pas intervenir sur une technologie qu’il ne connaît pas, d’où l’importance de l’éthique qui est dispositif d’attente en fait. C’est sensibiliser les gens. On accompagne l’éthique avec de l’expérimentation et on sensibilise les gens, on fait de la pédagogie : voilà ce qu’est le robot, voilà ce qu’il n’est pas, voilà ce qu’est un drone, voilà ce qu’est un bot, voilà ce que sont des données et ensuite, une fois que ces technologies seront assez mûres, donc d’avoir une capacité de décider, une capacité de raisonner, une vraie capacité de s’adapter – ça arrivera ou ça n’arrivera pas – le droit arrive à ce moment-là pour dire maintenant on sait de quoi ils sont capables, on sait maintenant dans quelle catégorie on va pouvoir les mettre. Moi je vous dis catégorie objets, on peut très bien imaginer – ça va faire hurler tous les juristes qui m’écoutent – une petite catégorie intermédiaire entre les robots et les hommes, attention je vais me faire taper dessus, mais sait-on jamais, on ne sait pas de quoi l’avenir est fait, mais à priori ça restera des objets. Donc c’est vraiment important de voir que le robot est avant tout un outil d’influence juridique, qu’est-ce qu’on va faire et puis surtout, au-delà du droit, c’est quelle valeur. J’ai deux spécialistes devant moi, mais avant tout les robots véhiculent des valeurs. Donc au-delà de ça, c’est une course aux valeurs. Quel genre de valeurs on va réussir à ??? le monde ? Est-ce qu’on va avoir droit au modèle américain ? Est-ce que ça va être le modèle chinois ? Est-ce que ça va être le modèle israélien ? Est-ce que ça va être le modèle indien ? Le modèle japonais ? Et c’est assez intéressant de prendre de la hauteur.

Serge Tisseron : Justement, ça me paraît une question très importante ce que vous dites, vous parlez de guerre technologique, vous parlez éthique et droit. On aurait pu commencer par lui, mais on peut aussi terminer par lui. Quand on pense robot on pense évidemment à Isaac Asimov. On pense évidemment aux quatre lois universelles, non pas les trois lois puisqu’il y en a une quatrième.

Laurence Devillers : Trois plus une.

Serge Tisseron : Trois plus une, lois universelles de la robotique, parce qu’avec trois lois ça ne suffisait pas. Vous pouvez peut-être nous expliquer Laurence, pour ceux qui ne connaissent pas, quelles sont les règles et pourquoi est-ce qu’on peut imaginer la nécessité d’un droit universel pour la robotique ?

Laurence Devillers : Les trois lois d’Asimov qui sont tu ne tueras pas, tu ne porteras pas atteinte et la dernière loi qui était si compliquée qu’il l’a expliquée durant 50 ans à travers tous ses livres de science-fiction qui étaient formidables dans des environnements de guerre.

Serge Tisseron : C’était historicisé dans la guerre froide, c’est sûr.

Laurence Devillers : Dans le livre Les robots et les hommes, j’avais fait les règles, les commandements pour les robots sociaux, en interaction avec nous. Ce qui n’était pas tellement le cas, c’était plus dans un environnement de guerre.
Je voudrais revenir sur la Communauté européenne et nos valeurs. Asimov, si vous voulez, c’est de la science-fiction et je crois que maintenant personne considère qu’on va faire émerger des lois d’Asimov, des règles, pour l’aspect juridique.

Serge Tisseron : Il a découvert quand même des lois universelles.

Laurence Devillers : Non, non ! L’aspect juridique est plus développé actuellement aux États-Unis, c’est là où c’est le plus développé. En Californie ils ont fait un droit sur les agents conversationnels pour dire « tout concepteur de ces agents doit faire en sorte que l’interactant comprenne que c’est une machine ou un humain ». Californie. Pourquoi on ne fait pas la même chose ? On est en train de pousser pour ça sur l’Europe.
Un deuxième truc que je viens d’entendre c’est sur la reconnaissance faciale que pourraient embarquer ces systèmes si tant qu’ils aient des yeux, enfin des caméras. Eh bien là aussi, je fais partie des gens qui travaillent sur les émotions depuis les années 2000, je peux vous dire que ce n’est pas générique comme technologie, que ça fait beaucoup d’erreurs et à l’heure actuelle, alors qu’on pourrait le dire de l’Europe, eh bien non on préfère se complaire dans les mythes et les fantasmes et les États-Unis qui sont un peu plus pragmatiques que nous commencent à avancer sur ce terrain-là en disant, il y a des tas de chercheurs qui relaient, « 30 % d’erreurs dans un système qui détecte les émotions sur votre visage, à quoi ça sert ? » Ça va arriver à faire des systèmes qui ne seront pas fiables et qui ne seront sûrement pas utilisés.
Je termine. Pourquoi j’ai réagi tout à l’heure sur l’Europe ? Il y avait dans un des rapports qui n’existe plus maintenant parce que le groupe des experts fait un excellent travail, mais avant il y avait eu un rapport disant « peut-être que oui, donner une personnalité juridique aux robots serait intéressant ». Il y avait une espèce de lobbying autour de ça qui était une idée absolument terrible.
Je reviens maintenant sur le dernier point. Jje fais partie d’un groupe qui est né du G7 qui s’appelle le GPAI, Global Partnership on Artificial Intelligence, qui est donc la volonté de faire au niveau mondial des règles éthiques ou juridiques, en tout cas pousser les expérimentations ensemble. On va retrouver 15 membres qui sont le Japon, l’Inde, la Corée du Sud, Singapour, l’Australie, mais également des pays d’Europe, l’Union européenne et l’Unesco. Il me semble que c’est par le biais de ce comité international qu’on va arriver à faire des choses.
Je résume juste. Ça a été lancé mi-juin, le kick-off est demain matin, je ne peux pas vous parler encore de ce qui sera dedans. On est 25 experts par groupe, il y a quatre sujets.
Le premier sujet ce sont les data, qu’est-ce qu’on en fait, la gouvernance de l’IA et l’éthique. Ces deux sujets sont portés par le Canada principalement parce que c’est l’accord entre Trudeau et Macron qui a fait émerger cette nouvelle idée de comité international.
En France on aura deux sujets, The futur of work avec des machines, avec de l’IA et je fais partie de ce groupe-là, donc je vais parler des robots et de la coopération humain-machine qu’il faut démystifier et comprendre comment on prend ses décisions. Système 1, système 2 ça vient d’un prix Nobel en économie. Il y a énormément de travaux qui sont faits pour mieux comprendre nos biais cognitifs et pourquoi on va réagir d’une certaine manière ou pas, pourquoi aussi on anthropomorphise ces machines.
Le quatrième sujet c’est l’innovation et la commercialisation, c’est-à-dire, en fait, toutes les règles de vérification des objets qu’on met trop vite en ce moment sur le marché, parce que le temps des startups n’est pas le temps du juridique. Et heureusement qu’il y a l’éthique en avant-scène, avant le juridique, pour essayer justement d’expérimenter, de comprendre de voir où sont le lignes rouges à mettre. Et je pense que c’est quelque chose de très positif de penser qu’on arrive à mettre différents ensemble pays pour discuter de ces sujets. J’espère qu’on avancera dans cette recherche pour éviter effectivement toutes ces croyances un peu bigarrées qu’on voit partout.
Mais j‘adore Asimov par ailleurs.

Philippe Mabille : Il faudrait concilier la Silicon Valley et Hollywood ! D’accord.

Laurence Devillers : Non !

38’43

Serge Tisseron : Tout ça est effectivement très positif.