Intelligence artificielle : des robots et des hommes
Titre : Intelligence artificielle : des robots et des hommes
Intervenant·e·s : Laurence Devillers - Mohamed Kaci - Sophie Goldstein
Lieu : Émission Grand angle - TV5Monde
Date : 15 décembre 2022
Durée : 10 min 32
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Mohamed Kaci : Ce n'est pas de la science-fiction. Une femme robot a pris récemment la tête d'une entreprise chinoise. La police de San Francisco, elle, rêve d'avoir des robots tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle ? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes ? On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5MONDE.
Laurence Devillers : Bonsoir.
Mohamed Kaci : Vous êtes professeure en intelligence artificielle à Sorbonne-Université, chercheuse au CNRS et à Paris-Saclay. Votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ? aux éditions L'Observatoire.
Une première question pour commencer, avant de voir quelques exemples que l'on a compilés en termes de robotisation. La figure du robot est omniprésente, ce n'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que représente au fond selon vous, cette figure même du robot ?
Laurence Devillers : Il y a deux grands axes dedans puisqu'on a tendance à appeler robot tout ce qui est automatique, avec des modules d'IA qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole. Pourquoi j'ai dit deux choses ? Parce que c'est à la fois la façon de parler et la façon d'apprendre comme nous, ou pas comme nous, d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas.
Mohamed Kaci : C'est l'humanoïde ?
Laurence Devillers : C'est l'humanoïde, le robot physique, mais ça peut aussi être votre aspirateur : il a une forme d'objet et il se déplace tout seul.
Mohamed Kaci : C'est intéressant que vous disiez aspirateur parce que, pour le commun des mortels, quand on dit robotisation, on a l'image du progrès.
Laurence Devillers : C'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il n'est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome ,quelque part, il a un certain niveau d'autonomie.
Mohamed Kaci : Je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques, si l'on peut dire. C'est compilé par Sophie Goldstein. Regardez.
Sophie Goldstein, voix off : C'est un rire délicat que l'université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit depuis décembre 2022. « Un rire à propos », soulignent ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle.
« Est-ce difficile pour vous de comprendre l'humour humain ?", l'interroge ce journaliste allemand. « Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plaisanterie mais il y a aussi le rire social : à chaque instant, je dois décider si je ris avec les autres ou non », répond Erica.» L'ingénieur informaticien au cœur de ce rire, engage à son tour la conversation : « Au mondial de football, le Japon a battu l'Allemagne ». Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé ; les victoires modestes, très politiquement correct. Dans son travail, l'ingénieur a étudié, répertorié et stocké des centaines de rires s'appuyant sur des mises en situation réelle avec des étudiants.
Et pourquoi pas une intelligence artificielle à la tête d'une entreprise ? A Hong-Kong, le pas a été franchi. NetDragon annonçait en août dernier, 2022, la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales, Tang Yu, présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage : Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines.
Robots toujours plus humains, toujours plus compétents, jusqu'à quel point ? Dans quels objectifs ? A quel prix? Et avec quels garde-fous ?
Mohamed Kaci : Votre réaction Laurence Devillers ? Sophie dit « avec quels garde-fous ? » C'est une des grandes questions ?
Laurence Devillers : C'est la question majeure, en fait c'est l'évaluation. On nous tient des propos sur les performances et les possibilités de ces machines mais jamais on ne nous parle d'évaluation. L'évaluation c'est jusqu'à quel niveau de performances vont ces machines : est-ce qu'elles sont toujours robustes ou est-ce-que, par hasard, de temps en temps cela marche et de temps en temps cela ne marche pas ?
On voit très bien que ce sujet est mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Je voudrais avant tout qu'on raisonne de façon raisonnable, qu'on évalue correctement.
Mohamed Kaci :Il y a deux choses, il y a l'aspect, on va dire, éthique/philosophique et il y a l'aspect, on va y venir plus longuement, que vous venez d'évoquer : selon vous, on surestime l'intelligence artificielle ? Vous dites — et ce n'est pas nouveau, c'est depuis Blade Runner il y a maintenant 40 ans — que la science-fiction fait miroiter, qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a.
Laurence Devillers : C'est assez paradoxal. On a l'impression qu'elle va venir nous envahir, que c'est une intelligence surhumaine qui a des intentions malsaines, alors qu'on devrait se méfier d'autre chose : on devrait se méfier de la manipulation des humains grâce à ces IA.
Mohamed Kaci : C'est plutôt l'utilisation.
Laurence Devillers : On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle n'a pas d'intention, elle n'a pas de plan de carrière, elle n'a pas de besoins économiques, elle n'a pas besoin de manger. Elle n'a besoin de rien du tout de tout ça.
Mohamed Kaci : Quand en Chine, une femme robot prend la tête d'une entreprise, et pas des moindres puisque, je le disais tout à l'heure, c'est très sérieux, c'est l'entreprise NetDragon Websoft qui est en quand même un fleuron du jeu vidéo, vous nous dites pourquoi pas, cela dépend des projets qu'on va faire faire à ce robot.
Laurence Devillers : C'est surtout qui sera responsable. Pour l'instant, il n'est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés.
Mohamed Kaci : D'ailleurs c'est vrai, si l'entreprise fait faillite, qui est responsable ?
Laurence Devillers : Il faut se le demander. Quand on est chef d'entreprise, on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment ? Et c'est là qu'il faut aller regarder en quoi elle est, en fait, une espèce de marionnette pour les entités, derrière, qui pilotent.
Mohamed Kaci: Vous dites qui pilote. La question de la responsabilité se pose notamment aussi pour les voitures automatiques, c'est bien ça ?
Laurence Devillers : Elle se pose aussi pour les voitures automatiques. La voiture autonome est un sujet un peu différent.
Mohamed Kaci : Il y a de l'intelligence artificielle.
Laurence Devillers : Il y a de l'intelligence artificielle, mais elle ne va pas juger les directives. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, si la voiture autonome était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que ce serait mieux que la conduite humaine, il y aurait moins d'accidents.
Mohamed Kaci : Quel exemple vous a le plus choqué ? On entend aussi parler de licenciements, et pas qu'un peu, des milliers de licenciements dans une entreprise grâce, plutôt à cause de l'intelligence artificielle. Est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre ?
Laurence Devillers : Sur les mésusages ?
Mohamed Kaci : Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général ? Par exemple, la suppression de métiers, de pans entiers de métiers par des robots.
Laurence Devillers : On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On crée des objets pour nous, il faut donc qu'il y ait absolument un retour sur investissement sur ces choses là, que ce ne soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs n'auront plus le même travail parce que des machines les auront remplacés. Cela a déjà existé par le passé, donc on peut en tirer des leçons, il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Je pense que le travail et le remplacement est un sujet à part, d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.
Le problème de responsabilité, le problème de garde-fous, le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble.
Mohamed Kaci : ChatGPT[1] ce n'était ce qu'on a vu dans les images, mais ça y ressemble quand même drôlement. C'est encore différent. Expliquez-nous. C'est un site internet, qui cartonne on va dire depuis deux semaines. L'idée c'est d'avoir en face de soi une « intelligence artificielle humaine », entre guillemets, si on veut l'appeler comme ça.
Laurence Devillers : Pas du tout.
Mohamed Kaci : C'est quoi ?
Laurence Devillers: Sur Google vous cherchez des informations, cela vous renvoie à un ranking avec des informations existant sur Internet.
Ce système-là s'est nourri de toutes les informations internet plus de nos interactions avec lui : en ce moment, c'est ouvert pour que tout le monde l'utilise et aussi pour collecter des données. Les industriels qui sont derrière, OpenAI, qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing aussi pour qu'on l'utilise. Ce n'est pas mal de le tester.
Mohamed Kaci : On peut demander des tâches, on peut dire « rédige-moi un reportage sur l'IA ».
Laurence Devillers : Un étudiant peut lui demander « fais mon devoir », le professeur « corrige mes copies ».
Mohamed Kaci : C'est assez bluffant paraît-il. Je ne l'ai pas essayé.
Laurence Devillers : C'est assez bluffant. Je l'ai essayé, c'est très bluffant.
Mohamed Kaci : par contre, pardonnez-moi de vous couper, attention aux mauvaise surprises. Vous disiez que l'outil se base sur le nombre de données et pas sur leurs qualités.
Laurence Devillers : Exactement.
Mohamed Kaci : Un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, ChatGPT répondra l'extincteur qui est rouge. C'est un cas tiré par les cheveux ?
Laurence Devillers: Non, je pense que c'est une erreur qu'il ne fera pas.
Mohamed Kaci : Pourquoi ne la fera-t-il pas ? Potentiellement c'est possible.
Laurence Devillers : C'est trop grossier, c'est caricatural. Mais je pense que si personne n'a vérifié les fake news, les discours qui sont sur Internet, qui pourraient être utilisés pour entraîner le système, il peut très bien recracher cela à un moment donné, c'est pour cela que l'on parle d'éthique.
Ce qu'ils ont fait d'intelligent, c'est qu'ils ont mis des filtres derrière les systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Ce sont des systèmes qu'on appelle des générateurs de textes. A l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, des filtres pour éliminer tout ce qui est propos sexuel, non politiquement correct. Par exemple, on ne peut pas demander à la machine « donne-moi une recette pour faire une bombe ». Elle refusera avec ce propos-là. Par contre, si vous lui demandez d'écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Donc il n'y a pas d'intelligence derrière.
Mohamed Kaci : Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ?, notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. Merci à vous.
Laurence Devillers : Merci.