Intelligence artificielle : des robots et des hommes
Titre : Intelligence artificielle : des robots et des hommes
Intervenant·e·s : Laurence Devillers - Mohamed Kaci - Sophie Goldstein
Lieu : Émission Grand angle - TV5Monde
Date : 15 décembre 2022
Durée : 10 min 32
[URL vidéo Vidéo] https://www.youtube.com/watch?app=desktop&v=hnNW5yJefL8&feature=youtu.be
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Mohamed Kaci : Ce n'est pas de la science-fiction, une femme-robot a pris la tête d'une entreprise chinoise récemment. La police de San Francisco elle, rêve d'avoir des robots-tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle? Quelle problématique pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes?
On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5Monde.
Laurence Devillers: Bonsoir.
Mohamed Kaci: Vous êtes professeure en intelligence artificielle à la Sorbonne- Université, chercheuse au CNRS et à Paris-Saclay. Votre livre "Les robots "émotionnels". Santé, surveillance, sexualité...: et l'éthique dans tout ça? aux éditions L'Observatoire.
Alors, une première question pour commencer, avant de voir quelques exemples que l'on a compilé en termes de robotisation.
La figure du robot elle est omniprésente, c'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que ça représente au fond selon vous, cette figure même du robot?
Laurence Devillers: Il y a deux grands axes dedans puisqu'en fait, on a tendance à appeler "robot" tout ce qui est automatique. C'est avec des modules d'IA qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole.
A la fois la façon de parler et d'apprendre comme nous ou pas comme nous d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas.
Mohamed Kaci: Ça c'est l'humanoïde?
Laurence Devillers: Ça c'est l'humanoïde, le robot physique. Mais ça peut aussi être votre aspirateur: il a une forme d'objet et il se déplace tout seul.
Mohamed Kaci: C'est intéressant que vous disiez aspirateur parce que pour le commun des mortels, quand on dit robotisation, on a l'image du progrès ?
Laurence Devillers: Ah mais c'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome quelque part, il a un certain niveau d'autonomie.
Mohamed Kaci: Alors je vous le disais, on a rassemblé quelques exemples des dernières innovations robotiques s'il on peut dire. C'est compilé par Sophie Goldstein, regardez.
Sophie Goldstein (en voix off) : C'est un rire délicat que l'université de Kyoto a mise trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit décembre (2022 ??). "Un rire à propos", souligne ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle. (Sophie Goldstein) (2minutes 12)
"Est-ce difficile pour vous de comprendre l'humour humain?, l'interroge ce journaliste allemand. (Sophie Goldstein)
-Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plasanterie mais il y a aussi le rire social: à chaque instant, je dois décider si je dois rire avec les autres ou non. (Erica)" (Sophie Goldstein)
-L'ingénieur informaticien au coeur de ce rire, engage à son tour la conversation:
"Au mondial de football, le Japon a battu l'Allemagne. (l'ingénieur informaticien )
(Rire d'Erica)"
Sophie Goldstein (en voix off) : Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé. Les victoires modestes : ou . ou , (????) Très politiquement correct. (2min 48).
Dans son travail , l'ingénieur a étudié, répertorié et stocké des centaines de rires en s'appuyant sur des mises en situation réelle avec des étudiants.
Et pourquoi pas une intelligence artificielle à la tête d'une entreprise? A Hong-Kong, le pas a été franchi? Net Dragon annonçait en aout dernier (2022) la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales.
Tang Yu présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage: Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines.
Robots toujours plus humains, toujours plus compétents, jusqu'à quel point? Dans quels objectifs? A quel prix? Et avec quels gardes-fous?
Mohamed Kaci: Votre réaction Laurence Devillers? Sophie dit "avec quels gardes-fous?" C'est une des grandes questions?
Laurence Devillers: C'est LA question majeure. En fait, c'est l'évaluation. Puisqu'en fait on nous tient les propos sur les performances et les possibilités de ces machines mais jamais on nous parle d'évaluation. L'évaluation c'est : jusqu'à quel niveau de performances vont ces machines? Si elles sont toujours robustes ou est-ce-que par hasard de temps en temps ça marche et de temps en temps ça marche pas? Donc on voit bien ce sujet abcès mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Mais moi ce que je voudrais avant tout c'est qu'on raisonne de façon raisonnable, qu'in évalue correctement les (????) coupé (4min30)
Mohamed Kaci: Alors là y a deux choses, il y a l'aspect éthique/philosophique et il y a l'aspect auquel on va revenir et que vous venez d'évoquer, c'est celui de la surestimation de l'IA. On surestime selon vous l'IA, vous dites que la science-fiction fait miroiter, c'est pas nouveau, depuis Blade runner il y a maintenant 40ans, qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a?
Laurence Devillers: C'est assez paradoxal: on a l'impression qu'elle va venir nous envahir et que c'est une intelligence surhumaine mais qui a des intentions malsaines alors qu'on devrait se méfier d'autres choses. On devrait se méfier de la manipulation des humains grâce à ces IA.
Mohamed Kaci: Oui, c'est plutôt l'utilisation.
Laurence Devillers: On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle a pas d'intention, elle a pas de plan de carrière, elle a pas de besoins économiques, elle a pas besoin de manger, elle a besoin de rien du tout.
Mohamed Kaci: Donc quand en Chine, une femme-robot prend la tête d'une entreprise, et pas des moindres puisque c'est très sérieux, c'est l'entreprise net Dragon Websoft qui est en quand même un fleuron du jeu-vidéo; vous nous dites pourquoi pas mais ça dépend quels projets on va lui faire faire à ce robot?
Laurence Devillers: C'est surtout en fait, qui va être responsable? Pour l'instant, il est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés ... (coupé) (5min48)
Mohamed Kaci: Tiens c'est vrai ça, si l'entreprise fait faillite, qui est responsable?
Laurence Devillers: Et bien il faut se demander cela. Quand on est chef d'entreprise on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment? Et c'est là qu'il faut aller regarder en quoi elle est en fait une espèce de marionnette pour des entités derrières qui pilotent.
Mohamed Kaci: La question de la responsabilité, vous dites pilote (???), elle se pose aussi pour les voitures automatiques, c'est ça?
Laurence Devillers: Elle se pose aussi pour les voitures automatiques. C'est un sujet un peu différent la voiture autonome.
Mohamed Kaci: Parce qu'il y a de l'IA?
Laurence Devillers: Parce qu'il y a de l'IA. Mais elle va pas juger. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, la voiture autonome, si elle était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que c'est mieux que la conduite humaine. Il y aurait moins d'accidents.
Mohamed Kaci: Quel exemple vous a le plus choqué? On entend aussi parler de licenciement, et pas qu'un peu, des milliers de licenciements dans une entreprise à cause de l'intelligence artificielle. Vous est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre?
Laurence Devillers: Sur les mésusages?
Mohamed Kaci: Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général, par exemple c'est la suppression de métiers, de pans entiers de métiers par de robots?
Laurence Devillers: On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On a créé des objets pour nous. Donc, il faut absolument qu'il y ait retour sur investissement sur ces choses là, c'est-à-dire que ce soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs vont plus avoir le même travail parce que des machines vont le remplacer. Ca a déjà existé par le passé donc on peut en tirer des leçons. Il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Donc je pense que c'est un sujet à part, sur le travail et le remplacement. Et d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.
Et donc le problème de responsabilité, le problème de garde-fou; le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble.
Mohamed Kaci: Chat-GPT c'était pas ce qu'on a vu mais ça y ressemble quand même drôlement, non? C'est encore différent?
Laurence Devillers: Oui, c'est encore différent.
Mohamed Kaci: Alors expliquez nous. C'est un site internet, qui cartonne depuis deux semaines. L'idée c'est d'avoir en face de soi une intelligence artificielle humaine si on peut l'appeler comme ça?
Laurence Devillers: Pas du tout.
Mohamed Kaci: C'est quoi?
Laurence Devillers: Sur Google vous cherchez des informations, ça vous renvoi un ranking avec des informations existantes sur internet. La ce système s'est nourri de toutes les informations internet mais aussi de nos interactions avec lui; parce qu'en ce moment c'est ouvert pour que tout le monde l'utilise mais aussi pour collecter des données. Donc les industriels qui sont derrière, donc OpenAI qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing pour qu'on l'utilise aussi.
Alors c'est pas mal de le tester...
Mohamed Kaci: Mais on peut demander des tâches, on peut dire "rédige-moi un reportage sur l'IA ..."
Laurence Devillers: On peut demander :"fais moi mon devoir" pour un étudiant.
Mohamed Kaci: C'est assez bluffant paraît-il.
Laurence Devillers: C'est assez bluffant, moi je l'ai essayé, c'est très bluffant.
Mohamed Kaci: Par contre, attention aux mauvaise surprises parce que vous disiez que l'outil se base sur le nombre de données et pas sur leur qualités.
Laurence Devillers: Exactement.
Mohamed Kaci: Exemple: un de vos confrères dit :" si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, le ChatGPT répondra l'extincteur qui est rouge.
Laurence Devillers: Non, la je pense que c'est une erreur qu'il fera pas non.
Mohamed Kaci: Pourquoi il ne la fera pas? Mais potentiellement c'est possible?
Laurence Devillers: C'est trop grossier, c'est caricatural. Mais je pense que les fake news, les discours qui sont sur internet si personne n'a vérifié ; c'est pour ça qu'on parle d'éthique; si personne n'a vérifié que les données qui ont été utilisées pour entraîner le système, il peut très bien recraché cela à un moment donnée.
Alors ce qu'ils ont fait d'intelligent, c'est qu'ils ont mis des filtres derrière le systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Donc ces systèmes qu'on appelle des Transformed générateur de textes (Transformed text generators ?), à l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, c'est de mettre des filtres pour éliminer tout ce qui est propos sexuels, non politiquement corrects. On peut pas demander par exemple à la machine " Donne moi une recette pour faire une bombe". Elle va dire: "non, ce propos là, je ne sui pas ... (coupé) (10min 11).
Mohamed Kaci: Oui, il y a des filtres.
Laurence Devillers: Par contre, si vous lui dites "faites-moi un texte de science-fiction parlant de cela" elle va pouvoir donner la recette. Donc il n'y a pas d'intelligence derrière.
Mohamed Kaci: Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre "Les robots "émotionnels". Santé, surveillance, sexualité...: et l'éthique dans tout ça? Et notamment sur le sujet de la normalisation en Europe pour(???) laquelle vous travaillez. Merci à vous.
Laurence Devillers: Merci.