Intelligence artificielle : des robots et des hommes

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Intelligence artificielle : des robots et des hommes

Intervenant·e·s : Laurence Devillers - Mohamed Kaci - Sophie Goldstein

Lieu : Émission Grand angle - TV5Monde

Date : 15 décembre 2022

Durée : 10 min 32

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Mohamed Kaci: Ce n'est pas de la science-fiction. Une femme-robot a pris la tête d'une entreprise chinoise récemment. La police de San Francisco, elle, rêve d'avoir des robots-tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes?
On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5Monde.
Laurence Devillers: Bonsoir.
Mohamed Kaci: Vous êtes professeure en intelligence artificielle à la Sorbonne- Université, chercheuse au CNRS et à Paris-Saclay. Votre livre Les robots « émotionnels ». Santé, surveillance, sexualité...: et l'éthique dans tout ça? aux éditions L'Observatoire.

Alors, une première question pour commencer, avant de voir quelques exemples que l'on a compilé en termes de robotisation. La figure du robot est omniprésente, ce n'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que représente au fond selon vous, cette figure même du robot?

Laurence Devillers: Il y a deux grands axes dedans puisque l'on a tendance à appeler «robot» tout ce qui est automatique. C'est avec des modules d'IA (Intelligence Artificielle, ndlr) qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole. C'est à la fois, la façon de parler et d'apprendre comme nous, ou pas comme nous d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas.

Mohamed Kaci: Ça c'est l'humanoïde?

Laurence Devillers: Ça c'est l'humanoïde, le robot physique. Mais ça peut aussi être votre aspirateur. Il a une forme d'objet et il se déplace tout seul.

Mohamed Kaci: C'est intéressant que vous disiez aspirateur parce que pour le commun des mortels, quand on dit robotisation, on a l'image du progrès ?

Laurence Devillers: Ah mais c'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il n'est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome quelque part, il a un certain niveau d'autonomie.

Mohamed Kaci: Alors je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques s'il on peut dire. C'est compilé par Sophie Goldstein, regardez.

Sophie Goldstein (en voix off) : C'est un rire délicat que l'université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit depuis décembre [2022]. «Un rire à propos», souligne ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle.
«Est-ce difficile pour vous de comprendre l'humour humain?, l'interroge ce journaliste allemand.

-Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plaisanterie mais il y a aussi le rire social: à chaque instant, je dois décider si je dois rire avec les autres ou non, répond Erica.»
-L'ingénieur informaticien au cœur de ce rire, engage à son tour la conversation:
«Au mondial de football, le Japon a battu l'Allemagne.
(Rire d'Erica)».
Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé. Les victoires modestes : très politiquement correct.
Dans son travail , l'ingénieur a étudié, répertorié et stocké des centaines de rires en s'appuyant sur des mises en situation réelle avec des étudiants.

Et pourquoi pas une intelligence artificielle à la tête d'une entreprise? A Hong-Kong, le pas a été franchi? NetDragon annonçait en aout dernier [2022]la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales.


Tang Yu présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage: Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines.

Robots toujours plus humains, toujours plus compétents, jusqu'à quel point? Dans quels objectifs? A quel prix? Et avec quels gardes-fous?


Mohamed Kaci: Votre réaction Laurence Devillers? Sophie dit "avec quels gardes-fous?" C'est une des grandes questions?

Laurence Devillers: C'est la question majeure. En réalité, c'est l'évaluation. Puisqu'en fait on nous tient les propos sur les performances et les possibilités de ces machines mais jamais on nous parle d'évaluation. L'évaluation c'est de savoir jusqu'à quel niveau de performances vont ces machines? Si elles sont toujours robustes ou est-ce-que par hasard, de temps en temps, cela marche et de temps en temps cela ne marche pas?

On voit bien ce sujet abcès mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Mais moi ce que je voudrais avant tout c'est que l'on raisonne de façon raisonnable, qu'on évalue correctement les (????) (4min30)

Mohamed Kaci: Alors là y a deux choses, il y a l'aspect éthique/philosophique et il y a l'aspect auquel on va revenir et que vous venez d'évoquer, c'est celui de la surestimation de l'IA. On surestime selon vous l'intelligence artificielle. Vous dites que la science-fiction fait miroiter - c'est pas nouveau, depuis Blade runner il y a maintenant quarante ans - qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a?

Laurence Devillers: C'est assez paradoxal. On a l'impression qu'elle va venir nous envahir et que c'est une intelligence surhumaine mais qui a des intentions malsaines alors qu'on devrait se méfier d'autres choses. On devrait se méfier de la manipulation des humains grâce à ces IA.

Mohamed Kaci: Oui, c'est plutôt l'utilisation.

Laurence Devillers: On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle n'a pas d'intention, elle n'a pas de plan de carrière, elle n'a pas de besoins économiques, elle n'a pas besoin de manger. Elle n'a besoin de rien du tout.

Mohamed Kaci: Quand en Chine, une femme-robot prend la tête d'une entreprise - et pas des moindres puisque c'est très sérieux, c'est l'entreprise NetDragon Websoft qui est en quand même un fleuron du jeu-vidéo - vous nous dites pourquoi pas, mais cela dépend des projets que l'on va lui faire faire ?

Laurence Devillers: C'est surtout la question de savoir qui sera responsable. Pour l'instant, il n'est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés ... (????) (5min48)

Mohamed Kaci: Tiens c'est vrai ça, si l'entreprise fait faillite, qui est responsable?

Laurence Devillers: Il faut se demander cela. Quand on est chef d'entreprise on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment? Et c'est là qu'il faut aller regarder en quoi elle n'est en fait une espèce de marionnette pour des entités derrières qui pilotent.

Mohamed Kaci: La question de la responsabilité se pose aussi pour les voitures automatiques, c'est ça?

Laurence Devillers: Elle se pose aussi pour les voitures automatiques. La voiture autonome est un sujet un peu différent.

Mohamed Kaci: Parce qu'il y a de l'IA?

Laurence Devillers: Parce qu'il y a de l'IA. Mais elle ne va pas juger. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, la voiture autonome, si elle était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que c'est mieux que la conduite humaine. Il y aurait moins d'accidents.

Mohamed Kaci: Quel exemple vous a le plus choqué? On entend aussi parler de licenciement, et pas qu'un peu, des milliers de licenciements dans une entreprise à cause de l'intelligence artificielle. Est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre?

Laurence Devillers: Sur les mésusages?

Mohamed Kaci: Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général? Par exemple, la suppression de métiers, de pans entiers de métiers par de robots.

Laurence Devillers: On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On a créé des objets pour nous. Donc, il faut absolument qu'il y ait retour sur investissement sur ces choses là. Que ce ne soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs n'auront plus le même travail parce que des machines les auront remplacer. Cela a déjà existé par le passé donc on peut en tirer des leçons. Il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Donc je pense que c'est un sujet à part, sur le travail et le remplacement. Et d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.

Et donc le problème de responsabilité, le problème de garde-fou, le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble.

Mohamed Kaci: Chat-GPT n'était dans les exemples que l'on a vu mais ça y ressemble quand même drôlement, non? C'est encore différent?

Laurence Devillers: Oui, c'est encore différent.

Mohamed Kaci: Alors expliquez nous. C'est un site internet, qui cartonne depuis deux semaines. L'idée c'est d'avoir en face de soi une intelligence artificielle humaine si on peut l'appeler comme ça?

Laurence Devillers: Pas du tout.

Mohamed Kaci: C'est quoi?

Laurence Devillers: Sur Google vous cherchez des informations, cela vous renvoie un ranking avec des informations existantes sur internet. Ce système là s'est nourri de toutes les informations internet mais aussi de nos interactions avec lui. En ce moment c'est ouvert pour que tout le monde l'utilise et pour que le système puisse collecter des données. Les industriels qui sont derrière, OpenAI, qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing pour qu'on l'utilise aussi. Ce n'est pas mal de le tester...

Mohamed Kaci: Mais on peut demander des tâches, on peut dire "rédige-moi un reportage sur l'IA ...?"

Laurence Devillers: Un étudiant peut lui demander de faire un devoir.

Mohamed Kaci: C'est assez bluffant paraît-il.

Laurence Devillers: C'est assez bluffant. Je l'ai essayé, c'est très bluffant.

Mohamed Kaci: Cependant, attention aux mauvaise surprises. Vous disiez que l'outil se base sur le nombre de données et pas sur leur qualités.

Laurence Devillers: Exactement.

Mohamed Kaci: Par exemple, un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, le ChatGPT répondra que l'extincteur - qui est rouge- est meilleur.

Laurence Devillers: Non, je pense que c'est une erreur qu'il ne fera pas non.

Mohamed Kaci: Pourquoi ne la fera-t-il pas? Potentiellement c'est possible?

Laurence Devillers: C'est trop grossier, c'est caricatural. Mais je pense que les fake news, les discours qui sont sur internet - c'est pour cela que l'on parle d'éthique - à condition que personne ne les ait vérifié, pourraient être utilisées pour entraîner le système. Il peut très bien recracher cela à un moment donnée.

Mais ils ont fait quelque chose d'intelligent, ils ont mis des filtres derrière les systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Ce sont des systèmes qu'on appelle des Transformed générateur de textes (?). A l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, des filtres pour éliminer tout ce qui est propos sexuels, non politiquement corrects. On ne peut pas demander par exemple à la machine la recette pour faire une bombe. Elle refusera et dira que ce propos là, je ne sui pas ... (????) (10min 11).

Mohamed Kaci: Oui, il y a des filtres.

Laurence Devillers: Par contre, si vous lui demander d'écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Il n'y a pas d'intelligence derrière.

Mohamed Kaci: Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre "Les robots "émotionnels". Santé, surveillance, sexualité...: et l’éthique dans tout ça? Et notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. (10min30) Merci à vous.

Laurence Devillers: Merci.