« Intelligence artificielle : des robots et des hommes » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Aucun résumé des modifications
Ligne 22 : Ligne 22 :
== Transcription==
== Transcription==


<b>Mohamed Kaci: </b>Ce n'est pas de la science-fiction. Une femme-robot a pris la tête d'une entreprise chinoise récemment. La police de San Francisco, elle, rêve d'avoir des robots-tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes? <br/>
<b>Mohamed Kaci : </b>Ce n'est pas de la science-fiction. Une femme robot a pris récemment la tête d'une entreprise chinoise. La police de San Francisco, elle, rêve d'avoir des robots tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle ? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes ? On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5MONDE.
On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5Monde. <br/>
<b>Laurence  Devillers: </b>Bonsoir. <br/>
<b>Mohamed Kaci: </b>Vous êtes professeure en intelligence artificielle à la Sorbonne- Université, chercheuse au CNRS et à Paris-Saclay. Votre livre Les robots « émotionnels ». Santé, surveillance, sexualité...: et l'éthique dans tout ça? aux éditions L'Observatoire.<br/>


Alors, une première question pour commencer, avant de voir quelques exemples que l'on a compilé en termes de robotisation. La figure du robot est omniprésente, ce n'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que représente au fond selon vous, cette figure même du robot? <br/>
<b>Laurence  Devillers : </b>Bonsoir.


<b>Laurence  Devillers: </b> Il y a deux grands axes dedans puisque l'on a tendance à appeler «robot» tout ce qui est automatique. C'est avec des modules d'IA (Intelligence Artificielle, ndlr) qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole. C'est à la fois, la façon de parler et d'apprendre comme nous, ou pas comme nous d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas. <br/>
<b>Mohamed Kaci : </b>Vous êtes professeure en intelligence artificielle à Sorbonne-Université, chercheuse au CNRS et à Paris-Saclay. Votre livre <em>Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ?</em> aux éditions L'Observatoire.


<b>Mohamed Kaci: </b>Ça c'est l'humanoïde? <br/>
Une première question pour commencer, avant de voir quelques exemples que l'on a compilés en termes de robotisation. La figure du robot est omniprésente, ce n'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que représente au fond selon vous, cette figure même du robot ?


<b>Laurence  Devillers: </b>Ça c'est l'humanoïde, le robot physique. Mais ça peut aussi être votre aspirateur. Il a une forme d'objet et il se déplace tout seul. <br/>
<b>Laurence  Devillers : </b> Il y a deux grands axes dedans puisqu'on a tendance à appeler robot  tout ce qui est automatique, avec des modules d'IA qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole. Pourquoi j'ai dit deux choses ? Parce que c'est à la fois la façon de parler et la façon d'apprendre comme nous, ou pas comme nous, d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas.


<b>Mohamed Kaci: </b>C'est intéressant que vous disiez aspirateur parce que pour le commun des mortels, quand on dit robotisation, on a l'image du progrès ? <br/>
<b>Mohamed Kaci : </b>C'est l'humanoïde ?


<b>Laurence  Devillers: </b>Ah mais c'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il n'est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome quelque part, il a un certain niveau d'autonomie. <br/>
<b>Laurence  Devillers : </b>C'est l'humanoïde, le robot physique, mais ça peut aussi être votre aspirateur : il a une forme d'objet et il se déplace tout seul.


<b>Mohamed Kaci: </b>Alors je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques s'il on peut dire. C'est compilé par Sophie Goldstein, regardez. <br/>
<b>Mohamed Kaci : </b>C'est intéressant que vous disiez aspirateur parce que, pour le commun des mortels, quand on dit robotisation, on a l'image du progrès.


<b>Sophie Goldstein (en voix off) : </b>C'est un rire délicat que l'université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit depuis décembre [2022]. «Un rire à propos», souligne ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle. <br/>
<b>Laurence  Devillers : </b>C'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il n'est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome ,quelque part, il a un certain niveau d'autonomie.
«Est-ce difficile pour vous de comprendre l'humour humain?, l'interroge ce journaliste allemand. <br/>


-Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plaisanterie mais il y a aussi le rire social: à chaque instant, je dois décider si je dois rire avec les autres ou non, répond Erica.»<br/>
<b>Mohamed Kaci : </b>Je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques, si l'on peut dire. C'est compilé par Sophie Goldstein. Regardez.
-L'ingénieur informaticien au cœur de ce rire, engage à son tour la conversation: <br/>
«Au mondial de football, le Japon a battu l'Allemagne. <br/>
(Rire d'Erica)».<br/>
Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé. Les victoires modestes : très politiquement correct. <br/>
Dans son travail , l'ingénieur a étudié, répertorié et stocké des centaines de rires en s'appuyant sur des mises en situation réelle avec des étudiants. <br/>
<br/>


Et pourquoi pas une intelligence artificielle à la tête d'une entreprise? A Hong-Kong, le pas a été franchi? NetDragon annonçait en aout dernier [2022]la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales.  
<b>Sophie Goldstein, voix off : </b>C'est un rire délicat que l'université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes <em>made in Japan</em>. Elle parle depuis 2015 et rit depuis décembre 2022. « Un rire à propos », soulignent ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle.


« Est-ce difficile pour vous de comprendre l'humour humain ?", l'interroge ce journaliste allemand. « Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plaisanterie mais il y a aussi le rire social : à chaque instant, je dois décider si je ris avec les autres ou non », répond Erica.» L'ingénieur informaticien au cœur de ce rire, engage à son tour la conversation : « Au mondial de football, le Japon a battu l'Allemagne ». Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé ; les victoires modestes, très politiquement correct. Dans son travail, l'ingénieur a étudié, répertorié et stocké des centaines de rires s'appuyant sur des mises en situation réelle avec des étudiants.


Tang Yu présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage: Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines. <br/>
Et pourquoi pas une intelligence artificielle à la tête d'une entreprise ? A Hong-Kong, le pas a été franchi. NetDragon annonçait en août dernier, 2022, la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales, Tang Yu, présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage : Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines.


Robots toujours plus humains, toujours plus compétents, jusqu'à quel point? Dans quels objectifs? A quel prix? Et avec quels gardes-fous? <br/>
Robots toujours plus humains, toujours plus compétents, jusqu'à quel point ? Dans quels objectifs ? A quel prix? Et avec quels garde-fous ?


<b>Mohamed Kaci : </b>Votre réaction Laurence Devillers ?  Sophie dit « avec quels garde-fous ? » C'est une des grandes questions ?


<b>Mohamed Kaci: </b>Votre réaction Laurence Devillers?  Sophie dit "avec quels gardes-fous?" C'est une des grandes questions? <br/>
Laurence  Devillers : </b>C'est la question majeure, en fait c'est l'évaluation. On nous tient des propos sur les performances et les possibilités de ces machines mais jamais on ne nous parle d'évaluation. L'évaluation c'est jusqu'à quel niveau de performances vont ces machines : est-ce qu'elles sont toujours robustes ou est-ce-que, par hasard, de temps en temps cela marche et de temps en temps cela ne marche pas ?<br/>
On voit très bien que ce sujet est mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Je voudrais avant tout qu'on raisonne de façon raisonnable, qu'on évalue correctement.


Laurence  Devillers: </b>C'est la question majeure. En réalité, c'est l'évaluation. Puisqu'en fait on nous tient les propos sur les performances et les possibilités de ces machines mais jamais on nous parle d'évaluation. L'évaluation c'est de savoir jusqu'à quel niveau de performances vont ces machines? Si elles sont toujours robustes ou est-ce-que par hasard, de temps en temps, cela marche et de temps en temps cela ne marche pas? <br/>
<b>Mohamed Kaci :</b>Il y a deux choses, il y a l'aspect, on va dire, éthique/philosophique et il y a l'aspect, on va y venir plus longuement, que vous venez d'évoquer : selon vous, on surestime  l'intelligence artificielle ? Vous dites — et ce n'est pas nouveau, c'est depuis <em>Blade Runner</em> il y a maintenant  40 ans — que la science-fiction fait miroiter, qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a.


On voit bien ce sujet abcès mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Mais moi ce que je voudrais avant tout c'est que l'on raisonne de façon raisonnable, qu'on évalue correctement les (????) (4min30)<br/>
<b>Laurence  Devillers : </b>C'est assez paradoxal. On a l'impression qu'elle va venir nous envahir, que c'est une intelligence surhumaine qui a des intentions malsaines, alors qu'on devrait se méfier d'autre chose : on devrait se méfier de la manipulation des humains grâce à ces IA.


<b>Mohamed Kaci:</b> Alors là y a deux choses, il y a l'aspect éthique/philosophique et il y a l'aspect auquel on va revenir et que vous venez d'évoquer, c'est celui de la surestimation de l'IA. On surestime selon vous l'intelligence artificielle. Vous dites que la science-fiction fait miroiter - c'est pas nouveau, depuis Blade runner il y a maintenant  quarante ans - qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a? <br/>
<b>Mohamed Kaci : </b>C'est plutôt l'utilisation.


<b>Laurence  Devillers: </b>C'est assez paradoxal. On a l'impression qu'elle va venir nous envahir et que c'est une intelligence surhumaine mais qui a des intentions malsaines alors qu'on devrait se méfier d'autres choses. On devrait se méfier de la manipulation des humains grâce à ces IA. <br/>
<b>Laurence  Devillers : </b>On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle n'a pas d'intention, elle n'a pas de plan de carrière, elle n'a pas de besoins économiques, elle n'a pas besoin de manger. Elle n'a besoin de rien du tout de tout ça.


<b>Mohamed Kaci: </b>Oui, c'est plutôt l'utilisation. <br/>
<b>Mohamed Kaci : </b>Quand en Chine, une femme robot prend la tête d'une entreprise, et pas des moindres puisque, je le disais tout à l'heure, c'est très sérieux, c'est l'entreprise NetDragon Websoft qui est en quand même un fleuron du jeu vidéo, vous nous dites pourquoi pas, cela dépend des projets qu'on va faire faire à ce robot.


<b>Laurence  Devillers: </b>On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle n'a pas d'intention, elle n'a pas de plan de carrière, elle n'a pas de besoins économiques, elle n'a pas besoin de manger. Elle n'a besoin de rien du tout. <br/>
<b>Laurence  Devillers : </b>C'est surtout qui sera responsable. Pour l'instant, il n'est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés.


<b>Mohamed Kaci: </b>Quand en Chine, une femme-robot prend la tête d'une entreprise - et pas des moindres puisque c'est très sérieux, c'est l'entreprise NetDragon Websoft qui est en quand même un fleuron du jeu-vidéo - vous nous dites pourquoi pas, mais cela dépend des projets que l'on va lui faire faire ? <br/>
<b>Mohamed Kaci : </b>D'ailleurs c'est vrai, si l'entreprise fait faillite, qui est responsable ?  


<b>Laurence  Devillers: </b>C'est surtout la question de savoir qui sera responsable. Pour l'instant, il n'est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés ... (????) (5min48) <br/>
<b>Laurence  Devillers : </b>Il faut se le demander. Quand on est chef d'entreprise, on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment ? Et c'est là qu'il faut aller regarder en quoi elle est, en fait, une espèce de marionnette pour les entités, derrière, qui pilotent.


<b>Mohamed Kaci: </b>Tiens c'est vrai ça, si l'entreprise fait faillite, qui est responsable? <br/>
<b>Mohamed Kaci: </b>Vous dites qui pilote. La question de la responsabilité se pose notamment aussi pour les voitures automatiques, c'est bien ça ?


<b>Laurence  Devillers: </b>Il faut se demander cela. Quand on est chef d'entreprise on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment? Et c'est là qu'il faut aller regarder en quoi elle n'est en fait une espèce de marionnette pour des entités derrières qui pilotent. <br/>
<b>Laurence  Devillers : </b>Elle se pose aussi pour les voitures automatiques. La voiture autonome est un sujet un peu différent.


<b>Mohamed Kaci: </b>La question de la responsabilité se pose aussi pour les voitures automatiques, c'est ça? <br/>
<b>Mohamed Kaci : </b>Il y a de l'intelligence artificielle.


<b>Laurence  Devillers: </b>Elle se pose aussi pour les voitures automatiques. La voiture autonome est un sujet un peu différent.<br/>
<b>Laurence  Devillers : </b>Il y a de l'intelligence artificielle, mais elle ne va pas juger les directives. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, si la voiture autonome était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que ce serait mieux que la conduite humaine, il y aurait moins d'accidents.<br/>


<b>Mohamed Kaci: </b>Parce qu'il y a de l'IA? <br/>
<b>Mohamed Kaci : </b>Quel exemple vous a le plus choqué ? On entend aussi parler de licenciements, et pas qu'un peu, des milliers de licenciements dans une entreprise grâce, plutôt à cause de l'intelligence artificielle. Est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre ?


<b>Laurence  Devillers: </b>Parce qu'il y a de l'IA. Mais elle ne va pas juger. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, la voiture autonome, si elle était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que c'est mieux que la conduite humaine. Il y aurait moins d'accidents.<br/>
<b>Laurence  Devillers : </b>Sur les mésusages ?


<b>Mohamed Kaci: </b>Quel exemple vous a le plus choqué? On entend aussi parler de licenciement, et pas qu'un peu, des milliers de licenciements dans une entreprise à cause de l'intelligence artificielle. Est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre? <br/>
<b>Mohamed Kaci : </b>Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général ? Par exemple, la suppression de métiers, de pans entiers de métiers par des robots.


<b>Laurence  Devillers: </b>Sur les mésusages?<br/>
<b>Laurence  Devillers : </b>On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On crée des objets pour nous, il faut donc qu'il y ait absolument un retour sur investissement sur ces choses là, que ce ne soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs n'auront plus le même travail parce que des machines les auront remplacés. Cela a déjà existé par le passé, donc on peut en tirer des leçons, il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Je pense que  le travail et le remplacement est un sujet à part, d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.<br/>
Le problème de responsabilité, le problème de garde-fous, le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble.


<b>Mohamed Kaci: </b>Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général? Par exemple, la suppression de métiers, de pans entiers de métiers par de robots. <br/>
<b>Mohamed Kaci : </b>ChatGPT<ref>[https://fr.wikipedia.org/wiki/ChatGPT ChatGPT]</ref> ce n'était ce qu'on a vu dans les images, mais ça y ressemble quand même drôlement. C'est encore différent. Expliquez-nous. C'est un site internet, qui cartonne on va dire depuis deux semaines. L'idée c'est d'avoir en face de soi une « intelligence artificielle humaine », entre guillemets, si on veut l'appeler comme ça.


<b>Laurence  Devillers: </b>On a toujours cherché  à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On a créé des objets pour nous. Donc, il faut absolument qu'il y ait retour sur investissement sur ces choses là. Que ce ne soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs n'auront plus le même travail parce que des machines les auront remplacer. Cela a déjà existé par le passé donc on peut en tirer des leçons. Il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Donc je pense que c'est un sujet à part, sur le travail et le remplacement. Et d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.<br/>
<b>Laurence  Devillers : </b>Pas du tout.


Et donc le problème de responsabilité, le problème de garde-fou, le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble. <br/>
<b>Mohamed Kaci : </b>C'est quoi ?


<b>Mohamed Kaci: </b>Chat-GPT n'était dans les exemples que l'on a vu mais ça y ressemble quand même drôlement, non? C'est encore différent?  <br/>
<b>Laurence  Devillers: </b>Sur Google vous cherchez des informations, cela vous renvoie à un ranking avec des informations existant sur Internet.<br/>
Ce système-là s'est nourri de toutes les informations internet plus de nos interactions avec lui :  en ce moment, c'est ouvert pour que tout le monde l'utilise et aussi pour collecter des données. Les industriels qui sont derrière, OpenAI, qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing aussi pour qu'on l'utilise. Ce n'est pas mal de le tester.


<b>Laurence  Devillers: </b>Oui, c'est encore différent.<br/>
<b>Mohamed Kaci : </b>On peut demander des tâches, on peut dire « rédige-moi un reportage sur l'IA  ».


<b>Mohamed Kaci: </b>Alors expliquez nous. C'est un site internet, qui cartonne depuis deux semaines. L'idée c'est d'avoir en face de soi une intelligence artificielle humaine si on peut l'appeler comme ça? <br/>
<b>Laurence  Devillers : </b>Un étudiant peut lui demander « fais mon devoir », le professeur « corrige mes copies ».


<b>Laurence  Devillers: </b>Pas du tout.<br/>
<b>Mohamed Kaci : </b>C'est assez bluffant paraît-il. Je ne l'ai pas essayé.


<b>Mohamed Kaci: </b>C'est quoi? <br/>
<b>Laurence  Devillers : </b>C'est assez bluffant. Je l'ai essayé, c'est très bluffant.<br/>


<b>Laurence  Devillers: </b>Sur Google vous cherchez des informations, cela vous renvoie un ranking avec des informations existantes sur internet. Ce système là s'est nourri de toutes les informations internet mais aussi de nos interactions avec lui.  En ce moment c'est ouvert pour que tout le monde l'utilise et pour que le système puisse collecter des données. Les industriels qui sont derrière, OpenAI, qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing pour qu'on l'utilise aussi. Ce n'est pas mal de le tester...<br/>
<b>Mohamed Kaci : </b>par contre, pardonnez-moi de vous couper, attention aux mauvaise surprises. Vous disiez que l'outil se base sur le nombre de données et pas sur leurs qualités.


<b>Mohamed Kaci: </b>Mais on peut demander des tâches, on peut dire "rédige-moi un reportage sur l'IA ...?" <br/>
<b>Laurence  Devillers : </b>Exactement.


<b>Laurence  Devillers: </b>Un étudiant peut lui demander de faire un devoir.<br/>
<b>Mohamed Kaci : </b>Un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, ChatGPT répondra l'extincteur qui est rouge. C'est un cas tiré par les cheveux ?


<b>Mohamed Kaci: </b>C'est assez bluffant paraît-il. <br/>
<b>Laurence  Devillers: </b>Non, je pense que c'est une erreur qu'il ne fera pas.


<b>Laurence  Devillers: </b>C'est assez bluffant. Je l'ai essayé, c'est très bluffant.<br/>
<b>Mohamed Kaci : </b>Pourquoi ne la fera-t-il pas ? Potentiellement c'est possible.  


<b>Mohamed Kaci: </b>Cependant, attention aux mauvaise surprises. Vous disiez que l'outil se base sur le nombre de données et pas sur leur qualités. <br/>
<b>Laurence  Devillers : </b>C'est trop grossier, c'est caricatural. Mais je pense que si personne n'a vérifié les <em>fake news</em>, les discours qui sont sur Internet, qui  pourraient être utilisés pour entraîner le système, il peut très bien recracher cela à un moment donné, c'est pour cela que l'on parle d'éthique.<br/>
Ce qu'ils ont fait d'intelligent, c'est qu'ils ont mis des filtres derrière les systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Ce sont des systèmes qu'on appelle des générateurs de textes. A l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, des filtres pour éliminer tout ce qui est propos sexuel, non politiquement correct. Par exemple, on ne peut pas demander à la machine « donne-moi une recette pour faire une bombe ». Elle refusera avec ce propos-là. Par contre, si vous lui demandez d'écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Donc il n'y a pas d'intelligence derrière.


<b>Laurence Devillers: </b>Exactement.<br/>
<b>Mohamed Kaci : </b>Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre <em>Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ?</em>, notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. Merci à vous. <br/>


<b>Mohamed Kaci: </b>Par exemple, un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, le ChatGPT répondra que l'extincteur - qui est rouge- est meilleur.<br/>
<b>Laurence  Devillers : </b>Merci.
 
<b>Laurence  Devillers: </b>Non, je pense que c'est une erreur qu'il ne fera pas non.<br/>
 
<b>Mohamed Kaci: </b>Pourquoi ne la fera-t-il pas? Potentiellement c'est possible?<br/>
 
<b>Laurence  Devillers: </b>C'est trop grossier, c'est caricatural. Mais je pense que les fake news, les discours qui sont sur internet - c'est pour cela que l'on parle d'éthique - à condition que personne ne les ait vérifié, pourraient être utilisées pour entraîner le système. Il peut très bien recracher cela à un moment donnée. <br/>
 
Mais ils ont fait quelque chose d'intelligent, ils ont mis des filtres derrière les systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Ce sont des systèmes qu'on appelle des Transformed générateur de textes (?). A l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, des filtres pour éliminer tout ce qui est propos sexuels, non politiquement corrects. On ne peut pas demander par exemple à la machine la recette pour faire une bombe. Elle refusera et dira que ce propos là, je ne sui pas ... (????) (10min 11). <br/>
 
<b>Mohamed Kaci: </b>Oui, il y a des filtres. <br/>
 
<b>Laurence  Devillers: </b>Par contre, si vous lui demander d'écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Il n'y a pas d'intelligence derrière.<br/>
 
<b>Mohamed Kaci: </b>Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre "Les robots "émotionnels". Santé, surveillance, sexualité...: et l’éthique dans tout ça? Et notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. (10min30)  Merci à vous. <br/>
 
<b>Laurence  Devillers: </b>Merci.

Version du 23 février 2023 à 13:15


Titre : Intelligence artificielle : des robots et des hommes

Intervenant·e·s : Laurence Devillers - Mohamed Kaci - Sophie Goldstein

Lieu : Émission Grand angle - TV5Monde

Date : 15 décembre 2022

Durée : 10 min 32

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Mohamed Kaci : Ce n'est pas de la science-fiction. Une femme robot a pris récemment la tête d'une entreprise chinoise. La police de San Francisco, elle, rêve d'avoir des robots tueurs. Jusqu'où ira la robotisation et l'intelligence artificielle ? Quelles problématiques pose la montée en puissance de cette intelligence artificielle dans nos vies quotidiennes ? On en parle avec Laurence Devillers. Bonsoir. Bienvenue à vous sur TV5MONDE.

Laurence Devillers : Bonsoir.

Mohamed Kaci : Vous êtes professeure en intelligence artificielle à Sorbonne-Université, chercheuse au CNRS et à Paris-Saclay. Votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ? aux éditions L'Observatoire.

Une première question pour commencer, avant de voir quelques exemples que l'on a compilés en termes de robotisation. La figure du robot est omniprésente, ce n'est pas nouveau, mais elle l'est de plus en plus dans nos sociétés. Qu'est-ce-que représente au fond selon vous, cette figure même du robot ?

Laurence Devillers : Il y a deux grands axes dedans puisqu'on a tendance à appeler robot tout ce qui est automatique, avec des modules d'IA qui vont percevoir notre monde, pouvoir raisonner et pouvoir générer des réponses si le robot est doué de parole. Pourquoi j'ai dit deux choses ? Parce que c'est à la fois la façon de parler et la façon d'apprendre comme nous, ou pas comme nous, d'ailleurs, et puis le fait d'être incarné dans une forme qui peut nous ressembler ou pas.

Mohamed Kaci : C'est l'humanoïde ?

Laurence Devillers : C'est l'humanoïde, le robot physique, mais ça peut aussi être votre aspirateur : il a une forme d'objet et il se déplace tout seul.

Mohamed Kaci : C'est intéressant que vous disiez aspirateur parce que, pour le commun des mortels, quand on dit robotisation, on a l'image du progrès.

Laurence Devillers : C'est un aspirateur qui cherche, qui découvre tout seul son environnement. Il n'est pas du tout comme quelqu'un qui pousse quelque chose, il est autonome ,quelque part, il a un certain niveau d'autonomie.

Mohamed Kaci : Je vous le disais, nous avons rassemblé quelques exemples des dernières innovations robotiques, si l'on peut dire. C'est compilé par Sophie Goldstein. Regardez.

Sophie Goldstein, voix off : C'est un rire délicat que l'université de Kyoto a mis trois ans à lui enseigner. Voici Erica, l'une des dernières sensations androïdes made in Japan. Elle parle depuis 2015 et rit depuis décembre 2022. « Un rire à propos », soulignent ses concepteurs, une petite révolution humaine et ce, grâce à l'intelligence artificielle.

« Est-ce difficile pour vous de comprendre l'humour humain ?", l'interroge ce journaliste allemand. « Oui, l'humour varie d'une personne à l'autre. On peut rire d'une plaisanterie mais il y a aussi le rire social : à chaque instant, je dois décider si je ris avec les autres ou non », répond Erica.» L'ingénieur informaticien au cœur de ce rire, engage à son tour la conversation : « Au mondial de football, le Japon a battu l'Allemagne ». Le visage d'Erica exprime la surprise et puis elle accueille la nouvelle d'un rire discret, même réservé ; les victoires modestes, très politiquement correct. Dans son travail, l'ingénieur a étudié, répertorié et stocké des centaines de rires s'appuyant sur des mises en situation réelle avec des étudiants.

Et pourquoi pas une intelligence artificielle à la tête d'une entreprise ? A Hong-Kong, le pas a été franchi. NetDragon annonçait en août dernier, 2022, la nomination de la première cheffe d'entreprise virtuelle à la tête d'une de ces filiales, Tang Yu, présentée comme l'avenir du management, intégrant l'expertise de millions de situations réelles rencontrées par des cadres. Avantage : Tang Yu décide sans traîner, elle serait même capable de subjectivité humaine. Des décisions rationnelles et sans biais tout en sachant repérer et régler les situations d'erreurs humaines.

Robots toujours plus humains, toujours plus compétents, jusqu'à quel point ? Dans quels objectifs ? A quel prix? Et avec quels garde-fous ?

Mohamed Kaci : Votre réaction Laurence Devillers ? Sophie dit « avec quels garde-fous ? » C'est une des grandes questions ?

Laurence Devillers : C'est la question majeure, en fait c'est l'évaluation. On nous tient des propos sur les performances et les possibilités de ces machines mais jamais on ne nous parle d'évaluation. L'évaluation c'est jusqu'à quel niveau de performances vont ces machines : est-ce qu'elles sont toujours robustes ou est-ce-que, par hasard, de temps en temps cela marche et de temps en temps cela ne marche pas ?
On voit très bien que ce sujet est mis sous le tapis par de grandes compagnies qui font du marketing autour de ces progrès fulgurants, transcendants, enthousiasmants, tout ce que vous voulez. Je voudrais avant tout qu'on raisonne de façon raisonnable, qu'on évalue correctement.

Mohamed Kaci :Il y a deux choses, il y a l'aspect, on va dire, éthique/philosophique et il y a l'aspect, on va y venir plus longuement, que vous venez d'évoquer : selon vous, on surestime l'intelligence artificielle ? Vous dites — et ce n'est pas nouveau, c'est depuis Blade Runner il y a maintenant 40 ans — que la science-fiction fait miroiter, qu'elle a un pouvoir beaucoup plus fort qu'elle n'en a.

Laurence Devillers : C'est assez paradoxal. On a l'impression qu'elle va venir nous envahir, que c'est une intelligence surhumaine qui a des intentions malsaines, alors qu'on devrait se méfier d'autre chose : on devrait se méfier de la manipulation des humains grâce à ces IA.

Mohamed Kaci : C'est plutôt l'utilisation.

Laurence Devillers : On se méprend sur l'objectif. La machine n'a pas d'entité réelle, elle n'a pas d'intention, elle n'a pas de plan de carrière, elle n'a pas de besoins économiques, elle n'a pas besoin de manger. Elle n'a besoin de rien du tout de tout ça.

Mohamed Kaci : Quand en Chine, une femme robot prend la tête d'une entreprise, et pas des moindres puisque, je le disais tout à l'heure, c'est très sérieux, c'est l'entreprise NetDragon Websoft qui est en quand même un fleuron du jeu vidéo, vous nous dites pourquoi pas, cela dépend des projets qu'on va faire faire à ce robot.

Laurence Devillers : C'est surtout qui sera responsable. Pour l'instant, il n'est pas question de faire des systèmes qui ont une responsabilité. Ce sont des objets programmés.

Mohamed Kaci : D'ailleurs c'est vrai, si l'entreprise fait faillite, qui est responsable ?

Laurence Devillers : Il faut se le demander. Quand on est chef d'entreprise, on est responsable de ses actes et de ses décisions. Comme la machine n'est pas responsable de ses décisions, qui l'est vraiment ? Et c'est là qu'il faut aller regarder en quoi elle est, en fait, une espèce de marionnette pour les entités, derrière, qui pilotent.

Mohamed Kaci: Vous dites qui pilote. La question de la responsabilité se pose notamment aussi pour les voitures automatiques, c'est bien ça ?

Laurence Devillers : Elle se pose aussi pour les voitures automatiques. La voiture autonome est un sujet un peu différent.

Mohamed Kaci : Il y a de l'intelligence artificielle.

Laurence Devillers : Il y a de l'intelligence artificielle, mais elle ne va pas juger les directives. Elle va avoir un fort atout de perception, c'est-à-dire qu'elle va regarder autour d'elle les différents objets. Maintenant, si la voiture autonome était encadrée d'autres voitures autonomes, dans un milieu qui permet de vérifier un certain nombre de choses, je pense que ce serait mieux que la conduite humaine, il y aurait moins d'accidents.

Mohamed Kaci : Quel exemple vous a le plus choqué ? On entend aussi parler de licenciements, et pas qu'un peu, des milliers de licenciements dans une entreprise grâce, plutôt à cause de l'intelligence artificielle. Est-ce-qu'il y a un exemple concret qui vous a plus choqué qu'un autre ?

Laurence Devillers : Sur les mésusages ?

Mohamed Kaci : Sur l'usage de l'intelligence artificielle et de la robotisation. Ou est-ce-que c'est plus général ? Par exemple, la suppression de métiers, de pans entiers de métiers par des robots.

Laurence Devillers : On a toujours cherché à augmenter nos connaissances et à augmenter le pouvoir de créativité qu'on a dans la société. On crée des objets pour nous, il faut donc qu'il y ait absolument un retour sur investissement sur ces choses là, que ce ne soit pas seulement le propos que vous tenez, c'est-à-dire qu'un certain nombre de travailleurs n'auront plus le même travail parce que des machines les auront remplacés. Cela a déjà existé par le passé, donc on peut en tirer des leçons, il faut absolument travailler sur cet aspect de partage social de l'activité bénéfique que l'on propose à travers ces machines. Je pense que le travail et le remplacement est un sujet à part, d'ailleurs, on ne remplace pas des humains mais on remplace sur des tâches particulières.
Le problème de responsabilité, le problème de garde-fous, le problème d'éthique, de conséquences sur la société, ce sont vraiment des sujets sur lesquels on doit travailler ensemble.

Mohamed Kaci : ChatGPT[1] ce n'était ce qu'on a vu dans les images, mais ça y ressemble quand même drôlement. C'est encore différent. Expliquez-nous. C'est un site internet, qui cartonne on va dire depuis deux semaines. L'idée c'est d'avoir en face de soi une « intelligence artificielle humaine », entre guillemets, si on veut l'appeler comme ça.

Laurence Devillers : Pas du tout.

Mohamed Kaci : C'est quoi ?

Laurence Devillers: Sur Google vous cherchez des informations, cela vous renvoie à un ranking avec des informations existant sur Internet.
Ce système-là s'est nourri de toutes les informations internet plus de nos interactions avec lui : en ce moment, c'est ouvert pour que tout le monde l'utilise et aussi pour collecter des données. Les industriels qui sont derrière, OpenAI, qui se disent être grand défenseurs de l'humain contre l'IA, tiennent un discours marketing aussi pour qu'on l'utilise. Ce n'est pas mal de le tester.

Mohamed Kaci : On peut demander des tâches, on peut dire « rédige-moi un reportage sur l'IA  ».

Laurence Devillers : Un étudiant peut lui demander « fais mon devoir », le professeur « corrige mes copies ».

Mohamed Kaci : C'est assez bluffant paraît-il. Je ne l'ai pas essayé.

Laurence Devillers : C'est assez bluffant. Je l'ai essayé, c'est très bluffant.

Mohamed Kaci : par contre, pardonnez-moi de vous couper, attention aux mauvaise surprises. Vous disiez que l'outil se base sur le nombre de données et pas sur leurs qualités.

Laurence Devillers : Exactement.

Mohamed Kaci : Un de vos confrères dit que si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, ChatGPT répondra l'extincteur qui est rouge. C'est un cas tiré par les cheveux ?

Laurence Devillers: Non, je pense que c'est une erreur qu'il ne fera pas.

Mohamed Kaci : Pourquoi ne la fera-t-il pas ? Potentiellement c'est possible.

Laurence Devillers : C'est trop grossier, c'est caricatural. Mais je pense que si personne n'a vérifié les fake news, les discours qui sont sur Internet, qui pourraient être utilisés pour entraîner le système, il peut très bien recracher cela à un moment donné, c'est pour cela que l'on parle d'éthique.
Ce qu'ils ont fait d'intelligent, c'est qu'ils ont mis des filtres derrière les systèmes automatiques qui vont faire un puzzle à partir de nos données permettant de générer toute phrase. Ce sont des systèmes qu'on appelle des générateurs de textes. A l'heure actuelle, le grand pas que fait OpenAI c'est de mettre, comme l'avait fait Lambda de Google avant, des filtres pour éliminer tout ce qui est propos sexuel, non politiquement correct. Par exemple, on ne peut pas demander à la machine « donne-moi une recette pour faire une bombe ». Elle refusera avec ce propos-là. Par contre, si vous lui demandez d'écrire un texte de science-fiction parlant de cela, elle pourra donner la recette. Donc il n'y a pas d'intelligence derrière.

Mohamed Kaci : Merci beaucoup Laurence Devillers. J'invite vraiment nos téléspectateurs à lire votre livre Les robots émotionnels - Santé, surveillance, sexualité... : et l'éthique dans tout ça ?, notamment sur le sujet de la normalisation en Europe pour laquelle vous travaillez. Merci à vous.

Laurence Devillers : Merci.