L’intelligence artificielle va-t-elle un jour remplacer les profs - RFI, 2023

De April MediaWiki
Révision datée du 22 mai 2023 à 17:38 par Morandim (discussion | contributions) (Page créée avec « Catégorie:Transcriptions '''Titre :''' L’intelligence artificielle va-t-elle un jour remplacer les profs ? [RFI, 2023] '''Intervenant·e·s : ''' Laurence Dev... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigationAller à la recherche


Titre : L’intelligence artificielle va-t-elle un jour remplacer les profs ? [RFI, 2023]

Intervenant·e·s : Laurence Devillers - Vincent Cespedes - Laurence garcia

Lieu : Émission 8 milliards de voisins - RFI

Date : 14 avril 2023

Durée : 48 min 30

Podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Développée depuis de nombreuses années, cette avancée technologique ambitionne de remplacer les applications en ligne et les moteurs de recherche. Mais qu’en est-il au niveau de l’enseignement ? Capable d’avoir une véritable conversation et une rédaction parfaite, ChatGPT, l’une des intelligences artificielles les plus célèbres, pourrait à terme entrer dans les écoles. Mais l’enseignement va bien au-delà de la simple transmission d’informations. Car si l’intelligence artificielle peut être entraînée, l’intelligence naturelle doit, elle, être cultivée. Alors comment intégrer l’intelligence artificielle dans l’enseignement ? Et le progrès technologique va-t-il uniformiser nos savoirs ?

Transcription

Laurence Garcia : Bonjour et bienvenue à vous les voisins et les voisines. L’intelligence artificielle va-t-elle un jour remplacer les profs ? Il suffit de poser la question à ChatGPT ou ChatGiPITI, le dernier robot conversationnel qui a réponse à tout. En quelques secondes il vous pond un texte ultra-documenté, avec un vocabulaire proche de l’humain, sans faute d’orthographe, de quoi avoir un bon 20 sur 20 au prochain devoir à rendre au prof. Forcément, ChatGPT n’en finit pas de créer la polémique chez les enseignants qui dénoncent cet outil de triche, Nous, bien sûr, nous avons posé la question à ChatGPT : « Pour toi c’est de la triche ou ce n’est pas de la triche ? »

Texte de ChatGPT lu par un générateur de voix : En tant qu’intelligence artificielle, je suis un outil qui peut vous aider à trouver des informations et à répondre à des questions. Cependant, l’utilisation de mes réponses pour compléter un devoir à la maison est considérée comme de la triche si vous prétendez que ces réponses sont votre propre travail original. Si vous utilisez mes réponses sans les comprendre, vous risquez de ne pas apprendre autant que si vous travaillez dessus par vous-même.

Laurence Garcia : Merci beaucoup ChatGPT. Il parle comme un bon prof. Petit détail, il ne parle pas encore, du coup notre réalisateur, Romain Dubrac, a utilisé un générateur de voix, et puis on a pris une femme, tiens !, pour entendre sa réponse écrite.<vr/> Faut-il interdire l’usage des robots intelligents ? Ou, au contraire, faut-il apprendre aux élèves à mieux les utiliser ? On en débat ce matin, tout de suite, sur RFI, avec nos deux invités qui ne sont pas encore des robots. Bonjour Laurence Devillers.

Laurence Devillers : Bonjour Laurence.

Laurence Garcia : Vous êtes professeur d’informatique à la Sorbonne, chercheuse au laboratoire interdisciplinaire des sciences du numérique du CNRS et vous avez signé Les robots émotionnels aux Éditions de l’Observatoire. Petite question comme ça rapide : vous comprenez cette polémique, depuis l’automne maintenant, dans l’enseignement supérieur autour de ce fameux ChatGPT ?

Laurence Devillers : Je comprends bien. C’est un nouvel outil qui a des conséquences très importantes pour l’éducation. Tout le monde en parle, tout le monde l’essaie. C’est la première fois qu’on a un outil aussi puissant d’IA dans les mains et c’est aussi la première aussi qu’on peut s’apercevoir des erreurs que font ces systèmes, tout autant que de leurs capacités. C’est pour cela que l’école doit absolument s’en emparer.

Laurence Garcia : C’est un petit peu le sujet du jour. À vos côtés Vincent Cespedes. Bonjour

Vincent Cespedes : Bonjour Laurence.

Laurence Garcia : Philosophe, essayiste, auteur de Le monde est flou – L'avenir des intelligences aux Éditions Plon. Vous avez publié récemment une tribune dans le journal L’humanité, une tribune intitulée « ChatGPT. Apprendre à chevaucher la bête : le défi de l'Intelligence Artificielle à l’école », la bête c'est l’IA, une bête, un cheval – c’est un peu ça dans votre tribune – à domestiquer.

Vincent Cespedes : À domestiquer, à chevaucher, c’est-à-dire qu’on doit faire avec et il faut s’entraîner. En fait, ce que l’intelligence artificielle challenge, défie, c’est notre capacité à communiquer avec elle et à pouvoir en tirer le meilleur en évitant le pire, et c’est très complexe.

Laurence Garcia : On verra s’il y a un mode d’emploi ou pas. Et puis, bien sûr, vous qui nous écoutez qu’en pensez-vous ? L’intelligence artificielle vous inquiète ou pensez-vous que ça devrait être mieux enseigné à l’école ? Que vous soyez prof, parent d’élève ou étudiant, on attend vos témoignages au 33~7~64~45~51~41. C’est parti.

Pour commencer, je vous lis les premiers messages de nos voisins et voisines sur WhatsApp. Dylan nous écrit de Yaoundé au Cameroun : « On prétend que l’IA remplacera un jour les profs, mais je pense que c’est faux, d’abord parce qu’elle est crée par l’home et dépendante de lui et parce qu’elle n’est pas capable de ressentir d’émotions comme l’empathie, ce qui est pourtant nécessaire pour l’enseignement. » On parlera tout à l’heure de ces fameux robots émotionnels ou pas. Théodore nous écrit de N'Djaména au Tchad : « L’IA ne peut pas prendre la place des profs, il manque la compréhension de l’élève, la spontanéité, l’adaptation aux besoins de chacun et l’autorité ». Bref ! Ça commence déjà à faire pas mal réagir nos auditeurs et, bien sûr, vous continuez.
Je commence par vous Laurence Devillers. Tout le monde ne connaît pas ChatGPT, il faut peut-être expliquer un petit peu ce qu’il a dans le bide ce ChatGPT, ce robot intelligent mis en place par la startup californienne et intégré au service de Microsoft. En quoi ce robot conversationnel est-il particulièrement redoutablement ou pas intelligent ?

Laurence Devillers : C’est la bonne question à se poser. Qu’est-ce que ce système ? Qu’est-ce qu’il a ingurgité de nos données ? Un peu comment il est construit ? En cela, on va réclamer de plus en plus, sur l’Europe, que ces systèmes soient plus transparents, parce que pour l’instant, dans cette opacité, on entend le mot « complexe ». En fait, il y a aussi un leurre énorme derrière le fait de dire à quelqu’un que « c’est complexe, donc tu ne pourras pas comprendre ». Moi, je suis totalement contre cette approche, parce qu’on peut comprendre les concepts qui sont derrière et je vais essayer de vous expliquer en deux mots ce qu’il y a dedans.
Il y a deux grandes technologies importantes, qui sont le fait de construire des grands modèles de langage, c'est-à-dire capables de générer du texte comme nous le générons.

Laurence Garcia : Proche de l’humain, alors ?

Laurence Devillers : Proche des traces, parce que c’est à partir des traces de l’humain que c’est construit, avec des milliards de données ingurgitées par cette machine qui fait des statistiques, en fait qui travaille un peu sur la représentation des mots dans un espace numérique très grand, avec 175 milliards de paramètres, mais les principes qui sont des Lego – j’enlève un mot d’une phrase et je cherche à prédire ce mot – font que j’apprends ce mot avec tout un tas de contextes. C’est ça l’intelligence de la machine. Elle n’a aucunement la compréhension de ce qu’elle dit et elle n’a pas non plus de logique de déduction, d’induction.

Laurence Garcia : Pour résoudre un exercice de maths, ce n’est pas ChatGPT.

Laurence Devillers : Non, pas tout.En fait elle va chercher dans sa base de données – qui n’est pas Internet, qui a été encapsulée avec des limites en 2021 – un certain nombre de concepts et, par la succession des mots, elle a une certaine connaissance syntaxique très proche d’une syntaxe, elle parle très bien, lexicale parfaite, grandes possibilités lexicales, mais sémantiquement ce n’est pas ça.

Laurence Garcia : Pas de fautes d’orthographe.

Laurence Devillers : L’autre grand apport technologique c’est qu’ils ont encapsulé ce système avec un système de dialogue qui lui peut s’adapter à un certain nombre de choses que nous faisons. On l’a construit avec des humains qui posaient des questions et qui répondaient, qui entraînaient le système à répondre comme ils le souhaitaient. On a émis un certain nombre de récompenses au système et il va adapter ses réponses. Ça n’a rien d’émotionnel. Elle n'est pas consciente. Elle n’a pas d’intentions.

Laurence Garcia : Il n’y a pas d’émotion.

Laurence Devillers : Il n’y a pas d’émotion du tout, sauf que dans nos mots de tous les jours on peut avoir des traces émotionnelles et, si la machine tombe statistiquement à cette séquence-là, elle ne répond pas à vos questions, elle continue la séquence, ce qu’on appelle le prompt : vous posez une question, la machine considère la suite de mots et elle va chercher ce qui va pouvoir être une suite possible. Comme il y a eu cet entraînement de dialogues qui, en plus, prend plusieurs réponses successives, avec une mémoire sur ce que vous avez dit avant, qui est très limitée mais qui existe, elle est capable de vous donner l’illusion que vous parlez avec quelqu’un.

Laurence Garcia : L’illusion.

Laurence Devillers : Mais franchement, si vous posez la question à la machine : « La mère de Marie a trois enfants, Melchiors Balthazar et ? », la machine va répondre « Gaspard », parce que dans ses méandres elle a bien la succession des Rois mages. Or, elle ne va pas comprendre que quand la mère de Marie a trois enfants, le troisième c’est Marie. Vous voyez ? Et ça c’est partout. Nous avons cette capacité d’intuition, d’abord d’apprentissage comme les enfants avec le corps que n’a absolument pas la machine. C’est livresque. Elle est capable de faire des tas de choses pour lesquelles on va avoir un assistant intéressant – traduire c’est génial, ça traduit dans plein de langues –, proposer peut-être un plan et vous regardez ce que c’est. Mais ne prenez pas pour argent comptant ce qu’elle dit puisqu’elle fait énormément d’erreurs avec, en plus, une façon de parler très professorale, sans aucun doute sur ce qu’elle dit. Elle fait des contresens, mais, de temps en temps, elle dit des choses qui peuvent nous intéresser.

Laurence Garcia : D’où avoir l’esprit critique et ne pas faire de copier-coller avec ce que va nous répondre ChtaGPT.
Vincent Cespedes, vous qui êtes un philosophe ultra-connecté, j’imagine que vous avez déjà dialogué avec cette bête, comme vous la surnommez. Vous avez changé d’un point de vue philosophique ? C’est un bon penseur ou pas ?

Vincent Cespedes : Je le trouve assez excellent dans ce que j’appelle le philosophiquement correct. Je suis tout à fait d’accord, il peut faire des erreurs, donc il faut absolument vérifier tout cela. Mais quand vous posez des questions type question de terminale au baccalauréat de philo, franchement, ce qu’il produit est tout à fait valable. C’est dur à dire et on s’attendrait à autre chose, parce qu’on s’imagine que la philosophie est le couronnement de l’éducation, le jugement critique, on en fait des tonnes sur cette philosophie en terminale, capable d’ouvrir à l’esprit critique. Quand on voit l’épreuve du bac, on voit que ce n’est quand même pas trop ça, c’est plutôt un exercice assez formel et assez rhétorique que j’ai longtemps critiqué. En fait, on voit que pour la discussion de philosophie de comptoir + +, il est capable de citer Sénèque, Kant et Spinoza, ce que le comptoir ne fait pas.

Laurence Garcia : Là, ce n’est pas de la philosophie de comptoir.

Vincent Cespedes : Ce n’est pas non plus de la philosophie académique très élevée, eh bien il est excellent, il peut vous parler de la colère vous dites « la colère chez Sénèque », il vous fait un paragraphe. Il peut donner des listes, il est très bon pour donner des listes ; vous demandez « donne-moi une liste de dix philosophes qui traient de ce sujet. Fais une dissertation là-dessus. »

Laurence Devillers : Ce n’est pas intelligent ça !

Laurence Garcia : C’est du savoir.

Vincent Cespedes : Je vais nuancer ce qui vient d’être dit pour qu’il y ait un tout petit peu de débat, je pense qu’il y a beaucoup d’émotion, beaucoup d’émotion !, pas du côté de la machine, bien sûr que non, elle n’a pas de conscience, mais du côté de l’humain qui l’utilise. Nous pouvons nous énerver, nous pouvons être éblouis, nous pouvons être émerveillés. C’est très important de comprendre que la machine, elle, n’a pas d’émotion, mais nous sommes faits pour être leurrés par la machine. Pa besoin d’attendre le film de Spike Jonze, Her, qui est sorti il y a dix ans, où, dans un futur proche, 2025, un être humain va tomber amoureux de la voix de Scarlett Johansson, certes, mais de son traitement ordinateur, de l’ordinateur ; l’IA va séduire l’être humain. Nous sommes déjà séduits.
Si ChatGPT est aussi éblouissant ce n’est pas tellement parce qu’il a 100 fois Wikipédia et qu’il est capable de ressortir des choses pertinentes, c’est aussi parce que ça nous éblouit et nous sommes faits pour nous faire avoir par la machine. D’où l’importance, on en parlera, d’une éducation réelle. Je me souviens que j’ai commencé à toucher à un ordinateur à l’âge de dix ans, j’étais dans une des premières écoles où on donnait des cours d’informatique, des cours Spinoza d’ailleurs, prédestiné, et j’étais ébloui. Je savais que j’avais l’avenir sous les doigts – c’était juste des Apple IIe, ça n’allait pas trop loin – mais je savais que c’était l’avenir. Nous sommes faits pour mettre toute notre émotion sur la machine, donc nous avons la capacité, c’est le piège, d’anthropomorphiser la machine, c'est-à-dire lui donner très facilement deux yeux, un nez et une bouche. Imaginez, là nous avons « quelqu’un » qui répond, quelqu’un avec 50 guillemets, mais nous avons quelque chose qui répond, quelque chose qui est intelligent, quelque chose qui peut nous former. Le leurre, le flou, fait donc partie de la donnée centrale de l’interaction homme/machine.

Laurence Garcia : Je rebondis sur le flou, le vrai casse-tête pour les profs et on peut peut-être aussi les comprendre. On parlera après de la façon d’enseigner peut-être certainement mieux la pensée informatique. Mais le flou pour les profs, notamment sur les fameux devoirs maison. Comment savoir si un étudiant a utilisé chez lui l’intelligence artificielle et rend le lendemain le devoir au prof. OK, il y a zéro faute d’orthographe, ça peut quand même déjà mettre le doute. Ça remet en cause le système de notation quand même, mine de rien, des devoirs !

12’37

Laurence Devillers : D’évaluation