« L’IA et ChatGPT : l’impact sur l'éducation » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 9 : | Ligne 9 : | ||
'''Date : ''' 9 septembre 2023 | '''Date : ''' 9 septembre 2023 | ||
'''Durée : | '''Durée :''' 35 min 25 | ||
'''[https://www.youtube.com/watch?v=MFNr0u5i2A0&t=30s Vidéo]''' | '''[https://www.youtube.com/watch?v=MFNr0u5i2A0&t=30s Vidéo]''' | ||
'''Licence de la transcription :''' Verbatim | '''Licence de la transcription :''' Verbatim |
Dernière version du 19 novembre 2024 à 12:26
Titre : L’IA et ChatGPT : l’impact sur l'éducation
Intervenant·e·s : Bastien Masse - Stéphanie
Lieu : Podcast Les Adultes de Demain
Date : 9 septembre 2023
Durée : 35 min 25
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description[modifier]
Fin 2022, l'Intelligence Artificielle, IA, prend le devant de la scène grand public. Une application fait notamment parler d'elle, par les résultats qu'elle propose : ChatGPT. Certains la présentent comme une menace, pour nombre de métiers. L'impact de ChatGPT dans le monde de l'éducation fait la Une des journaux, quand on évoque la triche possible des élèves aux évaluations.
Transcription[modifier]
Stéphanie d’Esclaibes : Bonjour Bastien.
Bastien Masse : Bonjour.
Stéphanie d’Esclaibes : On se retrouve en cette semaine de la rentrée pour parler d’un sujet qui était sur toutes les langues avant de partir pour les grandes vacances, c’est évidemment ChatGPT, le générateur de texte qui permet, via l’intelligence artificielle, de répondre aux requêtes des internautes. Pour te présenter, Bastien, tu es délégué général de l’association Class'Code, un collectif de plus de 50 structures partenaires issues de l’éducation et du numérique qui travaillent ensemble pour produire des MOOC, donc des cours en ligne, et des ressources éducatives libres afin d’accompagner les éducateurs dans l’apprentissage du code, de la pensée informatique et de la culture numérique. Ce n’est pas ta seule casquette, tu es aussi chef de projet Chaire Unesco RELIA, qui veut dire Ressources Éducatives Libres et Intelligence Artificielle, à l’université de Nantes. L’IA n’a donc aucun secret pour toi. Pour démarrer cet échange, j’aimerais bien que tu reviennes sur une définition de ce qu’est l’intelligence artificielle.
Bastien Masse : Ce n’est jamais la chose la plus facile à faire, parce que l’intelligence artificielle c’est déjà une grande famille qui a une histoire assez longue, puisque ça remonte aux années 50, ce n’est pas quelque chose de nouveau, c’est important de le comprendre. C’est une technologie qui a évolué et qui est passée par des phases de ralentissement ou d’accélération. On en reparle effectivement depuis 12 mois de manière plus importante.
Si on voulait la définir, c’est l’ensemble des technologies, des techniques, des architectures ou même des théories qui permettent de simuler des parties de l’intelligence humaine ou animale. Finalement, dès qu’on arrive à produire une machine à utiliser un algorithme pour se rapprocher de quelque chose que ferait l’humain, on peut désigner ça comme de l’intelligence artificielle.
Stéphanie d’Esclaibes : En quoi ChatGPT est-elle une intelligence artificielle ?
Bastien Masse : On la classe dans ce qu’on appelle les IA génératives, parce que son rôle c’est de générer des contenus, en l’occurrence, pour ChatGPT, c’est de générer du texte. Donc, sa seule mission, c’est de générer du texte. Pour ça, elle a besoin d’entrées, elle a besoin d’un peu de matière, c’est ce qu’on appelle le prompt – on rentre une petite phrase qui peut être une question, juste des éléments écrits –, et son rôle va être d’inventer la suite de cette phrase en essayant de proposer les mots les plus probables. C’est donc une suite logique, mais qui ne fait pas partie d’un raisonnement. Elle ne comprend pas ce qu’on lui dit. Elle ne réfléchit pas en essayant d’argumenter. Elle prend juste les mots qu’on lui a indiqués en entrée et elle va essayer, de manière statistique, de produire une réponse en mettant des mots cohérents les uns à la suite des autres. Une IA générative parce qu’elle génère du texte. D’autres génèrent des images, d’autres des vidéos. C’est donc une sous-famille des intelligences artificielles.
Stéphanie d’Esclaibes : Tu disais dans la définition de l’intelligence artificielle que cette intelligence vient simuler l’intelligence humaine ou animale. Je pense que c’est l’un des points qui effraie le plus sur l’intelligence artificielle. Qu’est-ce que tu penses de ce point-là ?
Bastien Masse : C’est déjà une des difficultés, parce qu’on a déjà du mal à définir l’intelligence humaine. C’est d’ailleurs une des méthodes qui avait été mise en avant par la Commission européenne quand elle à tenté de définir l’intelligence artificielle pour les textes de loi qui était d’essayer de retirer cette notion d’intelligence, parce que ça rend la question plus difficile à cerner. Et, effectivement, le rapport qu’on a est un rapport un peu d’inconfort et c’est plus spécifique et peut-être plus présent dans les IA génératives de texte, comme ChatGPT, parce qu’elle a trait au langage et le langage, c’est le média de notre intelligence. Et, finalement, quand on est face à quelque chose qui parle bien, qui donne l’impression d’être intelligent, d’avoir un discours, d’avoir une pensée, c’est perturbant parce qu’on est face à cette pseudo-intelligence et, du coup, ça remet la nôtre en question, qu’on a déjà du mal à définir.
Stéphanie d’Esclaibes : Et où est la limite, justement, entre l’intelligence humaine et cette intelligence artificielle ? Est-ce qu’un jour l’intelligence artificielle pourra rattraper l’intelligence humaine ?
Bastien Masse : Encore une fois, il faudrait que nous arrivions, nous, à nous situer dans notre intelligence. Et c’est intéressant, quand on parle d’intelligence artificielle, même avec des plus jeunes, parce qu’on revient à des choses un peu plus basiques mais aussi plus complexes. Quand on parle avec des petits, par exemple en primaire, des questions d’intelligence, par exemple qu’est-ce qui me distingue d’un animal, de ce qui fait que l’humain est intelligent, a du langage et qui fait qu’il va se distinguer du chat ou du chien qu’on a à la maison, on se rend compte que ce n’est vraiment pas une question facile à aborder et à laquelle répondre. Donc, pour l’instant, c’est complexe parce que, vraiment, encore une fois, scientifiquement, nous avons du mal, nous, à nous à se placer sur cette courbe-là.
On peut faire des distinctions et on voit qu’il y a des différences avec les intelligences machines, qui sont notamment liées au corps, à l’intelligence émotionnelle. C’est une des différences : la machine n’a pas de corps et toute une partie du ressenti et de l’intelligence émotionnelle va lui échapper, mais elle peut la reproduire, elle peut la simuler, elle peut faire semblant et finalement, c’est ce qu’on fait à travers le discours. Et la distinction entre est-ce que je suis obligé de ressentir les choses pour les exprimer ou est-ce juste les dire ça suffit, c’est une vraie question, sinon on ne ferait pas de poésie, on ne ferait pas de science-fiction si on devait, à chaque fois, s’assurer que les choses soient vraies, soient ressenties par ceux qui les dénoncent.
Stéphanie d’Esclaibes : Est-ce que cette intelligence artificielle te fait peur ?
Bastien Masse : À moi non, heureusement, parce que c’est mon outil de travail et c’est un peu l’objectif qu’on se donne. La peur, de toute façon, n’est jamais une bonne réponse. Souvent, c’est lié à l’incompréhension et à l’ignorance qu’il y a par rapport à ces technologies qui restent quand même assez complexes à saisir, pas complexes dans la manière dont elles fonctionnent, mais le concept, lui-même, est difficile à saisir, justement parce qu’il pose d’autres questions auxquelles on a du mal, nous-mêmes, à répondre. Je pense vraiment que la peur est la chose qu’il faut essayer d’écarter le plus rapidement possible. Ça passe par la compréhension du fonctionnement de ces technologies-là, surtout de leurs capacités, mais de leurs limites. Finalement, c’est un peu plus avoir une critique rationnelle sur ces objets-là : ils ne peuvent pas tout faire, ils sont très limités, et comprendre ça permet d’enlever la peur, pour avoir plutôt une critique rationnelle qui permette de voir que ces technologies-là peuvent faire ou ne pas faire.
Stéphanie d’Esclaibes : Quelles limites vois-tu sur ChatGPT ?
Bastien Masse : Par exemple, les limites de ChatGPT sont liées à son incapacité de réflexion. C’est-à-dire que c’est vraiment juste de la répartition probabiliste de mots. Ça peut donc sembler intelligent, mais, déjà, ça se manipule très facilement. On peut orienter ChatGPT à avoir des types de réponses, à prendre des tons, à nous donner, éventuellement même, de fausses informations. Il n’est pas dans une logique de vérification de ce qu’il peut produire. Il y a effectivement une phase d’apprentissage qui est liée à de nombreuses données, mais on peut aussi manipuler ça en fonction de ce qu’on lui donne comme prompt, comme phrase de départ, et l’orienter dans de mauvaises directions.
Les limites sont donc assez nombreuses, elles viennent effectivement par de l’expérimentation et par se dire « OK, je ne peux pas tout faire avec ces IA-là.
Déjà, encore une fois, c’est un peu le fantasme de l’IA unique, on parle souvent de l’IA en général, mais, comme je l’ai dit, c’est une grande famille : l’intelligence artificielle, c’est aussi bien ChatGPT que les prédictions météorologiques à grande échelle ou se mettre des oreilles de chat sur Snapchat. Tout ça, ce sont des IA, mais elles ne font pas la même chose, elles sont spécialisées. Donc, déjà, une IA est forcément spécialisée à faire une chose particulière et elle va être très mauvaise sur toutes les autres choses.
C’est donc un peu le côté rassurant aussi pour nous. : les IA sont très bonnes pour faire une tâche particulière, et nous, nous sommes un peu nuls pour faire tout, mais nous avons plus de capacités à faire des tâches variées.
Stéphanie d’Esclaibes : C’est important que tu rappelles ça.
Nous sommes sur le podcast Les Adultes de Demain, on parle d’éducation. On a beaucoup entendu parler de ChatGPT lorsqu’il s’agit des enfants et de l’éducation, notamment pour tout ce qui est autour de la triche. Comme tu le disais justement, ChatGPT permet de générer du texte et, dans le cadre de l’enseignement scolaire pour les enfants, c’est un sujet qui fait peur pour les devoirs : est-ce que les enfants vont continuer à faire leurs devoirs seuls ? Comment va-t-on vérifier que ça a été produit par un enfant et pas par ChatGPT ? Quel est ton avis par rapport à ce point-là ?
Bastien Masse : Déjà, par rapport à l’évaluation, à la capacité à déterminer si un texte a été produit par une IA ou pas, c’est vraiment quelque chose de complexe. Vous avez dû voir qu’il y a des détecteurs qui existent. OpenAI, la société qui a créé ChatGPT, avait même sorti, elle-même, un détecteur qui permettait de savoir, avec un pourcentage de chance, si un texte avait été produit par une IA ou non. Donc, ces détecteurs-là existent, mais aucun ne fonctionne à 100 %. L’idée, pareil, c’est d’avoir une analyse probabiliste. On prend le texte généré, on regarde la distribution des mots, comment ils sont répartis, comment ils sont choisis, et on essaye de déterminer si cette répartition-là correspond à un algorithme connu, donc, en gros, qui pourrait être généré par une IA. Ensuite, on crée un pourcentage de chances qu’il était produit ou non. C’est forcément insuffisant pour l’éducation, puisque, de toute façon, on n’aura jamais du 100 % et on ne peut pas dire à un élève « tu as triché, parce que telle application a dit que tu avais 70 % de chances que son texte ait été produit par une machine. »
L’autre chose, c’est qu’il y a énormément de manières de détourner ça et d’arriver à faire baisser ce score. C’est donc un peu la même logique que pour les traducteurs. Les élèves pouvaient utiliser Google Traduction, ils avaient déjà la technique : si je passe par deux langues avant de traduire le texte que m’a donné le professeur, je ne serai pas détecté, puisque quand on fait copier-coller, on n’aura pas exactement le même résultat.
Il y a des équivalents à ChatGPT avec lesquels on peut, effectivement, faire baisser, encore une fois, le taux de détection.
Donc, en enlevant déjà cette possibilité-là de pouvoir détecter à chaque fois, on doit repenser le travail qu’on demande aux élèves, parce que, effectivement, sur la production écrite, ce n’est plus un outil, c’est vraiment quelque chose qui peut remplacer complètement le résultat qui est demandé. Et l’objectif de l’école, c’est ça, c’est de rendre un outil, même s’il est puissant, à sa place d’outil. Donc, c’est un intermédiaire pour l’intelligence de l’élève.
Si on arrive à des situations où, effectivement, ChatGPT peut répondre à un devoir entier ou à une production de texte, c’est sans doute que le support, la question de base, l’évaluation elle-même n’est plus adaptée à ce type d’outil.
Ce sont exactement les débats qu’il y a en ce moment entre les enseignants à l’Éducation nationale qui est de pouvoir repenser un peu cette évaluation et surtout ce qu’on demande aux élèves pour que ça ait toujours du sens et qu’on ne puisse pas être juste face à des productions faites par des machines qui n’auraient nécessité aucun investissement de la part de l’élève. C’est donc un niveau au – dessus que de recopier Wikipédia ou prendre des parties, aller prendre à droite à gauche des contenus. Là, on peut mettre dans le prompt les consignes de l’enseignant et avoir un résultat qui sera extrêmement bon et qu’on aura juste à reproduire.
Stéphanie d’Esclaibes : Où en est-on sur le sujet l’Éducation nationale. Tu disais que c’était au stade du débat, mais est-ce que des mesures ont déjà été prises ?
Bastien Masse : Pour l’évaluation, c’est compliqué parce que c’est beaucoup plus profond que ça. En fait, ce qui est intéressant, c’est que des outils comme l’intelligence artificielle ne posent pas réellement de nouvelles questions à l’école. Elles posent d’anciennes questions auxquelles on n’a pas répondu depuis longtemps, quand je dis longtemps, ce sont des décennies, sauf qu’elles les posent de manière plus profonde, plus insistante qui sont : qu’est-ce qu’on apprend aux élèves à l’école ? Comment on évalue ? Est-ce que les notes, les productions, les devoirs à la maison, ça a toujours du sens ? Quelles compétences devrait-on travailler ? N’y a-t-il pas d’autres manières d’évaluer les mêmes compétences ou capacités ? L’évaluation, c’est sans doute ce qui prendra plus de temps, parce que ça nécessite vraiment une pensée, une refonte du système scolaire, d’une partie des programmes et, finalement aussi, de la culture de l’enseignement à l’école. Mais il y a des choses intermédiaires qui peuvent se poser.
Pour l’instant la position de l’Éducation nationale, c’est de pouvoir encourager les enseignants à tester ces outils-là aussi parce qu’on a besoin de leur expertise. Ce sont des outils qui sont puissants. On ne peut pas juste les nier en disant « il y a des traducteurs de langues étrangères, mais ça ne marche pas très bien et on continue d’enseigner les langues étrangères comme on le faisait avant. » Ça ne marchait déjà pas avant. Là, avec des outils comme ChatGPT, on ne peut vraiment pas tenir ce discours-là et faire semblant que ça n’existe pas.
Il faut donc essayer de se former, d’être curieux, de se former par soi-même. Les enseignants sont des professionnels. Ils connaissent leur métier. Ils peuvent évaluer un outil quand on leur donne et c’est de cela qu’on a besoin : savoir ce qu’on peut faire avec, trouver des méthodes innovantes pour les utiliser. Déjà qu’ils les utilisent pour eux, pas pour les élèves et avec les élèves, mais, encore une fois, dans leur travail. Il y a tout un tas de taches pour lesquelles ils peuvent aider, accompagner un enseignant et lui permettre de gagner du temps qu’il sera en mesure de réinvestir sur autre chose. Donc déjà ça, les tester, voir un petit peu les capacités et les limites.
Ensuite, dans un second temps, je pense qu’on aura cette possibilité-là de revenir avec les élèves sur cette réflexion-là et de se rejoindre aussi un peu. Pour l’instant, le problème actuel, c’est qu’on a deux champs d’expérimentation qui sont séparés. On a les enseignants curieux qui testent leur côté pour leurs travaux, pour la préparation des devoirs, pour les tâches administratives, etc., et on a les élèves qui testent aussi, parce que c’est un outil potentiel de triche, que ça permet de gagner du temps, que ça peut faire aussi plein de choses positives, comme les aider dans leurs devoirs, faire des fiches de lecture. Sauf que ces terrains d’expérimentation, pour l’instant, sont séparés, parce qu’on ne peut pas le faire à l’école, on ne peut pas utiliser ces outils-là dans la classe parce qu’ils ne sont pas compatibles avec les contraintes RGPD par exemple, ils ne sont pas accessibles, normalement, aux moins de 13 ans voire sous autorisation parentale, ou aux moins de 18 ans.
À l’école, il n’y a pas de cadre légal pour les utiliser, en tout cas pour les systèmes les plus connus. Du coup, chacun teste, fait ses petites expérimentations de son côté, seulement, l’école ce n’est pas ça, c’est le contrat social entre l’enseignant et l’élève. À un moment donné, on doit pouvoir travailler là-dessus ensemble, échanger les capacités, exprimer éventuellement les craintes, les peurs justement et voir ce qu’on peut faire ensemble, parce que, pour les élèves, ça a aussi vraiment un impact qui peut être négatif.
Encore une fois, ce sont des apports différents pour les enseignants et pour les élèves.
Ce qui est commun, c’est d’avoir accès à une intelligence extérieure assez puissante et, en fait c’est ça qui est perturbant. D’un côté on a quelqu’un qui doit enseigner, transmettre des savoirs, des connaissances, des compétences et de l’envie et, de l’autre, on a un élève qui est censé vouloir apprendre, sociabiliser, partager et acquérir des connaissances. Si on a une intelligence très puissante au milieu, ça perturbe forcément cette balance-là. Quelque part, c’est aussi, peut-être, une opportunité d’égalité d’accès parce que, finalement, des élèves qui avaient accès à de l’aide à domicile, qui avaient accès à des cours particuliers, se retrouvent avec des élèves qui ne pouvaient pas bénéficier de ça et ont une aide à la maison qui est très puissante. C’est une technologie, donc, forcément, comme toutes les technologies en général, ça renforce les inégalités sociales, parce qu’il faut en avoir connaissance, il faut y avoir accès, il peut y avoir des questions de prix, de tarif, de systèmes pus ou moins puissants. Mais, globalement, c’est quand même quelque chose qui est accessible à tous.
Là on parle de l’IA générative, mais l’IA existe dans l’école depuis plus longtemps que ça et elle apporte des choses très différentes. L’individualisation, qui est vraiment une des choses qu’on met en général au cœur de l’IA en éducation, avec l’accès des données aux élèves. Forcément, dans une classe de 30 ou 40 élèves, on ne peut pas créer des exercices individualisés qui suivent le niveau de l’élève ou ses difficultés particulières. Par contre, un algorithme, lui, peut le faire et pourra adapter, pourra suivre le niveau, revenir en arrière, proposer des choses plus ou moins compliquées, etc. L’individualisation, dans le cadre de l’IA en éducation, c’est ce qui est, au-delà de l’IA générative, quelque chose qui apporte.
Encore une fois, il ne faut pas mélanger, ChatGPT n’est pas que la seule IA qui a un impact en éducation et elle a effectivement des impacts positifs et négatifs.
Pour les enseignants, c’est pareil, c’est effectivement explorer pour gagner du temps sur beaucoup de tâches qui peuvent être difficiles : individualiser les exercices, les multiplier, faire des variations. Actuellement, on peut générer des QCM sur un texte donné, on peut interpréter une vidéo. On peut vraiment créer des contenus de qualité assez rapidement et le vrai enjeu, ce n’est pas de se dire « super, on a gagné du temps, donc on peut mettre plus d’élèves ou mettre moins de professeurs. » On doit pouvoir réinvestir ce temps gagné dans des compétences qu’on estime être les plus importantes et qui vont justement aider les enseignants et les élèves à se distinguer de la machine, des compétences qu’on a dû mettre de côté par manque de temps et de moyen, qui sont souvent associées à des compétences du 21<mall>e siècle et qui sont justement la communication, la collaboration, l’esprit critique, donc renforcer tout ça, pouvoir prendre du temps, parce que la manière dont on transfère, dont on apporte les connaissances change, on doit donner les outils et les compétences adaptées pour faire face à ces nouvelles technologies.
20’ 00[modifier]
Stéphanie d’Esclaibes : Je suis 100 % d’accord avec toi.
On a oublié de parler d’autres personnes qui ont un rôle non négligeable dans l’éducation, ce sont évidemment les parents. Qu’est-ce que tu observes, du point de vue des parents, par rapport à l’intelligence artificielle et ChatGPT ? J’ai quand même l’impression qu’on est beaucoup dans cette posture de peur, puisque on n’a pas nécessairement eu l’opportunité de tester ChatGPT dans les différents métiers des parents, contrairement aux enseignants. Par exemple, ce sont des outils qu’ils ne vont pas nécessairement maîtriser. Je pense qu’ils les associent encore beaucoup, comme on le disait au début, à un outil de triche pour les enfants. Qu’est-ce que tu observes par rapport aux parents et est-ce que tu aurais des conseils à leur donner ?
Bastien Masse : C’est vrai que souvent le positionnement le plus observé, c’est de l’inquiétude, c’est de la peur, c’est de l’incompréhension. On a effectivement accès à des bouts d’information, des pointes d’iceberg qui vont être la triche, qui vont être les problèmes d’évaluation, etc.
Encore une fois, il faut s’intéresser au sujet, il faut prendre le temps de comprendre et ça ne nécessite pas de connaissances particulières, ni en informatique, ni en sciences de manière générale, c’est un outil. Le positionnement qu’on a au sein de Class'Code, on fait de la médiation scientifique pour le grand public et les enseignants, pour cette raison-là, pour nous, ce sont des questions citoyennes. On doit le faire pour, justement, comprendre sa position aussi en tant que citoyen et ça touche tous les métiers. On ne peut pas se dire « je le fais pour mon enfant, ou pour tel ou tel métier où ce serait plus susceptible d’avoir un impact. » Vraiment, tous les métiers sont concernés. Il y a une transformation générale et profonde des compétences parce que, justement, ce sont des outils qui ont trait aux langages.
Il faut donc prendre le temps de s’intéresser à ça, enlever le côté peur, pouvoir discuter, regarder aussi un peu, sans doute, ce que ses enfants font avec ces outils-là, la connaissance qu’ils en ont et aider, encore une fois, à refaire du lien. Ce que je disais entre les enseignants et les élèves, pour l’instant, c’est effectivement pour des questions, on va dire, de logistique, pratiques et légales, où c’est compliqué de pouvoir faire l’accompagnement direct. Toutes ces ruptures-là, c’est justement ce qui met l’école à distancer et rend plus complexe l’éducation : c’est la rupture qui se fait entre les parents et les enseignants, entre les enseignants et les élèves, et on peut pas s’aider si on n’arrive pas à faire un effort dans ce sens-là. Et justement, ce sont ces compétences-là qu’on a envie de travailler pour se distinguer des machines. On est censé, en tant qu’humain, pouvoir faire preuve de davantage de communication, de collaboration, de partage des idées, sinon, on va rester sur des lignes plus individualistes et sans doute plus exposées, justement, à cette logique machine, un peu monomaniaque, et c’est ce qu’on veut éviter si on a envie d’être plus intelligent, que ce soit pour soi ou pour ses enfants.
Stéphanie d’Esclaibes : Tu le disais, c’est de l’ordre du devoir citoyen, et je sais qu’avec Class'Code vous faites un travail merveilleux là-dessus. Peut-être peux-tu prendre le temps d’expliquer à nos auditeurs comment, justement, ils peuvent comprendre ce qui se passe autour de l’intelligence artificielle et de ChatGPT grâce au travail formidable de Class'Code ?
Bastien Masse : L’idée de Class'Code, c’était de produire des contenus, à l’origine pour les enseignants, mais finalement, qui sont étendus un peu au grand public, pour comprendre les fondements scientifiques de ce qu’on appelle la pensée informatique, donc pas apprendre à coder, apprendre à comment fonctionne un ordinateur, comment fonctionnent les algorithmes et un peu la logique qu’il y a derrière. Pour cela, on a produit des MOOC, dont des cours en ligne qui sont gratuits, qui sont accessibles, qui sont tous en ressources éducatives libres, donc réutilisables en cours, pour des usages privés ou de formations et qui partent de la base. Il n’y a donc pas de prérequis à avoir, on essaye vraiment de comprendre comment ça fonctionne.
On a sorti un MOOC sur l’intelligence artificielle qui explique un petit peu le fonctionnement justement global de ces technologies-là, c’était avant ChatGPT, mais c’est bien d’avoir ces bases-là justement pour comprendre ces outils.
Après, d’autres contenus ont été produits. Avec la Chaire Unesco RELIA on a produit, au mois de mars, un livre ouvert à destination des enseignants, justement sur l’usage de l’IA en éducation, avec une partie sur les IA génératives.
Il y a donc des contenus qui existent, qui sont accessibles, qui permettent de par là d’avoir une vue un petit peu plus large sur ces technologies-là, sur leur histoire, sur leur impact et puis de se faire une idée plus précise et plus éclairée sur ces technologies.
Stéphanie d’Esclaibes : Je suppose, du coup, que Class'Code est très sollicitée en ce moment.
Bastien Masse : Oui et là on le sent. Le fait que les IA génératives, notamment ChatGPT aient finalement réussi un coup de com assez important. Ce sont des technos qui existaient déjà, c’est une évolution de GPT 3, de choses qui étaient déjà accessibles. C’est juste que le grand public a pris conscience ou a eu connaissance de ces outils-là – qui sont aussi montés en qualité au passage, il faut le reconnaître. Du coup, on voit bien qu’aujourd’hui les sollicitations viennent de tout le monde, c’est-à-dire des enseignants, des élèves, des entreprises, des écoles, des universitaires, parce qu’il y a vraiment un impact général un peu plus sous-jacent. C’est pour cela que c’est vraiment important de comprendre que ce n’est pas juste un outil technique qui me permet, peut-être, de faire des choses dans mon travail. Cet outil-là a un impact général sur les compétences. Et quand on me pose la question des métiers, une des questions qu’on pose le plus souvent, c’est « quels métiers vont changer, disparaître, qu’est-ce qui se passera dans 20 ans ?, etc. ». C’est toujours compliqué, mais je ne réponds jamais que les métiers vont disparaître ou changer, ce sont les compétences qui se transforment. Et, effectivement, soit on est en mesure d’adapter notre travail et nos connaissances à ces nouveaux outils et de voir ce qu’ils peuvent nous apporter, leurs capacités et leurs limites, soit on n’est pas en mesure de le faire et effectivement, peut-être que, dans notre métier, on privilégiera quelqu’un capable d’utiliser ces outils-là à l’avenir. Ce sont vraiment les compétences qui changent et pas tant que ça les métiers.
Pareil pour les parents pour les questions d’orientation, des questions qui sont fortes : sur quoi doit-on parier ? Vers quoi mon enfant doit-il se diriger ? On a, aujourd’hui, quelques analyses qui essayent de prédire un petit peu ça. C’est toujours compliqué, mais c’est basé, justement, sur les compétences qui sont plus moins concernées par l’automatisation, par le traitement des données.
Un changement intéressant s’opère pour beaucoup de métiers qu’on estime être intellectuels, ou des métiers en col blanc : aujourd’hui, un avocat, un responsable d’assurances ou un banquier est plus concerné, a plus de chances d’être impacté dans son métier par ChatGPT qu’un couvreur, qu’un cuisinier ou qu’un livreur. Ce changement-là est intéressant aussi, parce que ça montre bien quelles compétences ça touche et que dès qu’on a affaire à de la donnée, qu’on doit l’automatiser, qu’on doit la traiter, que, finalement, on applique soi-même des algorithmes, forcément l’impact face à la machine est énorme. Ça peut erre des repères intéressants, mais ça devient une vraie réflexion personnelle sur ses compétences, ce qu’on aime, ce qu’on apporte sur la plus-value. Il faut vraiment accompagner les élèves à ça.
Pour l’instant, du côté des élèves, il y a aussi ce petit côté pas forcément de peur, mais un côté que j’appelle « le blues de l’IA » parce que c’est déprimant. C’est déprimant d’être face à quelque chose qui est meilleur que soi, plus rapide, qui a réponse à tout et c’est frustrant. Si on ne bouge pas les lignes et la manière d’apprendre, c’est effectivement compliqué de dire à un élève qu’il doit apprendre quelque chose qu’une machine peut lui donner en deux secondes et peut-être mieux qu’il ne le fera jamais. Cette question-là est mal posée et il faut sans doute apprendre autre chose et rassurer. On a une génération qui grandit avec des outils extrêmement puissants comme ça, qui grandit avec des générations d’images dont ils peuvent se dire « c’est sans doute faux ou pas vrai ou créé par une machine » et ce n’est plus juste de l’esprit critique comme nous, nous avons pu l’apprendre à l’école avec l’éducation aux médias. Quand ils voient une nouvelle information, ce n’est pas « c’est super, mais il faut que je la vérifie », c’est « c’est sans doute faux », parce que c’est la majorité des choses qui sortent. Finalement, il y a un côté de distance prise face à la découverte et il faut absolument le préserver parce que l’apprentissage c’est ça.
Donc il faut rassurer, il faut accompagner et il faut redonner envie d’explorer avec des outils qui, encore une fois, sont extrêmement riches et pertinents pour faire ça. On peut faire des choses avec ces IA qu’on ne pouvait pas faire avant, qui posent des nouvelles manières d’apprendre et qui sont passionnantes, ne serait-ce que pour le langage, pour le français, l’anglais : faire un texte rédigé avec la machine, inventer des histoires, imiter des styles d’auteurs, voir son histoire écrite par Jules Verne ou par des grands auteurs, travailler de manière collaborative avec d’autres élèves ou avec la machine, on ne pouvait pas le faire avant. La navigation dans le niveau de langage est quelque chose nouveau, que n’apportaient pas les traducteurs, et c’est extrêmement précieux pour l’exploration de la langue et le plaisir de créer.
Stéphanie d’Esclaibes : À quand, alors, une matière dans nos écoles autour de l’intelligence artificielle et de ces nouvelles compétences ?
Bastien Masse : Apparemment, ce n’est pas pour demain ! À l’école, on aborde l’intelligence artificielle un peu dans le programme de seconde, on l’évoque dans SNT, on évoque dans NSI. Ce n’est pas quelque chose qui est assumé, qui est présenté de manière technique. De toute façon, la question, c’est toujours ça : est-ce qu’on parle techniquement du fonctionnement, mais il faut quand même avoir les connaissances de base suffisantes, ou est-ce qu’on commence à poser des bases théoriques pour réfléchir sur ce à quoi on fait face en tant qu’individu dans la société ? C’est un peu le parti que je prends et ça peut se faire dès le plus jeune âge. Ça ne veut pas dire mettre plus d’écrans, même utiliser des écrans. On peut faire du débranché, on peut faire de l’accompagnement à travers les concepts. On peut commencer à poser les bases de cette réflexion-là qui fera que quand on sera exposé à ces outils, on aura déjà à une meilleure compréhension pour se faire son idée dessus.
Avant de faire une matière ou une filière entière IA pour tous, parce qu’il faudrait que ce soit aussi ça, il faudrait que ce soit pour tous les élèves, peut-être qu’on pourrait déjà distiller, de manière plus assumée, les concepts et les réflexions qui nous permettent de mieux comprendre et de faire face à tous ces changements technologiques.
Stéphanie d’Esclaibes : Et ça devient même des enjeux philosophiques en soi.
Bastien Masse : Oui. Pour moi, c’est souvent la question qu’il y a derrière. C’est pour ça qu’on a une approche citoyenne, avec une réflexion interdisciplinaire, parce que répondre techniquement, ça ne répond pas à grand-chose, en fait. La question qu’il y a derrière c’est : qu’est-ce qui me dérange dans cet outil ? Et, encore une fois, ce sont des questions bien plus profondes et c’est pour cela que c’est passionnant de discuter avec des élèves de sept et dix ans d’intelligence, de mettre les animaux, les machines et les humains et de voir un peu les différences. On a des réponses et des observations qui montrent la maturité qu’ils ont là-dessus, l’envie de comprendre, que ça ne leur semble pas si compliqué, finalement, mais ça les aide à distinguer et à comprendre, parce que de plus en plus jeunes y sont habitués à interagir avec des machines, à leur poser des questions, à être aussi sûr du langage de plus haut niveau. Ça, c’est la chose qui a changé. Interagir avec une machine, c’est faire des lignes de code, il y a un peu plus d’abstraction qui se fait, il faut de la connaissance, la frontière est plus épaisse. Quand on peut parler avec une machine à l’oral, qu’elle nous répond, on va avoir tendance, même nous, à développer des tics, à dire merci, à dire s’il te plaît et les enfants sont très sensibles à ça. Pourquoi devraient-ils faire une différence ?
Je pense qu’explorer ça avec eux et les questions fondamentales qu’il y a derrière, c’est important pour leur construction et leur compréhension de ces outils.
Stéphanie d’Esclaibes : C’est certain. On arrive déjà à la fin. Est-ce que tu aurais des ressources à recommander à tous nos auditeurs pour se plonger dans ce devoir citoyen qui est maintenant primordial ?
Bastien Masse : Le MOOC sur l’intelligence artificielle qui a été créé par Class'Code, qui est toujours disponible, donc sur la plateforme Fun MOOC, il est en accès libre, gratuit et continu.
Pour les enseignants, ce serait sans doute plus le manuel ouvert d’usage des IA, qui est vraiment plus théorique, qui pose justement cette question de compréhension de l’intelligence artificielle, mais surtout de son usage dans un cadre éducatif.
Et après, peut-être plus pour de la médiation, il y a quelques bonnes vidéos de médiation qu’on peut trouver sur YouTube et qui peuvent expliquer un petit peu plus techniquement comment fonctionnent ces modèles-là, ce qui permet aussi de rassurer, de voir un petit peu l’architecture et la mécanique qu’il y a derrière, sur des vidéos qui sont bien faites et où on peut comprendre sans avoir forcément trop de prérequis techniques derrière, c’est quand même rassurant et agréable.
Stéphanie d’Esclaibes : Super. Je te demanderai les liens par mail pour que je puisse les mettre en description de cet épisode du podcast.
Merci beaucoup, Bastien, c’était passionnant et je pense que c’est chouette de démarrer la rentrée avec cette discussion autour de l’intelligence artificielle et ChatGPT.
Bastien Masse : Merci à vous pour l’invitation et bonne rentrée à tout le monde.
Stéphanie d’Esclaibes : À bientôt.