« Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
(Page créée avec « Catégorie:Transcriptions '''Titre :''' Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme ? '''Intervenant·e·s :''' Van... »)
 
Ligne 50 : Ligne 50 :


==11’ 47==
==11’ 47==
<b>Vanda Luengo :</b>Bonjour. Je suis Vanda Luengo, chercheur au LIP6, mais surtout dans une équipe de recherche qui travaille sur l‘IA en éducation. L’IA en éducation ce n’est pas du tout ce dont on parle aujourd’hui, ce qui est à la mode, il y a peut-être un petit peu d’IA générative et peut-être qu’on va utiliser ce type de chose, mais la recherche dans notre domaine est assez différente. Je tenais quand même à expliquer un petit ce que nous faisons en IA en éducation.<br/>
C’est une communauté internationale. Il y a une conférence prévue qui s’appelle AIED [<em>International Conference on Artificial Intelligence in Education</em>, il y a bientôt la conférence qui a lieu au Japon tous les ans. Au niveau français on a une communauté qui fait d’autres choses que de l’IA, mais à la conférence AIED la semaine prochaine à Brest, il y a des chercheurs dans notre domaine qui vont présenter des articles sur l’IA en éducation.<br/>
C’est quoi l’IA en éducation ? En fait ce sont des IA, comme on disait tout à l’heure, qui ne se dédient qu’à un seul type de connaissance, un seul type d’expertise.<br/>
Dans l’IA éducation, il y a trois ou quatre types d’expertise qui nous intéressent, la première c’est l’apprenant. On va beaucoup travailler sur modéliser cet apprenant, modéliser les erreurs, diagnostiquer les erreurs, diagnostiquer les métaconnaissances, les modèles. Il y a, par exemple, des outils de prédiction d’abandon des MOOC qui fonctionnent très bien, qui vont dire « il va abandonner le MOOC », peut-être pas liés aux connaissances, qui sont des articles qui ont été publiés il y a quatre ou cinq ans quand il y avait des conférences sur les MOOC. C’est le type de recherche typique dans notre domaine. On va déjà modéliser l’apprenant. On va essayer de comprendre certains phénomènes sans les millions et les millions de données, parce que les élèves – les chats, vous voyez déjà –, vous imaginez les élèves du primaire jusqu’à l’université, très créatifs, avec beaucoup d’erreurs auxquelles on ne s’attendait pas, etc. ; c‘est déjà un domaine, le côté modélisation de l’apprenant. Avec les systèmes experts on faisait déjà ce travail de modéliser, les données nous ont amenés une richesse différente, donc on modélise les apprenants.


<b>Vanda Luengo :</b>Bonjour
On modélise les connaissances à enseigner. On va chercher à modéliser, par exemple, la résolution des problèmes en géométrie, il y a des domaines beaucoup plus difficiles qu’on appelle mal définis. J’avais beaucoup travaillé, quand j’étais à Grenoble, en chirurgie orthopédique. Donc modéliser ces connaissances, raisonner sur ces connaissances pour pouvoir, après, expliquer à l’apprenant, en tout cas au chirurgien, comment faire les bons gestes, pourquoi ils sont bons, etc. C’est aussi une dimension à laquelle on s’intéresse : modélisation les connaissances à enseigner.
 
Le troisième, en anglais on dit « modèle pédagogique », qui est un peu maladroit, parce qu’en France on fait la différence entre la didactique, la pédagogie, etc., c’est donc cet aspect-là : comment modéliser le tuteur qui a des connaissances d’enseignement. Donc comment on va adapter, à quel moment on va faire un feed-back, à quel moment on va interagir ou pas, laisser l’élève dans sa tâche ? Ce sont encore des chercheurs qui travaillent actuellement sur ces données-là, d’ailleurs certains ont déjà commencé, ils ont déjà publié sur utiliser les aspects génératifs de ChatGPT comme un outil, comme un marteau pour produire les bons feed-back. On demande à ChatGPT des petites choses, mais après le côté intelligent dans ce domaine n’est pas dans ChatGPT, c’est plutôt on comprend ce qu’a fait l’apprenant, on comprend l’erreur, on diagnostique et on essaie de s’adapter par feed-back immédiat, différé, etc.
 
Enfin, une dernière qu’on appelle interaction, c’est, comme on disait tout à l’heure, comment savoir interagir avec l’élève, l’apprenant, celui qui est en train de se former pour lui donner la bonne forme et fond du feed-back.
 
Toutes ces recherches existent depuis vraiment plus de 30 ou 40 ans et qui font avancer beaucoup moins rapidement que ChatCPT, on n’a pas tous ces millions de données, on n’est pas non plus dans la lumière, si on n’est pas dans la lumière on n’a pas les budgets. Il y a en effet des recherches depuis assez longtemps sur les aspects collaboratifs aussi, comment comprendre le collaboratif, comment soutenir les interactions entre apprenants.<br/>
Il y a donc des tonnes de recherche dans ce domaine. Je tenais que c’est un domaine assez intéressant, si vous ça intéresse je pourrai vous donner après des pointeurs.
 
<b>Marc Oddon :</b>Bonjour à toutes et à tous. Je suis très content d’être ici parce que je viens d’un territoire un peu excentré, Grenoble, mais où l’informatique a une histoire, une grande histoire liée à la recherche, liée au développement. Je suis un passionné de la formation tout au long de la vie et actuellement j’ai une casquette supplémentaire : je suis aussi président du comité de suivi de licence/master/doctorat qui a, en France, la partie de la discussion sur les fiches ANCP [Association Nationale des Conseillers Pédagogiques] entre autres, la cohérence des formations et les contenus. Bien entendu, on a parlé des outils. Je trouve très intéressant de se poser la question. Parfois j’ai l’impression qu’on se dit « on a fabriqué ou outil, mais à quoi peut-il servir ? »<br/>
On se rend compte que dans notre communauté universitaire, dans le lien qu’on a avec les entreprises sur le territoire, ce sujet vient et j’aime bien le titre de notre table ronde « changement de paradigme ». Platon dit que le paradigme consiste à examiner un exemple concret et à en tirer des conséquences plus larges.<br/>
Je tiens à dire que ce qui était, on va dire, assez confidentiel ou peut-être laissait rêver est arrivé, par des exemples concrets, en pleine force au milieu de nos universités. Sur Grenoble on a aussi un Institut MIAI [<em>Multidisciplinary Institute in Artificial Intelligence</em>], on a aussi un projet de plan d’investissement d’avenir avec l’effet de l’IA et aujourd’hui on s’est posé la question en disant : former qui ? À quel niveau ? Comment, quels sont les besoins aujourd’hui pour que notre pays, nos entreprises, nos universités puissent ne pas rater le train ? Ça a été dit tout à l’heure, j’ai beaucoup apprécié : arrêtez de faire de l’autoflagellation. On a en France des compétences, on va dire un niveau de recherche et de connaissance de ces domaines-là qui est extraordinaire. La question c’est comment on va réussir, on va accompagner cette transformation pour que les objectifs de formation de nos diplômes prennent en compte on va dire le capital humain, ça nous va bien pour les universités, peut-être mettre en opposition le capital humain et le capital signal, c’est-à-dire comment on va développer les compétences transversales, transférables, les <em>soft skills</em>, comme on les appelle parfois sur certaines choses, je ne vais pas rentrer dans le détail, pour qu’on puisse s’adapter à la professionnalisation de demain. Voilà les enjeux.
 
<b>Sophie Pène :</b>Nous voilà avec une première vision de notre territoire familier, de l’ESR, avec un scientifique face à des transformations de sa pratique pédagogique, une vision générale qui fait qu’il y a dans l’ESR une activité de veille, de partage, de vulgarisation qui fait que beaucoup de gens sont d’ores et déjà sensibilisés avec leur culture scientifique, avec leurs pratiques, avec le fait qu’ils ont déjà expérimenté énormément de requêtes qu’ils ont joué, et qu’en jouant, en regardant, en les comparant, on a déjà amorcé des compétences. Vanda Luengo a raison de rappeler qu’il y a une recherche solide qui n’est peut-être pas sur ce même rythme mais qui va être le socle à partir duquel on peut travailler aujourd’hui. Et puis les préoccupations morales, politiques, citoyennes de nos universités pour être en phase avec les besoins humains, les besoins du territoire.<br/>
Néanmoins, on est dans une situation où là pour la première fois on attendait depuis longtemps, Vanda, tes assistants pédagogiques pour l’apprentissage et vlan ! Voilà un simili assistant pédagogique qui nous arrive, où l’apprenant nous dit « je n’ai pas besoin d’être modélisé, ça y est, j’ai mon assistant, je te remercie, je l’ai en main, il est comme un smartphone, en quelque sorte, et je vais aller très vite ».
 
Dans ce deuxième tour de notre discussion, on va se mettre dans la place où on voit d’une part qu’on a des professeurs qui sont quand même possiblement déboussolés par le fait que les exercices qu’ils donnent peuvent donner lieu à des générations automatiques de propositions avec une falsifiabilité, un caractère éventuellement mensonger, plagiaire en quelque sorte. On est en train de brutaliser la convention ordinaire qui est « je ne copie pas, j’apprends par moi-même, j’utilise des patterns qui sont j’imite d’abord ce que le prof m’a dit et puis je comprends que derrière la mécanique il y a de l’intelligence et c’est comme ça que je me forme ». Ce n’est pas la première fois avec Internet, mais là, tout d’un coup, on a un résultat immédiat qui est un peu différent de la requête à Wikipédia, de la recherche dans Wikipédia ou de la recherche dans les sources.<br/>
Toute la question forte dans nos universités : la fiabilité des sources, la stabilité d’un résultat – le résultat c’est clef pour nous –, tout d’un coup on a des gammes de résultats, il faut remonter à la source du process. On a beaucoup de choses qui se passent comme ça. On va maintenant discuter ensemble sur ce qui se passe dans la classe, d’une part en termes d’une nouvelle forme de conduite de la classe y compris à l’université au sens où nos étudiants s’équipent différemment, vont être équipés différemment quoi qu’on en dise puisque cet outil est arrivé directement au grand public, en plus il n’était pas fait pour l’apprentissage, mais il se révèle, comme parfois tant d’outils numériques, plus adapté, plus affordant que des outils que qui sont préparés de longue date. Donc que va-t-on faire pédagogiquement ? En quoi y a-t-il des choses à recaler tout de suite dans la pratique pédagogique ? En quoi y a-t-il des choses nouvelles à entrer dans les formations et à apprendre ? En quoi aussi ça peut nous aider à réaliser mieux nos missions et à être mieux encore au service des savoirs et de la réussite des étudiants ? David.
 
<b>David Cassagne :</b>Ça pose effectivement des questions. La première réaction de la communauté ça a été la question de la triche dans les évaluations. On n’est pas dans le plagiat, on n’est pas dans quelque chose qu’on pourrait identifier comme du plagiat puisqu’on ne peut pas attribuer le travail à une personne. On est plus dans quelque chose qui s’apparente à la situation d’un étudiant qui se serait fait aider par un copain, par son frère, sa sœur, avec, en plus, une difficulté pour détecter la chose. On en a parlé, il y a des centaines de modèles différents et il n’y a pas d’outil fiable pour détecter.<br/>
Ça a été le sujet qui a beaucoup interrogé, les évaluations, mais les évaluations sont des choses qu’on peut transformer. Pour ma part j’enseigne des aspects qui sont liés à la physique numérique, j’ai pris un examen, j’ai regardé : sur les quatre exercices que j’avais donnés l’an dernier, ChatGPT faisait l’un des quatre très bien. Comme, en plus, c’est un examen en salle informatique, avec accès à Internet, eh bien il fallait changer cet exercice. On pouvait le changer.<br/>
Après, je pense qu’il faut faire la part des choses. Toutes les modalités d’évaluation ne vont pas être impactées. Il y a toujours des évaluations qui se font avec des devoirs sur table, il y a toujours des évaluations qui se font avec des oraux.<br/>
Il y a donc des aspects d’adaptation, mais après il faut voir aussi tout le bénéfice que peuvent apporter ces outils puisque ça peut être des instruments pour pouvoir arriver à avoir un assistant pour créer des quiz, un assistant pour créer des feed-back, assistant pour créer des contenus et ça peut être aussi utilisé dans les activités avec des apprenants.<br/>
C’est un de mes sujets en tant que vice-président et ça fait un moment que je m’intéresse à ce sujet du numérique au service de la pédagogie, je pense que sur le numérique au service de la pédagogie ça donne une nouvelle dimension dans les possibilités offertes.<br/>
Je pense qu’il va y avoir, avec ces outils, une dimension de transformation sur la forme, mais aussi sur le fond : sur la forme, c’est-à-dire sur la façon de faire les enseignements, mais aussi sur le fond parce qu’on ne va pas enseigner la même chose à partir du moment où on a ces différents outils, de la même façon que quand il y a eu la calculatrice on n’a plus enseigné de la même manière. C’est donc une transformation au niveau de l’enseignant. Changement de paradigme oui, sur la façon dont on va notamment organiser des activités, peut-être plus développer l’esprit critique chez les étudiants.<br/>
C’est aussi un changement fort pour les apprenants, pour les étudiants, parce que c’est aussi un changement dans la façon dont ils vont accéder à l’information. On voit bien que les moteurs de recherche vont être directement impactés, on peut citer l’alerte rouge qu’il y a eu chez Google avec l’arrivée de ChatGPT où ils ont dit « il faut absolument arriver à transformer les choses et prendre cela en compte ». Donc les étudiants dans la façon dont ils vont rechercher de l’information, dans la façon dont ils vont faire leurs productions et également les étudiants avec la possibilité d’avoir des tuteurs basés sur ces outils.<br/>
Il faut quand même toujours prendre des précautions. On a parlé des hallucinations, des biais. C’est pour cela que je dis qu’il faut faire attention à la façon dont on utilise ces choses-là, ne pas prendre ça pour des moteurs de recherche. Par contre, la façon dont on va les utiliser de manière à apporter des choses positives, c’est-à-dire résumer, créer et ainsi de suite, ce sont des choses auxquelles les enseignants doivent être formés, les étudiants doivent être formés. Il y a, à mon avis, tout un travail là-dessus qui est assez passionnant.
 
<b>Sophie Pène :</b>Je voudrais te poser une petite question pour approfondir, vérifier un point. Il y a beaucoup de pratiques cognitives qui, indépendamment des modélisations, restent invisibles et sont en quelque sorte implicites, spontanées, secrètes, laissent des marques quand il y a des brouillons, des prises de notes, mais il n’y a pas toujours des traces. Là on voit bien que si on veut que les professeurs puissent dialoguer de façon transparente avec leurs étudiants, il va falloir qu’on les mette au jour et qu’on accepte de les partager, ça veut dire qu’il faut qu’y ait un principe de morale, un principe de confiance. Il y a aussi une relation qui est d’emblée modifiée parce qu’il faut que les étudiants acceptent la proposition qu’on leur fait, c’est-à-dire de raconter, par exemple, les <em>prompts</em> qu’ils ont utilisés.<br/>
Est-ce qu’il n’y a pas aussi, possiblement, un nouveau contrat pédagogique, une nouvelle confiance à établir pour qu’on partage autre chose que le résultat ?
 
<b>David Cassagne :</b>Dans la façon dont on peut transformer les évaluations, il y a notamment leur demander plus de traces et aussi exprimer la démarche qu’ils ont eue au travers de leur travail plutôt que de se limiter simplement à un rendu, c’est effectivement quelque chose d’important.<br/>
Après, le point qu’il y a aussi : s’il y a quelque chose qui est rendu à l’écrit où effectivement on aura du mal à faire la part des choses entre la part du travail personnel et concrètement ce qui a été vraiment appris par les étudiants, des mécanismes au travers de l’oral et d’autres mécanismes peuvent intervenir.
 
Une chose dont je n’ai pas parlé, à mon avis importante, au niveau des étudiants il y a aussi des remises en question fortes qui peuvent apparaître par rapport à la motivation qu’il y a à apprendre et par rapport aux tâches qu’on va leur donner. Je pense que ça va aussi nous inviter à changer nos pratiques parce que si on leur demande des choses pour lesquelles ils ont l’impression que finalement on est face à ce que j’appellerais des évaluations artificielles, des évaluations qui ne correspondent pas à ce qu’est la vraie vie et la vraie vie va être une vie où on aura la possibilité d’utiliser des intelligences artificielles génératives, on risque de se retrouver aussi en difficulté.<br/>
Donc avoir peut-être des évaluations plus authentiques, plus orientées sur les compétences.
 
<b>Sophie Pène :</b>Très bien.
 
==29’ 15==
 
<b>Alain Goudey :</b>

Version du 6 août 2023 à 08:18


Titre : Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme ?

Intervenant·e·s : Vanda Luengo - David Cassagne - Alain Goudey - Marc Oddon - Sophie Pène

Lieu : Dock B · Paris Pantin - Conférence IA & éducation

Date : 8 juin 2023

Durée : 1 h 30 min 33

Vidéo

Page de présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sophie Pène :Pour commencer les débats qui vont nourrir ces deux journées, l’idée est que cette première table ronde installe un vocabulaire commun, des préoccupations communes qui ont déjà été posées par l’intervention inaugurale de Catherine Mongenet, de très façon très complète, et que chacun des intervenants qui sont ici avec moi et qui vont se présenter vont commencer à installer avec vous. Dans cette table ronde on va commencer le partage des pratiques, le partage des questions et puis l’installation des bases qui vont nous mener jusqu’à des propositions, puisque ces deux journées, qui vont être très fertiles, ont pour but d’équiper l’ESR [Enseignement supérieur et recherche] pour mener cette traversée que Luc Julia a installée et puis, en même temps, en nous redonnant quelques confiances et quelques encouragements à ne pas être perdus dans cette accélération extrêmement brutale qui nous a pris un peu de cours au début.

Je présente rapidement les intervenants :
David Cassagne, président de FUN [France Université Numérique], vice-président délégué au Numérique à l’Université de Montpellier et professeur de physique, ayant déjà une pratique pédagogique incluant les IA ;
Alain Goudey, directeur général NEOMA qui s’est fait connaître, bien sûr, outre son parcours précédent, qui est maintenant notre héraut de l’intelligence artificielle, qu’on suit tous sur Twitter puisqu’il nous fait la veille, l’analyse et il extrait les informations qui peuvent intéresser la communauté ;
Vanda Luengo, chercheur au LIP6, professeure d’informatique et au laboratoire LIP6 Sorbonne Université ; Marc Oddon, vice-président formation continue, apprentissage et insertion professionnelle à l'Université Grenoble Alpes, qui est aussi impliqué dans FUN, je crois.
Je vous donne la parole, peut-être, David, tu commences. Chacun de vous va se présenter un peu mieux et puis dire ce à quoi il tient et, en quelque sorte, quel mot clef, quel premier mot de vocabulaire ou quelle notion importante il met à votre disposition, dans la suite de ce qu’a fait Luc Julia, pour commencer à discuter ensemble.

David Cassagne :Je vais déjà parler plus, finalement, avec ma casquette de vice-président de l’Université de Montpellier et également en tant que physicien, enseignant, puisque l’intelligence artificielle est un sujet dont on est amené à s’emparer dans toutes les disciplines. Dans le cas des enseignements de master en physique, depuis deux ans déjà, on a introduit des enseignements d’introduction d’intelligence artificielle pour la physique.
Pour venir sur les sujets qui m’interpellent, surtout dans l’accélération que j’ai pu voir au cours des dernières années, c’est la dimension d’émergence. En physique, un physicien célèbre, Philip Anderson, prix Nobel de physique en 1977, a eu un article célèbre qui était intitulé « More is Different ». L’idée c’est effectivement que quand on va être dans des systèmes dans lesquels on va augmenter fortement le nombre de constituants, on peut avoir des comportements qui sont des comportements émergents. Actuellement en particulier, dans les grands modèles de langage comme ChatGPT où, comme ça a été dit pour la version 3.5, on est avec 175 milliards de paramètres, on constate qu’il va y avoir des capacités émergentes. On n'est pas dans une émergence qui serait une intelligence artificielle générale, il faut être raisonnable par rapport à ça. Étant donné que, pour comprendre ces capacités émergentes, on ne peut pas se limiter simplement à comprendre les constituants élémentaires en particulier des réseaux de neurones qui sont constitués, ça veut dire qu’il y a une complexité plus importante, plus de difficultés à interpréter ce qui s’y passe et je pense que c’est quelque chose qui va poser des questions à la fois par rapport aux aspects d’explicabilité, même si, effectivement, c’est l’objectif, mais ça peut demander du temps. En physique, quand on a des phénomènes émergents ça peut être compliqué pour pouvoir arriver à les comprendre et aussi en termes de régulation.
Le deuxième aspect qui, pour moi, interpelle dans les outils des IA génératives c’est le caractère non déterministe. C’est-à-dire que quand on est justement avec ChatGPT, un grand modèle de langage, il y a une prédiction statistique du mot suivant mais, en réalité, il y a un tirage aléatoire qui est effectué parmi ces mots avec une certaine pondération, c’est ce qui fait donc qu’à chaque fois que l’on va poser la même question on va avoir une réponse différente. Je pense que c’est quand même très différent des usages qu’on pouvait avoir auparavant en informatique de différents outils : quand on a un moteur de recherche, on peut lui poser plusieurs fois la même question, on va avoir la même réponse. Là non, à chaque fois on a quelque chose qui est différent et là aussi ça va interroger par rapport des aspects d’explicabilité.
Ce sont, pour moi, les deux aspects qui sont effectivement les plus troublants dans ces nouveaux outils.

Alain Goudey :Merci. Très rapidement, Alain Goudey, directeur général adjoint en charge du numérique à NEOMA, que vous connaissez peut-être, une école de management qui fait partie des sept meilleures écoles de commerce en France. La spécificité de NEOMA c’est qu’on a l’innovation au cœur de notre stratégie et le sujet de l’IA est un sujet démesurément nouveau. Ce qui intéressant, avec les effets de mode, c’est que tout le monde va dire ça, vous allez vous en rendre compte, on a tous un truc où on avait déjà l’IA depuis quelque temps.
En fait l’IA, ça a été rappelé par Luc Julia, c’est 1956, ce n’est pas un truc très nouveau. Avant les IA génératives, il y avait plein d’autres formes, plein d’autres outils et dans la pédagogie, tu en parleras je crois, il y a énormément de choses qu’on peut faire avec l’IA. Mais IA n’est pas égale à IA générative. L’IA générative est seulement une partie de ce plus grand ensemble que sont les IA, les intelligences artificielles. À l’intérieur de cette petite partie qu’on appelle IA génératives il y a les LLM, puisqu’on m’a demandé de parler de ce terme-là. LLM ça veut dire Large Langage Model. Les trois sont extrêmement importants.
Le premier mot c’est « large » et tu en as parlé avec le phénomène d’émergence. En gros qu’a-t-on fait ? On a modélisé, puisque, en fait, il y a un phénomène qu’on appelle tokenisation, en gros c’est l’extraction mathématique des textes qu’on a fait ingérer à ces large langage models, dont GPT 3.5 ou 4 sont un des milliers de modèles existant au monde aujourd’hui, il y en a beaucoup d’autres. Ne réduisez pas le sujet à ChatGPT, je peux en citer plein d’autres, des trucs dont vous n’avez peut-être pas encore entendu parler, durant la pause on parlait de modèles comme LLaMA [Large Language Model Meta AI], comme Alpaca, comme Falcon ; ces mots ne vous disent peut-être rien parce que ce n’est pas médiatisé, mais, en fait ils existent, ils sont extrêmement puissants.
Ce « large » est extrêmement important parce que, du coup, on a fait absorber en gros 50 millions de livre à l’IA, ce sont à peu près les chiffres qui circulent, ce sont effectivement des milliards de mots et on a extrait, comme ça, un modèle mathématique avec 175 milliards de paramètres à l’intérieur de ce modèle.

Le deuxième terme qui est extrêmement important, c’est « langage ». On se base sur des textes, ce que fait GPT, ce que fait Google Bard, ce que font les Falcon et autres : ils ont ingéré du texte et vont générer du texte, donc basé sur du langage.
Ce qui est important à avoir en tête quand on parle de langage, on parle forcément, finalement, d’une culture – parce que derrière une langue il y a une culture, c’est basique – et derrière cette culture, il y a une vision du monde. Là où je veux en venir, c’est qu’en fait dans tous les modèles larges, donc les LLM, on a forcément des notions de biais, ça a été évoqué tout à l’heure, mais on a aussi des biais qui peuvent être des biais implicites. Ce n’est pas parce qu’on va trier en disant « ça c’est une source sure et là c’est une source qui dit que la Terre est plate, on sait que ce n’est pas vrai, donc on met de côté », même si vous ne mettez que des sources sures il y aura forcément des biais parce que, de toute façon, l’humain est pétri, rempli de biais pour comprendre le monde qui l’entoure. C’est important à comprendre parce que, du coup, derrière cette notion de langage il y a forcément une vision du monde et forcément des biais liés à cette vision du monde.
Par rapport à la question qui était posée tout à l’heure : est-ce que ça serait pertinent qu’on ait un LLM français ou européen ?, je réponds deux fois oui. Le français n’est clairement pas la langue la moins parlée dans le monde, je crois que c’est la cinquième, de mémoire, quelque chose comme ça. Évidemment, à l’échelle de l’Europe avec 27 pays, 27 langues et 27 visions du monde ce serait quand même une richesse extrêmement pertinente par rapport à un modèle beaucoup plus monolithique si on parle de celui de GPT~4 qui est entraîné sur des données principalement anglo-saxonnes avec tous les biais de la vision anglo-saxonne du monde. Le plus gros référentiel d’entraînement dans GPT c’est la base des brevets américains que Google indexe. C’est le deuxième terme, langage.

Le troisième terme c’est « modèle ». Il faut intégrer que les outils dont on entend parler d’un point de vue médiatique, comme ChatGPT, comme Midjourney, sont en fait des outils de navigation à l’intérieur de ces modèles, je ne veux pas rentrer dans les notions d’espace patent, d’espace vectoriel multi-dimensions, mais, en gros, c’est ça le principe. En fait, quand on écrit un prompt, donc une consigne – je n’ai jamais trouvé de terme vraiment bien, je trouve que consigne ce n’est pas mal – pour une intelligence artificielle générative, en fait c’est le véhicule qui va permettre à l’outil de converger vers une réponse, statistiquement comme tu l’expliquais, cohérente, pas forcément signifiante et c’est là où est toute la nuance. Ces outils ne comprennent absolument rien à ce qu’on indique comme consigne, ils ne comprennent absolument rien à ce qu’ils fournissent comme résultat et derrière, effectivement, il n’y a pas une once d’intelligence, juste rien par rapport à ce qu’est l’intelligence humaine. Ce qui va faire, en fait, que ce résultat va converger vers quelque chose d’utilisable, c’est justement l’humain qui est en train de piloter cet outil. Quand vous entendez partout « l’IA va remplacer l’humain partout, tous les métiers, etc., », c’est fondamentalement faux. Ce sont les personnes qui savent utiliser ces outils qui vont peut-être, effectivement, remplacer des personnes qui finalement ne vont pas explorer. Et là on voit bien tout le challenge qui est devant nous en termes de formation.

11’ 47

Vanda Luengo :Bonjour. Je suis Vanda Luengo, chercheur au LIP6, mais surtout dans une équipe de recherche qui travaille sur l‘IA en éducation. L’IA en éducation ce n’est pas du tout ce dont on parle aujourd’hui, ce qui est à la mode, il y a peut-être un petit peu d’IA générative et peut-être qu’on va utiliser ce type de chose, mais la recherche dans notre domaine est assez différente. Je tenais quand même à expliquer un petit ce que nous faisons en IA en éducation.
C’est une communauté internationale. Il y a une conférence prévue qui s’appelle AIED [International Conference on Artificial Intelligence in Education, il y a bientôt la conférence qui a lieu au Japon tous les ans. Au niveau français on a une communauté qui fait d’autres choses que de l’IA, mais à la conférence AIED la semaine prochaine à Brest, il y a des chercheurs dans notre domaine qui vont présenter des articles sur l’IA en éducation.
C’est quoi l’IA en éducation ? En fait ce sont des IA, comme on disait tout à l’heure, qui ne se dédient qu’à un seul type de connaissance, un seul type d’expertise.
Dans l’IA éducation, il y a trois ou quatre types d’expertise qui nous intéressent, la première c’est l’apprenant. On va beaucoup travailler sur modéliser cet apprenant, modéliser les erreurs, diagnostiquer les erreurs, diagnostiquer les métaconnaissances, les modèles. Il y a, par exemple, des outils de prédiction d’abandon des MOOC qui fonctionnent très bien, qui vont dire « il va abandonner le MOOC », peut-être pas liés aux connaissances, qui sont des articles qui ont été publiés il y a quatre ou cinq ans quand il y avait des conférences sur les MOOC. C’est le type de recherche typique dans notre domaine. On va déjà modéliser l’apprenant. On va essayer de comprendre certains phénomènes sans les millions et les millions de données, parce que les élèves – les chats, vous voyez déjà –, vous imaginez les élèves du primaire jusqu’à l’université, très créatifs, avec beaucoup d’erreurs auxquelles on ne s’attendait pas, etc. ; c‘est déjà un domaine, le côté modélisation de l’apprenant. Avec les systèmes experts on faisait déjà ce travail de modéliser, les données nous ont amenés une richesse différente, donc on modélise les apprenants.

On modélise les connaissances à enseigner. On va chercher à modéliser, par exemple, la résolution des problèmes en géométrie, il y a des domaines beaucoup plus difficiles qu’on appelle mal définis. J’avais beaucoup travaillé, quand j’étais à Grenoble, en chirurgie orthopédique. Donc modéliser ces connaissances, raisonner sur ces connaissances pour pouvoir, après, expliquer à l’apprenant, en tout cas au chirurgien, comment faire les bons gestes, pourquoi ils sont bons, etc. C’est aussi une dimension à laquelle on s’intéresse : modélisation les connaissances à enseigner.

Le troisième, en anglais on dit « modèle pédagogique », qui est un peu maladroit, parce qu’en France on fait la différence entre la didactique, la pédagogie, etc., c’est donc cet aspect-là : comment modéliser le tuteur qui a des connaissances d’enseignement. Donc comment on va adapter, à quel moment on va faire un feed-back, à quel moment on va interagir ou pas, laisser l’élève dans sa tâche ? Ce sont encore des chercheurs qui travaillent actuellement sur ces données-là, d’ailleurs certains ont déjà commencé, ils ont déjà publié sur utiliser les aspects génératifs de ChatGPT comme un outil, comme un marteau pour produire les bons feed-back. On demande à ChatGPT des petites choses, mais après le côté intelligent dans ce domaine n’est pas dans ChatGPT, c’est plutôt on comprend ce qu’a fait l’apprenant, on comprend l’erreur, on diagnostique et on essaie de s’adapter par feed-back immédiat, différé, etc.

Enfin, une dernière qu’on appelle interaction, c’est, comme on disait tout à l’heure, comment savoir interagir avec l’élève, l’apprenant, celui qui est en train de se former pour lui donner la bonne forme et fond du feed-back.

Toutes ces recherches existent depuis vraiment plus de 30 ou 40 ans et qui font avancer beaucoup moins rapidement que ChatCPT, on n’a pas tous ces millions de données, on n’est pas non plus dans la lumière, si on n’est pas dans la lumière on n’a pas les budgets. Il y a en effet des recherches depuis assez longtemps sur les aspects collaboratifs aussi, comment comprendre le collaboratif, comment soutenir les interactions entre apprenants.
Il y a donc des tonnes de recherche dans ce domaine. Je tenais que c’est un domaine assez intéressant, si vous ça intéresse je pourrai vous donner après des pointeurs.

Marc Oddon :Bonjour à toutes et à tous. Je suis très content d’être ici parce que je viens d’un territoire un peu excentré, Grenoble, mais où l’informatique a une histoire, une grande histoire liée à la recherche, liée au développement. Je suis un passionné de la formation tout au long de la vie et actuellement j’ai une casquette supplémentaire : je suis aussi président du comité de suivi de licence/master/doctorat qui a, en France, la partie de la discussion sur les fiches ANCP [Association Nationale des Conseillers Pédagogiques] entre autres, la cohérence des formations et les contenus. Bien entendu, on a parlé des outils. Je trouve très intéressant de se poser la question. Parfois j’ai l’impression qu’on se dit « on a fabriqué ou outil, mais à quoi peut-il servir ? »
On se rend compte que dans notre communauté universitaire, dans le lien qu’on a avec les entreprises sur le territoire, ce sujet vient et j’aime bien le titre de notre table ronde « changement de paradigme ». Platon dit que le paradigme consiste à examiner un exemple concret et à en tirer des conséquences plus larges.
Je tiens à dire que ce qui était, on va dire, assez confidentiel ou peut-être laissait rêver est arrivé, par des exemples concrets, en pleine force au milieu de nos universités. Sur Grenoble on a aussi un Institut MIAI [Multidisciplinary Institute in Artificial Intelligence], on a aussi un projet de plan d’investissement d’avenir avec l’effet de l’IA et aujourd’hui on s’est posé la question en disant : former qui ? À quel niveau ? Comment, quels sont les besoins aujourd’hui pour que notre pays, nos entreprises, nos universités puissent ne pas rater le train ? Ça a été dit tout à l’heure, j’ai beaucoup apprécié : arrêtez de faire de l’autoflagellation. On a en France des compétences, on va dire un niveau de recherche et de connaissance de ces domaines-là qui est extraordinaire. La question c’est comment on va réussir, on va accompagner cette transformation pour que les objectifs de formation de nos diplômes prennent en compte on va dire le capital humain, ça nous va bien pour les universités, peut-être mettre en opposition le capital humain et le capital signal, c’est-à-dire comment on va développer les compétences transversales, transférables, les soft skills, comme on les appelle parfois sur certaines choses, je ne vais pas rentrer dans le détail, pour qu’on puisse s’adapter à la professionnalisation de demain. Voilà les enjeux.

Sophie Pène :Nous voilà avec une première vision de notre territoire familier, de l’ESR, avec un scientifique face à des transformations de sa pratique pédagogique, une vision générale qui fait qu’il y a dans l’ESR une activité de veille, de partage, de vulgarisation qui fait que beaucoup de gens sont d’ores et déjà sensibilisés avec leur culture scientifique, avec leurs pratiques, avec le fait qu’ils ont déjà expérimenté énormément de requêtes qu’ils ont joué, et qu’en jouant, en regardant, en les comparant, on a déjà amorcé des compétences. Vanda Luengo a raison de rappeler qu’il y a une recherche solide qui n’est peut-être pas sur ce même rythme mais qui va être le socle à partir duquel on peut travailler aujourd’hui. Et puis les préoccupations morales, politiques, citoyennes de nos universités pour être en phase avec les besoins humains, les besoins du territoire.
Néanmoins, on est dans une situation où là pour la première fois on attendait depuis longtemps, Vanda, tes assistants pédagogiques pour l’apprentissage et vlan ! Voilà un simili assistant pédagogique qui nous arrive, où l’apprenant nous dit « je n’ai pas besoin d’être modélisé, ça y est, j’ai mon assistant, je te remercie, je l’ai en main, il est comme un smartphone, en quelque sorte, et je vais aller très vite ».

Dans ce deuxième tour de notre discussion, on va se mettre dans la place où on voit d’une part qu’on a des professeurs qui sont quand même possiblement déboussolés par le fait que les exercices qu’ils donnent peuvent donner lieu à des générations automatiques de propositions avec une falsifiabilité, un caractère éventuellement mensonger, plagiaire en quelque sorte. On est en train de brutaliser la convention ordinaire qui est « je ne copie pas, j’apprends par moi-même, j’utilise des patterns qui sont j’imite d’abord ce que le prof m’a dit et puis je comprends que derrière la mécanique il y a de l’intelligence et c’est comme ça que je me forme ». Ce n’est pas la première fois avec Internet, mais là, tout d’un coup, on a un résultat immédiat qui est un peu différent de la requête à Wikipédia, de la recherche dans Wikipédia ou de la recherche dans les sources.
Toute la question forte dans nos universités : la fiabilité des sources, la stabilité d’un résultat – le résultat c’est clef pour nous –, tout d’un coup on a des gammes de résultats, il faut remonter à la source du process. On a beaucoup de choses qui se passent comme ça. On va maintenant discuter ensemble sur ce qui se passe dans la classe, d’une part en termes d’une nouvelle forme de conduite de la classe y compris à l’université au sens où nos étudiants s’équipent différemment, vont être équipés différemment quoi qu’on en dise puisque cet outil est arrivé directement au grand public, en plus il n’était pas fait pour l’apprentissage, mais il se révèle, comme parfois tant d’outils numériques, plus adapté, plus affordant que des outils que qui sont préparés de longue date. Donc que va-t-on faire pédagogiquement ? En quoi y a-t-il des choses à recaler tout de suite dans la pratique pédagogique ? En quoi y a-t-il des choses nouvelles à entrer dans les formations et à apprendre ? En quoi aussi ça peut nous aider à réaliser mieux nos missions et à être mieux encore au service des savoirs et de la réussite des étudiants ? David.

David Cassagne :Ça pose effectivement des questions. La première réaction de la communauté ça a été la question de la triche dans les évaluations. On n’est pas dans le plagiat, on n’est pas dans quelque chose qu’on pourrait identifier comme du plagiat puisqu’on ne peut pas attribuer le travail à une personne. On est plus dans quelque chose qui s’apparente à la situation d’un étudiant qui se serait fait aider par un copain, par son frère, sa sœur, avec, en plus, une difficulté pour détecter la chose. On en a parlé, il y a des centaines de modèles différents et il n’y a pas d’outil fiable pour détecter.
Ça a été le sujet qui a beaucoup interrogé, les évaluations, mais les évaluations sont des choses qu’on peut transformer. Pour ma part j’enseigne des aspects qui sont liés à la physique numérique, j’ai pris un examen, j’ai regardé : sur les quatre exercices que j’avais donnés l’an dernier, ChatGPT faisait l’un des quatre très bien. Comme, en plus, c’est un examen en salle informatique, avec accès à Internet, eh bien il fallait changer cet exercice. On pouvait le changer.
Après, je pense qu’il faut faire la part des choses. Toutes les modalités d’évaluation ne vont pas être impactées. Il y a toujours des évaluations qui se font avec des devoirs sur table, il y a toujours des évaluations qui se font avec des oraux.
Il y a donc des aspects d’adaptation, mais après il faut voir aussi tout le bénéfice que peuvent apporter ces outils puisque ça peut être des instruments pour pouvoir arriver à avoir un assistant pour créer des quiz, un assistant pour créer des feed-back, assistant pour créer des contenus et ça peut être aussi utilisé dans les activités avec des apprenants.
C’est un de mes sujets en tant que vice-président et ça fait un moment que je m’intéresse à ce sujet du numérique au service de la pédagogie, je pense que sur le numérique au service de la pédagogie ça donne une nouvelle dimension dans les possibilités offertes.
Je pense qu’il va y avoir, avec ces outils, une dimension de transformation sur la forme, mais aussi sur le fond : sur la forme, c’est-à-dire sur la façon de faire les enseignements, mais aussi sur le fond parce qu’on ne va pas enseigner la même chose à partir du moment où on a ces différents outils, de la même façon que quand il y a eu la calculatrice on n’a plus enseigné de la même manière. C’est donc une transformation au niveau de l’enseignant. Changement de paradigme oui, sur la façon dont on va notamment organiser des activités, peut-être plus développer l’esprit critique chez les étudiants.
C’est aussi un changement fort pour les apprenants, pour les étudiants, parce que c’est aussi un changement dans la façon dont ils vont accéder à l’information. On voit bien que les moteurs de recherche vont être directement impactés, on peut citer l’alerte rouge qu’il y a eu chez Google avec l’arrivée de ChatGPT où ils ont dit « il faut absolument arriver à transformer les choses et prendre cela en compte ». Donc les étudiants dans la façon dont ils vont rechercher de l’information, dans la façon dont ils vont faire leurs productions et également les étudiants avec la possibilité d’avoir des tuteurs basés sur ces outils.
Il faut quand même toujours prendre des précautions. On a parlé des hallucinations, des biais. C’est pour cela que je dis qu’il faut faire attention à la façon dont on utilise ces choses-là, ne pas prendre ça pour des moteurs de recherche. Par contre, la façon dont on va les utiliser de manière à apporter des choses positives, c’est-à-dire résumer, créer et ainsi de suite, ce sont des choses auxquelles les enseignants doivent être formés, les étudiants doivent être formés. Il y a, à mon avis, tout un travail là-dessus qui est assez passionnant.

Sophie Pène :Je voudrais te poser une petite question pour approfondir, vérifier un point. Il y a beaucoup de pratiques cognitives qui, indépendamment des modélisations, restent invisibles et sont en quelque sorte implicites, spontanées, secrètes, laissent des marques quand il y a des brouillons, des prises de notes, mais il n’y a pas toujours des traces. Là on voit bien que si on veut que les professeurs puissent dialoguer de façon transparente avec leurs étudiants, il va falloir qu’on les mette au jour et qu’on accepte de les partager, ça veut dire qu’il faut qu’y ait un principe de morale, un principe de confiance. Il y a aussi une relation qui est d’emblée modifiée parce qu’il faut que les étudiants acceptent la proposition qu’on leur fait, c’est-à-dire de raconter, par exemple, les prompts qu’ils ont utilisés.
Est-ce qu’il n’y a pas aussi, possiblement, un nouveau contrat pédagogique, une nouvelle confiance à établir pour qu’on partage autre chose que le résultat ?

David Cassagne :Dans la façon dont on peut transformer les évaluations, il y a notamment leur demander plus de traces et aussi exprimer la démarche qu’ils ont eue au travers de leur travail plutôt que de se limiter simplement à un rendu, c’est effectivement quelque chose d’important.
Après, le point qu’il y a aussi : s’il y a quelque chose qui est rendu à l’écrit où effectivement on aura du mal à faire la part des choses entre la part du travail personnel et concrètement ce qui a été vraiment appris par les étudiants, des mécanismes au travers de l’oral et d’autres mécanismes peuvent intervenir.

Une chose dont je n’ai pas parlé, à mon avis importante, au niveau des étudiants il y a aussi des remises en question fortes qui peuvent apparaître par rapport à la motivation qu’il y a à apprendre et par rapport aux tâches qu’on va leur donner. Je pense que ça va aussi nous inviter à changer nos pratiques parce que si on leur demande des choses pour lesquelles ils ont l’impression que finalement on est face à ce que j’appellerais des évaluations artificielles, des évaluations qui ne correspondent pas à ce qu’est la vraie vie et la vraie vie va être une vie où on aura la possibilité d’utiliser des intelligences artificielles génératives, on risque de se retrouver aussi en difficulté.
Donc avoir peut-être des évaluations plus authentiques, plus orientées sur les compétences.

Sophie Pène :Très bien.

29’ 15

Alain Goudey :