Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme

De April MediaWiki
Révision datée du 6 août 2023 à 06:12 par Morandim (discussion | contributions) (Page créée avec « Catégorie:Transcriptions '''Titre :''' Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme ? '''Intervenant·e·s :''' Van... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigationAller à la recherche


Titre : Impact de l'IA sur l'enseignement supérieur : est-on face à un changement de paradigme ?

Intervenant·e·s : Vanda Luengo - David Cassagne - Alain Goudey - Marc Oddon - Sophie Pène

Lieu : Dock B · Paris Pantin - Conférence IA & éducation

Date : 8 juin 2023

Durée : 1 h 30 min 33

Vidéo

Page de présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sophie Pène :Pour commencer les débats qui vont nourrir ces deux journées, l’idée est que cette première table ronde installe un vocabulaire commun, des préoccupations communes qui ont déjà été posées par l’intervention inaugurale de Catherine Mongenet, de très façon très complète, et que chacun des intervenants qui sont ici avec moi et qui vont se présenter vont commencer à installer avec vous. Dans cette table ronde on va commencer le partage des pratiques, le partage des questions et puis l’installation des bases qui vont nous mener jusqu’à des propositions, puisque ces deux journées, qui vont être très fertiles, ont pour but d’équiper l’ESR [Enseignement supérieur et recherche] pour mener cette traversée que Luc Julia a installée et puis, en même temps, en nous redonnant quelques confiances et quelques encouragements à ne pas être perdus dans cette accélération extrêmement brutale qui nous a pris un peu de cours au début.

Je présente rapidement les intervenants :
David Cassagne, président de FUN [France Université Numérique], vice-président délégué au Numérique à l’Université de Montpellier et professeur de physique, ayant déjà une pratique pédagogique incluant les IA ;
Alain Goudey, directeur général NEOMA qui s’est fait connaître, bien sûr, outre son parcours précédent, qui est maintenant notre héraut de l’intelligence artificielle, qu’on suit tous sur Twitter puisqu’il nous fait la veille, l’analyse et il extrait les informations qui peuvent intéresser la communauté ;
Vanda Luengo, chercheur au LIP6, professeure d’informatique et au laboratoire LIP6 Sorbonne Université ; Marc Oddon, vice-président formation continue, apprentissage et insertion professionnelle à l'Université Grenoble Alpes, qui est aussi impliqué dans FUN, je crois.
Je vous donne la parole, peut-être, David, tu commences. Chacun de vous va se présenter un peu mieux et puis dire ce à quoi il tient et, en quelque sorte, quel mot clef, quel premier mot de vocabulaire ou quelle notion importante il met à votre disposition, dans la suite de ce qu’a fait Luc Julia, pour commencer à discuter ensemble.

David Cassagne :Je vais déjà parler plus, finalement, avec ma casquette de vice-président de l’Université de Montpellier et également en tant que physicien, enseignant, puisque l’intelligence artificielle est un sujet dont on est amené à s’emparer dans toutes les disciplines. Dans le cas des enseignements de master en physique, depuis deux ans déjà, on a introduit des enseignements d’introduction d’intelligence artificielle pour la physique.
Pour venir sur les sujets qui m’interpellent, surtout dans l’accélération que j’ai pu voir au cours des dernières années, c’est la dimension d’émergence. En physique, un physicien célèbre, Philip Anderson, prix Nobel de physique en 1977, a eu un article célèbre qui était intitulé « More is Different ». L’idée c’est effectivement que quand on va être dans des systèmes dans lesquels on va augmenter fortement le nombre de constituants, on peut avoir des comportements qui sont des comportements émergents. Actuellement en particulier, dans les grands modèles de langage comme ChatGPT où, comme ça a été dit pour la version 3.5, on est avec 175 milliards de paramètres, on constate qu’il va y avoir des capacités émergentes. On n'est pas dans une émergence qui serait une intelligence artificielle générale, il faut être raisonnable par rapport à ça. Étant donné que, pour comprendre ces capacités émergentes, on ne peut pas se limiter simplement à comprendre les constituants élémentaires en particulier des réseaux de neurones qui sont constitués, ça veut dire qu’il y a une complexité plus importante, plus de difficultés à interpréter ce qui s’y passe et je pense que c’est quelque chose qui va poser des questions à la fois par rapport aux aspects d’explicabilité, même si, effectivement, c’est l’objectif, mais ça peut demander du temps. En physique, quand on a des phénomènes émergents ça peut être compliqué pour pouvoir arriver à les comprendre et aussi en termes de régulation.
Le deuxième aspect qui, pour moi, interpelle dans les outils des IA génératives c’est le caractère non déterministe. C’est-à-dire que quand on est justement avec ChatGPT, un grand modèle de langage, il y a une prédiction statistique du mot suivant mais, en réalité, il y a un tirage aléatoire qui est effectué parmi ces mots avec une certaine pondération, c’est ce qui fait donc qu’à chaque fois que l’on va poser la même question on va avoir une réponse différente. Je pense que c’est quand même très différent des usages qu’on pouvait avoir auparavant en informatique de différents outils : quand on a un moteur de recherche, on peut lui poser plusieurs fois la même question, on va avoir la même réponse. Là non, à chaque fois on a quelque chose qui est différent et là aussi ça va interroger par rapport des aspects d’explicabilité.
Ce sont, pour moi, les deux aspects qui sont effectivement les plus troublants dans ces nouveaux outils.

Alain Goudey :Merci. Très rapidement, Alain Goudey, directeur général adjoint en charge du numérique à NEOMA, que vous connaissez peut-être, une école de management qui fait partie des sept meilleures écoles de commerce en France. La spécificité de NEOMA c’est qu’on a l’innovation au cœur de notre stratégie et le sujet de l’IA est un sujet démesurément nouveau. Ce qui intéressant, avec les effets de mode, c’est que tout le monde va dire ça, vous allez vous en rendre compte, on a tous un truc où on avait déjà l’IA depuis quelque temps.
En fait l’IA, ça a été rappelé par Luc Julia, c’est 1956, ce n’est pas un truc très nouveau. Avant les IA génératives, il y avait plein d’autres formes, plein d’autres outils et dans la pédagogie, tu en parleras je crois, il y a énormément de choses qu’on peut faire avec l’IA. Mais IA n’est pas égale à IA générative. L’IA générative est seulement une partie de ce plus grand ensemble que sont les IA, les intelligences artificielles. À l’intérieur de cette petite partie qu’on appelle IA génératives il y a les LLM, puisqu’on m’a demandé de parler de ce terme-là. LLM ça veut dire Large Langage Model. Les trois sont extrêmement importants.
Le premier mot c’est « large » et tu en as parlé avec le phénomène d’émergence. En gros qu’a-t-on fait ? On a modélisé, puisque, en fait, il y a un phénomène qu’on appelle tokenisation, en gros c’est l’extraction mathématique des textes qu’on a fait ingérer à ces large langage models, dont GPT 3.5 ou 4 sont un des milliers de modèles existant au monde aujourd’hui, il y en a beaucoup d’autres. Ne réduisez pas le sujet à ChatGPT, je peux en citer plein d’autres, des trucs dont vous n’avez peut-être pas encore entendu parler, durant la pause on parlait de modèles comme LLaMA [Large Language Model Meta AI], comme Alpaca, comme Falcon ; ces mots ne vous disent peut-être rien parce que ce n’est pas médiatisé, mais, en fait ils existent, ils sont extrêmement puissants.
Ce « large » est extrêmement important parce que, du coup, on a fait absorber en gros 50 millions de livre à l’IA, ce sont à peu près les chiffres qui circulent, ce sont effectivement des milliards de mots et on a extrait, comme ça, un modèle mathématique avec 175 milliards de paramètres à l’intérieur de ce modèle.

Le deuxième terme qui est extrêmement important, c’est « langage ». On se base sur des textes, ce que fait GPT, ce que fait Google Bard, ce que font les Falcon et autres : ils ont ingéré du texte et vont générer du texte, donc basé sur du langage.
Ce qui est important à avoir en tête quand on parle de langage, on parle forcément, finalement, d’une culture – parce que derrière une langue il y a une culture, c’est basique – et derrière cette culture, il y a une vision du monde. Là où je veux en venir, c’est qu’en fait dans tous les modèles larges, donc les LLM, on a forcément des notions de biais, ça a été évoqué tout à l’heure, mais on a aussi des biais qui peuvent être des biais implicites. Ce n’est pas parce qu’on va trier en disant « ça c’est une source sure et là c’est une source qui dit que la Terre est plate, on sait que ce n’est pas vrai, donc on met de côté », même si vous ne mettez que des sources sures il y aura forcément des biais parce que, de toute façon, l’humain est pétri, rempli de biais pour comprendre le monde qui l’entoure. C’est important à comprendre parce que, du coup, derrière cette notion de langage il y a forcément une vision du monde et forcément des biais liés à cette vision du monde.
Par rapport à la question qui était posée tout à l’heure : est-ce que ça serait pertinent qu’on ait un LLM français ou européen ?, je réponds deux fois oui. Le français n’est clairement pas la langue la moins parlée dans le monde, je crois que c’est la cinquième, de mémoire, quelque chose comme ça. Évidemment, à l’échelle de l’Europe avec 27 pays, 27 langues et 27 visions du monde ce serait quand même une richesse extrêmement pertinente par rapport à un modèle beaucoup plus monolithique si on parle de celui de GPT~4 qui est entraîné sur des données principalement anglo-saxonnes avec tous les biais de la vision anglo-saxonne du monde. Le plus gros référentiel d’entraînement dans GPT c’est la base des brevets américains que Google indexe. C’est le deuxième terme, langage.

Le troisième terme c’est « modèle ». Il faut intégrer que les outils dont on entend parler d’un point de vue médiatique, comme ChatGPT, comme Midjourney, sont en fait des outils de navigation à l’intérieur de ces modèles, je ne veux pas rentrer dans les notions d’espace patent, d’espace vectoriel multi-dimensions, mais, en gros, c’est ça le principe. En fait, quand on écrit un prompt, donc une consigne – je n’ai jamais trouvé de terme vraiment bien, je trouve que consigne ce n’est pas mal – pour une intelligence artificielle générative, en fait c’est le véhicule qui va permettre à l’outil de converger vers une réponse, statistiquement comme tu l’expliquais, cohérente, pas forcément signifiante et c’est là où est toute la nuance. Ces outils ne comprennent absolument rien à ce qu’on indique comme consigne, ils ne comprennent absolument rien à ce qu’ils fournissent comme résultat et derrière, effectivement, il n’y a pas une once d’intelligence, juste rien par rapport à ce qu’est l’intelligence humaine. Ce qui va faire, en fait, que ce résultat va converger vers quelque chose d’utilisable, c’est justement l’humain qui est en train de piloter cet outil. Quand vous entendez partout « l’IA va remplacer l’humain partout, tous les métiers, etc., », c’est fondamentalement faux. Ce sont les personnes qui savent utiliser ces outils qui vont peut-être, effectivement, remplacer des personnes qui finalement ne vont pas explorer. Et là on voit bien tout le challenge qui est devant nous en termes de formation.

11’ 47

Vanda Luengo :Bonjour