Différences entre les versions de « Comment l’IA est intégrée à Parcoursup 2024 »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/comment-l-ia-est-integree-a-parcoursup-2024 ici] - Février 2024 »)
Balise : Contenu remplacé
 
(7 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Comment l’IA est intégrée à Parcoursup 2024 ?
+
Publié [https://www.librealire.org/comment-l-ia-est-integree-a-parcoursup-2024 ici] - Février 2024
 
 
'''Intervenant·e·s :''' Jean-Philippe Clément
 
 
 
'''Lieu :''' Émission <em>Parlez-moi d'IA</em>, radio Cause Commune
 
 
 
'''Date :''' 18 novembre 2023
 
 
 
'''Durée :''' 30 min
 
 
 
'''[https://cause-commune.fm/pia/11-PIA-Parlez-moi%20d%20IA-Jean-Philippe%20Cl%C3%A9ment-ParcourSup.mp3 Podcast]'''
 
 
 
'''[https://cause-commune.fm/podcast/parlez-moi-d-ia-11/ Présentation de l'émission]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' À prévoir
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription==
 
 
 
<b>Diverses voix off : </b><em>Parlez-moi d’IA</em>.<br/>
 
Mesdames et Messieurs, bonjour. Je suis un superordinateur CARL, cerveau analytique de recherche et de liaison.<br/>
 
C’est une machine qui ressent les choses.<br/>
 
On nous raconte n’importe quoi sur l’IA ! Qu’est-ce que tu en dis ? — Moi, je n’en dis rien du tout.<br/>
 
La créativité, elle reste du côté humain.
 
 
 
<b>Jean-Philippe Clément : </b>Bonjour à toutes et à tous. Je suis Jean-Philippe Clément. Bienvenue sur <em>Parlez-moi d’IA</em> sur Cause Commune, la radio pour débattre, transmettre et comprendre.<br/>
 
Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.<br/>
 
Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm , sur la bande FM 93.1 à Paris et le DAB+ et en podcast sur votre plateforme préférée.<br/>
 
Merci, Jérôme Sorel, de réaliser cette émission. Merci à Olivier Grieco, notre directeur d’antenne, de nous donner cette opportunité de vous parler de data et d'IA. Merci à vous chers auditrices et auditeurs de tester ou d'écouter de nouveau cette émission. N'hésitez pas à vous abonner et à partager cette émission autour de vous, pour y donner plein de like et d’étoiles si vous l'appréciez. Et puis, n'hésitez pas à nous laisser des commentaires aussi, à nous donner votre avis sur nos émissions, c'est notre seule récompense.
 
 
 
Cette semaine, émission spéciale pour sujet spécial. Je ne reçois pas un mais trois invités dans le studio. L'annonce de la semaine dernière mérite un débat et nous allons inaugurer ce format ensemble. Vous n'avez pas pu louper cette annonce. Je veux, bien entendu, parler du communiqué du ministère de l'Éducation nationale annonçant, l'air de rien, l'introduction de l'IA dans le dispositif Parcoursup 2024. Le principe est exposé de manière très simple : éviter aux étudiants des hésitations dans leur orientation, limiter au maximum le phénomène des errances post-bac et d'échec en premier cycle universitaire. Certains résument en disant « amener rapidement et efficacement l’étudiant sur le marché du travail ». Pour rappel, c'était déjà l'objet de la loi d'orientation et de réussite des étudiants en 2018, dite loi ORE, qui instaurait Parcoursup. Il s'agissait de mettre fin au tirage au sort dans les formations sous tension et de limiter le taux d'échec en licence. Eh bien, le ministère souhaite continuer sur cette lancée. Pour limiter encore le taux d'échec à l'issue du premier cycle universitaire le ministère a souhaité faire appel à l'IA.<br/>
 
Si nous comprenons bien le dispositif, et nous allons voir ça ensemble, des centaines de milliers voire des millions de parcours post-bac anonymisés ont été analysés. En fonction de cette analyse profonde l'IA est capable de proposer à l’étudiant la filière et la formation la plus adaptée à son propre profil, pour éviter l'échec en premier cycle. Le dispositif ne s'arrête pas là. Si l’étudiant accepte cette proposition et candidate dans la filière et dans les formations qui lui sont proposées, il augmente son <em>scoring</em> de sélection pour ces formations. À contrario, s'il fait d'autres choix, ceux-ci se voient attribuer un malus dans son score de sélection.<br/>
 
Ce dispositif, comme vous le voyez, pose de nombreuses questions et pour en débattre avec nous, en studio, j'ai le plaisir de recevoir Madame Marie Crinquant, fondatrice et CEO de la société qui porte bien son nom, AvenirAI, qui a été sélectionnée par le ministère de l'Éducation nationale pour implémenter ce dispositif ; Rémy  Ibarc, qui est expert en intelligence artificielle, spécialiste dans les risques éthiques de ces technologies ; et puis Valentin, dont on ne dira pas le nom de famille parce qu’il est encore lycéen, élève en terminale au lycée Carnot dans le 17e à Paris, qui passe son bac cette année – toujours une grande année, celle du bac – avec les spécialités maths et physique.<br/>
 
Bonjour à vous trois.
 
 
 
<b>Marie Crinquant : </b>Bonjour.
 
 
 
<b>Valentin : </b>Bonjour.
 
 
 
<b>Rémy Ibarc : </b>Bonjour Jean-Philippe.
 
 
 
<b>Jean-Philippe Clément : </b>Merci d'être en studio avec nous-<br/>
 
<em>Parlez-moi d’IA</em>. On va commencer avec Madame Marie Crinquant. Vous représentez la société AvenirAI. Comment avez-vous mis au point votre solution et comment pouvez-vous garantir que cela fonctionne ?
 
 
 
<b>Marie Crinquant : </b>Notre solution est basée sur un algorithme d'intelligence artificielle. On a utilisé énormément de données pour l’entraîner. Ces données vont être les parcours des différents élèves français dans les dix dernières années. Ça va être leur parcours scolaire du collège et du lycée, toutes leurs notes, les appréciations de leurs professeurs mais aussi, du coup, leur parcours post-bac : est-ce qu'ils ont réussi dans l'orientation qu'ils avaient choisie dès le départ ? Est-ce qu'ils se sont réorientés ? On peut prendre aussi en compte, par exemple, les activités extra-scolaires pour avoir des informations autres que les activités scolaires classiques.<br/>
 
Ensuite cet algorithme a été testé sur de nombreux exemples et on a obtenu, aujourd'hui, un score de 90 % de réussite, ce qui est déjà extrêmement bien pour un algorithme d'intelligence artificielle de cette envergure.
 
 
 
<b>Jean-Philippe Clément : </b>D'accord. Certains pourraient dire que pour 10 %, du coup, on ne sait pas trop si le résultat est optimal ! On va y revenir après, ne vous inquiétez pas. OK. Très bien. Donc, pour vous, le dispositif est fonctionnel.
 
Monsieur Rémy Ibarc, vous êtes expert en IA, vous vous occupez souvent de ces questions d'éthique autour des technologies pour les entreprises. Est-ce que le dispositif proposé par la société de Madame Crinquant vous paraît opérationnel et conforme ?
 
 
 
<b>Rémy Ibarc : </b>C'est une très bonne question Jean-Philippe. Pour qu'un système soit conforme aux attentes et qu’on puisse le déployer de manière fiable, il faut s'assurer qu'il a été développé, de la collecte des données jusqu'au retour utilisateur, d'une bonne manière. Ces types d'algorithmes peuvent halluciner, ils peuvent aussi avoir des biais.
 
 
 
<b>Jean-Philippe Clément : </b>On a déjà parlé de l’hallucination ici. C’est une manière, en fait, de répondre comme si c'était correct, mais la réponse est fausse, c'est ça ?
 
 
 
<b>Rémy Ibarc : </b>Exactement. L'algorithme, l'IA générative, va donner une information fausse ou biaisée.
 
 
 
<b>Jean-Philippe Clément : </b>Très bien. Du coup, vous sentez que cette conformité est potentiellement possible pour cet outil-là ?
 
 
 
<b>Rémy Ibarc : </b>Il faut respecter des étapes clés pour que cette solution soit conforme et qu'elle puisse être déployée, parce que ça va être déployé à trois millions d'élèves. C'est notamment avoir un audit de sécurité, une documentation qui soit faite pour chaque étape et, à la fin, quand on déploie ce système, il faut le tester, le retester, parce qu’il y aura toujours des biais et des hallucinations, même avec un super audit de sécurité. L'avantage c'est d'avoir des retours.
 
 
 
<b>Jean-Philippe Clément : </b>C'est bien le cas Madame Crinquant ? Vous avez essayé de respecter ces types d'éléments de conformité ?
 
 
 
<b>Marie Crinquant : </b>Évidemment. Nous avons respecté toutes les consignes et les choses d’IA responsable.
 
 
 
<b>Jean-Philippe Clément : </b>D'accord. D’ailleurs, on parlait de données. On a dit que les données scolaires que vous avez prises en compte étaient anonymisées. Y a-t-il d'autres données que les données scolaires qui sont prises en compte dans l'algorithme aujourd'hui ?
 
 
 
<b>Marie Crinquant : </b>Aujourd'hui non, puisque, pour cette première version, nous nous sommes focalisés sur ces données scolaires-là pour avoir une première version viable, assez rapidement, à la demande du Gouvernement. Mais on peut éventuellement, dans les futures versions, envisager de rajouter d'autres données comme les données des réseaux sociaux, par exemple, qui peuvent donner d'autres informations sur les étudiants.
 
 
 
<b>Jean-Philippe Clément : </b>Carrément. OK. Avec le consentement comme des étudiants à priori.
 
 
 
<b>Marie Crinquant : </b>Oui, bien sûr.
 
 
 
<b>Jean-Philippe Clément : </b>D’accord, je préfère ! Demander quand même!<br/>
 
Valentin, vous allez devoir prochainement saisir vos vœux, ça va s'ouvrir normalement décembre/janvier si ma mémoire est bonne. Vous allez effectivement devoir remplir des données un peu parascolaires, complémentaires. Que pensez-vous de ce dispositif ? En ce moment, vous le découvrez en même temps que tout le monde. Selon vous, est-ce que ça va vous faciliter les choses ? Est-ce que ça vous provoque des questions particulières ?
 
 
 
<b>Valentin : </b>Je découvre l'outil et, en même temps, je découvre tout le processus d'orientation. D'un côté, c'est un petit peu rassurant parce que, en fait, je n'ai aucune idée de ce que j'ai envie de faire plus tard, que ce soit comme formation ou comme métier.
 
 
 
<b>Jean-Philippe Clément : </b>Alors ça va vous aider.
 
 
 
<b>Valentin : </b>Et, en même temps, j’ai l’impression que ça m'apporte aussi un petit peu de confusion. Ce que je comprends c’est que l’outil m'amène vers une formation que je suis certain de terminer, mais qu'est-ce qui me dit que, par la suite, c'est le métier que je veux faire toute ma vie ? Quand je regarde autour de moi, mes proches, ma famille, je ne connais personne qui fait le métier dont il est question après la formation.
 
 
 
<b>Jean-Philippe Clément : </b>Ça change beaucoup. Effectivement. Vous n'êtes pas fermé. Je note déjà que vous vous voulez bien regarder un peu le dispositif, que vous n'êtes pas fermé, de base, face à ce dispositif ; je trouve que c'est déjà intéressant. C'est votre côté scientifique, votre spécialité maths- physique qui fait que vous êtes curieux par rapport à ça.<br/>
 
Monsieur Ibarc, on en a parlé juste avant, parfois les IA peuvent halluciner, justement, elles peuvent reproduire des biais. Dans le cas présent, qu'est-ce que ça pourrait provoquer en termes de risques ? Qu'est-ce qu'on pourrait imaginer comme situations catastrophiques par rapport à la solution ?
 
 
 
<b>Rémy Ibarc : </b>Je peux vous donner un exemple au niveau des hallucinations. Une hallucination c'est quand le résultat est biaisé ou erroné. Si l'algorithme est mal paramétré et qu'on l'a mal testé, ça pourrait être un étudiant qui veut en licence de maths et on lui propose une licence de chimie. Certes, il y a des maths dans la chimie, mais ça ne sera pas ce qu'il aurait voulu.
 
 
 
<b>Jean-Philippe Clément : </b>Y a-t-il d'autres styles de biais potentiels ?
 
 
 
<b>Rémy Ibarc : </b>En termes de biais, ça va être basé sur la collecte des données, c'est-à-dire est-ce qu'on aura fait une représentativité statistique des données qu'on a données à l'algorithme ? Par exemple, on a des métiers sont moins choisis par les femmes, comme mécano, donc l'algorithme ne va pas le proposer à une femme qui voudrait être mécano. Il faut donc faire attention au poids qu'on va donner à chaque donnée dans l'algorithme. Ce sont des choses qu’il faut absolument regarder pour éviter d'avoir encore cette fracture entre certains métiers.
 
 
 
<b>Jean-Philippe Clément : </b>L'utilisation des données des réseaux sociaux, ça vous inspire quoi comme potentiels risques ?
 
 
 
<b>Rémy Ibarc : </b>Quand on parle des données des réseaux sociaux, on va prendre le nom de famille, on va pendre le physique, on va prendre des caractéristiques : ces types de données sont-ils nécessaires pour que l'algorithme nous donne un résultat ? Je ne pense pas. Prenons l’exemple d’un étudiant qui vient d'un quartier plus populaire, pendant ses vacances il ne va pas aller à New York, il va rester en France. Quelqu'un qui vient d’un quartier plus aisé va partir à New York et faire des choses plus intéressantes, jugées plus riches par l'algorithme qui va donc l'orienter vers des métiers qui vont être plus rémunérateurs.
 
 
 
<b>Jean-Philippe Clément : </b>Ah oui ! Effectivement, dans ces cas-là, il faut faire attention à ce qu'on poste sur ses réseaux sociaux.<br/>
 
Je vous donne la parole Madame Crinquant. Là, on est en train d'essayer de voir un peu comment on peut trouver des biais dans votre dispositif. Comment vous êtes-vous prémunie, en fait, de tous ces risques ?
 
 
 
<b>Marie Crinquant : </b>Comme je le disais tout à l'heure, on a utilisé toutes les bonnes pratiques de l'IA responsable. Tout d'abord, on a utilisé l'explicabilité. L’explicabilité c’est quoi ? Une fois que l'algorithme aura donné une réponse, il va donner une explication de la raison pour laquelle il a donné cette réponse. Dans ce cas-là, par exemple, si l'algorithme prédit une licence de maths pour notre étudiant, il va justifier son choix par les notes qu’il a pu obtenir au lycée, une remarque de son professeur, ce genre de chose, ou ses activités extrascolaires.
 
 
 
<b>Jean-Philippe Clément : </b>C’est intéressant. En fait, quand vous proposez un résultat, à côté du résultat vous mettez la raison pour laquelle ce résultat est proposé, c’est-à-dire quels sont les paramètres qui ont fait que l'algorithme, que le dispositif est arrivé à ce résultat. C'est ça ?
 
 
 
<b>Marie Crinquant : </b>C'est ça. Exactement. En fait, dans le dossier scolaire de l’étudiant, on va mettre en valeur ce qui a servi à pouvoir donner cette réponse-là.
 
 
 
<b>Jean-Philippe Clément : </b>D’accord. Il y a une explication.
 
 
 
<b>Marie Crinquant : </b>C’est ça. Du coup, l’étudiant pourra vérifier si les données prises en compte sont cohérentes, ou pas, avec ce que lui aimerait avoir pour la suite.
 
 
 
<b>Jean-Philippe Clément : </b>Et là on a parlé de pas mal de types de biais potentiels. On parlait notamment de ce que l'on peut trouver sur les réseaux sociaux. Comment vous vous prémunissez, éventuellement, des mauvais effets de ces éléments-là ?
 
 
 
<b>Marie Crinquant : </b>C'est une bonne question. Les biais c'est toujours une question très importante dans l'intelligence artificielle, notamment quand on touche à des données personnelles et à la vie des gens très précisément. On a déjà essayé d'avoir des données très diversifiées, puisqu'on a pris la totalité de la population française sans faire de tri particulier entre quartiers populaires ou quartiers plutôt riches, jeunes filles ou jeunes hommes. On a pris toutes les données sans distinction. Du coup, cela nous permet d'avoir une représentativité de la totalité de la population française. Par conséquence, l'algorithme fonctionne sur la population française, mais on ne peut pas l'appliquer, par exemple, sur une autre population.
 
 
 
<b>Jean-Philippe Clément : </b>On ne pourra pas le revendre en Europe.
 
 
 
<b>Marie Crinquant : </b>En tout cas, pas tel quel. Peut-être, mais pas tel quel.
 
 
 
<b>Jean-Philippe Clément : </b>Il faudra l’entraîner à nouveau.
 
 
 
<b>Marie Crinquant : </b>C'est ça, parce que chaque population a ses caractéristiques, donc on ne peut pas transférer l'algorithme.<br/>
 
Du coup, on a déjà cette représentativité de la totalité de la population dans nos données. Ensuite, nous on a essayé d'avoir une équipe de développement la plus diversifiée possible. Pourquoi veut-on une équipe diversifiée ? Pour limiter les biais. Avec une équipe diversifiée, on va avoir une diversité de points de vue, ce qui nous permet d'avoir des tests qui sont représentatifs de la totalité des points de vue qu'on pourrait avoir. Du coup, on va avoir des gens plutôt de milieux aisés, de milieux plutôt pauvres, des hommes, des femmes.
 
 
 
<b>Jean-Philippe Clément : </b>D’accord. Qui vont vérifier l’algorithme depuis leur fenêtre.
 
 
 
<b>Marie Crinquant : </b>Exactement, parce que chacun arrive avec ses préjugés et ses qualités, du coup va avoir un point de vue différent sur l'algorithme.
 
 
 
<b>Jean-Philippe Clément : </b>D'accord. Valentin, on commence à être un peu plus au fait de ce que le dispositif va pouvoir proposer. Avez-vous, un peu, des idées sur la manière d'aborder votre remplissage de dossier dans les prochaines semaines ? Il y a les données scolaires, vous n'y pouvez rien, c'est ce que vous avez fait depuis quelques années, c’est comme ça, c'est enregistré dans le logiciel. Par contre, il y a toute cette partie-là qu'on connaît désormais un peu bien, dans Parcoursup, le parascolaire. Avez-vous déjà, un peu, une stratégie sur les données du parascolaire ?
 
 
 
<b>Valentin : </b>J'ai réfléchi un petit peu. Sans avoir la prétention d'être spécialiste, j'ai bien compris que le fonctionnement de l'outil c'est plus il a de données sur nous, plus il devrait être pertinent dans notre orientation, en tout cas dans le processus. Je me suis un petit peu posé la question concernant ce que seraient les données supplémentaires qu'il faudrait y incorporer. J'ai l'impression qu’un test de personnalité, ce ne sont pas forcément des éléments qui sont pris en compte par l'outil, qui pourraient toutefois être assez intéressants. Je me suis aussi posé la question des réseaux sociaux. Comme je sais que les réseaux sociaux vont avoir beaucoup de données sur moi, sur mon quotidien, qui ont été accumulées au cours des années, probablement que ce sont des données qui vont servir aussi à l'outil pour m'aider. Mais, d'un côté, est-ce que ce n'est pas déjà biaisé dès son origine ? Par exemple, si je prends le réseau Instagram, de base tout ce qu'on va mettre sur Instagram ce sont plutôt des aspects positifs de notre vie.
 
 
 
<b>Jean-Philippe Clément : </b>C’est bien !
 
 
 
<b>Valentin : </b>Oui, mais ce n'est pas forcément représentatif de tout mon quotidien.
 
 
 
<b>Jean-Philippe Clément : </b>Ce n'est pas votre vrai vie.
 
 
 
<b>Valentin : </b>Ça fait de la donnée supplémentaire, mais est-ce que cette donnée-là ne pose pas un problème de représentativité ? De la même manière, comme, de mon côté, ça fait quand même déjà six/sept ans que je suis sur les réseaux sociaux, j'ai l'impression qu’il y a des choses qui se sont accumulées depuis des années. Est-ce que je suis encore en phase avec des choses que j'ai dites il y a cinq/six ans ? Est-ce que je suis à l'aise avec le fait que ces données puissent m'orienter alors que, potentiellement, j'ai complètement changé sur ces sujets-là ?
 
 
 
<b>Jean-Philippe Clément : </b>Il va falloir publier des <em>disclaimers</em> sur ce que vous avez dit il y a plusieurs années, c'est ce que vous vous redoutez ?
 
 
 
<b>Valentin : </b>En tout cas, il va falloir que je fasse le tri.
 
 
 
==16’10==
 
 
 
<b>Jean-Philippe Clément : </b>D’accord
 

Dernière version du 8 février 2024 à 15:34


Publié ici - Février 2024