Albert, le projet d’IA générative des services publics

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Albert, le projet d’IA générative des services publics avec Pierre-Étienne Devineau

Intervenants : Pierre-Étienne Devineau - Jérôme Sorrel - Jean-Philippe Clément

Lieu : Podcast Parlez-moi d’IA - Radio Cause Commune

Date : 4 mai 2024

Durée : 30 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Albert, c’est le nom de code d’un projet de modèles d’IA générative spécialement déployés et entrainés pour les services publics français. L’administration française d’État configure ses propres outils IA pour mieux servir les administrés !

Transcription

Voix off : Parlez-moi d’IA.

Diverses voix off : Mesdames et Messieurs, bonjour.
Je suis un superordinateur CARL, cerveau analytique de recherche et de liaison.
C’est une machine qui ressent les choses.
On nous raconte n’importe quoi sur l’IA !
Qu’est-ce que tu en dis ?
Moi, je n’en dis rien du tout.
La créativité, elle reste du côté humain.

Jean-Philippe Clément : Bonjour à toutes et à tous.
Je suis Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA. Merci, Jérôme Sorrel, à la réalisation de cette émission.
Jérôme, cette semaine je vais te présenter Albert. C’est le nom de code d’un projet de modèles d’IA génératives spécialement déployé et entraîné par les services publics. Oui Monsieur, l’administration française configure ses propres outils d’IA pour mieux servir ses administrés !
Vous êtes bien sur Cause Commune, la radio des possibles, c’est Parlez-moi d’IA. Nous avons 30~minutes pour essayer de mieux comprendre ces nouveaux outils sous leurs aspects sociétaux, culturels, sociaux, éthiques et pourquoi pas politiques.
Cause Commune que vous pouvez retrouver sur le Web, bien sûr, causecommune.fm et sur son app mobile, sur la bande FM 93.1 et le DAB+ et en podcast sur votre plateforme préférée. N’hésitez pas à poser un petit like, un petit partage, c’est notre seule récompense et, en plus, ça va manipuler les algorithmes et, forcément, c’est cool de manipuler les algorithmes !

Aujourd’hui, on va donc faire la connaissance d’Albert, le programme qui cherche à mettre en place l’IA générative au service des services publics. Concrètement, comment l’État va-t-il utiliser l’IA générative ? Comment ces nouveaux outils peuvent-ils aider les agents publics à mieux servir les usagers ? Et tout cela, arrivons-nous à le faire tout en restant indépendants des grands acteurs numériques ? Sommes-nous souverains dans l’usage de l’IA par les services publics ? Avons-nous vraiment les compétences, au sein de l’État, pour réaliser ce type de projet ? Plein de questions sur ce sujet.
Notre invité du jour est ingénieur, mathématicien spécialiste, en data science, il ne s’appelle pas Albert, il est aujourd’hui responsable scientifique et technique à la Direction interministérielle du Numérique[1], la DINUM, où il s’occupe de développer et de déployer des algorithmes au sein des services publics.
Bonjour Pierre-Étienne Devineau.

Pierre-Étienne Devineau : Bonjour Jean-Philippe.

Jean-Philippe Clément : Merci d’être avec nous à distance.
Pierre-Étienne, parlez-moi d’IA. Si vous deviez expliquer à votre grand-mère ce qu’est Albert et ce sur quoi vous travaillez, comment pourriez-vous le résumer ?

Pierre-Étienne Devineau : Je dirais à ma grand-mère que c’est un logiciel qui vient lire des textes, essaye de les analyser et propose soit un résumé du texte soit de répondre à des questions sur le texte.

Jean-Philippe Clément : D’accord. C’est quelque chose qui a été développé par la DINUM, c’est un projet DINUM. D’abord une expérimentation ?

Pierre-Étienne Devineau : Absolument. C’est une expérimentation qui cherche à repartir de ce qu’on appelle les modèles de fondation[2], donc des modèles d’IA grand public et libres d’utilisation, pour les modifier en leur donnant à voir des données de l’administration, des documentations, des fiches techniques, etc., produites par les services publics, de sorte que cette IA va s’en imprégner et être en mesure de répondre à des questions sur cette base.
On dit que c’est une expérimentation, puisqu’on a commencé à l’utiliser notamment dans ce qu’on appelle les maisons France services qui sont des sortes de guichets où les Françaises/Français peuvent se rendre pour se faire aider dans leurs démarches administratives.

Jean-Philippe Clément : Vous avez commencé à le dire : qu’est-ce que permettent de faire ces dispositifs techniques d’IA pour l’administration française ? C’est utile à quoi ? C’est pour quels types de grands cas ? Sans forcément rentrer dans les cas d’usage et dans les clients, mais par grandes catégories, en fait, ça permet de faire quoi ?

Pierre-Étienne Devineau : Par grandes catégories, tous ce que ces logiciels ont en commun c’est qu’ils permettent d’analyser des textes. Une fois qu’on est en mesure d’analyser des textes, on peut aussi générer d’autres textes, produire des textes. Les grands usages que nous avons, c’est de pouvoir répondre à des questions sur la base d’une base documentaire de connaissances, sur certaines bases de connaissances. Vous fournissez tout un ensemble de sources d’information et l’algorithme va trouver, dans ces sources, le passage qui répond le mieux à votre question et vous proposer une petite synthèse de la réponse.
Une autre grande famille de cas d’usage, c’est de proposer des résumés : vous fournissez un document de plusieurs dizaines de pages et l’outil vous propose un résumé en une page, une demi-page, tout cela est paramétrable ; ou encore de prendre plusieurs documents, qui ont chacun leur plan, et proposer une sorte de synthèse qui les combine.

Jean-Philippe Clément : Du coup, au niveau des concours de la fonction publique, c’est bon, il n’y a plus besoin de réviser la note de synthèse, c’est désormais Albert qui fait les notes de synthèse de l’administration française ?

Pierre-Étienne Devineau : Non, heureusement non ! Dans les deux cas, on parle d’outil d’aide, un outil d’aide à la rédaction et un outil d’aide à la recherche d’informations. Et c’est vraiment rassurant de voir comment un assistant se perfectionne petit à petit, mais n’aura jamais vocation à remplacer le travail de l’agent public, simplement de l’aider.

Jean-Philippe Clément : Du coup, vous lui avez quand même montré beaucoup de notes de synthèse, beaucoup de documents administratifs, et il va avoir la capacité de générer du texte sous cette forme-là, cette forme très significative de l’administration qui est très factuelle ? Il va pouvoir le faire dans la forme, il va quand même pouvoir respecter la manière de faire la note de synthèse ?

Pierre-Étienne Devineau : C’est l’exercice qu’on est en train de se donner, sachant que selon le service, il peut y avoir aussi différentes grandes cultures de la note de synthèse. On essaye donc de naviguer entre ces cultures pour apprendre un petit peu le substrat commun entre toutes ces notes.

Jean-Philippe Clément : Il y a des subtilités entre Bercy et les autres ministères, c’est ce que vous venez de dire ?

Pierre-Étienne Devineau : Pas forcément exactement entre Bercy et les autres ministères, mais il peut y avoir des subtilités sur le type de plan, sur la longueur. On essaye donc de partir avec quelques administrations pilotes pour faire ce premier un outil de notes de synthèse sur mesure avec elles et, ensuite, on va le généraliser.

Jean-Philippe Clément : Justement, si on fait un peu le tour de vos clients de l’expérimentation, ceux qui ont dit « OK, je veux bien tester ces outils-là », qui sont ces clients et comment, concrètement, utilisent-ils l’outil ?

Pierre-Étienne Devineau : Ce sont principalement des administrations de l’État central, même si on a quelques collectivités qui sont intéressées et qu’on embarque petit à petit, qui vont arriver. Les deux premières administrations avec lesquelles on a travaillé c’est l’Agence nationale de cohésion du territoire via le réseau des maisons France services.

Jean-Philippe Clément : C’est quoi les réseaux des maisons France services ? Ça sert à quoi en théorie ?

Pierre-Étienne Devineau : Les réseaux des maisons France services, c’est un ensemble de lieux soit fixes soit mobiles, il y a aussi des maisons France Services dans des bus, qui sont répartis sur le territoire et où les citoyens et citoyennes peuvent se rendre avec ou sans rendez-vous, ça dépend, pour se faire accompagner par des agents publics soit pour répondre à des questions que les citoyens ont, soit, carrément, pour faire les démarches administratives avec eux.

Jean-Philippe Clément : D’accord. Du coup, qu’apporte cet outil aux agents publics qui reçoivent ces publics ?

Pierre-Étienne Devineau : L’outil qu’on est en train d’expérimenter dans les maisons France services, est un outil qui est adapté aux situations où les citoyens ont pris rendez-vous et ont indiqué, au moment de leur prise de rendez-vous, qu’ils voudraient être aidés sur tel ou tel genre de chose. Donc on fournit, à Albert, la raison du rendez-vous et Albert prépare une fiche pratique en fournissant à la fois les informations clés pour répondre à la demande de l’usager et les liens pratiques vers le bon téléservice pour faire la démarche ou l’administration à contacter ou les questions associées, etc. À chaque fois, quand Albert fournit une réponse, l’exercice c’est qu’il puisse donner la source de sa réponse.

Jean-Philippe Clément : D’ailleurs, ce n’est pas courant en IA générative d’arriver à remonter sur une source potentielle.

Pierre-Étienne Devineau : Ce n’est pas courant, mais ça l'est de plus en plus. Ce processus a un nom anglais, ça s’appelle la Retrieval-Augmented Generation, la génération augmentée par le fait de retrouver les informations, et ça marche en deux temps :
d’abord, vous prenez cette base de connaissances, cette base de documents, et vous l’analysez pour détecter ce dont parle chaque paragraphe. Puis vous enregistrez le sens, ce qu’on appelle la sémantique, donc vous enregistrez chaque paragraphe avec, on va dire, des étiquettes qui correspondent à ce dont il parle ;
ensuite, quand vous venez poser des questions Albert, Albert va chercher dans toutes les étiquettes qu’il a fabriquées celles qui semblent les plus proches de votre question. Ce sont donc ces textes-là qu’il va relire au moment de répondre à votre question, il va donc vous répondre sur la base de ces extraits les plus pertinents.

Jean-Philippe Clément : Donc, dans ce cas-là, en fait l’IA sert d’assistant à l’agent public finalement en préparant le rendez-vous et ça permet, pendant le rendez-vous qui n’est pas forcément toujours très long, d’être très efficace sur la manière de répondre à la question de l’usager, voire de lui donner des éléments supplémentaires. C’est ça ?

Pierre-Étienne Devineau : Exactement. En fait, ça permet de gagner le maximum de temps sur la recherche d’informations pour consacrer le temps du rendez-vous à vraiment l’accompagnement de l’usager quand il a besoin d’aide pour faire la démarche en ligne, remplir les formulaires, etc. C’est donc passer moins de temps à rechercher des informations et plus de temps à faire ensemble.

Jean-Philippe Clément : Et l’usager repart avec sa fiche rédigée par Albert ou pas ? Pas à ce point-là quand même !

Pierre-Étienne Devineau : Pas à ce point-là !

Jean-Philippe Clément : D’accord ! Est-ce qu’il y a d’autres cas d’usage ? Est-ce que vous avez d’autres clients publics qui viennent vous demander des choses en particulier avec Albert ?

Pierre-Étienne Devineau : Oui, bien sûr. Sur le sujet des notes de synthèse, le premier service avec lequel on a commencé à travailler, c’est la Cour des comptes. Maintenant, d’autres ont rejoint l’aventure sur le sujet.

Jean-Philippe Clément : En plus, ce sont des rapports de synthèse qui sont souvent costauds.

Pierre-Étienne Devineau : Qui sont tout à fait conséquents, mais qui ont le bon goût d’avoir des plans très clairs, très travaillés. Un des exercices, c’est de pouvoir repartir de rapports de chambres régionales des comptes pour essayer d’en faire une synthèse croisée. L’avantage, c’est qu’on peut fournir à Albert des exemples de rapports produits par les chambres régionales des comptes et du rapport national correspondant de la Cour des comptes. On montre un petit peu à Albert comment l’exercice a été fait par le passé pour qu’il puisse, à son tour, aider à le faire. Sur le sujet, on est encore en phase expérimentale avec la Cour des comptes.

Jean-Philippe Clément : Du coup, Albert est quand même un bon assistant de la Cour des comptes ? Il a bien compris comment il fallait faire un rapport et comment il fallait le synthétiser ?

Pierre-Étienne Devineau : Il est en train d’apprendre, c’est un élève en formation.

Jean-Philippe Clément : C’est bien ! Vous êtes humble avec l’outil que vous développez. Je crois savoir que ça marche plutôt très bien !
Dans toutes ces données, dans tous ces rapports publics, il y a souvent des données nominatives. Du coup, c’est un peu sensible parce que ça veut dire qu’on donne à manger à l’IA pas mal de données où, à l’intérieur, il y a des noms et des prénoms de personnes, des noms de société. Comment gère-t-on, justement, le fait d’entraîner un modèle avec des données nominatives ?

Pierre-Étienne Devineau : C’est une excellente question qu’on est en train d’étudier avec la CNIL.
Pour l’instant, le choix sur lequel on est parti, c’est d’essayer de distinguer deux phases : la phase de conception du modèle, la façon dont on alimente le modèle, et la phase où on l’utilise. Dans la phase où on alimente le modèle, on essaye de lui donner peu ou pas de données personnelles. Ça veut dire qu’on a une première étape où on va retirer de cette base d’exemples, de cette base qu’on appelle la base d’apprentissage, les données personnelles via des règles qui permettent de les trouver et de les retirer au cas par cas.
À côté de ça, pour ne pas avoir de données personnelles, on a toute une stratégie où on crée des fausses données, c’est-à-dire des données qui ressemblent à des données authentiques, mais qui n’en sont pas, c’est ce qu’on appelle les données synthétiques, et les données synthétiques ne contiennent pas de données personnelles puisqu’elles sont sur des exemples factices, mais réalistes.

Jean-Philippe Clément : Et vous les générez avec de l’IA générative.

Pierre-Étienne Devineau : Exactement. Et là où ça devient amusant, c’est qu’on a des outils d’IA générative pour générer des exemples factices, mais réalistes, qu’on donne ensuite à manger Albert pour l’améliorer. C’est donc l’IA générative qui lui permet de s’améliorer elle-même.

Jean-Philippe Clément : On a fait un bon premier tour d’horizon de vos clients, de vos usages.
Je vous propose qu’on fasse une petite pause musicale.
Garlaban, notre programmateur musical, voulait, aujourd’hui, vous remercier pour tous vos partages et toutes les informations que vous nous donnez. Il vous offre ce morceau A Token of gratitude, un signe de gratitude, de The Radio Dept.

Pause musicale : A Token of gratitude par The Radio Dept.

15’ 43

Jean-Philippe Clément : Merci The Radio Dept. Merci à Garlaban.
Vous êtes toujours sur Cause Commune en FM 93.1 à Paris, toujours Parlez-moi d’IA, toujours l’épisode consacré à la découverte d’Albert, le dispositif d’IA générative, conçu et déployé par le service public français, avec Pierre-Étienne Devineau, l’un des chefs d’orchestre du dispositif.
Pierre-Étienne, figurez-vous que Jérôme a une question, il a le droit, il a droit à une question dans l’émission.

Pierre-Étienne Devineau : Excellent.

Jérôme Sorrel : La question que je me posais pendant la pause musicale : combien êtes-vous dans votre service à travailler là-dessus, parce que ce sont quand même mes impôts tout ça ?

Pierre-Étienne Devineau : C’est une très bonne question. Avec vos impôts, on rémunère, en ce moment, entre 10 et 15 personnes au sein du service Etalab qui est en charge du développement d’Albert.

Jean-Philippe Clément : Très bien. Du coup, je vais continuer justement sur ce que vous faites et sur le dispositif technique qui est derrière le programme. On appareille donc des modèles, vous utilisez des modèles existants, vous n’avez pas créé des modèles fondationnels pour ça. Quels sont les modèles que vous utilisez pour réaliser ces services ?

Pierre-Étienne Devineau : On utilise Llama 2, Mistral et des modèles dérivés de Mistral comme Openness.

Jean-Philippe Clément : D’accord. Ce sont des modèles open source, je crois.

Pierre-Étienne Devineau : Absolument. Les modèles Mistral, en particulier, et ses dérivés, sont des modèles qui ont une licence Apache, une licence qui nous permet de les réutiliser librement et c’est quelque chose qui est fondamental pour nous, pour notre autonomie stratégique.

Jean-Philippe Clément : Nous sommes, nous aussi, très sensibles à l’open source sur Cause Commune, je vous rappelle les émissions Libre à vous ! sur le sujet.
Llama 2, c’est le modèle open source développé par Meta, la boîte de Facebook et Mistral est un acteur français qui n’a même pas un an maintenant, c’est ça ?

Pierre-Étienne Devineau : C’est ça.

Jean-Philippe Clément : Essayez de nous expliquer. J’ai essayé de comprendre. Ce sont des modèles qui sont publiés quelque part, on peut aller les chercher, on peut aller les récupérer.

Pierre-Étienne Devineau : Absolument.

Jean-Philippe Clément : Comment ça se passe ? On peut les récupérer et que se passe-t-il après ?

Pierre-Étienne Devineau : En fait, on commence par les récupérer et, ensuite, on va vouloir les transformer un petit peu. Pour les transformer, on fait ce qu’on appelle de fine-tuning : on va donc prendre les données de l’administration qu’on a préparées, par exemple les résumés ou les questions/réponses sourcées qu’on a fabriquées à l’avance à partir des fiches d’information et on vient modifier à peu près 1 % du modèle, avec ces données, pour déplacer un peu la manière dont le modèle fonctionne.

Jean-Philippe Clément : C’est-à-dire que le modèle fonctionne déjà à 99 %, vous pouvez déjà lui parler, vous pouvez déjà interagir avec lui, mais pour qu’il soit meilleur, finalement, dans la fonction dans laquelle vous allez lui demander de travailler, vous lui donnez des données supplémentaires et des éléments supplémentaires. C’est ça ?

Pierre-Étienne Devineau : Exactement. Les éléments supplémentaires qu’on lui donne, déjà ça va l’aider à mieux parler français, à mieux maîtriser le langage administratif aussi pour essayer de bien le comprendre et, pourquoi pas, de bien le restituer.

Jean-Philippe Clément : C’est une langue à part !

Pierre-Étienne Devineau : C’est une langue à part, il est important de bien la comprendre et aussi de bien comprendre son vocabulaire, ainsi que les sigles administratifs par exemple.

Jean-Philippe Clément : Rien que ça déjà, ça doit effectivement beaucoup tourner dans les processeurs, rien que les sigles de l’administration française, effectivement !

Pierre-Étienne Devineau : Oh que oui ! Ensuite, quand on vient modifier ce petit pourcent des paramètres du modèle, on donne des exemples des activités sur lesquelles on veut que le modèle soit bon, donc des exemples de résumés. On a toute une stratégie pour faire les résumés de textes longs. D’ailleurs, je peux vous le raconter, grosso modo, en une phrase : en fait, ce sont des modèles qui sont doués pour faire des résumés de textes très courts, transformer un paragraphe long en un paragraphe court, mais quand on veut transformer un document très long ou un document très court, il y a tout un paquet de paragraphes. On a donc une stratégie : on vient découper le texte, selon son plan, en différentes parties, puis on découpe la partie en différents paragraphes, on résume chacun des paragraphes, ça donne un texte un peu plus court, puis on recommence, etc., jusqu’au moment où on a un texte suffisamment court.

Jean-Philippe Clément : Et, ce qu’on obtient à la fin est quand même intelligible ?

Pierre-Étienne Devineau : C’est quand même intelligible, absolument.

Jean-Philippe Clément : D’accord. Encore une fois, pour bien comprendre, sur quel type d’infrastructure faites-vous toutes les opérations techniques ? C’est-à-dire qu’on récupère un modèle, donc on récupère un code source, quelque part sur un repository sur Internet, publié par Llama et Mistral, d’ailleurs je n’en suis pas sûr. Où Llama et Mistral publient-ils ? Ils publient comme tout le monde sur GitHub ?

Pierre-Étienne Devineau : Les codes sont publiés sur GitHub. Les modèles sont publiés sur leurs sites respectifs, mais sont aussi concentrés sur Hugging Face qui est un peu l’équivalent de GitHub pour les modèles d’IA.

Jean-Philippe Clément : Donc, vous les récupérez pour les fine tuner pour les préparer, comment faites-vous techniquement ? Où est le serveur ?

Pierre-Étienne Devineau : Aujourd’hui, on loue des serveurs dans le cloud public, pour nous permettre de faire ce fine tuning, de faire ces modifications assez légères et ensuite pouvoir utiliser les modèles, ce qu’on appelle en production, pour les utiliser au quotidien. En fait, la contrainte avec ces modèles, c’est que ce sont des modèles beaucoup trop gros pour tourner sur votre ordinateur ou le mien, on a donc vraiment besoin de ces serveurs en continu pour les utiliser.

Jean-Philippe Clément : Et le cloud public, ce sont des serveurs que l’administration publique maîtrise. C’est ça ?

Pierre-Étienne Devineau : Pardon ! cCoud public c’est un anglicisme, c’est public au sens anglais, donc ce n’est pas l’administration publique, ça veut dire cloud commercial où on loue actuellement des serveurs. C’est une phase de transition. À côté de ça, on a commandé des serveurs sur une infrastructure qu’on partage, donc, sur ces serveurs qui vont réellement appartenir à l’administration publique, on pourra faire tourner nos modèles à l’avenir.

Jean-Philippe Clément : Juste par curiosité, aujourd’hui vous vous allez chez quel type de prestataire pour faire cela ?

Pierre-Étienne Devineau : Aujourd’hui, on va chez des prestataires européens qui ont le label SecNumCloud, un label qui nous permet, entre autres, de mettre des données confidentielles, ça pourrait être quasiment du secret défense – en l’occurrence ce n’est pas le cas mais ça pourrait – et il n’y a que quelques acteurs qui ont ce label-là.

Jean-Philippe Clément : D’accord. Vous faites donc vraiment très attention à là où on met les données, même si elles ne sont pas totalement chez vous. Du coup, on voit bien comment ces modèles open source permettent, finalement, d’avoir une plus grande souveraineté vis-à-vis de ce qu’on veut en faire et, peut-être aussi, une diffusion plus rapide. C’est ça ? C’est pour cela qu’on utilise de l’open source finalement ?

Pierre-Étienne Devineau : On utilise l’open source pour au moins trois raisons :
la première raison, c’est effectivement la souveraineté. C’est-à-dire qu’une fois que le modèle a été publié, n’importe qui est libre de l’utiliser, donc on n’est pas dépendant d’un acteur ;
une deuxième raison, c’est qu’en IA la communauté open source est effectivement extrêmement active. Dès lors que vous avez un modèle qui sort, vous allez avoir des élaborations, des versions dérivées du modèle qui vont être produites à leur tour en open source. Si le modèle n’était pas ouvert, s’il était ce qu’on appelle propriétaire, ça ne pourrait pas être le cas. Ça permet donc de bénéficier de l’innovation beaucoup plus rapidement ;
et enfin, une troisième raison qui est propre à l’administration publique mais qui est importante notre cas, c’est que depuis 2016, depuis la loi pour une République numérique, les travaux de l’État sont, par défaut, ouverts, donc les données de l’État doivent être en open data, les codes de l’État doivent être en open source. C’est donc cohérent qu’on utilise des modèles eux-mêmes ouverts qu’on va pouvoir republier à notre tour.

Jean-Philippe Clément : D’accord. Vous disiez que vous utilisez deux grands modèles, Llama 2 et Mistral. Quelle est la différence entre Llama 2 et Mistral. ? Pourquoi en utilisez-vous deux ? Il y en a un qui sait mieux faire un truc qu’un autre ? Pourquoi a-t-on besoin de deux modèles ou de trois ou de quatre ? Comment jugez-vous de la différence entre les modèles, finalement ?

Pierre-Étienne Devineau : En fait, c’est aussi pour une raison de déroulé de projet. Llama 2 date de juillet dernier, Mistral date d’octobre, je crois. On a donc amélioré nos modèles en continu, on avait commencé à travailler sur les deux, on a gardé les deux jusqu’ici, sachant qu’il y a peut-être une différence quand même entre les deux qui est assez intéressante : il y a plus de travail de modération des sorties de Llama 2 que de Mistral, Mistral étant un modèle peut-être un peu plus brut de décoffrage.

Jean-Philippe Clément : OK. En fait, c’est plutôt une question de fraîcheur de modèles, vous les avez pris au fur et à mesure qu’ils sont venus parce qu’ils étaient de mieux en mieux, finalement.

Pierre-Étienne Devineau : Absolument.

Jean-Philippe Clément : OK, c’est très clair. Du coup, il y a donc votre équipe, on a parlé d’une quinzaine de personnes.

Pierre-Étienne Devineau : Une quinzaine de personnes avec des profils d’experts en intelligence artificielle, une designeuse aussi qui va sur le terrain rencontrer les agents publics pour essayer de bien comprendre ce dont ils ont besoin et coconstruire nos outils numériques avec eux, et des profils de développeuse, développeur, etc.

Jean-Philippe Clément : Quand vous allez comme ça sur le terrain, quand vous rencontrez les différents services publics qui veulent faire appel à vous, il faut quand même vous assurer qu’en face vous ayez des personnes qui comprennent ce qu’elles vont faire. Comment fait-on monter en compétence les agents publics pas tant sur le développement mais sur l’usage de ces outils ? Comment leur apprend-on, tout simplement, à prompter correctement s’il faut qu’ils promptent ?

Pierre-Étienne Devineau : En les formant. Justement, dans le cadre des formations des maisons France services, on a fait deux formations : une formation sur l’intelligence artificielle générative en général pour bien comprendre ce que c’était, quelles opportunitéset quelles limites ça pouvait avoir. Après ça, on a fait une formation un peu plus spécifique pour apprendre à prompter en général et apprendre à prompter Albert en particulier.

Jean-Philippe Clément : D’accord. Et ce sont des formations qui sont en présentiel ? Qui sont en ligne ?

Pierre-Étienne Devineau : En ligne, on les a faites en ligne.

Jean-Philippe Clément : Du coup, chacun peut venir se former au fur et à mesure.

Pierre-Étienne Devineau : C’est ça et on va reproduire ce genre de formations avec d’autres services publics.

Jean-Philippe Clément : Au-delà de votre équipe technique, est-ce que, dans les autres ministères, il y a aussi des techniciens des data scientistes avec lesquels vous travaillez ? Comment ça fonctionne ?

Pierre-Étienne Devineau : Oui, absolument. On est en train de structurer une communauté de data scientistes des services publics qui travaillent sur l’IA générative. On en trouve beaucoup au ministère de l’Économie et des Finances, on en trouve aussi au ministère des Armées, à l’Intérieur, à l’Insee, etc. On a un groupe d’échanges, donc, chaque semaine, les gens ont rendez-vous avec les équipes de Bercy pour discuter de nos avancées techniques, se conseiller, partager des codes, des expertises, etc.

Jean-Philippe Clément : Ça plaît beaucoup à Jérôme qui a une nouvelle question, c’est inédit, deux questions dans l’émission !

Pierre-Étienne Devineau : Tant mieux pour moi !

Jérôme Sorrel : La question que j’ai envie de vous poser : aujourd’hui un agent public qui n’est pas encore fourni avec votre service d’IA générative, peut-il aller sur ChatGPT, sur Gemini ou autre pour faire travailler l’intelligence artificielle sur une question qu’il a ? A-t-il le droit de le faire ?

Jean-Philippe Clément : Est-ce qu’il y a une doctrine en fait, c’est ce que tu veux dire ?

Pierre-Étienne Devineau : C’est une très bonne question. Il n’y a pas de doctrine qui ait été publiée par la France sur le sujet. On recommande aux agents publics d’utiliser des outils souverains pour lesquelles leurs données seront sur des serveurs maîtrisés.

Jean-Philippe Clément : Et vous êtes là pour ça.

Pierre-Étienne Devineau : Exactement, on est là pour ça, mais il n’y a pas de doctrine générique. Il y a certains services où la réponse sera évidente et d’autres où elle le sera moins.

Jean-Philippe Clément : Donc, ce n’est pas interdit, mais on va dire que vous essayez de proposer une alternative à ces offres privées et étrangères, en plus, avec Albert. Du coup, au-delà des usages, est-il prévu, justement, qu’il y ait un Albert un peu libre-service, quelles que soient les administrations, en mode un peu questions/réponses finalement comme ChatGPT, qui soit mis à disposition à un moment donné ?

Pierre-Étienne Devineau : C’est ce vers quoi on veut aller, sachant qu’on apporte, avec Albert, le fait d’avoir des réponses, des questions/réponses sourcées, qui sont toujours adossées à une certaine base documentaire et c’est quelque chose qu’on veut garder. Dans la direction qu’on a en ce moment, c’est d’essayer de trouver, de préparer un certain nombre de bases documentaires qui peuvent intéresser un grand nombre d’administrations pour les mettre sur nos serveurs. À côté de ça, si certaines administrations ont des documents qui ne sont pas dans la base documentaire, on leur permettra de les ajouter soit de manière permanente soit de manière éphémère, le temps de poser leurs questions. En tout cas, c’est quelque chose qu’on veut vraiment garder tel quel : des questions/réponses sourcées.

Jean-Philippe Clément : Finissons justement sur ces perspectives. Quelles sont vos grandes perspectives dans les prochains mois, les prochaines années ? Quels sont les grands projets qui vont structurer vos travaux ?

Pierre-Étienne Devineau : C’est donc d’abord élargir le périmètre de ces questions/réponses sourcées ; ensuite sortir un logiciel « Albert synthèse », celui qui est en cours de préparation entre autres avec la Cour des comptes ; et on est en train d’enquêter sur d’autres cas possibles, on a une grande réunion avec un certain nombre de services pour essayer de faire émerger un troisième ou quatrième grand cas ; et on a des pistes sur la simplification du langage administratif, mais c’est encore à confirmer.

Jean-Philippe Clément : C’est très intéressant. On a reçu ici un médecin qui a utilisé ces modèles de langage pour décrypter les petites synthèses techniques médicales en grandes synthèses qui étaient intéressantes. Du coup, je pense que pour simplifier le langage administratif, il y a de grandes chances que ça fonctionne très bien.
Merci beaucoup, Pierre-Étienne, pour cette exploration d’Albert, c’est l’heure de conclure. Je vous remercie beaucoup pour ce partage.
Les auditeurs, n’hésitez pas à liker cet épisode, bien sûr ça manipule les algorithmes et c’est cool de manipuler les algorithmes.
Restez sur 93.1 FM sur Cause Commune, je vous laisse entre de bonnes mains, les émissions de Causes Commune.
À bientôt.

Pierre-Étienne Devineau : À bientôt. Merci.