Hugging Face : Open Source, la secret sauce éthique de l'IA - Giada Pistilli

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Hugging Face : Open Source, la secret sauce éthique de l'iA

Intervenant·es : Giada Pistilli - Virginie Martins de Nobrega - Louis de Diesbach - Cyrille Chaudoit - Mick Levy - Thibaut le Masne

Lieu : Podcast Trench Tech, Esprits critiques pour Tech Ethique

Date : 16 mai 2024

Durée : 1 h 10 min 45

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

L'open source vs opacité de l'Intelligence Artificielle : une start-up française comme rempart aux IA « boîtes noires x ?

Transcription

Diverses voix off : Valérie tu me mets des chips, s’il te plait.
Vous avez vu les chiffres : en février 2024, OpenAI est valorisée 80 milliards de dollars. Super !
La vaste blague OpenAI ! Au départ, les mecs devaient faire de l’IA ouverte pour le service de l’humanité.
Mais la valorisation ! Quand on voit ce que c’est devenu quand même !
C’est possible de faire de l’IA open source ?
Une autre voie doit être possible.
Apparemment, oui, notamment Hugging Face, d’ailleurs on les reçoit.
Excellent

Extrait de Un jour sans fin, Bill Murray : Nous allons voir la marmotte. Quand à votre avis ?
On n’a pas déjà fait ça hier.
Moi, je ne comprends pas là.
Dis-moi quel jour on est.
Le 2 février.
Le jour de la marmotte.
C’est drôle, je crois que c’était hier !

<b<Voix off : Trench Tech, Esprits critiques pour Tech Éthique.

Cyrille Chaudoit : Hello, hello, cher public de plus en plus nombreux à nous suivre, je t’aime public.
Cyrille Chaudoit au micro pour un nouvel épisode de Trench Tech où la technologie rencontre la réflexion et l’éthique côtoie l’innovation. À mes côtés toujours, les très avisés Thibaut le Masne.

Thibaut le Masne : Hello, hello.

Cyrille Chaudoit : Et Mick Levy.

Mick Levy : Salut.

Cyrille Chaudoit : Alors Messieurs, prêts à décortiquer le monde de l’IA avec notre invitée d’exception ?

Mick Levy : Carrément.

Thibaut le Masne : Ça va être trop bien.

Cyrille Chaudoit : Attention, nous accueillons une toute jeune docteure en philosophie, spécialisée en éthique de l’IA, avec un attrait tout particulier pour les IA conversationnelles et le natural language processing.

Mick Levy : Je vais tâcher de surveiller mon langage, ce coup-ci.

Thibaut le Masne : Ne t’inquiète pas, Mick, ce n’est pas Alexa c’est Giada qu’on reçoit aujourd’hui.

Cyrille Chaudoit : Effectivement, c’est Giada Pistilli qui occupe donc le poste d’éthicienne de l’IA chez Hugging Face, cette plateforme franco-américaine, communautaire et open source, dédiée au machine learning. Les amis, voici la grande question de l’épisode : si, comme on peut être tenté de le penser, l’intelligence artificielle redéfinit notre compréhension du monde, alors l'open source peut-il être un rempart à sa déformation ? Nous commencerons donc, logiquement, par interroger le rôle d’une plateforme d’IA open source puis nous plongerons dans le dédale des relations entre éthique, technique et droit : comment ces trois sphères s’entremêlent-elles pour façonner l’avenir de l’IA ? Enfin nous questionnerons la représentation du monde que nous propose l’IA : risquons-nous la standardisation de nos pensées ou nous exposons-nous à une étrange boucle de rétroaction où l’IA apprend d’elle-même, nous enfermant alors dans une sorte de jour sans fin, comme Bill Murray dans l’extrait de ce début d’épisode. Mais ce n’est pas tout ! Cet épisode, qui vous fera donc voyager au pays des machines parlantes, sera aussi ponctué de deux chroniques que vous adorez, si, si, je le sais : « Débats en technocratie » de Virginie Martins de Nobrega – j’adore – et « La Tech Entre les Lignes » de Louis de Diesbach. Et, dans moins d’une heure maintenant, nous débrieferons, juste entre vous et nous, des idées clés partagées avec Giada dans cet épisode, restez donc jusqu’au bout. Il est grand temps d’accueillir Giada. Bonjour Giada.

Giada Pistilli : Bonjour.

Cyrille Chaudoit : On se tutoie Giada ?

Giada Pistilli : Oui, bien sûr.

Cyrille Chaudoit : C’est parfait. Alors, c’est parti pour notre grand entretien. Vous êtes bien dans Trench Tech et c’est maintenant que ça commence.

<b<Voix off : Trench Tech, Esprits critiques pour Tech Éthique.

De l’IA en open source ?

Mick Levy : Depuis la sortie de ChatGPT, il y a des dizaines, des centaines, des milliers d’acteurs de l’IA qui ont poussé comme des champignons. Parmi eux, une plateforme utilisant le monde entier prend un positionnement singulier, c’est celle de Hugging Face.
Giada, au juste, c’est quoi une plateforme d’IA et qu’est-ce qui rend finalement Hugging Face si particulier ?

Giada Pistilli : Une plateforme d’IA, ça veut dire qu’on héberge du contenu en machine learning, principalement, c’est-à-dire quand nous sommes un peu les principaux hébergeurs de contenus tels que des modèles d’intelligence artificielle de tout type, qui font n’importe quel type de tâche, ça peut aller de l’IA conversationnelle à la génération de vidéos, de musiques, d’audio-détection, etc. On héberge aussi des datasets, des jeux de données, pareil, de toute nature. Ensuite, on a aussi une troisième verticale, on héberge des applications finies en intelligence artificielle, donc des applications complètes qu’on appelle des ??? [4 in 19], c’est-à-dire que n’importe qui peut développer sa propre application et l’héberger sur notre site.

Mick Levy : Finalement, vous êtes une sorte de plateforme, de grand magasin d’IA qui comprend un peu tout : on peut faire des IA en kit, on pourrait le dire comme ça, c’est-à-dire une marketplace, un endroit où on a directement des algorithmes qui sont prêts à l’usage pour de la reconnaissance d’images, d’objets, pour du langage, etc. ; des endroits où on a directement des données que chaque développeur d’IA peut venir prendre pour entraîner ses propres IA ; et puis, troisième point, un endroit où on a des applications directement prêtes à l’emploi qu’on peut exécuter sur votre plateforme, associées à une infrastructure.

Giada Pistilli : Exactement. En fait, c’est une espèce de marketplace mais gratuite, parce que le but c’est que ça soit collaboratif. Évidemment, la communauté machine learning et d’intelligence artificielle au sens plus large est impliquée, publie et héberge au quotidien énormément de données, de modèles et d’applications. Et puis, surtout, c’est open source, c’est-à-dire qu’en effet c’est gratuit, c’est ouvert, le code est ouvert. Le but, c’est vraiment le partage et surtout de rendre ça le plus accessible possible, aussi au public qui n’est pas forcément technique, donc les gens comme moi qui n’ai pas forcément un profil technique, pour qu’on puisse exploiter ces outils, les comprendre, les utiliser, les étudier.

Mick Levy : Qu’est-ce qui est open source Giada, pour bien comprendre ? C’est la plateforme elle-même ou ce sont tous les contenus qui sont déposés sur la plateforme, donc les applications, les données et les algorithmes, qui sont forcément en open source une fois sur votre plateforme ?

Giada Pistilli : Les deux. Le contenu n’est pas obligé obligatoirement open source, ça dépend évidemment des nuances de la licence d’utilisation : par exemple, si une organisation est en train de travailler sur un projet encore en bêta, il y a, évidemment, la possibilité soit de l’avoir en privé, soit d’avoir une licence beaucoup plus restrictive, mais, de toute façon, on essaye de pousser pour que, à terme, les choses soient le plus ouvertes possible. Il y a évidemment des degrés. J’imagine qu’on aura aussi le temps d’en discuter parce que open source ne veut pas dire forcément tout ouvert ou tout fermé. Il y a des nuances.

Thibaut le Masne : Justement, Giada, qui se charge de contrôler l’ensemble des datasets, l’ensemble des éléments qu’on dépose sur cette plateforme ?

Giada Pistilli : L’idée, c’est déjà que tous les utilisateurs soient responsables de ce qu’ils hébergent et de surtout ce qu’ils déploient et de ce qu’ils utilisent, sachant que, de toute façon, on a évidemment des lignes conductrices, des guidelines et une politique de contenus qui définit et donne quand même un peu aux utilisateurs des garde-fous, en gros, pour leur dire ce qu’ils peuvent déployer, ce qu’ils ne peuvent pas déployer. On a aussi, évidemment, une équipe qui est dédiée au contrôle de tout cela. Je suis chargée, justement, de la politique un peu policée de modération de contenus. Aujourd’hui, ça reste un travail qui est majoritairement humain.

Mick Levy : Ce travail de modération reste profondément humain, c’est de cela dont tu parlais.

Giada Pistilli : Exactement. On a très peu d’automatisation, mais surtout, ce que je tenais à dire, c’est que même si on parle beaucoup de nous, on reste une petite équipe, aujourd’hui nous sommes 190 partout dans le monde, on reste quand même une entreprise assez petite pour l’instant. Ce qui est aussi peut-être important à souligner, c’est qu’on nous compare souvent à GitHub, plateforme vraiment open source d’hébergement de code. La particularité de Hugging Face, c’est qu’on a du contenu machine learning, donc, comme on peut l’imaginer, il y a des défis qui sont propres à ce type d’hébergement, qui ne sont pas les mêmes. Par exemple, quand on a affaire que du code, la plupart des soucis proviennent par exemple du malware, du phishing ou de choses comme ça. On a des problèmes qui sont beaucoup plus larges, j’ai envie de dire, et surtout, comme on est aussi la plateforme de référence pour tout ce qui est l’état de l’art en termes d’IA, en tout cas de ce qui se fait de manière ouverte, ça veut dire aussi qu’on découvre les choses avec nos utilisateurs. Il faut donc avoir cette flexibilité, pouvoir s’adapter au fur à mesure de l’état de l’art de la discipline.

Cyrille Chaudoit : On dit depuis tout à l’heure que la spécificité de Hugging Face, c’est vraiment ce côté ouvert, open source. Quand on pense au open source, on pense à la communauté open source qui est quand même très imprégnée, très engagée aussi, et, en général, on pense aussi autorégulation de la communauté, c’est relativement lié à cette philosophie open source. Est-ce que tu peux nous en dire un petit un peu plus et, surtout, du coup, s’il y a une forme d’autogestion, d’autorégulation de cette communauté, pourquoi une éthicienne, voire un département d’éthique au sein d’Hugging Face si l’autorégulation c’est si bien que ça et si ça fonctionne si bien que ça ?

Giada Pistilli : C’est un peu une des grandes questions. Évidemment, la philosophie open source remonte à bien avant l’intelligence artificielle. On sait très bien que même si, aujourd’hui, nous sommes en capacité de discuter, c’est parce qu’il y a eu de gens qui, un jour, ont décidé de déployer des choses qui tournent de manière ouverte pour qu’on puisse partager, pour qu’ensuite d’autres personnes en fassent des produits autour, etc. Je pense à énormément de choses, par exemple le chiffrement de bout à bout, le fait d’avoir des visioconférences, si je ne me trompe pas, c’est aussi un protocole open source ; même le socle, par exemple le fameux Linux sur lequel la plupart des systèmes opératifs sont construits, c’est aussi un socle open source. En fait, c’est aussi un peu la base de, je dirais, l’histoire de ce qui appartient à Internet. Je pense que là où il y a un degré de différence, c’est, comme je disais un peu tout à l’heure, il y a, avec l’IA, des défis qui sont quand même à une échelle un peu différente, parce qu’il y a des enjeux de société, des enjeux de mise à l’échelle, des enjeux, aussi, qui ne sont pas du même ordre que du « simple », encore une fois entre beaucoup de guillemets, parce qu’évidemment le code peut être complexe et les logiciels peuvent être très complexes, mais les questions se posent, je dirais, à un niveau un peu différent. Donc, l’idée d’embaucher quelqu’un avec un profil comme le mien, c’est d’essayer de guider, pas trop de mettre, justement, des bâtons dans les roues ; je ne suis absolument pas contre l’idée des éthiciens, par exemple dans le milieu de la tech, peu importe quel milieu spécifique. Ce n’est pas vraiment la police de la morale, dans le sens où on ne va pas dire aux gens ce qu’ils peuvent et ne peuvent pas faire, c’est plus essayer de guider, une approche que j’aime beaucoup c’est guider en donnant le bon exemple. Par exemple, à travers mon équipe et à travers la plateforme Hugging Face, on met en avant les bons projets qui ont, par exemple, un impact social assez important et très positif pour inspirer.

Cyrille Chaudoit : D’ailleurs, peux-tu nous donner un exemple ?

Giada Pistilli : Par exemple, il y a eu, il y a quelque temps, le tremblement de terre en Turquie et une énorme communauté open source s’est créée autour de cet événement, sachant que dans l’équipe on a des personnes qui viennent de tout près de cette région-là. Donc, ils se sont servi de tous les outils qu’il y avait sur la plateforme Hugging Face pour aider la police, en tout cas la protection civile turque, à retrouver, justement avec des outils open source de géolocalisation, d’aide à la recherche, de reconnaissance d’images, plein d’outils de machine learning différents, mais déployés de manière, on va dire, interconnectée, pour aider à retrouver, par exemple, des civils qui étaient encore dispersés ou perdus avec tout ce qui c’était passé.
J’ai du mal à expliquer, mais c’est vraiment l’idée. Une vraie association s’est créée autour de ça, ils ont créé une organisation au sein de Hugging Face. Je pense qu’aujourd’hui c’est un des projets les plus inspirants que j’ai pu voir naitre, croître et aider vraiment sur le terrain.

Mick Levy : Giada, quand on parle d'open source, pour un logiciel on voit bien, mais quand on parle d’IA, on sait que le comportement de l’IA est très déterminé, aussi, finalement, par les données. Donc le vrai open source pour l’IA, ça serait ouvrir le code, mais aussi ouvrir les données qui ont servi à l’entraînement de ces IA. Au fond, n’y a-t-il pas un grand malentendu quand on parle d'open source en IA ?

Giada Pistilli : Oui. En effet, tu touches un peu le nerf du sujet.

Mick Levy : Je ne suis pas venu pour rien ! Il y a des fois où j’ai des questions un peu…

Thibaut le Masne : Il ne vient jamais pour rien !

Giada Pistilli : C’est une excellente question. D’ailleurs, il y a des papiers de recherche très intéressants sur le sujet, parce qu’il y a plusieurs positions : il y a ceux qui disent que parler d'open source en IA, peut-être que ça ne fait plus trop sens, comme tu le dis très justement ; open source, c’est le code, mais, en plus, j’ai envie d’aller un peu plus loin, ce n’est pas juste le code, ce n’est pas juste des données, mais c’est aussi le poids d’un modèle qu’il faut ??? [13 min 10], sinon on ne peut pas vraiment reproduire.

Mick Levy : Ne t’inquiète pas, J’avais une autre question là-dessus.

Giada Pistilli : Très bien, j’anticipe. Est-ce qu’il faut aller un peu au-delà de l’idée d'open source ? Est-ce qu’il ne faut pas plutôt parler de complètement autre chose ? D’ailleurs, pas mal de gens préfèrent le terme « science ouverte » plutôt que open source, c’était le cas du projet BigScience, on pourra en parler si on a le temps, auquel j’ai collaboré, où on a justement déployé, en science ouverte, le plus gros modèle multilingue.

Mick Levy : Tu fais référence au modèle Bloom, développé avec l’Inria entre autres.

Giada Pistilli : Exactement, en banlieue parisienne. En effet, ne faudrait-il pas aller au-delà et ce n’est pas juste une question de données, poids et codes, mais aussi quel type de licence open source on va utiliser : est-ce qu’on peut se servir d’une licence Apache 2.0 classique ou de Creative Commons ou des licences qui sont vraiment utilisées très facilement pour le code ? Ou ne faudrait-il pas créer de nouvelles licences ? C’est d’ailleurs une tendance qu’on commence à voir dans l’industrie de l’IA.

Cyrille Chaudoit : Ça va parler à tous les IT.

Mick Levy : Tous ceux qui nous suivent. Il y a des licences, des contrats finalement, qui régissent les différents usages, ce qu’on peut faire des différents logiciels qui sont mis en open source. Tu en as cité quelques-uns assez connues. La question qui se pose, du coup, c’est que ces contrats ont été faits à l’époque de Linux, à l’époque du logiciel on pourrait dire classique. Ne faudrait-il pas réviser ces contrats à l’époque de l’IA ?, c’est finalement ce que tu étais en train de nous dire.

Giada Pistilli : Exactement. Après, je ne suis pas du tout spécialiste côté juridique, mais ce que je vois, en tout cas aussi d’un point de vue un peu plus éthique, c’est qu’on commence à voir de nouvelles licences qui se créent et surtout des licences par exemple commercial/non commercial. On a le code, on a le poids, on a les données, mais par exemple, pour le dire de façon simple, on ne peut pas construire de produits autour de ces nouveaux modèles d’IA parce que la licence ne le permet pas. En fait, il y a plein de nouvelles contraintes, il y a plein de nouveaux risques, il y a plein de nouveaux cas d’utilisation de ce type de licence qui se créent autour de ces nouvelles ??? [15 min 29].

Cyrille Chaudoit : Il y a effectivement des sujets sur le terme, mais il y a également le mode de fonctionnement de l'open source. Souvent on entend « si c’est gratuit c’est toi qui es le produit », que je n’aime pas trop parce que, justement, ça dévalorise un peu toutes ces notions open source qui sont plutôt communautaires. Dans l'open source, le principe c’est que ça reste gratuit, du coup, comment arrivez-vous à vous rémunérer chez Hugging Face ?

Giada Pistilli : C’est la question qu’on nous pose eu premier, c’est aussi une question tout à fait légitime. Souvent, on se dit que dans l'open source il n’y a pas d’argent. J’ai envie de dire que la tendance qu’on est en train de remarquer maintenant, surtout sachant qu’il y a aussi des Big Tech qui commencent à faire le pari de l'open source, notamment Meta qui, jusqu’à il y a un an et demi, deux ans, n’était pas particulièrement fan de cette philosophie, maintenant ils commencent à avoir une approche de plus en plus ouverte. Nous, notamment chez Hugging Face, déjà, on permet aux entreprises d’avoir accès à notre hub, la plateforme Hugging Face qu’on appelle le hub de manière privée. Je vous ai parlé des ??? [16 min 39] que sont ces applications. Une question que vous pouvez potentiellement vous poser c’est : OK, mais pour faire tourner une application d’intelligence artificielle, il faut énormément de puissance de calcul, énormément de GPU.

Mick Levy : Du coup, comment vous la financez ?

Giada Pistilli : Soit vous avez une option de base, en effet gratuite, soit vous payez l’option pro, par exemple, et c’est vraiment juste vous en tant qu’utilisateur : vous payez mensuellement l’accès à des clusters pour que vous puissiez faire un upgrade, on va dire, de vos applications, pour qu’elles aillent plus vite.

Mick Levy : En fait, ça fait penser au modèle freemium : avec le gratuit tu as accès à la base, ça permet de faire connaître la plateforme au plus grand nombre et puis, quand on a besoin, il faut aller sur des modèles payants.

Cyrille Chaudoit : En termes de business modèle, en tout cas position de valeur monétisée, c’est cette partie hébergement, accès, forme de location de puissance GPU que vous mettez à disposition.

Giada Pistilli : Ce n’est pas tout. Ce n’est qu’une des trois verticales. La deuxième, en effet, on a pas mal de « OK, mais nous comment a-t-on accès à cette puissance de calcul ? » Je réponds à la question : on a des partenariats avec des entreprises de hardware, avec qui, justement, on travaille au quotidien. On les aide. On a, par exemple, une équipe dont je suis très fan au sein de Hugging Face, dont on ne parle pas assez, c’est l’équipe Optimisation. Comme le mot l’indique, elle essaie d’optimiser le plus possible des modèles d’IA pour qu’ils consomment de moins en moins d’énergie, pour qu’ils soient le plus optimisés possible sur, par exemple, des GPU ou CPU en particulier. Ce sont justement des travaux qu’on mène avec les entreprises mêmes qui nous fournissent leur matériel, pour que ça puisse bien tourner sur leurs machines, pour que ça soit compatible le plus possible. Je ne vais pas rentrer dans les détails techniques, mais à chaque fois, plus on descend de niveau, plus, évidemment, on a des langages qui appartiennent à ces machines-là, etc., donc il y a une collaboration étroite. Eux nous fournissent du GPU, en gros, et nous les aidons à intégrer un peu mieux des transformers ou d’autres choses.

Cyrille Chaudoit : Ça fait partie de vos partenaires clés. Si on parle de clients, qu’ils soient payants ou non payants, en tout cas les utilisateurs de votre plateforme, que ce soit pour venir chercher des jeux de données ou des modèles en tant que tel, qui sont-ils exactement ? Plutôt des indépendants ? Plutôt des petites boîtes qui cherchent à faire des pokes, etc. ? Ce sont des grosses boîtes, les Big Tech aussi ? Qui est-ce ?

Giada Pistilli : J’en viens à la troisième verticale de notre revenu, qui est peut-être le plus gros de nos revenus : on a des partenariats avec des entreprises qui ont des projets d’IA, qui ont souvent des équipes en interne, mais qui ont besoin d’accompagnement, donc, on les accompagne. On a toute une équipe dédiée, ce sont, en gros, des ingénieurs en machine learning, qui font aussi de l’accompagnement client, pre-sales, sales et post-sales. C’est à ce moment-là, ou en abordant les contrats à long terme, qu’on les aide sur des projets précis. On les aide à développer leur propre outil open source sur je sais quelle utilisation en particulier. En gros, on accompagne les équipes au jour le jour. C’est la partie un peu moins scalable, on va dire, mais c’est celle qui nous fait gagner le plus d’argent aujourd’hui. Ce sont souvent des grands groupes, pas vraiment des petits.

Cyrille Chaudoit : Petite question ultra courte, justement sur ces partenariats que vous signez avec ces entreprises : ne vous influencent-elles sur les orientations à donner ou restez-vous vraiment open et assez libres ?

Giada Pistilli : En fait, ça n’a aucun impact sur notre propre roadmap, j’ai envie de dire, parce qu’on reste une plateforme. Je pense que le gros avantage d’être plateforme, c’est qu’on ne fait pas la même course, par exemple qu’un OpenAI ou une autre entreprise qui développe des produits. Notre produit c’est la plateforme, donc, tant qu’on peut rendre heureux à la fois l’utilisateur de 18 ans qui sort d’école et qui a envie de tester gratuitement son modèle, de faire sa propre application, et un gros client, de toute façon on a les mêmes fins, donc ça ne change absolument rien, au contraire. Peut-être que je ne l’ai pas mentionné, mais nous sommes aussi le maintener, je ne connais pas le mot français pour ça, mais la plus grande librairie open source qui existe, sur laquelle, d’ailleurs, sont entraînés la plupart des modèles aujourd’hui, les transformers, ce qui, en gros, correspond au « T » dans ChatGPT.

Mick Levy : Avec tout ça, c’est l’heure de retrouver Virginie Martins de Nobrega pour un nouveau débat en technocratie.

 « Débats en technocratie » par Virginie Martins de Nobrega 20’ 55

Mick Levy : Quand les promoteurs de l’IA, d’ailleurs desquels je suis, rappelons-le, essaient de se racheter une conscience, ils font appel à une débauche de terminologies marketing : IA éthique, IA responsable, IA for good. Au final, est-ce que tout cela ne dit pas un petit peu la même chose ?

Virginie Martins de Nobrega : Ces IA ont des correspondances, elles ont des qualités différentes et elles touchent des utilisateurs différents.
Il ne s’agit pas, à proprement à parler, de catégories jurées, je dirais plutôt que ce sont des ensembles et des sous-ensembles qui ont des approches et des finalités différentes, donc aussi, parfois, des règles juridiques différents.
Un premier ensemble, très générique, regroupe l’ensemble des IA, que ce soit de la recherche et développement, de la recherche fondamentale ou diverses applications.
Une deuxième sous-catégorie, qui est venue assez rapidement, est l’IA éthique ou l’IA éthique et responsable, qui vise des systèmes, des applications qui sont conçues, développées et idéalement déployées avec une réflexion éthique et orientée droit de l’homme. Ces applications touchaient généralement le B to B et le B to C et, de plus en plus, touchent le citoyen, avec la digitalisation des services publics, des gouvernements et aussi des applications impactant la vie citoyenne. S’agissant de ce dernier point, je pense que l’exemple le plus frappant, surtout en 2024 – tu sais que la moitié du monde est appelée à voter, donc à utiliser des interfaces de plus en plus digitales et l’utilisation des IA aussi lors des élections et des campagnes. Il y a des campagnes d’influence de citoyens, avec le microtargeting, en fonction de leurs croyances et de leurs idées politiques, soit pour les renforcer, soit pour les amplifier. Il y a des campagnes de désinformation. Il y a aussi les deepfakes utilisés dans les spots et les campagnes.

Mick Levy : Avec tout ça, que nous reste-t-il pour les IA for good ?

Virginie Martins de Nobrega : Le dernier sous-groupe, qui est plus restrictif, qui est aussi plus intéressant et plus challengeant, parce qu’il a une double finalité je dirais : ce sont des applications qui sont orientés vers un ou plusieurs des 17 objectifs du développement durable et qui ont un process éthique et droits de l’homme by design.
En 2022, on estimait que ça pouvait correspondre à peu près à 134 objectifs du développement durable, mais, pour l’instant, il y a un sous-investissement et on estime qu’ils sont financés à moins de 10 % de l’investissement total au niveau mondial.

Mick Levy : Pas encore ! Bon ! Mais comment fait-on pour être IA for good ? Ça se décrète ? Il suffit de le dire ?

Virginie Martins de Nobrega : Je distinguerais trois choses.
Au niveau opérationnel, d’abord, il y a des principes directeurs qui existent, qui sont là pour accompagner cette démarche tournée vers les ODD, avec une éthique by design, un droit de l’homme by design, que ça soit de l’idéation au déploiement de l’IA ; on peut trouver ça par différents groupes, notamment au niveau des Nations Unies, mais également au niveau de groupes de réflexion.
Au niveau éthique et gouvernance, une question est systématiquement poussée par les différentes agences et organisations internationales soit dans des recommandations et des rapports, notamment par l’envoyé spécial à la technologie et, je trouve que dans son dernier rapport intérimaire, il y a cinq principes qui peuvent être intéressants à retenir, en tout cas qui sont en gestation au niveau international : les IA doivent être conçues de façon inclusive ; pour le bien commun et l’intérêt général, donc là on retrouve la troisième catégorie de l’IA for good ; avec une gouvernance qui doit aussi se mettre en phase avec la gouvernance des données, ce qui est, en fait, au niveau technique un peu une lapalissade, mais qui n’était pas là dans les discussions jusqu’à l’heure actuelle ; et on doit promouvoir également les biens communs de données.
Ensuite, au niveau juridique, le droit international s’applique toujours et encore, qui doit être respecté. Il y a aussi une généralisation du principe humanitaire do not a digital arms qui veut dire ne pas causer de préjudice lorsqu’on développe ou qu’on déploie une application.
Les discussions du moment sont désormais sur le cadre d’analyse des risques. Je dirais que la question qu’on se pose à l’heure actuelle au niveau international et au niveau réglementaire, c’est comment inciter les investissements et comment faire que l’IA et l’innovation soient orientées vers des besoins, notamment les objectifs du développement durable. C’est une question qui reste assez ouverte sur la table des négociations.
La question, finalement, est toujours un peu la même : pour qui développe-t-on ces systèmes d’IA et comment on le fait ? En fait, c’est là qu’on retombe sur la dernière catégorie qui est l’IA for good : est-ce qu’on le fait pour les objectifs de développement durable ? Est-ce qu’on le fait pour le bien commun ? Est-ce qu’on le fait avec éthique, et aussi en respectant les droits de l’homme et le droit international ?

<b<Voix off : Trench Tech, Esprits critiques pour Tech Éthique.

Une morale sous contrainte 24’ 47

Cyrille Chaudoit : Eh bien merci Virginie.