La politique de l’IA - Algorithmique 5/6

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : La politique de l’IA

Intervenant·e·s : Imane Bello - Bilel Benbouzid - Mathilde Saliou

Lieu : Podcast Algorithmique - Next

Date : 20 novembre 2024

Durée : 34 min 33

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Que ce soit sous ses formes de modèles de règles ou d'apprentissage machine, l'intelligence artificielle s'étend, les entreprises et les acteurs publics s'en emparent, le domaine a des effets concrets sur les populations et l'environnement...
Au milieu de ce foisonnement, de nombreux travaux pour tenter de l'encadrer, que ce soit par des chartes ou par des textes réglementaires, ont été lancés. En Europe, cela a abouti à l'adoption du règlement sur l'intelligence artificielle. Mais quelles sont les forces politiques en présence ? Comment comprendre les débats qui ont eu et qui continuent d'avoir lieu ?

Transcription

Voix off : Next, Next, Next Next.

Mathilde Saliou : Salut, c’est Mathilde Saliou.
Depuis le début d'Algorithmique, on a évoqué plusieurs des débats soulevés par l’intelligence artificielle. On a parlé des questions de définitions qui, à elles seules, provoquent des tas de discussions. On a parlé des biais que ces systèmes embarquent et discuté des effets concrets qu’ils peuvent avoir sur la vie des gens. On a discuté des questions d’environnement aussi, du coût écologique de l’entraînement et de l’usage de ces technologies.
Mais pendant que le champ de recherche de l’IA se développait, pendant que des entreprises, des ONG et toutes sortes d’acteurs y cherchaient des applications, les débats sur l’éthique, puis sur la régulation de l’intelligence artificielle, ont pris de l’ampleur. À tel point qu’en Europe, un règlement sur l’intelligence artificielle[1] a été débattu pendant pas loin de trois~ans. Il a finalement été adopté par les pays membres de l’Union européenne, puis par le Parlement, au début de l’année 2024.
Ce genre de travaux peut paraître technique, c’est vrai, on parle de lois qui sont prises au niveau européen, de leur impact concret sur l’usage qu’on fait au quotidien d’un modèle de génération d’images ou de génération de textes, ça n’est pas forcément très clair, mais ce travail de régulation est éminemment politique. La manière dont on écrit les textes, les débats qui ont lieu pour les rédiger, ça dit beaucoup du regard que l’on se fait, en tant que société, des objets qu’on régule.

Bilel Benbouzid : On n’a jamais eu autant envie de contrôler à ce point-là une technologie.

Imane Bello : Vu les conséquences que les systèmes d’IA ont sur la société, c’est une question d’intérêt public.

Mathilde Saliou : Je suis Mathilde Saliou et vous écoutez Algorithmique un podcast produit par Next.

Épisode 5 : La politique de l’intelligence artificielle

Mathilde Saliou : C’est parce que c’est politique que je me suis demandé à quoi ressemble exactement le règlement sur l’intelligence artificielle. Et puis, dans quel débat plus large est-ce que ça s’inscrit ? J’ai pris le parti d’en parler avec la juriste Imane Bello. Elle a travaillé sur les régulations de l’intelligence artificielle au niveau européen et elle s’intéresse maintenant à d’autres instances internationales.

Imane Bello : Je m’appelle Imane Bello, tout le monde m’appelle Ima. Je travaille sur les sommets de la sécurité de l’IA pour une association qui s’appelle FLI, Future of Life Institute. Avant, j’étais avocate au barreau de Paris, en droit de l’IA, je travaillais sur les conséquences et les applications des systèmes d’IA ou bien sur les conditions de leur développement. Je faisais de la gouvernance de données, de la gestion de cyberattaques, de la défense de victimes de deepfakes ou autres.

Mathilde Saliou : J’ai aussi interrogé le sociologue Bilel Benbouzid, qui est maître de conférences à l’Université Gustave Eiffel. Je suis allée le voir parce qu’il observe depuis longtemps les débats et les travaux qui se mènent sur les politiques de régulation de l’intelligence artificielle, et la première chose qu’il m’a expliquée, c’est la question qui guide ses recherches.

Bilel Benbouzid : Jamais une technologie n’a autant suscité un désir de contrôle. Ici, dans ce labo, laboratoire interdisciplinaire sciences, innovation, société, tout le monde travaille sur un objet de science ou de technique qui fait l’objet, grosso modo, d’une controverse ou d’un enjeu de régulation. Sur l’IA, même quand j’en discute avec mes collègues, on voit bien qu’il y a une espèce de sur-désir de contrôle. On n’a jamais eu autant envie de contrôler à ce point une technologie et ça m’a vraiment semblé intéressant. Se dire qu’au fond, alors qu’il y a ce désir de contrôle tout semble nous échapper quand même. Alors je vais commencer une petite enquête, une enquête de sociologie politique, et je vais essayer de résoudre cette énigme.

Mathilde Saliou : Quand Bilel Benbouzid parle de volonté de sur-contrôle, c’est parce qu’il existe des centaines de textes liés à l’éthique de l’IA. Ces textes sont plutôt des outils proposés par des ONG ou que les entreprises construisent en interne pour guider leurs actions. On parle quelquefois de « droit mou ». Et puis, il y a de plus en plus de travaux de régulation pure et dure. La Chine, par exemple, a ses premiers textes sur l’intelligence artificielle. Les États-Unis ont pris un décret sur l’intelligence artificielle. Le Brésil planche sur sa propre loi. Même l’ONU a adopté une résolution sur l’IA[2]. Un peu tout le monde réfléchit à une ou des manières d’encadrer le développement du domaine.
Imane Bello, d’ailleurs, a un autre regard sur la situation.

Imane Bello : Je crois que, d’un point de vue réglementaire, il y a aujourd’hui la réalisation que les réseaux sociaux ont probablement été régulés un peu trop tard. Il y a eu une perte d’opportunité, que ce soit d’un point de vue droit de la concurrence sur l’existence de géants technologiques qui ont, au regard de pouvoir géopolitique, plus de pouvoir que certains pays, sur le fait qu’ils soient désormais trop gros pour pouvoir être régulé. Je crois qu’il y a cette première grille de lecture, sur l’engouement réglementaire, qui est lié au fait que, pour les réseaux sociaux, on peut être régulé trop tard. Et trop tard, ce n’est pas théorique, trop tard, ce sont les discours de haine sur les réseaux sociaux qui alimentent les conflits entre voisins, entre villes, entre ethnies, entre tribus, qui, parfois, alimentent des conflits extrêmement violents.
Ça se concrétise aussi par une perte d’imagination collective, une perte de concentration collective. Ça a donc des conséquences vraiment importantes sur la façon dont on peut vivre en société. Je crois que la grande question pour les modèles et les systèmes d’IA, c’est quel va être leur impact sur l’autonomie humaine et comment est-ce qu’on fait pour s’assurer que cette autonomie humaine reste telle qu’on la souhaite collectivement. Donc, évidemment, il faut pouvoir réfléchir à qui décide de ce à quoi ressemble l’autonomie humaine, mais aussi, puisqu’on est dans une phase de coconstruction entre les modèles d’IA, les systèmes d’IA et nous en tant que concitoyens du monde, comment est-ce qu’on fait pour ne pas perdre le contrôle, et le contrôle de manière vraiment très large. Si je prends un exemple : quand j’utilise ChatGPT pour « brainstormer », où est la ligne entre le fait que ça soit aidant, que ça m’aide à avoir de nouvelles idées et la ligne où ça réduit ma capacité imaginer des choses et ça m’influence d’un point de vue intellectuel et culturel ?
Les questions qui sont relatives aux systèmes d’IA sont des questions qui sont hautement politiques, et pendant longtemps, ce n’est plus le cas aujourd’hui, les personnes ont souvent considéré qu’il s’agissait uniquement d’éthique ou de philosophie, estimant qu’il ne s’agissait pas encore de droit ou de politique.

Mathilde Saliou : C’est intéressant que mes deux invités aient un regard différent sur les tentatives de contrôle de l’intelligence artificielle. C’est intéressant parce que, vous allez l’entendre, les oppositions, c’est utile pour s’aiguiller dans un débat. Justement, pour s’orienter dans les discussions autour de l’intelligence artificielle, en tout cas dans celles qui se tiennent en Occident, le travail de Bilel Benbouzid est assez pratique.
En 2022, avec les juristes Yannick Meneceur et Nathalie Alisa Smuha, il a publié un article intitulé « Quatre nuances de régulation de l’intelligence artificielle »[3]. Dedans, il propose une boussole politique.

Bilel Benbouzid : L’idée, c’était comment construire une boussole pour pouvoir s’orienter dans ce débat, je voulais juste poser les choses à plat. Mais, en construisant cette boussole, je me suis rendu compte qu’il y avait un problème politique. On peinait à définir ce qu’est l’IA et, à la fois, à donner un sens politique à la manière de la contrôler. On a donc construit une boussole, une vraie boussole dans le sens où on s’oriente avec, avec des polarités, on a construit deux axes comme on a souvent l’habitude de le faire en sciences sociales pour ranger les choses, un axe horizontal qui est l’axe de la définition de cet objet. C’est quoi l’IA ? Beaucoup d’acteurs se sont entretenus sur la façon de définir l’IA. Il y a les débats juridiques sur la définition et tous ses enjeux politiques, c’est-à-dire que plus on définit largement plus on contrôle, plus on définit serré, moins on contrôle, mais ce n’était pas ça qui m’intéressait. Ce qui m’intéressait, c’était qu’on voyait bien qu’il y avait deux manières d’envisager l’IA.
Il y avait cette espèce d’IA, l’IA des grands médias, l’IA des hommes politiques –~l’IA a fait ceci, l’IA a fait cela. Souvent, on lit dans la presse, ce matin c’était « L’IA a réussi à fabriquer un amant », un amant sans métaux rares ! C’est bizarre cette espèce d’IA au singulier dans un acronyme.
Et, de l’autre côté, il y a vraiment les systèmes d’IA bien concrets. ChatGPT, on le situe, c’est concret.
Donc, si on regarde bien, il y a un sens figuré qui est une espèce d’intelligence, assez abstraite. Et puis il y a un sens propre qui est vraiment le système. On utilise le même mot pour dire quelque chose au sens propre et au sens figuré. Et c’est quasi un sens figuré quand on dit « l’IA a fait ceci, l’IA a fait cela ». On pourrait presque dire « l’État a fait ceci, a fait cela », c’est une espèce de figure un peu abstraite, une espèce d’entité. C’est vraiment ce sens-là qui m’intéressait. Il existe vraiment dans le débat politique sur l’IA. On peut construire un axe comme ça. De manière verticale, ça fait une croix.

Mathilde Saliou : L’axe des abscisses oppose donc abstrait et concret.
À gauche, on classe ceux qui considèrent l’intelligence artificielle comme une entité un peu conceptuelle et à droite, ceux qui l’envisagent comme une technologie pure et dure, manipulable.
L’axe des ordonnées oppose en haut les anti-neutres et, en bas, ceux que Bilel Benbouzid qualifie de neutres.

Bilel Benbouzid : Quand j’ai commencé à enquêter, lorsque j’allais dans des entreprises pour présenter mes travaux, notamment parfois où je pouvais vraiment avoir un grand moment de discussion, lorsque j’interrogeais des experts du niveau européen, qu’est-ce que je découvrais ? Je découvrais qu’il y avait toujours les deux mêmes positions qui revenaient. Il y avait ceux qui me disaient « la technique n’est ni bonne ni mauvaise, elle est neutre. Ça dépend des usages. Par exemple un marteau, ça dépend ce qu’on fait de ce marteau. On peut fracasser la tête de son voisin ou tout simplement planter un clou. » D’autres me disaient : « La technique n’est ni bonne, ni mauvaise, ni neutre. » Et c’est intéressant, parce qu’on voit bien qu’il y a une opposition entre les neutres et les anti-neutres.

Mathilde Saliou : Au bout du compte, dans cette boussole, on se retrouve avec quatre configurations.

Bilel Benbouzid : Vous pouvez être anti-neutre et avoir cette vision de l’IA un peu comme Dieu, on va dire, cette entité abstraite.
Vous pouvez être un anti-neutre, mais, en fait, de voir l’IA quelque chose de très concret.
Vous pouvez être un neutre, voir l’IA comme quelque chose d’assez abstrait, c’est souvent de la recherche.
Ou être un neutre et voir l’IA comme un système. On remarque que ce sont souvent les juristes qui vont essayer d’aller dans ce cas de figure-là.
Et l’arène que l’on connaît tous, c’est l’arène de la singularité technologique, l’arène du risque existentiel. C’est-à-dire que là, en effet, les acteurs sont anti-neutres, ils considèrent que l’IA, en elle-même, est porteuse d’une singularité technologique, donc d’un moment, dans notre vie sociale, ou de basculement. Elle a cette connotation qui est intrinsèquement politique. Elle nous oriente vers un certain rapport au monde et un certain type de monde périlleux. C’est leur argument, donc lever les risques existentiels. C’est un espace intéressant. On peut y mettre des gens comme Nick Bostrom[4], le philosophe, on peut y mettre des personnalités très connues comme Elon Musk, des chercheurs plus sérieux comme Yoshua Bengio[5] maintenant, et Stuart Russell[6].
Donc, ça, c’est le milieu du risque existentiel. Je reviendrai sur ce que c’est pour moi.
Il y a une position qui consiste à dire « alerte, l’IA pourrait devenir tellement puissante qu’on pourrait en perdre le contrôle », mais, en même temps, en appelant à la développer sous une certaine forme et, surtout, à penser les cadres de sécurité comme étant partie prenante du développement des IA, les AI safety ; la question du contrôle est importante pour eux. Ça fait donc des recherches assez étonnantes. Certains pensent que c’est fumeux. On imagine des configurations de perte du contrôle complètement imaginaires, complètement simulées, ils travaillent beaucoup avec des jeux vidéo. Il y a une fonction d’objectifs d’une entité hyper-puissante et on regarde ce que ça produit, on essaye d’envisager comment contrôler ça, si on avait perdu le contrôle.
C’est assez particulier, mais finalement, ça a pu produire, paradoxalement, de la recherche fondamentale en IA.

Mathilde Saliou : Ici, Bilel Benbouzid cite l’exemple de Gato[7], un modèle généraliste testé par DeepMind, le laboratoire de Google, quelque temps avant la sortie de ChatGPT. Même s’il ressemblait de loin au modèle génératif, le système était issu, à l’origine, d’un projet de recherche en sûreté de l’intelligence artificielle.
Nous disions que dans le paysage de l’IA, il y avait des débats et justement, l’arène du risque existentiel attire pas mal de critiques.

Bilel Benbouzid : Elles sont critiquées par qui ? Elles sont critiquées d’abord par aussi des non-neutres, mais qui voient l’IA comme quelque chose de très concret. Qui sont ces non-neutres ? Grosso modo, ce sont les mouvements qui sont nés des enjeux de discrimination ethnique et sexiste dans les algorithmes. J’ai pu y participer à deux reprises à une conférence qui s’appelle FaccT [Conference on Fairness, Accountability, and Transparency], Fairness in machine learning, et la figure médiatique la plus connue de ce mouvement est, on va dire, Timnit Gebru[8]. C’est une chercheuse issue de l’immigration qui a réussi, aux États-Unis, une belle carrière dans l’intelligence artificielle, qui a travaillé chez Microsoft puis chez Google. Elle a très vite utilisé l’IA sur des questions civiques, en particulier pour la lutte contre les discriminations. Cette chercheuse est Éthiopienne, c’est donc vraiment la figure de la femme noire aux États-Unis qui vient débattre et critiquer les usages dangereux de l’intelligence artificielle.

Timnit Gebru, voix off : We have to know that we control what we build… and for… and who we build it for, and what it’s used for. [Traduction par nos soins : « Nous devons savoir que nous contrôlons ce que nous construisons… et pour qui nous le faisons, et quels en sont les usages. », NdT]

Bilel Benbouzid : C’est une critique qui vient aussi des ingénieurs ; Timnit Gebru est une ingénieure. Ce qui est fascinant, c’est que c’est tout un réseau de chercheuses, essentiellement des femmes, c’est venu des femmes, c’est venu de mathématiciennes, de philosophes. On a vu émerger Black in AI, Queer in AI, Women in AI, toutes ces catégories autour desquelles s’organisent des enjeux éthiques sur l’intelligence artificielle.

Mathilde Saliou : Black in AI, Queer in AI, Women in AI, tout cela ce sont des associations professionnelles qui permettent aux minorités concernées –~les personnes noires, les personnes LGBTQIA+, les femmes~– de se retrouver pour échanger, se soutenir, se donner des conseils de toutes sortes sur leur carrière dans l’intelligence artificielle. Ça n’a rien de spécialement neuf. Il existe le même genre de réseau organisé pour l’industrie de la tech en général. Il y a des groupes pour le streaming, il y a des groupes pour les jeux vidéos, etc. Ce sont autant d’espaces où les personnes concernées peuvent se retrouver, s’entraider, mais aussi depuis lesquels elles peuvent réfléchir et proposer les critiques de leur industrie. Et c’est précisément ce que fait le groupe que Bilel Benbouzid décrit comme « Critique de l’intelligence artificielle ».

Bilel Benbouzid : Pour les gens de la critique, l’IA, c’est un système sociotechnique, c’est-à-dire que c’est un système hétérogène qui est relié à des enjeux sociaux. Pour eux, l’IA est tout un long système sociotechnique qui commence dans les mines d’extraction des métaux rares pour faire des centres de calcul et qui finit par les travailleurs du clic. Et, au milieu, il y a l’algorithme qui, lui, a appris avec des données occidentales. Ils appellent ça des IA post-coloniales, c’est une critique postcoloniale, et je pense qu’ils ont raison : vous avez l’extraction de ressources dans des anciens pays qui faisaient l’objet de colonies très extractivistes, donc ça continue ; les travailleurs qui apprennent aux machines à classer, à ne pas être racistes, etc. On les retrouve où ? C’est très bien montré par Antonio Casilli[9] et son équipe, en Afrique, mais pas que.

Mathilde Saliou : Antonio Casilli est un sociologue, enseignant à Télécom Paris et à Polytechnique. Il a notamment écrit l’ouvrage En attendant les robots – Enquête sur le travail du clic, paru en 2019.

Bilel Benbouzid : Antonio Casilli montre, sur une carte, où se recoupent le travail d’extraction des raretés et, en même temps, les travailleurs. En plus de ça, les algorithmes véhiculent un contenu dominé par un imaginaire occidental. C’est donc ça la critique qu’ils nous adressent : l’IA est raciste, l’IA est sexiste, et, en plus de ça, elle est postcoloniale.

Mathilde Saliou : Dans sa boussole, Bilel Benbouzid vient de nous présenter les deux espaces du haut : à gauche, on a le côté IA abstraite, ceux qui craignent des risques existentiels ; à droite, on a celles et ceux qui envisagent les systèmes algorithmiques comme des objets sociotechniques complexes et le sociologue réunit les deux sous le qualificatif d’anti-neutres.
Mais il n’y a pas qu’eux dans le débat. En dessous, il y a aussi deux autres manières d’aborder la question de l’intelligence artificielle.
Bilel Benbouzid considère que ces approches-là se positionnent de manière neutre dans la discussion publique. Et ceux du bas à gauche de son tableau, ceux qui ont une approche à la fois neutre et abstraite, se battent aussi contre ceux qui sont classés juste au-dessus d’eux, les anti-neutres dont on a parlé au tout début, l’arène existentielle. Pour en parler, le sociologue prend l’exemple du discours de Yann Le Cun[10], le directeur de recherche en intelligence artificielle chez Meta.


Bilel Benbouzid : Yann Le Cun, lui aussi, se bat contre le risque existentiel, mais il s’est aussi, à un moment donné, chamaillé avec Timnit Gebru sur les réseaux sociaux. C’est un chercheur extraordinaire, qui prend position régulièrement. Sa manière de prendre position est intéressante. Elle donne l’impression d’être neutre, en fait, elle est neutre, c’est-à-dire qu’il a pris cette posture de neutralité, mais sa posture de neutralit l’engage, politiquement, en tant que neutre. Elle l’engage, bien sûr, parce que nous dit-il ? Il nous dit « tous ceux qui ont peur de l’IA, grosso modo, sont des gens un peu naïfs. »

Yann Le Cun, voix off : Peut-être, peut-on se poser la question : est-ce qu’un jour il y aura des machines aussi intelligentes que les humains, dans tous les domaines où les humains sont intelligents ? Et la réponse à ça est absolument oui. Il ne faut pas avoir peur de l’intelligence artificielle. Il faut la voir, au contraire, comme une certaine nouvelle renaissance, peut-être un nouveau départ, possiblement pour l’humanité, parce que progrès de l’humanité est limité par l’intelligence de l’humain.

Bilel Benbouzid : Si on regarde bien dans l’histoire, dans certaines conférences que j’ai écoutées, il met en avant Pessimists Archiv, un site internet, qui retrouve massivement des coupures de presse, des moments où on a eu peur – on a eu peur du jazz, on a peur de la radio, on a eu peur du four à micro-ondes, on avait peur du train. Quand on met en avant la peur des techniques, historiquement, c’est une position, c’est une position rhétorique des neutres et j’aime beaucoup le rappeler parce que, très souvent, Yann le Cun dit : « Ne vous inquiétez pas, on va faire le travail de safety, de standards techniques. Ne vous inquiétez pas, on va s’occuper de ça. Regardez l’aviation, ça n’a pas fonctionné, maintenant c’est quand même assez sûr » ; il dit souvent cette phrase : « L’IA va sauver des vies ». Ça serait intéressant à déconstruire comme discours. J’espère qu’il ne m’en voudra pas de dire ça, mais je le positionne politiquement comme un neutre, un intellectuel, on va dire un chercheur qu’on écoute, qui a l’oreille des gouvernements, qui est écouté publiquement, qui dit plein de choses très intéressantes. La question n’est pas là. La question, c’est que maintenant, il prend position en tant que neutre, mais cette position est politique.

Mathilde Saliou : Même si Yann Le Cun se positionne comme neutre, il reste employé par Meta, la maison-mère de Facebook et d’Instagram. C’est un peu comme Timnit Gebru qui, dans son parcours, a travaillé pour Microsoft et pour Google, avant d’en être licencié avec fracas.
Revenons à la position neutre et abstraite que Bilel Benbouzid illustre avec les propos de Yann Le Cun. Pour le chercheur, il y a deux événements qui permettent de bien la mettre en valeur. Il y a l’opposition aux groupes qui croient et qui luttent contre les risques existentiels que pose l’intelligence artificielle, on vient d’en parler, et puis il y a un autre débat qui a opposé Yann Le Cun au camp que le sociologue qualifie d’anti-neutres et proche des STS, les Science & Technology Studies ou, en bon français « les études des sciences et des technologies ». La discussion est partie de la publication d’un article scientifique dans lequel les auteurs expliquaient que les chercheurs, les constructeurs des modèles d’intelligence artificielle, sont responsables des problèmes que suscitent leurs machines.

Bilel Benbouzid : Yann Le Cun écrit, sur Twitter, « ce n’est pas une histoire de chercheurs, c’est une histoire de données de bonne qualité ou pas. On règle le problème de la qualité des données et basta, c’est fini. » Cela a agacé Timnit Gebru, et je peux la comprendre, parce que, dans le champ des STS, nous disons que ce n’est pas qu’une affaire de jeux de données à nettoyer, c’est lié à des structures sociales et ça va se répéter comme ça. Et tant que vous ne prendrez pas conscience que ces jeux de données s’inscrivent dans des structures sociales anciennes, qui dépassent le jeu de données lui-même, de racisme et sexisme, vous comprendrez pas. Timnit Gebru n’a rien inventé. Sa critique est entièrement inspirée des STS, entièrement ! Mais ce qui est génial, c’est que d’où elle parle, elle, en tant qu’ancienne ingénieure chez Google et puis, avant, chez Microsoft, chercheuse en IA, en plus avec cette posture de femme noire, aux États-Unis, qui a connu des discriminations dans son parcours professionnel, sa critique est entendue, il y a un écho dans les médias. C’est pour cela que Yann Le Cun en arrive à s’excuser auprès d’elle, à vouloir calmer le débat, parce que plein d’autres chercheurs lui ont dit : « Yann, tu ne comprends pas ce qui est en train de se passer. C’est un rapport au calcul qui est en train de changer. Ce n’est pas seulement un truc de données propres ou pas, c’est une forme d’engagement dans la recherche. » Ce sont des gens qui disent « nos calculs, nos métriques sont politiques et quand on pense les calculs, on pense politique en même temps ». C’est beaucoup porté par des femmes dans l’histoire de l’informatique. Ces moments-là sont des grands moments et on voyait bien que Yann Le Cun ne comprenait pas ça, et c’est cela qu’on essaye de faire comprendre aux ingénieurs ; ça fait 15 ans que j’essaye de faire comprendre ça aux ingénieurs.
Et c’est intéressant parce que, récemment, visiblement, il y a une loi californienne qui appelle à réguler aussi la recherche et pas seulement l’IA. J’ai revu Yann Le Cun sur les réseaux sociaux appeler à la signature d’une pétition pour dire « oui pour réguler l’ingénierie, non pour réguler la recherche. »

Mathilde Saliou : Dans la boussole de Bilel Benbouzid, la posture d’un Yann Le Cun est donc de l’ordre de la neutralité et puis d’une forme d’abstraction de l’IA. Comme on parle de recherche, on y envisage pas mal l’intelligence artificielle comme quelque chose qu’on est encore en train de découvrir, quelque chose à venir.

Bilel Benbouzid : Ensuite, il y a une quatrième arène, plus compliquée, et là on voit plutôt des juristes et des hommes politiques, c’est l’arène « c’est bien concret, mais on est neutre ». Dans cette arène, c’est là qu’on peut raconter l’histoire de la construction de l’AI Act, parce que l’AI Act s’est vraiment construit dans le rêve d’une certaine neutralité technologique, dans un sens très spécifique : pour un juriste, la neutralité technologique, c’est l’idée de ne pas définir, afin que l’objet puisse être toujours réglable, peu importe l’évolution de l’objet technique.
On peut raconter l’histoire de l’AI Act comme une histoire où il y a eu une opposition déjà entre les neutres et non-neutres au départ. C’est très intéressant de suivre une femme et un homme politiques au niveau européen, des commissaires, Je pense à Margrethe Vestager et je pense à Thierry Breton. C’est intéressant parce que je trouve que Thierry Breton, c’est vraiment la figure du neutre, quand même, et je pense qu’il est un ancien ingénieur, alors que Margaret Margrethe Vestager, c’est vraiment une anti-neutre. Vestager, est la seule que j’ai entendu dire « tout ça c’est de la politique. Le numérique, c’est de la politique, on ne peut pas laisser ça entre les mains d’une poignée d’entreprises. »
Ce qui est intéressant, quand on regarde la construction de cet AI Act, on voit, là aussi, la gauche et la droite prendre des positions difficilement opposables parfois, et puis il y a ce texte qui arrive, à la fin, issus de plus de 3000 amendements parlementaires, un processus assez long, des batailles qui restent encore à étudier entre les groupes. Mais quand on regarde le texte final, qu’il faut comprendre à travers sa construction, une construction où, sans cesse, se sont opposés, au fond, des neutres et des anti-neutres qui n’ont jamais réussi à trouver un vrai compromis, ça a fait une espèce de document qui fait un peu tout en même temps, qui en même temps sauve l’innovation, qui, en même temps, sauve les droits fondamentaux qui, en même temps, organise le marché, gère des risques et donne du pouvoir aux citoyens. Ils ont fini par un texte réglementaire qui fait tout en même temps et qui est presque un peu neutre vis-à-vis des grands enjeux politiques ; c’est cette fameuse opposition : sauver l’innovation ou sauver les droits fondamentaux en même temps.

Mathilde Saliou : Imane Bello peut nous aider à y voir un peu plus clair sur le fonctionnement de l'IA Act.

Imane Bello : Le règlement IA deux approches différentes. Il y a effectivement l’approche par les risques, avec une pyramide au sommet de laquelle on a les risques qui sont inacceptables, par exemple le scoring social, et ensuite des risques qui vont en s’amenuisant et, en fonction du risque qui est posé par un système, on a des obligations différentes. Pour les systèmes dont on estime qu’ils posent très peu de risques, on a uniquement des obligations de transparence.
Lorsqu’une société utilise un système d’IA générateur de texte, il faut que toute personne qui lit ce texte-là sache qu’il a été rédigé et/ou corédigé par une personne humaine et un système d’IA. Lorsque les personnes lisent quelque chose, une des premières questions désormais, c’est : est-ce que c’est vrai ?, et non pas est-ce que c’est faux ? C’est un article sur la transparence, article 52, qui est assez important et intéressant, encore faut-il que les personnes le respectent.
Donc, il y a l’approche par les risques et ensuite, il y a l’approche qui est liée au modèle de fondation, c’est-à-dire les modèles tels que GPT qui sont la base d’applications telles que ChatGPT. La question est : est-ce que les conséquences de ces gros modèles ne seraient pas trop irréversibles et/ou trop difficiles à appréhender ? L’exemple que je donnais tout à l’heure : je recrée un énorme modèle sur la base duquel, ensuite, j’ai plein d’applications. Si ce modèle-là n’est pas sécurisé d’une façon ou d’une autre et qu’il y a plein d’applications qui se créent par la suite, quelle est la responsabilité initiale de la société qui a publié ce modèle ?

Mathilde Saliou : Pour éclaircir un peu le brouillage, elle propose aussi de s’interroger sur le but précis du règlement sur l’intelligence artificielle.

Imane Bello : Ça peut être intéressant de comparer le RGPD et le règlement sur l’IA.
Le but du RGPD est de protéger les intérêts de toutes les personnes dont les données personnelles sont collectées.
Le but du règlement IA est à la fois de promouvoir un écosystème d’innovation européen lié à l’IA tout en assurant la compétitivité de cet écosystème-là. Est-ce que ça veut dire que dans le règlement IA il n’y a absolument rien sur les intérêts des personnes, des individus qui utiliseraient les systèmes d’IA ou qui se verraient impactés par les systèmes d’IA ? Non, ce n’est pas le cas. L’article 55 du règlement IA pose la possibilité d’une personne qui aurait subi un dommage du fait d’un système d’IA de porter un recours lié à cet impact-là, mais ce n’est pas le but du règlement IA. Ceci dit, il y a, heureusement, plein de textes juridiques européens qui ont affaire à l’IA, et la réforme de la directive sur la responsabilité des produits défectueux au sein de l’Union européenne, qui a été réformée il y a quelques mois, a intégré un changement de paradigme ou un changement de charge de la preuve vis-à-vis des personnes qui auraient subi un dommage. Si je reformule pour essayer d’être un tout petit peu plus claire : vous subissez un dommage du fait d’un système d’IA, l’ancien texte, qui date des années 90, vous disait que vous deviez prouver que le dommage que vous avez subi était en lien de causalité direct, donc que c’était directement dû à ce système d’IA-là, ce qui, pour les individus, est concrètement impossible à prouver. Changement de charge de la preuve, il y a un inversement, c’est donc à la société qui a développé le système d’IA de prouver que celui-ci n’était en fait pas défectueux.

Mathilde Saliou : Imane Bello me mentionne aussi la directive sur les violences faites aux femmes, qui a été adoptée au premier semestre 2024. Celle-ci a créé un régime de responsabilité pour les auteurs de diffusion non consentie d’images à caractère sexuel, y compris et notamment, quand ces images sont des deepfakes, c’est-à-dire quand elles ont été créées à l’aide de modèles génératifs.
À ce stade de nos réflexions, je ne peux pas m’empêcher de me poser une question. Dans les quatre arènes qui participent au débat sur l’intelligence artificielle, si on reprend la classification de Bilel Benbouzid, on trouve des géants numériques à chaque fois. Du côté de ceux qui craignent les risques existentiels, les grands noms de la tech ont financé toutes sortes d’instituts de recherche : le Future of Life Institute, l’Université de la Singularité, etc. Du côté des non-neutres à la Timnit Gebru, leur plus grosse conférence, FaccT, est financée par Google, Amazon, Microsoft et d’autres. D’ailleurs, beaucoup des data scientists et des ingénieurs qui y participent travaillent pour ces mêmes géants numériques.
Chez les neutres, qui envisagent l’IA de manière relativement abstraite, dans une dimension de recherche, on retrouve Meta derrière le fameux Yann Le Cun, on retrouve aussi des employés de Google et d’autres entreprises du même type.
Et puis, du côté des neutres plutôt juridiques, notamment des régulateurs européens, on retrouve les géants du numérique sous la forme de lobbies qui cherchent à influencer la fabrique de la loi.
Je demande donc à Imane Bello si au final, tout cela n’est pas perdu d’avance. Les grands acteurs de la tech n’ont-ils pas déjà toutes les clés en main pour que les discussions autour de l’IA se concluent à leur avantage ?

Imane Bello : Vu les conséquences que les systèmes d’IA ont sur la société, c’est une question d’intérêt public. La question qui se pose maintenant est : quels sont les acteurs qui ont les compétences pour comprendre techniquement et politiquement et juridiquement et socialement la façon dont on se sort de ce chaos qu’est la gouvernance de l’IA.
Ce que je peux dire, c’est qu’il y a une forme de capture quasi réglementaire des acteurs de la tech sur les questions de régulation. On a vu des acteurs comme OpenAI, par exemple, qui maintenant ont des centaines, je crois que c’est 400, lobbyistes à Bruxelles. En termes de force de frappe, ça fait quand même beaucoup par rapport à des institutions publiques qui ont des équipes qui sont ??? [29 min 57].
Ça pose la deuxième question, la question du talent lié à l’IA, notamment du talent technique. C’est vrai que lorsqu’on regarde les salaires des personnes qui travaillent en mathématiques fondamentales, en IA appliquée au sein de la Silicon Valley, c’est difficilement comparable aux salaires de chercheurs dans le domaine public. Et pourtant, on a aussi envie, évidemment, d’avoir des applications d’IA, d’avoir de la recherche dans des laboratoires publics, etc. Cet état de fait est souvent utilisé pour justifier cette capture réglementaire : puisque nous avons les meilleurs chercheurs et que, par exemple, nous sommes Français, nous avons nécessairement à cœur les meilleurs intérêts de la France ou des autres pays, etc.

Mathilde Saliou : J’ai cherché le nombre de lobbyistes avancés par Imane Bello et je n’ai pas retrouvé le chiffre précis qu’elle a cité plus tôt. En revanche, je peux vous dire que le nombre de lobbyistes purement dédiés aux questions d’intelligence artificielle est passé de 150 à plus de 400 personnes à Washington entre 2022 et 2023. Dans l’Union européenne, l’industrie numérique est l’une des plus dépensières en matière de lobbying. En 2021, selon l’ONG Lobbycontrol, ces entreprises avaient, à elles toutes, dépensé, plus de 113 millions d’euros pour influencer la fabrique de la loi. Dans les derniers mois, avant qu’un accord soit trouvé autour du Règlement européen sur l’intelligence artificielle, on a aussi vu l’ancien secrétaire d’État au numérique, Cédric O, se démener au nom de la start-up Mistral AI pour que la France atténue le texte au profit des constructeurs de systèmes d’IA.
Cela ne change donc pas grand-chose au propos d’Imane Bello. Même si le lobbying n’est pas mal en soi, ce sont quand même beaucoup de moyens mis dans la négociation des lois, surtout si l’on compare avec ceux du reste de la société, notamment de la société civile. Dans un tel contexte, je me demande souvent comment les citoyens, en particulier européens, peuvent se placer dans le débat sur l’intelligence artificielle. Ce que je cherche à savoir, c’est dans quelle mesure vous, moi, en tant que simples personnes lambda, pouvons avoir une prise sur ces technologies qui semble parfois beaucoup trop vastes. Pour Bilel Benbouzid, ce genre de sentiment est en fait un des symptômes du manque de prise qu’on a sur le domaine de l’IA.

Bilel Benbouzid : Pour l’instant, il faut que les citoyens intègrent l’idée qu’il y a un brouillage politique, tout le temps. C’est le seul moyen, à mon avis, dans leur âme et conscience, de pouvoir progressivement prendre part débat. Quand ils entendent Yann Le Cun parler en tant que neutre, ils seront bien sûr très vite convaincus, parce que ce qu’il dit est très intelligent, mais il faudra qu’ils se demandent d’où il part. Et le jour où ils entendent Timnit Gebru parler en anti-neutre, qu’ils ne se disent pas seulement qu’elle est plus politique que Yann Le Cun. Certes, elle est engagée sur des enjeux sociaux, mais elle n’est pas plus politique que Yann le Cun, elle est politique d’une autre manière que Yann Le Cun, en anti-neutre.
Les gens doivent donc réussir non pas à évacuer celui qui est neutre et celui qui n’est pas neutre, mais doivent se dire « moi, j’ai plutôt envie d’être dans un monde où je débattrai ça en anti-neutre, ça me plaît bien » ou d’autres qui diront « moi, je reste dans ma posture », mais ça les engage dans une certaine forme de régulation spécifique.

Mathilde Saliou : Ce que j’entends là, moi, c’est qu’il faut cultiver son esprit critique et pour ce faire, il me semble qu’un mode d’action relativement simple, c’est de tester, d’utiliser l’IA, et puis en parler de manière très concrète, en débattre, confronter les points de vue.
C’est pour cela que, dans le dernier épisode d'Algorithmique, je veux aller voir des gens qui manipulent, et aussi des gens qui forment les autres à manipuler l’intelligence artificielle, tout en réfléchissant à ses effets sur la société. Aller à la rencontre de personnes engagées pour un usage de l’IA raisonnée, voilà ce que je vous propose pour notre prochain épisode.

Si les sujets que j’aborde dans Algorithmique vous intéressent, abonnez-vous au podcast. Dans la description de chaque épisode, vous trouverez des liens vers plusieurs articles qui vous permettront d’aller plus loin. Abonnez-vous à Next aussi. Ça vous permettra d’avoir accès à tous nos travaux et vous y trouverez les entretiens que j’ai menés avec les intervenants d'Algorithmique sous forme de discussions au long cours, sans interruption.
Pour que nous puissions continuer de vous informer avec nuance sur les transformations numériques en cours, abonnez-vous, votre soutien est essentiel.
Algorithmique est un podcast produit par Next, il est réalisé par Clarice Horn et il est écrit et tourné par moi, Mathilde Saliou. Pour me retrouver, rendez-vous sur la plupart de vos réseaux favoris où je suis présente sous mon nom et puis sur le site de Next, next.ink.