« La politique de l’IA - Algorithmique 5/6 » : différence entre les versions
(Page créée avec « Catégorie:Transcriptions '''Titre :''' La politique de l’IA '''Intervenant·e·s :''' Imane Bello - Bilel Benbouzid - Mathilde Saliou '''Lieu : ''' Podcast <em>Algorithmique</em> - Next '''Date : ''' 20 novembre 2024 '''Durée : ''' 34 min 33 '''[https://cdn.next.ink/podcasts/<em>Algorithmique</em>_EP5_LaPolitiqueDelIA.mp3 Podcast]''' '''[https://next.ink/podcast/algorithmique-5-6-la-politique-de-lia/ Présentation du podcast]''' '''Licence de la... ») |
|||
Ligne 28 : | Ligne 28 : | ||
==Transcription== | ==Transcription== | ||
<b>Voix off : </b>Next, Next, Next Next. | |||
<b>Mathilde Saliou : </b>Salut, c’est Mathilde Saliou.<br/> | |||
Depuis le début d'<em>Algorithmique</em>, on a évoqué plusieurs des débats soulevés par l’intelligence artificielle. On a parlé des questions de définitions qui, à elles seules, provoquent des tas de discussions. On a parlé des biais que ces systèmes embarquent et discuté des effets concrets qu’ils peuvent avoir sur la vie des gens. On a discuté des questions d’environnement aussi, du coût écologique de l’entraînement et de l’usage de ces technologies.<br/> | |||
Mais pendant que le champ de recherche de l’IA se développait, pendant que des entreprises, des ONG et toutes sortes d’acteurs y cherchaient des applications, les débats sur l’éthique, puis sur la régulation de l’intelligence artificielle ont pris de l’ampleur. À tel point qu’en Europe, un règlement sur l’intelligence artificielle a été débattu pendant pas loin de trois ans. Il a finalement été adopté par les pays membres de l’Union européenne, puis par le Parlement, au début de l’année 2024.<br/> | |||
Ce genre de travaux peut paraître technique, c’est vrai, on parle de lois qui sont prises au niveau européen, de leur impact concret sur l’usage qu’on fait au quotidien d’un modèle de génération d’images ou de génération de textes ; ça n’est pas forcément très clair, mais ce travail de régulation est éminemment politique. La manière dont on écrit les textes, les débats qui ont lieu pour les rédiger, ça dit beaucoup du regard que l’on se fait, en tant que société, des objets qu’on régule. | |||
<b>Bilel Benbouzid : </b>On n’a jamais eu envie de contrôler à ce point-là une technologie. | |||
<b>Imane Bello : </b>Vu les conséquences que les systèmes d’IA ont sur la société, c’est une question d’intérêt public. | |||
<b>Mathilde Saliou : </b>Je suis Mathilde Saliou et vous écoutez <em>Algorithmique</em> un podcast produit par Next. | |||
==Épisode 5 : La politique de l’intelligence artificielle== | |||
<b>Mathilde Saliou : </b>C’est parce que c’est politique que je me suis demandé à quoi ressemble exactement le règlement sur l’intelligence artificielle. Et puis, dans quel débat plus large est-ce que ça s’inscrit ? J’ai pris le parti d’en parler avec la juriste Imane Bello. Elle a travaillé sur les régulations de l’intelligence artificielle au niveau européen et elle s’intéresse maintenant à d’autres instances internationales. | |||
<b>Imane Bello : </b>Je m’appelle Imane Bello, tout le monde m’appelle Ima. Je travaille sur les sommets de la sécurité de l’IA pour une association qui s’appelle FLI, <em>Future of Life Institute</em>. Avant, j’étais avocate au barreau de Paris, en droit de l’IA, je travaillais sur les conséquences et les applications des systèmes d’IA ou bien sur les conditions de leur développement. Je faisais de la gouvernance de données, de la gestion de cyberattaques, de la défense de victimes de <em>deepfakes</em> ou autre. | |||
<b>Mathilde Saliou : </b>J’ai aussi interrogé le sociologue Bilel Benbouzid, qui est maître de conférences à l’Université Gustave Eiffel. Je suis allée le voir parce qu’il observe depuis longtemps les débats et les travaux qui se mènent sur les politiques de régulation de l’intelligence artificielle, et la première chose qu’il m’a expliquée, c’est la question qui guide ses recherches. | |||
<b>Bilel Benbouzid : </b>Jamais une technologie n’a autant suscité un désir de contrôle. Ici, dans ce labo, laboratoire interdisciplinaire – sciences, innovation, société –, tout le monde travaille sur un objet de science ou de technique qui fait l’objet, grosso modo, d’une controverse ou d’un enjeu de régulation. Sur l’IA, même quand j’en discute avec mes collègues, on voit bien qu’il y a une espèce de sur-désir de contrôle. On n’a jamais eu autant envie de contrôler à ce point une technologie, et ça m’a vraiment semblé intéressant. Se dire qu’au fond, alors qu’il y a ce désir de contrôle tout semble nous échapper quand même. Alors je vais commencer une petite enquête, une enquête de sociologie politique, et je vais essayer de résoudre cette énigme. | |||
<b>Mathilde Saliou : </b>Quand Bilel Benbouzid parle de volonté de sur-contrôle, c’est parce qu’il existe des centaines de textes liés à l’éthique de l’IA. Ces textes sont plutôt des outils proposés par des ONG ou que les entreprises construisent en interne pour guider leurs actions. On parle quelquefois de droit mou. Et puis il y a de plus en plus de travaux de régulation pure et dure. La Chine, par exemple, a ses premiers textes sur l’intelligence artificielle. Les États-Unis ont pris un décret sur l’intelligence artificielle. Le Brésil planche sur sa propre loi. Même l’ONU a adopté une résolution sur l’IA. Un peu tout le monde réfléchit à une ou des manières d’encadrer le développement du domaine.<br/> | |||
Imane Bello, d’ailleurs, a un autre regard sur la situation. | |||
<b>Imane Bello : </b>Je crois que, d’un point de vue réglementaire, il y a aujourd’hui la réalisation que les réseaux sociaux ont probablement été régulés un peu trop tard. Il y a eu une perte d’opportunité, que ce soit d’un point de vue droit de la concurrence sur l’existence de géants technologiques qui ont plus de pouvoir que certains pays qui regardent leur pouvoir géopolitique, sur le fait qu’ils soient désormais trop gros pour pouvoir être régulé. Je crois qu’il y a cette première grille de lecture sur l’engouement réglementaire qui est lié au fait que, pour les réseaux sociaux, on peut être régulé trop tard. Et trop tard, ce n’est pas théorique, trop tard, ce sont les discours de haine sur les réseaux sociaux qui alimentent les conflits entre voisins, entre villes, entre ethnies, entre tribus, qui, parfois, alimentent des conflits extrêmement violents.<br/> | |||
Ça se concrétise aussi par une perte d’imagination collective, une perte de concentration collective. Ça a donc des conséquences vraiment importantes sur la façon dont on peut vivre en société. Je crois que la grande question pour les modèles des systèmes d’IA, c’est quel va être leur impact sur l’autonomie humaine et comment est-ce qu’on fait pour s’assurer que cette autonomie humaine reste telle qu’on la souhaite collectivement. Donc, évidemment, il faut pouvoir réfléchir à qui décide de ce à quoi ressemble l’autonomie humaine, mais aussi, puisqu’on est dans une phase de coconstruction entre les modèles d’IA, les systèmes d’IA et nous en tant que concitoyens du monde, comment est-ce qu’on fait pour ne pas perdre le contrôle, et le contrôle de manière vraiment très large. Si je prends un exemple : quand j’utilise ChatGPT pour « brainstormer », où est la ligne entre le fait que ça soit aidant et que ça m’aide à avoir de nouvelles idées et la ligne où ça réduit ma capacité imaginer des choses et ça m’influence d’un point de vue intellectuel et culturel ?<br/> | |||
Les questions qui sont relatives aux systèmes d’IA sont des questions qui sont hautement politiques, et pendant longtemps, ce n’est plus le cas aujourd’hui, les personnes ont souvent considéré qu’il s’agissait uniquement d’éthique ou de philosophie, en estimant qu’il ne s’agissait pas encore de droit ou de politique. | |||
<b>Mathilde Saliou : </b>C’est intéressant que mes deux invités aient un regard différent sur les tentatives de contrôle de l’intelligence artificielle. C’est intéressant parce que, vous allez l’entendre, les oppositions, c’est utile pour s’aiguiller dans un débat. Justement, pour s’orienter dans les discussions autour de l’intelligence artificielle, en tout cas dans celles qui se tiennent en Occident, le travail de Bilel Benbouzid est assez pratique.<br/> | |||
En 2022, avec les juristes Yannick Meneceur et Nathalie Alisa Smuha, il a publié un article intitulé « Quatre nuances de régulation de l’intelligence artificielle ». Dedans, il propose une boussole politique. | |||
<b>Bilel Benbouzid : </b>L’idée, c’était comment construire une boussole pour pouvoir s’orienter dans ce débat, je voulais juste poser les choses à plat. Mais, en construisant cette boussole, je me suis rendu compte qu’il y avait un problème politique. On peinait à définir ce qu’est l’IA et, à la fois, à donner un sens politique à la manière de la contrôler. On a donc construit une boussole, une vraie boussole dans le sens où on s’oriente avec, avec des polarités, on a construit deux axes comme on a souvent l’habitude de le faire en sciences sociales pour ranger les choses, un axe horizontal qui est l’axe de la définition de cet objet. C’est quoi l’IA ? Beaucoup d’acteurs se sont entretenus sur la façon définir l’IA. Il y a les débats juridiques sur la définition et tous ses enjeux politiques, c’est-à-dire que plus on définit largement plus on contrôle, plus on définit serré, moins on contrôle, mais c’était pas ça qui m’intéressait. Ce qui m’intéressait, c’était qu’on voyait bien qu’il y avait deux manières d’envisager l’IA.<br/> | |||
Il y avait cette espèce d’IA, l’IA des grands médias, l’IA des hommes politiques – l’IA a fait ceci, l’IA a fait cela. Souvent, on lit dans la presse, ce matin c’était « L’IA a réussi à fabriquer un amant, un amant sans métaux rares. ». C’est bizarre cette espèce d’IA au singulier, un acronyme.<br/> | |||
Et, de l’autre côté, il y a vraiment les systèmes d’IA bien concrets. ChatGPT, on le situe, c’est concret.<br/> | |||
Donc, si on regarde bien, il y a sens figuré qui est une espèce d’intelligence, assez abstraite. Et puis il y a un sens propre qui est vraiment le système. On utilise le même mot pour dire quelque chose au sens propre et au sens figuré. Et c’est quasi un sens figuré quand on dit « l’IA a fait ceci, l’IA a fait cela ». On pourrait presque dire « l’État a fait ceci, a fait cela », c’est une espèce de figure un peu abstraite, une espèce d’entité. C’est vraiment ce sens-là qui m’intéressait. Il existe vraiment dans le débat politique sur l’IA. On peut construire un axe comme ça. De manière verticale, ça fait une croix. | |||
<b>Mathilde Saliou : </b>L’axe des abscisses oppose donc abstrait et concret.<br/> | |||
À gauche, on classe ceux qui considèrent l’intelligence artificielle comme une entité un peu conceptuelle et à droite, ceux qui l’envisagent comme une technologie pure et dure, manipulable.<br/> | |||
L’axe des ordonnées oppose en haut les anti-neutres et, en bas, ceux que Bilel Benbouzid qualifie de neutres. | |||
<b>Bilel Benbouzid : </b>Quand j’ai commencé à enquêter, lorsque j’allais dans des entreprises pour présenter mes travaux, notamment parfois où je pouvais vraiment avoir un grand moment de discussion, lorsque j’interrogeais des experts du niveau européen, qu’est-ce que je découvrais ? Je découvrais qu’il y avait toujours les deux mêmes positions qui revenaient. Il y avait ceux qui me disaient « la technique n’est ni bonne ni mauvaise, elle est neutre. Ça dépend des usages. Par exemple un marteau, ça dépend ce qu’on fait de ce marteau. On peut fracasser la tête de son voisin ou tout simplement planter un clou. » D’autres me disaient « la technique n’est ni bonne, ni mauvaise, ni neutre. » Et c’est intéressant, parce qu’on voit bien qu’il y a une opposition entre les neutres et les anti-neutres. | |||
<b>Mathilde Saliou : </b>Au bout du compte, dans cette boussole, on se retrouve avec quatre configurations. | |||
<b>Bilel Benbouzid : </b>Vous pouvez être anti-neutre et avoir cette vision de l’IA un peu comme Dieu, on va dire, cette entité abstraite.<br/> | |||
Vous pouvez être un anti-neutre, mais, en fait, de voir l’IA quelque chose de très concret.<br/> | |||
Vous pouvez être un neutre, voir l’IA comme quelque chose d’assez abstrait, c’est souvent de la recherche.<br/> | |||
Ou être un neutre et voir l’IA comme un système. On remarque que ce sont souvent les juristes qui vont essayer d’aller dans ce cas de figure-là.<br/> | |||
Et l’arène que l’on connaît tous, c’est l’arène de la singularité technologique, l’arène du risque existentiel. C’est-à-dire que là, en effet, les acteurs sont anti-neutres, ils considèrent que l’IA en elle-même, est porteuse d’une singularité technologique, donc d’un moment, dans notre vie sociale, ou de basculement. Elle a cette connotation qui est intrinsèquement politique. Elle nous oriente vers un certain rapport au monde et un certain type de monde périlleux. C’est leur argument, donc lever les risques existentiels. C’est un espace intéressant. On peut y mettre des gens comme Nick Bostrom, le philosophe, on peut y mettre des personnalités très connues comme Elon Musk, des chercheurs plus sérieux comme Yoshua Bengio maintenant, et Stuart Russell.<br/> | |||
Donc, ça, c’est le milieu du risque existentiel. Je reviendrai sur ce que c’est pour moi.<br/> | |||
Il y a une position qui consiste à dire « alerte, l’IA pourrait devenir tellement puissante qu’on pourrait en perdre le contrôle », mais, en même temps, en appelant à la développer sous une certaine forme et surtout à penser les cadres de sécurité comme étant partie prenante du développement des IA, les IA ??? [11 min 30] ; la question du contrôle est importante pour eux. Ça fait donc des recherches assez étonnantes. Certains pensent que c’est fumeux. On imagine des configurations de perte du contrôle complètement imaginaires, complètement simulées, ils travaillent beaucoup avec des jeux vidéo. Il y a une fonction d’objectifs d’une entité hyper-puissante et on regarde ce que ça produit, on essaye d’envisager comment contrôler ça, si on avait perdu le contrôle.<br/> | |||
C’est assez particulier, mais finalement ça a pu produire paradoxalement de la recherche fondamentale en IA. | |||
<b>Mathilde Saliou : </b>Ici, Bilel Benbouzid cite l’exemple de Gato, un modèle généraliste testé par DeepMind, le laboratoire de Google, quelque temps avant la sortie de ChatGPT. Même s’il ressemblait de loin au modèle génératif, le système était issu, à l’origine, d’un projet de recherche en sûreté de l’intelligence artificielle.<br/> | |||
Nous disions que dans le paysage de l’IA, il y avait des débats et, justement, l’arène du risque existentiel. Elle attire pas mal de critiques. | |||
<b>Bilel Benbouzid : </b>Elles sont critiquées par qui ? Elles sont critiquées d’abord par aussi des non-neutres, mais qui voient l’IA comme quelque chose de très concret. Qui sont ces non-neutres ? Grosso modo, ce sont les mouvements qui sont nés des enjeux de discrimination ethnique et sexiste dans les algorithmes. J’ai pu y participer à deux reprises à une conférence qui s’appelle FaccT, fairness in machine learning et la figure médiatique la plus connue de ce mouvement est, on va dire, Timnit Gebru. C’est une chercheuse issue de l’immigration, qui a réussi, aux États-Unis, une belle carrière dans l’intelligence artificielle, a travaillé chez Microsoft puis chez Google. Elle a très vite utilisé l’IA sur des questions civiques, en particulier pour la lutte contre les discriminations. Cette chercheuse est Éthiopienne, c’est donc vraiment la figure de la femme noire aux États-Unis qui vient débattre et critiquer les usages dangereux de l’intelligence artificielle. | |||
[13’ 27] | |||
<b>Timnit Gebru, voix off : </b>partie à transcrire en anglais, puis à traduire en français. | |||
<b>Bilel Benbouzid : </b>C’est une critique qui vient aussi des ingénieurs ; Timnit Gebru est une ingénieure. Ce qui est fascinant, c’est que c’est tout un réseau de chercheuses, essentiellement des femmes, c’est venu des femmes, c’est venu de mathématiciennes, de philosophes. On a vu émerger <em>Black in AI</em>, <em>Queer in AI</em>, <em>Women in AI</em>, toutes ces catégories autour desquelles s’organisent des enjeux éthiques sur l’intelligence artificielle. | |||
<b>Mathilde Saliou : </b><em>Black in AI</em>, <em>Queer in AI</em>, <em>Women in AI</em>, tout cela ce sont des associations professionnelles qui permettent aux minorités concernées – les personnes noires, les personnes LGBTQIA+, les femmes – de se retrouver pour échanger, se soutenir, se donner des conseils de toutes sortes sur leur carrière dans l’intelligence artificielle. Ça n’a rien de spécialement neuf. Il existe le même genre de réseau organisé pour l’industrie de la tech en général. Il y a des groupes pour le streaming, il y a des groupes pour les jeux vidéos, etc. Ce sont autant d’espaces où les personnes concernées peuvent se retrouver, s’entraider, mais aussi depuis lesquels elles peuvent réfléchir et proposer les critiques de leur industrie. Et c’est précisément ce que fait le groupe que Bilel Benbouzid décrit comme « critique de l’intelligence artificielle ». | |||
<b>Bilel Benbouzid : </b>Pour les gens de la critique, l’IA, c’est un système sociotechnique, c’est-à-dire c’est un système hétérogène qui est relié à des enjeux sociaux. Pour eux, l’IA est tout un long système sociotechnique qui commence dans les mines d’extraction des métaux rares pour faire des centres de calcul, et qui finit par les travailleurs du clic. Et au milieu, il y a l’algorithme qui, lui, a appris avec des données occidentales. | |||
Ils appellent ça des IA post-coloniales, c’est une critique postcoloniale, et je pense qu’ils ont raison : vous avez l’extraction de ressources dans des anciens pays qui faisaient l’objet de colonies très extractivistes, donc ça continue ; les travailleurs qui apprennent aux machines à classer, à ne pas être racistes, etc. On les retrouve où ? C’est très bien montré par Antonio Casilli et son équipe, en Afrique, mais pas que. | |||
<b>Mathilde Saliou : </b>Antonio Casilli est un sociologue enseignant à Télécom Paris et à Polytechnique. Il a notamment écrit l’ouvrage <em>En attendant les robots – Enquête sur le travail du clic</em>, paru en 2019. | |||
<b>Bilel Benbouzid : </b>Antonio Casilli montre sur une carte où se recoupent le travail d’extraction des raretés et, en même temps, les travailleurs. En plus de ça, les algorithmes véhiculent un contenu dominé par un imaginaire occidental. C’est donc ça la critique qu’ils nous adressent : l’IA est raciste, l’IA est sexiste, et, en plus de ça, elle est postcoloniale. | |||
<b>Mathilde Saliou : </b>Dans sa boussole, Bilel Benbouzid vient de nous présenter les deux espaces du haut : à gauche, on a le côté IA abstraite, ceux qui craignent des risques existentiels ; à droite, on a celles et ceux qui envisagent les systèmes algorithmiques comme des objets sociotechniques complexes et le sociologue réunit les deux sous le qualificatif d’anti-neutres. | |||
Mais il n’y a pas qu’eux dans le débat. En dessous. Il y a aussi deux autres manières d’aborder la question de l’intelligence artificielle. | |||
Bilel Benbouzid considère que ces approches-là se positionnent de manière neutre dans la discussion publique et ceux du bas à gauche de son tableau, ceux qui ont une approche à la fois neutre et abstraite, se battent aussi contre ceux qui sont classés juste au-dessus d’eux, les anti-neutres dont on a parlé au tout début, l’arène existentielle. Pour en parler, le sociologue prend l’exemple du discours de Yann Le Cun, le directeur de recherche en intelligence artificielle chez Meta. | |||
==16’ 52== | |||
<b>Bilel Benbouzid : </b>Yann Le Cun, |
Version du 26 novembre 2024 à 10:35
Titre : La politique de l’IA
Intervenant·e·s : Imane Bello - Bilel Benbouzid - Mathilde Saliou
Lieu : Podcast Algorithmique - Next
Date : 20 novembre 2024
Durée : 34 min 33
Algorithmique_EP5_LaPolitiqueDelIA.mp3 Podcast
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
Que ce soit sous ses formes de modèles de règles ou d'apprentissage machine, l'intelligence artificielle s'étend, les entreprises et les acteurs publics s'en emparent, le domaine a des effets concrets sur les populations et l'environnement...
Au milieu de ce foisonnement, de nombreux travaux pour tenter de l'encadrer, que ce soit par des chartes ou par des textes réglementaires, ont été lancés. En Europe, cela a abouti à l'adoption du règlement sur l'intelligence artificielle. Mais quelles sont les forces politiques en présence ? Comment comprendre les débats qui ont eu et qui continuent d'avoir lieu ?
Transcription
Voix off : Next, Next, Next Next.
Mathilde Saliou : Salut, c’est Mathilde Saliou.
Depuis le début d'Algorithmique, on a évoqué plusieurs des débats soulevés par l’intelligence artificielle. On a parlé des questions de définitions qui, à elles seules, provoquent des tas de discussions. On a parlé des biais que ces systèmes embarquent et discuté des effets concrets qu’ils peuvent avoir sur la vie des gens. On a discuté des questions d’environnement aussi, du coût écologique de l’entraînement et de l’usage de ces technologies.
Mais pendant que le champ de recherche de l’IA se développait, pendant que des entreprises, des ONG et toutes sortes d’acteurs y cherchaient des applications, les débats sur l’éthique, puis sur la régulation de l’intelligence artificielle ont pris de l’ampleur. À tel point qu’en Europe, un règlement sur l’intelligence artificielle a été débattu pendant pas loin de trois ans. Il a finalement été adopté par les pays membres de l’Union européenne, puis par le Parlement, au début de l’année 2024.
Ce genre de travaux peut paraître technique, c’est vrai, on parle de lois qui sont prises au niveau européen, de leur impact concret sur l’usage qu’on fait au quotidien d’un modèle de génération d’images ou de génération de textes ; ça n’est pas forcément très clair, mais ce travail de régulation est éminemment politique. La manière dont on écrit les textes, les débats qui ont lieu pour les rédiger, ça dit beaucoup du regard que l’on se fait, en tant que société, des objets qu’on régule.
Bilel Benbouzid : On n’a jamais eu envie de contrôler à ce point-là une technologie.
Imane Bello : Vu les conséquences que les systèmes d’IA ont sur la société, c’est une question d’intérêt public.
Mathilde Saliou : Je suis Mathilde Saliou et vous écoutez Algorithmique un podcast produit par Next.
Épisode 5 : La politique de l’intelligence artificielle
Mathilde Saliou : C’est parce que c’est politique que je me suis demandé à quoi ressemble exactement le règlement sur l’intelligence artificielle. Et puis, dans quel débat plus large est-ce que ça s’inscrit ? J’ai pris le parti d’en parler avec la juriste Imane Bello. Elle a travaillé sur les régulations de l’intelligence artificielle au niveau européen et elle s’intéresse maintenant à d’autres instances internationales.
Imane Bello : Je m’appelle Imane Bello, tout le monde m’appelle Ima. Je travaille sur les sommets de la sécurité de l’IA pour une association qui s’appelle FLI, Future of Life Institute. Avant, j’étais avocate au barreau de Paris, en droit de l’IA, je travaillais sur les conséquences et les applications des systèmes d’IA ou bien sur les conditions de leur développement. Je faisais de la gouvernance de données, de la gestion de cyberattaques, de la défense de victimes de deepfakes ou autre.
Mathilde Saliou : J’ai aussi interrogé le sociologue Bilel Benbouzid, qui est maître de conférences à l’Université Gustave Eiffel. Je suis allée le voir parce qu’il observe depuis longtemps les débats et les travaux qui se mènent sur les politiques de régulation de l’intelligence artificielle, et la première chose qu’il m’a expliquée, c’est la question qui guide ses recherches.
Bilel Benbouzid : Jamais une technologie n’a autant suscité un désir de contrôle. Ici, dans ce labo, laboratoire interdisciplinaire – sciences, innovation, société –, tout le monde travaille sur un objet de science ou de technique qui fait l’objet, grosso modo, d’une controverse ou d’un enjeu de régulation. Sur l’IA, même quand j’en discute avec mes collègues, on voit bien qu’il y a une espèce de sur-désir de contrôle. On n’a jamais eu autant envie de contrôler à ce point une technologie, et ça m’a vraiment semblé intéressant. Se dire qu’au fond, alors qu’il y a ce désir de contrôle tout semble nous échapper quand même. Alors je vais commencer une petite enquête, une enquête de sociologie politique, et je vais essayer de résoudre cette énigme.
Mathilde Saliou : Quand Bilel Benbouzid parle de volonté de sur-contrôle, c’est parce qu’il existe des centaines de textes liés à l’éthique de l’IA. Ces textes sont plutôt des outils proposés par des ONG ou que les entreprises construisent en interne pour guider leurs actions. On parle quelquefois de droit mou. Et puis il y a de plus en plus de travaux de régulation pure et dure. La Chine, par exemple, a ses premiers textes sur l’intelligence artificielle. Les États-Unis ont pris un décret sur l’intelligence artificielle. Le Brésil planche sur sa propre loi. Même l’ONU a adopté une résolution sur l’IA. Un peu tout le monde réfléchit à une ou des manières d’encadrer le développement du domaine.
Imane Bello, d’ailleurs, a un autre regard sur la situation.
Imane Bello : Je crois que, d’un point de vue réglementaire, il y a aujourd’hui la réalisation que les réseaux sociaux ont probablement été régulés un peu trop tard. Il y a eu une perte d’opportunité, que ce soit d’un point de vue droit de la concurrence sur l’existence de géants technologiques qui ont plus de pouvoir que certains pays qui regardent leur pouvoir géopolitique, sur le fait qu’ils soient désormais trop gros pour pouvoir être régulé. Je crois qu’il y a cette première grille de lecture sur l’engouement réglementaire qui est lié au fait que, pour les réseaux sociaux, on peut être régulé trop tard. Et trop tard, ce n’est pas théorique, trop tard, ce sont les discours de haine sur les réseaux sociaux qui alimentent les conflits entre voisins, entre villes, entre ethnies, entre tribus, qui, parfois, alimentent des conflits extrêmement violents.
Ça se concrétise aussi par une perte d’imagination collective, une perte de concentration collective. Ça a donc des conséquences vraiment importantes sur la façon dont on peut vivre en société. Je crois que la grande question pour les modèles des systèmes d’IA, c’est quel va être leur impact sur l’autonomie humaine et comment est-ce qu’on fait pour s’assurer que cette autonomie humaine reste telle qu’on la souhaite collectivement. Donc, évidemment, il faut pouvoir réfléchir à qui décide de ce à quoi ressemble l’autonomie humaine, mais aussi, puisqu’on est dans une phase de coconstruction entre les modèles d’IA, les systèmes d’IA et nous en tant que concitoyens du monde, comment est-ce qu’on fait pour ne pas perdre le contrôle, et le contrôle de manière vraiment très large. Si je prends un exemple : quand j’utilise ChatGPT pour « brainstormer », où est la ligne entre le fait que ça soit aidant et que ça m’aide à avoir de nouvelles idées et la ligne où ça réduit ma capacité imaginer des choses et ça m’influence d’un point de vue intellectuel et culturel ?
Les questions qui sont relatives aux systèmes d’IA sont des questions qui sont hautement politiques, et pendant longtemps, ce n’est plus le cas aujourd’hui, les personnes ont souvent considéré qu’il s’agissait uniquement d’éthique ou de philosophie, en estimant qu’il ne s’agissait pas encore de droit ou de politique.
Mathilde Saliou : C’est intéressant que mes deux invités aient un regard différent sur les tentatives de contrôle de l’intelligence artificielle. C’est intéressant parce que, vous allez l’entendre, les oppositions, c’est utile pour s’aiguiller dans un débat. Justement, pour s’orienter dans les discussions autour de l’intelligence artificielle, en tout cas dans celles qui se tiennent en Occident, le travail de Bilel Benbouzid est assez pratique.
En 2022, avec les juristes Yannick Meneceur et Nathalie Alisa Smuha, il a publié un article intitulé « Quatre nuances de régulation de l’intelligence artificielle ». Dedans, il propose une boussole politique.
Bilel Benbouzid : L’idée, c’était comment construire une boussole pour pouvoir s’orienter dans ce débat, je voulais juste poser les choses à plat. Mais, en construisant cette boussole, je me suis rendu compte qu’il y avait un problème politique. On peinait à définir ce qu’est l’IA et, à la fois, à donner un sens politique à la manière de la contrôler. On a donc construit une boussole, une vraie boussole dans le sens où on s’oriente avec, avec des polarités, on a construit deux axes comme on a souvent l’habitude de le faire en sciences sociales pour ranger les choses, un axe horizontal qui est l’axe de la définition de cet objet. C’est quoi l’IA ? Beaucoup d’acteurs se sont entretenus sur la façon définir l’IA. Il y a les débats juridiques sur la définition et tous ses enjeux politiques, c’est-à-dire que plus on définit largement plus on contrôle, plus on définit serré, moins on contrôle, mais c’était pas ça qui m’intéressait. Ce qui m’intéressait, c’était qu’on voyait bien qu’il y avait deux manières d’envisager l’IA.
Il y avait cette espèce d’IA, l’IA des grands médias, l’IA des hommes politiques – l’IA a fait ceci, l’IA a fait cela. Souvent, on lit dans la presse, ce matin c’était « L’IA a réussi à fabriquer un amant, un amant sans métaux rares. ». C’est bizarre cette espèce d’IA au singulier, un acronyme.
Et, de l’autre côté, il y a vraiment les systèmes d’IA bien concrets. ChatGPT, on le situe, c’est concret.
Donc, si on regarde bien, il y a sens figuré qui est une espèce d’intelligence, assez abstraite. Et puis il y a un sens propre qui est vraiment le système. On utilise le même mot pour dire quelque chose au sens propre et au sens figuré. Et c’est quasi un sens figuré quand on dit « l’IA a fait ceci, l’IA a fait cela ». On pourrait presque dire « l’État a fait ceci, a fait cela », c’est une espèce de figure un peu abstraite, une espèce d’entité. C’est vraiment ce sens-là qui m’intéressait. Il existe vraiment dans le débat politique sur l’IA. On peut construire un axe comme ça. De manière verticale, ça fait une croix.
Mathilde Saliou : L’axe des abscisses oppose donc abstrait et concret.
À gauche, on classe ceux qui considèrent l’intelligence artificielle comme une entité un peu conceptuelle et à droite, ceux qui l’envisagent comme une technologie pure et dure, manipulable.
L’axe des ordonnées oppose en haut les anti-neutres et, en bas, ceux que Bilel Benbouzid qualifie de neutres.
Bilel Benbouzid : Quand j’ai commencé à enquêter, lorsque j’allais dans des entreprises pour présenter mes travaux, notamment parfois où je pouvais vraiment avoir un grand moment de discussion, lorsque j’interrogeais des experts du niveau européen, qu’est-ce que je découvrais ? Je découvrais qu’il y avait toujours les deux mêmes positions qui revenaient. Il y avait ceux qui me disaient « la technique n’est ni bonne ni mauvaise, elle est neutre. Ça dépend des usages. Par exemple un marteau, ça dépend ce qu’on fait de ce marteau. On peut fracasser la tête de son voisin ou tout simplement planter un clou. » D’autres me disaient « la technique n’est ni bonne, ni mauvaise, ni neutre. » Et c’est intéressant, parce qu’on voit bien qu’il y a une opposition entre les neutres et les anti-neutres.
Mathilde Saliou : Au bout du compte, dans cette boussole, on se retrouve avec quatre configurations.
Bilel Benbouzid : Vous pouvez être anti-neutre et avoir cette vision de l’IA un peu comme Dieu, on va dire, cette entité abstraite.
Vous pouvez être un anti-neutre, mais, en fait, de voir l’IA quelque chose de très concret.
Vous pouvez être un neutre, voir l’IA comme quelque chose d’assez abstrait, c’est souvent de la recherche.
Ou être un neutre et voir l’IA comme un système. On remarque que ce sont souvent les juristes qui vont essayer d’aller dans ce cas de figure-là.
Et l’arène que l’on connaît tous, c’est l’arène de la singularité technologique, l’arène du risque existentiel. C’est-à-dire que là, en effet, les acteurs sont anti-neutres, ils considèrent que l’IA en elle-même, est porteuse d’une singularité technologique, donc d’un moment, dans notre vie sociale, ou de basculement. Elle a cette connotation qui est intrinsèquement politique. Elle nous oriente vers un certain rapport au monde et un certain type de monde périlleux. C’est leur argument, donc lever les risques existentiels. C’est un espace intéressant. On peut y mettre des gens comme Nick Bostrom, le philosophe, on peut y mettre des personnalités très connues comme Elon Musk, des chercheurs plus sérieux comme Yoshua Bengio maintenant, et Stuart Russell.
Donc, ça, c’est le milieu du risque existentiel. Je reviendrai sur ce que c’est pour moi.
Il y a une position qui consiste à dire « alerte, l’IA pourrait devenir tellement puissante qu’on pourrait en perdre le contrôle », mais, en même temps, en appelant à la développer sous une certaine forme et surtout à penser les cadres de sécurité comme étant partie prenante du développement des IA, les IA ??? [11 min 30] ; la question du contrôle est importante pour eux. Ça fait donc des recherches assez étonnantes. Certains pensent que c’est fumeux. On imagine des configurations de perte du contrôle complètement imaginaires, complètement simulées, ils travaillent beaucoup avec des jeux vidéo. Il y a une fonction d’objectifs d’une entité hyper-puissante et on regarde ce que ça produit, on essaye d’envisager comment contrôler ça, si on avait perdu le contrôle.
C’est assez particulier, mais finalement ça a pu produire paradoxalement de la recherche fondamentale en IA.
Mathilde Saliou : Ici, Bilel Benbouzid cite l’exemple de Gato, un modèle généraliste testé par DeepMind, le laboratoire de Google, quelque temps avant la sortie de ChatGPT. Même s’il ressemblait de loin au modèle génératif, le système était issu, à l’origine, d’un projet de recherche en sûreté de l’intelligence artificielle.
Nous disions que dans le paysage de l’IA, il y avait des débats et, justement, l’arène du risque existentiel. Elle attire pas mal de critiques.
Bilel Benbouzid : Elles sont critiquées par qui ? Elles sont critiquées d’abord par aussi des non-neutres, mais qui voient l’IA comme quelque chose de très concret. Qui sont ces non-neutres ? Grosso modo, ce sont les mouvements qui sont nés des enjeux de discrimination ethnique et sexiste dans les algorithmes. J’ai pu y participer à deux reprises à une conférence qui s’appelle FaccT, fairness in machine learning et la figure médiatique la plus connue de ce mouvement est, on va dire, Timnit Gebru. C’est une chercheuse issue de l’immigration, qui a réussi, aux États-Unis, une belle carrière dans l’intelligence artificielle, a travaillé chez Microsoft puis chez Google. Elle a très vite utilisé l’IA sur des questions civiques, en particulier pour la lutte contre les discriminations. Cette chercheuse est Éthiopienne, c’est donc vraiment la figure de la femme noire aux États-Unis qui vient débattre et critiquer les usages dangereux de l’intelligence artificielle.
[13’ 27] Timnit Gebru, voix off : partie à transcrire en anglais, puis à traduire en français.
Bilel Benbouzid : C’est une critique qui vient aussi des ingénieurs ; Timnit Gebru est une ingénieure. Ce qui est fascinant, c’est que c’est tout un réseau de chercheuses, essentiellement des femmes, c’est venu des femmes, c’est venu de mathématiciennes, de philosophes. On a vu émerger Black in AI, Queer in AI, Women in AI, toutes ces catégories autour desquelles s’organisent des enjeux éthiques sur l’intelligence artificielle.
Mathilde Saliou : Black in AI, Queer in AI, Women in AI, tout cela ce sont des associations professionnelles qui permettent aux minorités concernées – les personnes noires, les personnes LGBTQIA+, les femmes – de se retrouver pour échanger, se soutenir, se donner des conseils de toutes sortes sur leur carrière dans l’intelligence artificielle. Ça n’a rien de spécialement neuf. Il existe le même genre de réseau organisé pour l’industrie de la tech en général. Il y a des groupes pour le streaming, il y a des groupes pour les jeux vidéos, etc. Ce sont autant d’espaces où les personnes concernées peuvent se retrouver, s’entraider, mais aussi depuis lesquels elles peuvent réfléchir et proposer les critiques de leur industrie. Et c’est précisément ce que fait le groupe que Bilel Benbouzid décrit comme « critique de l’intelligence artificielle ».
Bilel Benbouzid : Pour les gens de la critique, l’IA, c’est un système sociotechnique, c’est-à-dire c’est un système hétérogène qui est relié à des enjeux sociaux. Pour eux, l’IA est tout un long système sociotechnique qui commence dans les mines d’extraction des métaux rares pour faire des centres de calcul, et qui finit par les travailleurs du clic. Et au milieu, il y a l’algorithme qui, lui, a appris avec des données occidentales. Ils appellent ça des IA post-coloniales, c’est une critique postcoloniale, et je pense qu’ils ont raison : vous avez l’extraction de ressources dans des anciens pays qui faisaient l’objet de colonies très extractivistes, donc ça continue ; les travailleurs qui apprennent aux machines à classer, à ne pas être racistes, etc. On les retrouve où ? C’est très bien montré par Antonio Casilli et son équipe, en Afrique, mais pas que.
Mathilde Saliou : Antonio Casilli est un sociologue enseignant à Télécom Paris et à Polytechnique. Il a notamment écrit l’ouvrage En attendant les robots – Enquête sur le travail du clic, paru en 2019.
Bilel Benbouzid : Antonio Casilli montre sur une carte où se recoupent le travail d’extraction des raretés et, en même temps, les travailleurs. En plus de ça, les algorithmes véhiculent un contenu dominé par un imaginaire occidental. C’est donc ça la critique qu’ils nous adressent : l’IA est raciste, l’IA est sexiste, et, en plus de ça, elle est postcoloniale.
Mathilde Saliou : Dans sa boussole, Bilel Benbouzid vient de nous présenter les deux espaces du haut : à gauche, on a le côté IA abstraite, ceux qui craignent des risques existentiels ; à droite, on a celles et ceux qui envisagent les systèmes algorithmiques comme des objets sociotechniques complexes et le sociologue réunit les deux sous le qualificatif d’anti-neutres. Mais il n’y a pas qu’eux dans le débat. En dessous. Il y a aussi deux autres manières d’aborder la question de l’intelligence artificielle. Bilel Benbouzid considère que ces approches-là se positionnent de manière neutre dans la discussion publique et ceux du bas à gauche de son tableau, ceux qui ont une approche à la fois neutre et abstraite, se battent aussi contre ceux qui sont classés juste au-dessus d’eux, les anti-neutres dont on a parlé au tout début, l’arène existentielle. Pour en parler, le sociologue prend l’exemple du discours de Yann Le Cun, le directeur de recherche en intelligence artificielle chez Meta.
16’ 52
Bilel Benbouzid : Yann Le Cun,