Asma Mhalla : les enjeux et les perspectives de l'IA

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Asma Mhalla : les enjeux et les perspectives de l'IA

Intervenante : Asma Mhalla

Lieu : UNESCO

Date : 19 févier 2024

Durée : 14 min 08

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Lors de la présentation de son ouvrage à l'UNESCO, Asma Mhalla a offert un éclairage approfondi sur l'intelligence artificielle. Cette intervention a permis de mettre en lumière les enjeux et les perspectives de l'IA dans un cadre prestigieux dédié à la culture et à l'éducation.

Transcription

Je m'appelle Asma Mhalla, je travaille sur toutes les questions des enjeux politiques, géopolitiques, de la technologie au sens large et, en ce moment, beaucoup de l'intelligence artificielle. Mon véritable champ de recherche, puisque je suis en thèse à l'EHESS [École des hautes études en sciences sociales], ce sont les nouvelles formes de pouvoir et de puissance entre géants technologiques et l'État, ou les États, donc tout ce que cela redéfinit en termes de pouvoir, de puissance, et ce qu'on appelle la souveraineté.

Est-ce qu’on en fait beaucoup ou pas sur l'intelligence artificielle, c'est un peu la question qui mobilise, disons, une forme de bruit médiatique.
Ça commence déjà par la terminologie, « intelligence artificielle », qui peut, en fait, conduire à croire qu’on est dans une révolution absolument totale et radicale. Alors oui et non.
Si on déconstruit un tout petit peu et, en fait, tout l'enjeu est de déconstruire ce dont on parle, mieux le définir pour comprendre, justement, ses opportunités, ses limites et aussi les abus.
Si on prend la question du droit, indépendamment du AI Act[1] , on n'appelle pas tant ça une IA, quiest plus le terme générique, marketing, narratif, on appelle ça des systèmes algorithmiques et, tout d'un coup, on prend un peu plus de champ par rapport au concept. C'est le premier élément de réponse.
Le deuxième élément de réponse c'est que c'est un champ de recherche d'abord fondamental, qui n'a strictement rien de nouveau : en 1943 apparaissent les premiers articles de Warren McCulloch et Walter Pitts [<em<A Logical Calculus of Ideas Immanent in Nervous Activity)] sur les modélisations de nos réseaux neuronaux, biologiques, par des équations mathématiques ou par les mathématiques.
Sept ans plus tard Alan Turing[2], 1950, sa grande question existentielle : une machine peut-elle reproduire ou mimer l'intelligence humaine ?, et qui va le mobiliser toute sa vie.
La DARPA [Defense Advanced Research Projects Agency] va s'y intéresser très vite pour les usages militaires, puis, en fait, elle va s’en désintéresser quand les résultats ne seront pas directement probants, puis on y reviendra dans les années 80.
En 1990, ça va être Kasparov qui perd contre une IA[3] et, là, commencent les premières vagues d'hystérie, on va dire ça comme ça, autour de ces questions qui sont faussement nouvelles et faussement naïves : l'IA va-t-elle détruire l'humanité, révolutionner l'humanité, se retourner contre l'homme, la fin de l'homme, du travail, etc. ?

En fait, de 1997 où on a eu ces premières grandes questions à aujourd’hui, on se rend bien compte que de fin d'humanité point, de fin du travail point et, qu'en fait, c'est autre chose qui est en train de se jouer si on prend un peu de recul et si on regarde un tout petit peu dans le rétroviseur, et il faut avoir un peu de mémoire quand on veut prédire l'avenir, un tout petit peu quand même !

Donc, en termes, si vous voulez, d'impacts concrets, oui, il y en a beaucoup.
L'intelligence artificielle as a concept, c'est-à-dire comme concept –~en fait, vous avez tout un tas d'IA avec tout un tas d'usages,régalien, sécuritaire, militaire industriel, on n'entre pas dans les détails~– va-t-elle potentiellement être ce socle à partir duquel nous allons développer d'autres usages, des améliorations ? Par exemple, dans l'industrie, la question de productivité, d'évolution des métiers ; d'autres façons d'apprendre, de créer de la connaissance, de créer tout court, je crois que oui. Est-ce, pour autant, une raison de se dire que c'est la fin de tout ? Non plus.

En fait, c'est une technologie qui peut être et qui est systémique, et qu'il va falloir absolument accompagner de politiques publiques. Et c'est parce qu'on est assez muet sur la question des politiques publiques que le discours s'est recentré sur, disons, des approches apocalyptiques, catastrophistes, et le catastrophisme est une version laïque de l'Apocalypse au sens biblique du terme. En fait, de tout temps, nous autres les hommes avons toujours joué et aimé jouer à se faire peur, Le Golem, Frankenstein qui est une autre forme d'allégorie, d'une création qui, tout d'un coup, échappait à son créateur. Et c’est bien ce recul-là qu'il faut qu'on ait, une hygiène mentale, une hygiène de mémoire, d'histoire, pour prendre du recul avec un phénomène qui est certes nouveau, mais fondamentalement pas si nouveau que ça, dans notre approche de la technique en général, de la technologie en l'occurrence, c'est-à-dire le discours qu'on impose autour de la technique et qui est forcément, fondamentalement, idéologique.

La question de : quel est l'intérêt d'avoir des outils de régulation, voire, comme en Europe, de réglementation, ce qui n’est pas exactement la même chose, quand on parle d'intelligence artificielle en l'occurrence ? Oui et non, comme toujours.
Oui, parce que, quand on prend, par exemple, la charte de l’UNESCO[4], ça permet de donner une direction, ça permet aussi de générer des discussions de l'ordre du consensus, ou pas, mais de mettre des sujets systémiques, c'est-à-dire forcément multilatéraux, forcément globaux, autour de la table ou, en tout cas, d'essayer de le faire.
Donc, de ce point de vue, garder le lien, garder le contact, garder des courroies de discussion et de négociation, c’est fondamental sur deux questions au 21e siècle : le climat et la technologie. Ça va être nos deux grands enjeux globaux et on ne pourra pas être tout seul dans son coin, dans ses petites frontières, à gérer quelque chose qui est à ce point systémique.
Donc, sur la question de la diplomatie technologique, c'est fondamental de garder ça.

Sur la question de qu'est-ce qu'on fait de l'IA ? Quel est le projet politique derrière l'IA ?, c'est une question qu'on ne se pose pratiquement jamais. On est entré dans cette espèce d'abus et de travers civilisationnel, pour le coup, de l'innovation pour l'innovation. Non ! C'est l'innovation pour quoi faire ? Georges Bernanos disait : « La liberté pour quoi faire », pour quoi faire en trois mots, qu'est-ce qu'on veut faire avec ces outils-là ? Du progrès et si oui lequel ? Scientifique, de la connaissance, de justice sociale ? Ou est-ce que ce sont simplement quelques acteurs de la Silicon Valley qui se tirent la bourre autour d'idéologies disons sectaires et un peu messianiques.
Donc, avoir un contre-pouvoir multilatéral qui dit, qui serait capable de dire « on met une limite », parce qu'on peut aussi mettre des limites, on en a mis sur d'autres sujets –~les mines antipersonnel, les armes bactériologiques, etc. Donc, à un moment donné, on sait dire stop à une technologie qui est duale, c'est-à-dire qu'elle est à la fois civile et militaire, elle peut être un outil très ludique et une arme de guerre vraiment fondamentalement. Elle est duale aussi parce qu’elle peut être absolument totale et, à un moment donné, on peut aussi se dire step back et on met un cadre, on met un cadre d'usage, on met un cadre pour se demander quel est notre projet collectif.

Je crois que la difficulté qu'on va avoir dans les années à venir, c'est la fragmentation du monde idéologique, on le voit aussi sur la question climatique et c'est absolument symétrique : est-ce qu'il y aura un consensus sur ces questions-là, ou pas ?
À l'intérêt de la norme, oui, si il s'agit de dire : voilà notre projet, voilà les valeurs qui font encore consensus chez nous et qu'on a encore envie de défendre de ce point de vue-là, c'est-à-dire le signal politique, pour ne pas dire civilisationnel vraiment. C'est important.
En revanche, se dire que c'est la norme qui va générer de l'émulation industrielle, des contre-propositions européennes, etc., je n'y crois absolument pas. La norme n'est pas une vision industrielle.

La question technologique a toujours été, il n'y a rien d'inédit à ça, et c'est fondamental de garder toujours cette mémoire, de ne pas toujours se dire qu’on est en train de vivre des choses tout à fait nouvelles. La question technologique a toujours constitué ou dessiné une partie de la politique de puissance d'un État donné ou d'une puissance donnée, toujours, peu importe la nature de cette technologie-là, elle évolue avec le temps, elle se sophistique avec le temps. Aujourd'hui on parle beaucoup d'intelligence artificielle de quantique, de post-quantique. Bon ! À la fin des fins, j'ai presque envie de dire peu importe ce dont on parle. La question technologique est un socle fondamental de la puissance.
Ce qui est un tout petit peu nouveau ou qui est en train de s'accentuer, c'est, d'une part, la fusion civil/militaire, ça c'est clair et net, par des technologies qui sont duales, voire omni-usages.
Si on remonte à la guerre froide, on a eu le fameux discours d'Eisenhower, de 1961, qui mettait en garde, je ne sais pas si vous souvenez, contre l'éventuelle apparition d'un complexe militaro-industriel et qui expliquait les risques sur les libertés, si d'aventure on arrivait à la surpuissance de ce complexe-là, c'est-à-dire le Pentagone et sa BITD [Base industrielle et technologique de défense] locale, à l'époque, qui prenait tout un tas de décisions ultra-stratégiques et d'orientations stratégiques pour les États-Unis.
Est-ce qu'on est en train de revivre ce moment-là ? Moi, je dis peut-être. En tout cas, la question est parfaitement ouverte. On est en train d'observer de plus en plus de coopération entre des géants technologiques ou des acteurs technologiques de niche avec le Pentagone aux États-Unis ou le DOD [Département de la Défense] ; en Chine, la fusion techno-militaire est parfaitement intégrée, métabolisée, voire native et on appelle de plus en plus, aujourd'hui, non pas à plus de coopération, encore que, mais à une meilleure coopération.

La guerre d’Ukraine a montré quoi : Starlink de Elon Musk, Microsoft sur les questions de cyberdéfense aux côtés des armées ukrainiennes.
Ce qui est en train de se passer au Proche-Orient nous montre quoi : que, tout d'un coup, on a demandé à Elon Musk d'envoyer des Starlink auprès des ONG qui opéraient à Gaza, puis, ensuite, il a fait une visite pratiquement d'État en Israël.

Ce que j'essaye de dire, c'est que nos acteurs technologiques, les Big Tech ou les Tech Giants américains, sont devenus non pas simplement des entreprises privées, mais sont des entités totalement hybrides qui sont aussi des acteurs politiques, des acteurs idéologiques, car ils ont des agendas propres et des visions du monde propres, des acteurs militaires et, de ce point de vue-là, apparaît, par exemple aux États-Unis, la réflexion de se dire : est-ce que le Pentagone ne devrait pas créer une task force dédiée, comme on a dans l'espace, sur les questions de l'espace, avec les acteurs privés pour coordonner, capter les signaux faibles et avoir une vision beaucoup plus fluide d'actions extérieures de ces entités bizarres, hybrides, privées ; une réflexion. En Chine, c'est plus fluide.

En France, on essaye d'impulser ça. C'est, par exemple, la DGA [Direction générale de l'Armement] qui essaye, justement, d'avoir une fluidification entre les armées et le secteur privé avec, non pas simplement la BITD, c'est-à-dire tous les acteurs industriels, militaires, traditionnels, mais aussi avec l'écosystème de start-ups, avec, peut-être, un tout petit moins de fluidification, parce qu’on a aussi tout un tas de freins culturels, organisationnels, bureaucratiques, ce n'est pas aussi simple ; en France, ce n'est pas de l'ordre du réflexe natif, par exemple, donc, il y a évidemment la question culturelle et politique qui se joue.
En tout cas, c'est fondamental de se poser la question de la gouvernance des géants technologiques dans ce nouvel ordre mondial ou désordre mondial pour l'instant. Ian Bremmer[5] le disait très bien, je reprends sa formule, en tout cas sa question, à mon compte : les États ont le monopole légitime de la violence et on a un contrat social, très ancien, qui fait qu’on admet que l'État va avoir telle ou telle action en notre nom propre. Il y a donc des sources de légitimité qui sont parfaitement cadrées et qui font qu’un État-nation est un État-nation avec les prérogatives régaliennes qui sont les siennes.
Le problème, c'est que ces prérogatives régaliennes sont en train de se diluer avec des acteurs privés qui sont parfois extra-communautaires et, surtout, qui n'ont pas de source de légitimité hormis les quelques CGU, les conditions générales d'utilisation, que vous acceptez de cocher pour avoir accès à tel ou tel service. On revient à la question de la dualité de ces technologies-là.
Donc, la question de Ian Bremmer, que je reprends, c’est : qui gouverne les géants technologiques quand ils partent en guerre, quand ils dessinent la morphologie des démocraties, de la liberté d'expression ? Il y a aussi des IA derrière. En fait, l’IA est déjà partout dans le fond : quand vous débloquez, vous déverrouillez votre smartphone, quand on vous reconnaît sur vos photos, quand vous avez de la domotique à la maison, etc., l'IA est déjà assez omniprésente dans nos quotidiens et ça n'avait pas fait tant de bruit que ça. Tout d'un coup on a une visibilisation, on a un coup de projecteur avec la question fondamentale que je trouve beaucoup plus intéressante que juste l’IA, la fin du monde, qui un peu binaire et simpliste, c’est qui gouverne ceux qui la conçoivent ? Et, pour l'instant, on n'a pas tellement de réponses !