Ce n'est pas l'IA que vous détestez, c'est le capitalisme
Titre : « Ce n'est pas l'IA que vous détestez, c'est le capitalisme ! »
Intervenant : Pierre-Yves Gosset
Lieu : Lyon - Salon Primevère
Date : 22 mars 2025
Durée : 1 h 28 min 32
Diaporama support de la présentation
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description[modifier]
Et si ce n’était pas l’intelligence artificielle que nous redoutions, mais le capitalisme qui la pilote ?
En amplifiant l’exploitation, les discriminations et les impacts écologiques, l’IA révèle bien plus qu’un simple progrès technique.
L'association Framasoft vous propose de lever le voile sur le fonctionnement de l'IA, mais aussi sur les enjeux qui la gouverne, pour démystifier cette technologie et examiner ses conséquences sociales, idéologiques et politiques.
Transcription[modifier]
De quoi allons-nous parler ?[modifier]
De quoi allons-nous parler ce soir ?, dit Jamy, j’aime bien C’est pas sorcier.
Je vais parler de moi pour commencer.
Je pense que beaucoup de gens ont déjà entendu parler d’intelligence artificielle, mais ne savent pas forcément ce que c’est, je vais quand même faire une petite base, la moins technique possible, promis, sur ce qu’est l’intelligence artificielle, est-ce que c’est une technologie comme les autres, quel est le problème que ça pose. L’éléphant dans la pièce, si vous vous demandez ce qu’est l’éléphant, c’est simple, la conférence s’appelle « Ce n’est pas l’IA que vous détestez, c’est le capitalisme », je vous laisse donc deviner quel est l’éléphant dans la pièce. Vous aurez, à la fin, un moment pour me jeter des tomates, si vous voulez, et enfin une partie questions réponses.
J’ai commencé, direct. Je fais comme chez moi. On se sent comme chez soi, c’est super et j’ai prévenu pour les téléphones, pour l’enregistrement audio. Je ne crois pas qu’il y ait de captation vidéo. Ça va bien se passer.
Comme je disais, je commence un peu vite et je vais être hyper-speed, je suis désolé, j’ai beaucoup de choses à dire, pour que vous puissiez garder le maximum de temps pour les questions réponses à la fin ; 103 slides, ça va être chaud.
« D’où parles-tu camarade ? »[modifier]
« D’où parles-tu camarade ? », pour ceux qui ont la référence, à mai 68.
Micro-CV[modifier]
Je suis économiste de formation. J’ai bossé pour différentes universités et puis le CNRS.
Depuis quasiment 20 ans maintenant, je suis secrétaire, puis délégué général, puis directeur, puis codirecteur, puis coordinateur des services numériques pour une association qui s’appelle Framasoft et, sur le sujet de l’IA, j’estime avoir un avis éclairé, mais je ne suis pas expert en intelligence artificielle, s’il y a à des experts ou des expertes en intelligence artificielle dans la salle, pas de souci, vous pourrez intervenir et dire que je dis des choses fausses.
Framasoft[modifier]
Pour préciser, Framasoft est une association d’éducation populaire aux enjeux du numérique et des communs culturels.
Une association, je pense que tout le monde voit ce que c’est.
L’éducation populaire, on est à Primevère, je ne vais pas m’étendre.
Les enjeux du numérique, c’est ce dont on va parler ce soir et les communs culturels, on va faire court, Wikipédia, par exemple, est un commun culturel et les communs culturels sont peut-être une réponse aux problématiques de l’intelligence artificielle.
Mais vous faites quoi concrètement ?[modifier]
Que fait Framasoft ? Je détaille avec plein de choses, mais, en gros, on va résumer ça.
On sensibilise notamment à notre dépendance numérique aux outils capitalistes, notamment pour les associations, on parle donc souvent de capitalisme de surveillance.
On met à disposition des outils, etc. Si vous avez déjà utilisé Framapad, Framadate, Framaforms, quelque chose comme ça. À main levée, qui a déjà utilisé des outils Frama-quelque chose ? On est sur une petite moitié, une grosse moitié, je ne sais pas, je ne vais pas faire le décompte. Merci.
On accueille, en gros, deux millions de personnes par mois.
Et on vit des dons. On ne touche pas de subventions, si vous voulez faire un don à Framasoft, c’est encore possible en ligne, sur le stand, etc.
Notre mission principale c’est d’outiller la société de contribution, donc outiller numériquement les gens qui essayent de changer le monde, ce qui est déjà pas mal.
L’IA, c’est quoi?[modifier]
J’ai une première partie que je vais faire vraiment relativement vite, qui est, qu’est-ce que l’intelligence artificielle ? On a produit un site qui s’appelle FramamIA, que vous pouvez prononcer à l’italienne ou version ??? [4 min 03] comédienne, c’est comme vous voulez, je vous laisse le choix. FramamIA reprend en partie ce que je vais expliquer ici.
Définition[modifier]
La définition de l’intelligence artificielle du Parlement européen, il y a plein d’autres définitions, c’est « la possibilité, pour une machine, de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité. »
Déconstruisons quelques mythes[modifier]
Je vais tout de suite commencer par déconstruire quelques mythes autour de l’intelligence artificielle, il y en a un paquet.
Le premier mythe : l’intelligence artificielle c’est nouveau. Pas du tout on en parle depuis les années 50.
Deuxième mythe : l’IA est capable de penser, elle est intelligente, elle est consciente, etc. Toujours pas du tout. L’IA n’a aucune compréhension du monde, elle traite des données, elle donne souvent, suivant les types d’intelligence artificielle, une réponse statistique, elle fait donc des prédictions sans forcément comprendre ce qu’elle prédit, j’y reviendrai après. Point important. L’intelligence artificielle qu’on appelle générative, je vais détailler dans une minute, imite l’humain. Donc elle n’est pas consciente, mais elle imite très bien l’humain.
Autre mythe : l’IA serait fiable, comme pourrait l’être une calculatrice sur laquelle vous tapez « 2 + 2 », la calculatrice vous répond 4 ». Si vous demandez « 2 + 2 » à une intelligence artificielle, il n’est pas certain qu’elle vous réponde « 4 ».
Autre mythe : l’IA, c’est ChatGPT ou d’autres. Non. ChatGPT fait partie de la famille des intelligences artificielles génératives, mais il y en a plein d’autres, par exemple des IA spécialisées. Là je cite AlphaGo qui joue au jeu de go. Il y a des IA pour les échecs, etc., et une IA d’échecs sera incapable de vous donner la recette du gratin de chou-fleur, alors que ChatGPT pourra vous donner des recettes de gratin chou-fleur.<br*>
L’IA nous sauvera. Ni plus ni moins que le numérique, les maths ou la physique. L’IA ne fera rien d’elle-même, l’IA fera ce qu’on va lui demander de faire et, de toute façon, elle va impacter nos vies.
Pas « l’IA », mais « les IA »[modifier]
Sur les différents types d’intelligence artificielle, il n’y en a pas qu’une, il y en a plein, je vais aller relativement vite.
En gros, vous avez les IA symboliques : vous leur donnez des règles, des faits, et ça donne une base de connaissances qu’on peut interroger. Typiquement, je parlais du jeu de go, mais c’est valable pour le jeu d’échecs : vous donner la règle, « un pion ne peut se déplacer que d’une case vers l’avant, sauf au tout début où il peut avancer de deux cases ». C’est une règle et, quand vous avez rentré toutes les règles, l’IA symbolique saura, potentiellement jouer aux échecs parce qu’elle aura toutes les règles et elle saura répondre en fonction de ces règles
Les IA descriptives, j’ai un autre exemple. Imaginez un club de foot, d’ailleurs de ce que vous voulez, dans lequel vous rentrez toutes les données statistiques de votre club de foot – qui a marqué, contre quel club, quelle temporalité –, vous lui donnez toutes ces données et l’IA descriptive va répondre par un fait statistique, par exemple la plupart des buts interviennent dans les 30 premières minutes, c’est une IA plutôt simple.
Vous avez les IA prédictives. Vous lui donnez les mêmes statistiques, les mêmes données, et elle peut répondre : il y a 60 chances de gagner face à telle équipe au prochain match.
L’IA prescriptive, niveau un petit peu au-dessus, toujours sur ces données-là, elle est capable de dire : pour augmenter les chances de gagner, il faut que tu changes l’ailier droit, parce que Mbappé s’est cassé le genou, les ligaments croisés, que sais-je. Si vous lui donnez suffisamment de statistiques, elle saura potentiellement prédire des choses. Est-ce que ses prédictions sont justes ? C’est un tout autre débat.
Enfin, il y a les IA génératives, celles dont je vais principalement parler, elles peuvent être basées sur ce qu’on appelle des LLM, des large language models, donc basées sur des corpus de textes ou d’images qui, eux, sont gigantesques et l’objectif de l’IA générative c’est d’imiter la création. Elle va créer du contenu pas ex nihilo, elle créée sur la base de faits statistiques.
Enfin, vous avez l’IA générale qui n’existe pas encore, qui est le rêve notamment d’Elon Musk et d’autres, qui vise à avoir une IA on va dire autonome. Ce n’est pas du tout le sujet ce soir, donc je passe.
Cela reste… des maths[modifier]
Globalement, l’IA était un logiciel nourri à base de mathématiques.
Vous avez un algorithme plus beaucoup de données et le but c’est d’affiner les modèles d’intelligence artificielle de façon à ce qu’ils vous donnent les réponses les plus justes possibles.
Je ne rentre pas dans le détail, mais, en gros, vous avez sans doute tous et toutes déjà répondu au captcha Google, les trucs où il faut cliquer sur les feux tricolores, eh bien, en fait, ce n’est pas juste pour vérifier que vous êtes un humain, c’est surtout pour que vous travailliez gratuitement pour Google. Pendant que vous faites ça, vous apprenez à l’intelligence artificielle, qui est entraînée derrière par Google, à reconnaître un feu tricolore d’un cycliste, d’un feu de croisement de voiture, etc.
Pareil, en bas vous avez une classification par associations. Vous avez tout simplement des chihuahuas et des cookies, vous triez entre les chihuahuas et les cookies Quand vous donnez une seule image de chihuahua, une seule image de cookie à une intelligence artificielle, au départ, elle ne sait pas faire la différence entre les deux, elle va dire qu’il y a des caractéristiques communes. Par contre, si vous l’entraînez sur des millions d’images de cookies, des millions d’images de chihuahua, elle saura petit à petit s’affiner et répondre « ceci est un chihuahua » ou « ceci est un cookie » de façon relativement statistique.
Déterminisme vs Probabilisme[modifier]
Donc, en gros, on a des IA plutôt déterministes, d’autres qui sont plutôt probabilistes, ça relève d’un domaine des mathématiques qui s’appelle la stochastique. On va dire que la stochastique c’est la partie aléatoire des mathématiques, comment on gère de l’aléatoire.
J’ai fait un petit graphe à l’arrache. On part de la lettre « A » et, à chaque essai, vous avez 90 % de chances d’avoir une lettre et 10 % de chances d’avoir un chiffre. Petit à petit, on va entraîner l’IA, on va lui poser des questions et l’IA, sur la base de ces données, de façon stochastique, en partie aléatoire – le principe c’est qu’elle soit le plus juste possible –, va essayer de deviner quelle sera la réponse la plus probable. Vous avez, à l’extrême gauche, 90 % de chances, soit 90 % de chances, soit 90 % de chances d’avoir quatre lettres, donc c’est relativement probable, et puis, si vous allez sur la droite du graphique, vous avez 10 % de chances, soit 10 % de chances, soit 10 % de chances d’avoir une lettre et trois chiffres.
Si ça vous paraît compliqué, vous avez peut-être sur votre smartphone déjà utilisé le T9, le système qui permet de prédire le mot d’après, genre « je vais manger au », le mot le plus probable après c’est « restaurant », mais il peut y avoir plein d’autres mots possibles. Le téléphone vous propose « restaurant » pour vous faire gagner du temps. C’est de l’intelligence artificielle, basée sur des statistiques, en mode très simple. Les IA génératives c’est le même système mais vraiment sous stéroïdes, ça peut aller beaucoup plus vite et beaucoup plus fort.
Donc, quand vous posez la question « qu’est-ce que Framasoft ? », les chiffres sont, selon l’institut La Louche, clairement, 95 % de chances que l’IA générative, par exemple ChatGPT, réponde que c’est une association militant pour les communs numériques. Mais il y a aussi 0,001 % de chances qu’elle vous réponde que c’est une entreprise qui vend des carottes. Il y a aussi 0,0001 % de chances qu’elle vous réponde que c’est un groupe de death metal suédois. Pourquoi ? Tout simplement parce qu’elle a appris sur le corpus de textes qu’on lui a donné, et il suffit qu’il y ait quelqu’un, un jour, qui ait produit une page web sur lequel il dit « Framasoft est un groupe de death métal suédois », pour que ça devienne une probabilité pour cette intelligence artificielle. ChatGPT n’est pas plus intelligent que plein d’autres, mais c’est basé sur les statistiques, ces statistiques sont basées sur les données qu’on lui donne à manger.
L’IA, une technologie comme les autres (?) 12’ 20[modifier]
Est-ce que l’IA est une technologie comme les autres ?
Théoriquement, l’IA est juste une technologie[modifier]
Théoriquement oui. Il y a donc toute la question : peut-on parler d’intelligence pour l’intelligence artificielle ?
Globalement, l’IA c’est de l’informatique plus des maths, je caricature mais globalement c’est ça. Vous avez différents domaines dans l’informatique, le développement, l’algorithmique, etc., les disques durs, les bases de données ; vous avez différents domaines dans les mathématiques, je parlais tout à l’heure de la stochastique, sous domaine des statistiques. En fait, l’IA c’est un ensemble de technologies, mais ça reste de la technologie.
Faits vs Perceptions/Ressentis[modifier]
Pourquoi est-ce que ça pose problème aujourd’hui ? Je laisse la partie faits. Je viens vous donner des faits mais quelle est votre perception ? Qui, dans la salle, a utilisé ChatGPT ou une IA générative ?, à main levée. Là on est peut-être un petit peu moins de la moitié, d’après un décompte sans ChatGPT, avec mes vrais yeux et mon bout de cerveau disponible en fin de journée Primevère, tout simplement parce qu’elle imite le raisonnement. On a l’impression qu’elle nous comprend, quand on lui pose une question on a l’impression d’être compris alors qu’elle fait de l’analyse de texte, elle peut faire de la reconnaissance d’images, etc., mais on a surtout l’impression d’avoir un dialogue potentiellement avec un humain et ça marche aujourd’hui très bien, c’est hyper performant. On a l’impression, j’insiste sur le mot impression, qu’elle est capable de nous assister, qu’elle est capable de créer, qu’elle est capable de décider, qu’elle est capable de raisonner.
Sorcier ou prestidigitateur ?[modifier]
Là, je sors un petit dessin qu’a fait un copain de Framasoft, qui s’appelle Simon Giraudot, qui a fait toute une BD autour de ça, je sors juste cet extrait-là. Vous avez une personne qui dit « un sorcier c’est un vrai magicien, quelqu’un qui maîtrise la magie, qui peut faire des choses surnaturelles et inexplicables, alors qu’un prestidigitateur ne fait qu’imiter la magie, il met en scène des choses qui paraissent surnaturelles mais sont en fait parfaitement explicables. » Donc, en gros, le magicien va pouvoir invoquer un lapin alors que le prestidigitateur va sortir un lapin du chapeau, mais, en fait il était caché dans le manteau, par exemple.
Révolution ou prouesse ?[modifier]
Ce que j’essaye de vous dire derrière c’est que l’IA est un prestidigitateur, c’est-à-dire que l’IA a une capacité d’imitation qui est une vraie prouesse technique, on peut donc se laisser abuser en croyant que c’est magique. J’ai pas mal testé des intelligences artificielles, parfois ça peut être assez bluffant, mais, en fait, ce n’est pas sorcier – là aussi, générationnel. Il ne faut pas confondre le sorcier et le magicien. Je ne crois pas en la magie, désolé pour ceux qui y croient, mais si on devait imaginer qu’il y ait de la magie, l’intelligence artificielle n’est pas un sorcier ou une sorcière, c’est plutôt un prestidigitateur.
Dans l’imaginaire collectif, on a cette idée que l’IA est venue pour nous détruire ou pour potentiellement nous assister, dans 2001, l’Odyssée de l’espace pour nous éliminer. La meilleure référence pour l’intelligence artificielle en termes de blockbuster que vous pouvez trouver assez facilement c’est le film Her de Spike Jonze, de 2012, il y a presque 15 ans maintenant, où Joaquin Phoenix joue le rôle d’une personne qui tombe amoureux de l’intelligence artificielle avec laquelle il discute au quotidien, qui est jouée par la voix de Scarlett Johansson, il tombe amoureux de cette intelligence artificielle. Je me souviens d’avoir vu le film quand il est sorti en salle en 2012, je me disais « jamais ça ne pourra arriver, ce n’est pas possible. Eh bien, on va voir que si, c’est tout à fait possible. Ce film est très juste et, en plus, très chouette, très beau, très touchant, allez le voir.
Question philosophique[modifier]
La question philosophique que je vous pose et vous avez un petit peu de temps pour y réfléchir c’est : quand l’imitation de l’humain devient très performante, parfois même plus performante que certains humains, alors est-ce que c’est important de savoir que cette imitation a été produite par une machine ? Si je vous donne l’haïku d’un poète japonais de l’ère d’Edo et l’haïku généré par ChatGPT, je suis pas sûr que la moitié de la salle sache faire la différence. En gros, vous allez vous planter, et moi, aussi parce que l’imitation est extrêmement bien faite, parce que ChatGPT a appris sur tous les haïkus qui, probablement, étaient numérisés à ce jour. On n’a pas fait le quart du chemin, donc je continue et je vais notamment speeder encore plus sur cette partie, j’irai moins vite après.
C’est quoi le(s) problème(s) avec l’IA ?[modifier]
Quels sont les problèmes avec l’IA. Je reviens sur le site FramamIA sur lequel on a déjà documenté pas mal ces problèmes, mais je ne peux pas passer à la partie suivante sans vous expliquer quels sont les problèmes que pose l’intelligence artificielle.
Trop fulgurante ?[modifier]
Premier souci : ChatGPT a mis deux mois pour atteindre 100 millions d’utilisateurs, c’est le produit qui, jusqu’à très récemment, a été adopté le plus vite à l’échelle planétaire. Par exemple, pour atteindre les 100 millions d’utilisateurs, il a fallu 70 mois à Uber ; WhatsApp ou Spotify, 55 mois, etc. Ça a donc été fulgurant et, premier problème, ça a sans doute été trop fulgurant, là je parle en mon nom, pas au nom de Framasoft, il aurait fallu un moratoire sur l’intelligence artificielle, comme il y en a eu un sur le clonage humain. Pour le clonage humain, pour les plus vieux et vieilles d’entre, vous vous souvenez de la brebis Dolly qui a été clonée en 97, moins de six mois après, il y avait une condamnation de l’Unesco disant « il faut arrêter le clonage humain, on ne sait pas trop où ça va nous mener », et l’année d’après la France, l’Allemagne, le Royaume-Uni, le Japon et les USA ont dit « on arrête toute recherche sur le clonage humain », qui a repris, quelques années plus tard, sur la médecine régénérative. En gros, il y a eu des exceptions, mais la logique mondiale était de dire « on ne fait pas de clonage humain parce que, éthiquement, on ne sait pas ce que ça va provoquer pour l’humanité. » J’aurais souhaité qu’il se passe la même chose pour l’intelligence artificielle parce que ça va venir nous percuter et ça nous percute déjà de plein fouet et malheureusement la temporalité du numérique, on va avoir l’argent des capitalistes du numérique et des hyper-capitalistes du numérique va plus vite que celle du business, qui va encore plus vite que la temporalité de la société, qui va beaucoup plus vite que la temporalité juridique.
Risques écologiques[modifier]
Les risques écologiques. On est à Primevère, on peut un peu densifier cette partie.
Quelques chiffres[modifier]
Je vous donne quelques chiffres en vrac.
Il a fallu 2048 GPU. Un GPU, c’est quoi ? C’est un processeur graphique. Quand vous avez un ordinateur, vous avez dedans un processeur qu’on appelle un CPU et vous avez des processeurs spécifiques qui, normalement, sont dédiés aux cartes graphiques, essentiellement pour jouer aux jeux vidéo, qui savent faire des opérations mathématiques particulières, des calculs scalaires, des calculs de vecteurs, je vous passe les détails, pour lesquels ces cartes graphiques sont extrêmement douées, donc, ça va beaucoup plus vite d’entraîner une intelligence artificielle sur des cartes graphiques. Il a donc fallu 2048 cartes graphiques pour entraîner, en février 2023, pendant 23 jours, un modèle qui s’appelle LlaMA 1 qui appartient à Facebook, qu’ils ont opensourcé, mais c’était produit par Meta, le groupe Facebook.
GPT-4, un an plus tard en gros, c’était 25 000 cartes graphiques qui consomment chacune 400 watts, donc la consommation électrique de 1300 foyers pendant un an, pour entraîner GPT – 4. Ça c’est l’entraînement.
Pour les requêtes, par exemple une requête GPT-4, suivant ce que vous lui demandez, ça peut consommer entre on va dire 3/4 Wh et 10 Wh d’électricité ce qui représente donc 2,33 grammes de CO2 rejeté, on estime, en gros, que c’est 30 fois la consommation d’une recherche Google classique. Donc, si vous faites une recherche avec une requête sur ChatGPT, c’est l’équivalent d’une trentaine de requêtes Google classiques.
Impact énergétique[modifier]
Là, j’ai un graphique qui montre l’impact énergétique des datations des data centers uniquement, ce n’est donc pas l’ensemble du numérique, mais les data centers en vert en 2022, à gauche. En bleu, je l’ai laissé parce que je trouve que c’est intéressant, ce sont les calculs pour la cryptomonnaie, donc tout ce qui est blockchain, dont on pourrait très facilement se passer si on n’était pas débile. Là, c’est une projection sur 2026. On voit que sur les data centers, les centres de données dans lesquels on entraîne les intelligences artificielles, ça augmente mais apparaît, en plus, une part spécifique pour l’IA qui va sans doute, petit à petit, prendre le pas sur l’impact énergétique des centres de données sur lesquels on entraîne, où on fait répondre les intelligences artificielles.
Entraînement vs Inférence[modifier]
Le problème, c’est que pour entraîner un nouveau modèle il faut de plus en plus d’énergie. J’ai pris la page Wikipédia de ChatGPT, ce n’est pas grave si vous ne lisez pas, ce n’est absolument pas important, mais j’ai noté 12 nouveaux modèles ChatGPT sortis en 25 mois, c’est-à-dire un tous les deux mois. Ça veut dire que tous les deux mois, OpenAI, la boîte qui a créé ChatGPT, entraîne un nouveau modèle. Or, il n’y a pas qu’OpenAI, il n’y a pas que ChatGPT, il y a des centaines de boîtes qui entraînent des centaines de modèles, en ce moment il y a probablement des milliers de modèles qui sont entraînés aujourd’hui et qui consomment énormément d’énergie.
Inférence[modifier]
Ça c’est pour l’entraînement et il y a ce qu’on appelle l’inférence. Inférence c’est un gros mot que, probablement, vous ne connaissez pas, mais ce n’est pas grave. En gros, quand vous demandez quelque chose ChatGPT, il n’entraîne pas le modèle, il ne fait pas tourner 25 000 cartes graphiques, il fait tourner, finalement, juste la partie du logiciel sur lequel il peut répondre à votre demande, donc ça réclame beaucoup moins d’énergie. On pourrait donc se dire que c’est super : une fois que le modèle a été entraîné, on peut lui poser des milliards de questions, c’est chouette ! Sauf qu’arrive ce qu’on appelle l’effet rebond, je pense que ça parle à la plupart d’entre vous, l’exemple type de l’effet rebond c’est : les moteurs de voitures consomment de moins en moins d’essence, ce qui se passe c’est qu’on prend la voiture de plus en plus souvent, parce que ça coûte moins cher, on a l’impression que c’est disponible, c’est un effet rebond. On arrive à diminuer d’un côté et ça rebondit, parfois même plus, que ce qui est prévu.
Impact environnemental d’une requête[modifier]
Un logiciel, qui s’appelle Ecologits, permet d’évaluer l’impact environnemental d’une requête en intelligence artificielle. Toutes les sources sont disponibles, c’est du Libre, vous pouvez aller regarder. Là, par exemple, je demande « je voudrais savoir quel est l’impact environnemental, à gauche je choisis le moteur de la boîte OpenAI, je lui demande le modèle ChatGPT 4.0, un des derniers qui est sorti. Par exemple, si jamais je lui demandais d’écrire un tweet, un tweet ce sont 50 tokens, ça fait 200 caractères, on se fout de ce qu’est un token, en gros, on lui demande de rédiger un petit texte de 200 caractères. La réponse, derrière, c’est « pour écrire l’équivalent d’un message de 200 caractères, c’est 4,39 Wh, c’est 2,68 grammes de COsmall>2, en énergie ça représente 44 kilojoules, ce que vous dépensez si vous marchez 80 mètres. Ça correspond, en termes de COsmall>2, à l’équivalent d’une chanson en streaming. Si vous demandez à ChatGPT de rédiger un tweet, c’est l’équivalent d’une écoute de deux chansons par exemple sur Spotify.
On peut se dire que, finalement, ce n’est pas beaucoup, est-ce que je ne peux pas quand même demander régulièrement à ChatGPT des choses, etc. Pourquoi pas ! La problématique c’est que si 1 % de la planète fait cette requête-là tous les jours pendant un an et, selon moi, c’est déjà plus ou moins le cas, les étudiants et étudiantes utilisent massivement ChatGPT plusieurs fois par jour, ça représente 442 allers-retours Paris-New York, juste pour rédiger un tweet, si tout le monde le fait au quotidien.
Impact environnemental global[modifier]
Ma conclusion sur l’impact environnemental global du numérique, c’est qu’on ne va pas y échapper. Tout usage du numérique est écocidaire et je ne parle pas que de l’IA. Vous passez un coup de fil, ça nuit au système planétaire.
Évidemment, on pourrait me répondre, « mais si je fais une visio plutôt qu’aller à New York en avion, ça économiste ». Oui, c’est vrai, sauf que le mieux serait de ne pas faire de visio et de ne pas avoir besoin d’aller à New York.
Donc, là où je commence tout de suite à vous déculpabiliser, préparez les tomates, c’est que, en fait, on vit dans un monde capitaliste, on ne peut pas s’en extraire. Vous pouvez choisir de ne pas utiliser ChatGPT si vous voulez, tant mieux, mais la problématique c’est le monde dans lequel on vit. Je vais y revenir ensuite. Il ne peut donc y avoir que des curseurs personnels ou, ce qui serait mieux, collectifs donc politiques, en se demandant quel numérique je souhaite, qu’est-ce que j’accepte de demander ou pas, est-ce que je réfléchis avant ou pas, etc., et comment on fait débat dans la société autour de l’intelligence artificielle.
Risques sociétaux 26’ 21[modifier]
Il y a un paquet des risques sociétaux de l’IA.
Risques sociaux : discriminations[modifier]
Les premiers ce sont les discriminations. Je ne vais prendre qu’un seul exemple, sinon on va déborder du temps. On peut demander à l’intelligence artificielle de faire de la reconnaissance faciale. Une étude a été menée suite à une expérimentation par la police dans je sais plus quelle ville aux États-Unis, le taux d’erreur de la reconnaissance faciale de cette IA sur les hommes blancs était de moins de 1 %, ce qui est déjà beaucoup, personnellement, être pris à la place de quelqu’un d’autre et finir en taule parce que l’IA s’est trompée, je ne trouve pas ça hyper cool. Par contre, chez les femmes noires, c’était quasiment 35 %, donc plus d’un tiers d’erreur sur la reconnaissance faciale de ces personnes.
Risques sociaux : inexplicabilité[modifier]
Deuxième risque qui, en plus, est lié à celui dont je viens de vous parler, c’est qu’on a un phénomène qui est l’inexplicabilité, parfois, des réponses de l’intelligence artificielle. Si je reprends mon exemple de tout à l’heure, « Framasoft c’est quoi ? », c’est un groupe de death metal suédois, eh bien on est très en peine de faire expliquer à l’intelligence artificielle pourquoi elle croit ça – l’intelligence artificielle ne croit pas – pourquoi elle nous a répondu ça, je fais de l’anthropomorphisme…
L’IA comme support émotionnel[modifier]
Un risque social qu’on voit apparaître de plus en plus : l’IA peut servir de béquille émotionnelle, notamment beaucoup d’étudiants/étudiantes ont souffert durant le Covid et ont du mal à sociabiliser. Ils utilisent l’IA pour discuter avec elle le soir – le soir je n’en sais rien –, en journée aussi. On se retrouve donc vraiment dans le cas de Her. Un cas a été particulièrement médiatisé par The New York Times : un jeune s’est suicidé parce qu’il était tombé amoureux de l’intelligence artificielle ; la dissonance cognitive, je vais dire que ça ne va pas être possible.
Risques sociaux : emploi[modifier]
Je passe un graphique sur les emplois, qui dit, en gros, que ça va impacter entre 75 et 300 millions d’emplois dans les années à venir.
À droite, un article encore du New York Times qui date d’il y a trois/quatre jours, qui explique que Elon Musk veut remplacer les conseillers et conseillères d’orientation par des bots d’intelligence artificielle. Certains diront peut-être que les conseillers d’orientation ne les ont pas beaucoup aidés, mais de là à les remplacer par des IA, je sais pas si on est vraiment gagnant.
À gauche, un graphique explique, en gros, quels sont les emplois les plus menacés, les moins menacés, c’est un chercheur de HEC qui a fait ça. Les emplois plus menacés, en gros, en haut à droite, vous avez comptable et télévendeur, ça y est, vous vous faites déjà appeler par des intelligences artificielles, dès que le téléphone sonne « Bonjour, je suis là pour bla-bla-bla », ça coûte moins cher qu’un être humain. Et, dans les emplois les moins remplaçables, on a concierge, boucher, boulanger, etc.
Risques sociaux : où est la vérité ?[modifier]
Dernier risque social qui, pour moi, est un des plus importants en fait, ce sont les deepfakes et la désinformation.
Un deepfake, c’est la capacité, pour l’IA, d’imiter par exemple une personne, un visage, une voix, etc. Il y a eu beaucoup de cas, notamment en Corée du Sud où il y a beaucoup de deepfakes pornographiques, notamment dans les écoles. Ça veut dire qu’on prend quelques photos d’un ou une camarade de classe, on prend un film porno ou une séquence de film porno et on demande à l’IA de remplacer le visage par celui des différentes photos. Ensuite, évidemment, on balance la photo sur les réseaux sociaux et ça devient très difficile, aujourd’hui, de savoir faire la différence. Ce sont des cas déjà très courants, je reviendrai dessus.
Risques sociaux cognitifs et culturels[modifier]
Risques cognitifs[modifier]
Enfin, vous avez les risques cognitifs et culturels. On commence à être inondé de contenus et d’images qui n’ont aucun sens. En gros, c’est l’emmerdification d’Internet avec des contenus. Aujourd’hui, en poussant un bouton, vous pouvez créer 1000 sites web qui font chacun 1000 pages, ça va prendre un petit peu de temps, mais ça va se faire et ça va vous coûter quelques euros. Donc, ça crée une masse d’images, de textes, etc. qui viennent, on va dire, encombrer Internet.
Je reviendrai sur la médiocrité tout à l’heure
Un des risques cognitifs les plus importants c’est le syndrome du GPS. Aujourd’hui, si vous demandez à quelqu’un, qui a moins de 25 ans, d’aller d’Eurexpo jusqu’à Guillotière sans GPS, il va galérer. Tout simplement parce qu’apprendre à lire une carte devient compliqué. Même pour moi qui ai connu à l’époque sans GPS, ça peut rester compliqué.
Il y a donc un risque fort de perdre en autonomie, de perdre notre capacité de décision, de devenir paresseux parce que, finalement, on pose la question à une machine qui nous répond quelque chose qui imite tellement bien l’humain qu’on se dit « c’est bon, je ne vais pas critiquer ce que me répond la machine ». Et ces processus, évidemment, sont particulièrement critiques lors de l’éducation, je ne sais pas s’il y a des enseignants/enseignantes parmi vous au collège ou au lycée, mais ça devient vraiment problématique.
Risques démocratiques[modifier]
Risques démocratiques : justice[modifier]
Enfin, il y a les risques démocratiques notamment en justice. Je vais passer, je suis désolé, on pourra y revenir, mais je veux amener au cœur du sujet.
Risques démocratiques : vie privée[modifier]
Il y a des risques démocratiques sur la vie privée, donc, finalement, les moteurs de ces entreprises qui financent les modèles d’intelligence artificielle aspirent tout. Et plus elles ont de données, plus elles sont contentes. Voyez-les vraiment comme des espèces de grands serpents qui cherchent à avaler toutes les données d’Internet, d’ailleurs ça commence à poser des problèmes à nous qui faisons du logiciel libre parce qu’elles veulent aspirer le maximum d’Internet. Or la vie privée, nos vies privées, nos conversations, etc., sont aujourd’hui au centre de l’appétit de ces géants. C’est donc potentiellement la fin de la vie privée.
La VSA, la vidéo surveillance algorithmique, en gros les caméras de vidéosurveillance avec de l’intelligence artificielle, ça crée un climat anxiogène et, potentiellement, ça peut être détourné à des fins politiques.
Dérive de la surveillance algorithmique[modifier]
Là, par exemple, vous avez un article qui explique qu’en Iran la police des mœurs fait voler les drones qui repèrent les femmes qui ne portent pas le hijab pour, ensuite, récupérer leur adresse, etc., puisque tout le monde est de plus en plus fiché.
Pour la petite histoire de la VSA, vous avez un article de nos amis de La Quadrature du Net. Cette vidéosurveillance algorithmique devait s’arrêter normalement fin mars 2025. Ça a été mis en place au forceps en 2022/2023 pour les JO de Paris et, normalement, ça devait s’arrêter fin 2025, mais, quand on met un pied dans la porte d’un côté régulation, autant vous dire que c’est resté. Là, ça date de la semaine dernière aussi, cette loi vient d’être prolongée je crois au moins jusqu’à 2027, donc le droit de faire de l’expérimentation de vidéosurveillance algorithmique.
Risques démocratiques : qui croire ?[modifier]
Et sur les risques démocratiques, j’aurais pu vous montrer une vidéo de Zelensky qui appelle à déposer les armes c’est un deepfake ; un son de Joe Biden qui appelle à ne pas voter aux primaires c’est un deepfake.
J’ai des exemples en Slovaquie, au Nigeria, etc., de création de contenus qui sont détournés afin d’orienter politiquement les populations.
La problématique, derrière, c’est que : « Quand tout le monde vous ment en permanence, le résultat ce n’est pas que vous croyez ces mensonges, ce n’est pas de croire nécessairement les mensonges, c’est que plus personne ne croit à rien. » Pour moi, c’est aujourd’hui un risque réel que de plus en plus, on ne croie plus ce qu’on va nous dire, tout simplement parce qu’on ne sait pas si ce contenu est vrai ou faux.
Conclusion sur les risques[modifier]
Conclusion sur tous ces risques, c’est qu’il n’y aura jamais d’intelligence artificielle responsable, d’IA éthique, d’IA respectant l’environnement, d’IA digne de confiance, etc. Mon point de vue personnel c’est qu’il n’y en aura pas, pour moi c’est intrinsèquement impossible.
Par contre, il peut y avoir des IA qui peuvent être plus responsables ou plus éthiques que d’autres IA.
Mais quand on vous dit « IA éthique », si j’arrive à faire passer ce message auprès de vous ce soir, ce sera déjà pas mal, dites-vous que non, ce n’est pas possible, c’est peut-être plus propre qu’une autre, peut-être qu’elle consomme moins, qu’elle a été entraînée avec moins de GPU, mais ça restera pas du tout éthique et pas du tout écologique.
Je prédis que je suis à la bourre, j’ai prédit sans IA, parce que le sujet c’était quand même de vous parler du capitalisme.
L’éléphant dans la pièce[modifier]
Domination technique[modifier]
Je vais faire le parallèle avec ce que fait Framasoft depuis plusieurs années quand nous parlons des GAFAM, c’est, en fait, à qui profite le crime ?, si je résume. Et, pour cela, il faut revenir sur des données techniques, pas du tout techniques informatiques.
« Nous sommes ce que l’on mange »
En informatique comme dans la vraie vie, on est un peu ce que l’on mange. Je vous disais tout à l’heure que l’intelligence artificielle se nourrit à la fois de données libres, achetées, volées – c’est tout à fait reconnu que les entreprises vont voler des données et des contenus sans avoir les droits – et surtout, l’intelligence artificielle a besoin d’infrastructures, tout le monde a l’impression que le cloud c’est le nuage, c’est éthéré, c’est nulle part, pas du tout le nuage est sous nos pieds, avec des centres de données. Il faut des processeurs, je reviens sur les GPU, notamment d’une entreprise qui s’appelle Nvidia qui a besoin de réseau pour transporter ses données et elle a besoin d’électricité.
Dans les slides qui viennent je pense que vous allez voir où je veux en venir.
Puces et data centers
Vous avez, à gauche, un graphique qui explique.
Quelle entreprise a des GPU qui entraînent de l’IA ? 95 % Nvidia.
Quelles sont les entreprises qui font tourner les plateformes qui permettent d’entraîner l’IA. Je passe sur ce qu’est une plateforme qui permet d’entraîner de l’IA – Azure, Amazon Web Services, etc. Eh bien Microsoft, AWS, donc Amazon Web Services, et Google représentent quasiment les trois quarts des parts de marché.
Qui achète des cartes graphiques ? Vous avez Meta, donc le groupe Facebook derrière, qui a acheté il y a peu de temps, je n’ai plus la date, qui a passé, il y a quelques mois, une commande pour 350 000 cartes graphiques chez Nvidia, justement, pour neuf milliards de dollars, donc tranquille, ça fait un joli chèque.
L’IA : sédimentation de l’oligarchie
Du coup, si je reprends, qui a les capacités de calcul, je vais essayer de le lire dans l’ordre de haut en bas et de gauche à droite ? Amazon, Google et Microsoft.
Qui a les données et les capacités de traiter ces données, d’aspirer ces données et de les stocker ? Google, Meta Microsoft.
FN, c’est Foundation models. En gros, qui développe les principaux modèles d’intelligence artificielle ? Vous avez Amazon, vous avez Apple, vous avez Google avec Gemini, vous avez Meta avec LLaMA, vous avez Microsoft avec la série ??? [38 min 39], aujourd’hui Microsoft est très maqué avec OpenAI donc ChatGPT.
Je vous passe la suivante, je vais sur la dernière ligne.
Qui a la main sur les moteurs de recherche ? Vous avez essentiellement Google avec Google, Microsoft avec Bing.
Qui a les médias sociaux ? Vous avez Meta avec Facebook, Instagram, WhatsApp, Messenger.
Qui à l’écosystème mobile ? Vous avez Apple avec les iPhones, vous avez Google avec Android.
Qui a le marché, globalement, du terminal que vous avez, que là j’utilise, vous avez Apple avec les Mac, vous avez Google avec Chrome et vous avez Microsoft avec les Windows, tout simplement.
Je pense que ça dessine déjà une petite carte. Voilà une autre carte.
Le réseau
Qui possède le réseau internet ?
Vous avez un cas un peu particulier qui est celui d’Elon Musk avec ses 42 000 satellites Starlink, mais, globalement, Starlink s’effondrerait demain, je préférerais que ça ne nous tombe sur le coin de la gueule, mais si ça s’effondrait demain, Internet continuait de fonctionner. Par contre, si les câbles sous-marins ne fonctionnaient plus, on aurait quelques soucis.
On voit donc aujourd’hui que les principales entreprises qui investissent dans les câbles sous-marins, sans lesquels Internet ne fonctionnerait pas, sont Google, Meta, Microsoft, Amazon.
L’électricité
Qui possède l’électricité ? Jusqu’à présent, ce sont plutôt les pays au travers des gouvernements, fun fact ou pas.
Microsoft a racheté la centrale numéro 2 de Three Mile Island. Three Mile Island est une centrale nucléaire qui a posé un énorme problème, je crois que c’était dans les années 70 ou 80, aux États-Unis. Un moteur a été arrêté, mais deux autres tournaient et Microsoft vient de racheter ce qui restait de cette centrale nucléaire, pourquoi ? Pour faire de l’électricité qui va faire tourner ses data centers dans lesquels il y a les cartes graphiques, etc.
Modèles de Fondation
À qui appartiennent les modèles de fondation ?, je ne reviens pas dessus. Vous avez Google et surtout combien ça coûte ? Aujourd’hui, le moteur qui a coûté le plus cher en calculs c’est Gemini Ultra de chez Google. Je passe cette slide qui ne va pas forcément être follement intéressante.
Domination économique 41’08[modifier]
La domination économique. Parlons pognon. « ! Dis donc, Jamy combien ça coûte ? »
Une adoption fulgurante
ChatGPT est sorti en novembre 2022. En janvier 2023, ChatGPT avait 100 millions de comptes et était valorisé 29 milliards de dollars. Vous pouvez faire un petit calcul dans votre tête, quel est le prix d’un compte en termes de capitalisation boursière ?
Février 2025, donc deux ans plus tard, il y a 400 millions de comptes et l’entreprise est valorisée 300 milliards de dollars. Donc, si vous savez faire un petit produit en croix, vous dites « le prix du compte a quand même vachement pris, il rapporte vachement d’argent à l’entreprise qui est derrière ChatGPT. »
C’est évidemment un marché énorme. Les projections disent que ça va approcher le trillion de dollars très bientôt. Mais, il ne faut pas oublier que derrière ce sont des exploiteurs et des exploités.
Des exploiteurs et des exploités
Je vous disais que pour entraîner ces modèles d’intelligence artificielle, typiquement quand il faut reconnaître le cookie ou le chihuahua, il faut des humains. C’est donc globalement à Madagascar, au Kenya, dans plein de pays différents qu’on demande à des gens de trier les photos, y compris, d’ailleurs, des photos pédopornographiques. Pourquoi ? Parce qu’il faut bien apprendre à l’IA à ne pas générer de la pédopornographie, donc, ça veut dire qu’il faut expliquer « ça c’est une personne mineure, ça c’est une personne majeure », sur des millions et des millions de photos. Donc, actuellement, des gens sont payés pour faire ça, pour que nous, après, nous puissions potentiellement utiliser l’intelligence artificielle. Vous avez un formidable documentaire, toujours disponible gratuitement sur France TV, qui s’appelle Les sacrifiés de l’IA.
Voilà la slide qui est, pour moi, le cœur du problème, ça se lit plutôt bien.
Ce graphique représente les capitalisations boursières, donc ce qu’elles valent en bourse, d’un certain nombre d’entreprises qui se sont elles-mêmes appelées ou les journalistes les ont appelées Magnificent seven, désolé pour mon accent tout pourri. J’ai la gorge sèche, je vais faire un peu un bruit de dauphin, ne vous inquiétez pas, ça marche très bien le bruit de dauphin, tant qu’à faire. La capitalisation boursière de ces sept entreprises, donc Google, Apple, Facebook, Amazon, Microsoft, et maintenant on rajoute Nvidia et Tesla, Tesla qui appartient à Elon Musk, mais ce n’est pas inintéressant de mettre Elon Musk dans le panier, on voit l’augmentation au travers des années. Le graphique, pour ceux celles et ceux qui ne voient pas, commence dans les années 2000, il y a 25 ans et ça monte doucement jusqu’à, on va dire, 2015, ça correspond en gros aux révélations d’Edward Snowden, vous savez sans doute, l’explosion des services en ligne sur Internet, donc les premières fois que vous utilisez, je ne sais pas, Google Docs, que vous utilisez Facebook, etc. – je rappelle que Facebook c’est 2006 et mis dans les mains du grand public plutôt à partir de 2009. On voit qu’à l’époque ça montait, si on enlève la partie droite du graphique, on se dit que ça monte quand même vachement, mais ce n’était rien par rapport à ce que c’est maintenant. Il y a donc eu une explosion, une bulle internet jusqu’en 2022, je vais voir si vous suivez, qu’est-ce qui s’est passé en 2022 ? Covid et création d’un produit d’intelligence artificielle et publication de ChatGPT. Le Covid a fait à la fois exploser : en 2020, tout le monde se jette sur les GAFAM en se disant « c’est trop bien, on peut utiliser Google au quotidien, etc., donc la vie peut continuer » donc ils ont beaucoup gagné et puis post-Covid c’est un peu l’effondrement, l’effondrement pour eux ! Personnellement, qu’Apple perde quelques millions de dollars, ça ne m’a pas trop dérangé, mais ça s’est effondré et avec une coïncidence plutôt chouette pour eux, pas pour nous, ChatGPT c’est en novembre 2022. Si vous regardez cette courbe, elle remonte et elle explose à partir de fin 2022. La capitalisation boursière des sept magnifiques était évaluée, fin 2022, de façon très précise parce que c’est public, à 17,6 trillions de dollars. Je ne sais pas ce que c’est qu’un trillion de dollars, je ne vais pas demander à ChatGPT, je vais demander à ma calculette et j’ai demandé à Wikipédia : le PIB de l’Europe c’est 21 trillions de dollars, ça représente six fois le PIB de la France, donc l’ensemble de la valeur produite en France et c’est 2600 fois le budget de l’Éducation nationale, s’il y a encore des profs parmi nous, ils doivent être en PLS.
Ce qui est rigolo c’est qu’ils ont accepté ce terme de Magnificent seven, qui vient du film Les Sept Mercenaires. Il y a un autre film russe qui s’appelle Les 7 salopards, personnellement, je trouve ça beaucoup plus drôle.
Je vais passer rapidement sur cela, mais c’est assez intéressant. C’est un carré qui représente la part des valorisations boursières de ces entreprises. On voit que Nvidia par exemple, est devenu, en tout cas très temporairement, ça ne se voit pas dans le graphique, une boîte que probablement la plupart d’entre vous ne connaissent pas, Nvidia est devenue la plus grosse capitalisation boursière mondiale pendant plusieurs mois, fin 2024. Ils ont perdu juste 500 milliards, il n’y a pas très longtemps, parce qu’une IA chinoise est sortie, qui s’appelle DeepSeek, qui a fait effondrer – je crois que j’ai entendu un « merde » – désolé pour eux.
En bleu ce sont des entreprises américaines, vous me voyez venir avec mes gros sabots depuis tout à l’heure, ChatGPT c’est essentiellement OpenAI qui est financée largement par Microsoft, d’ailleurs Copilot utilise ChatGPT, c’est étasunien, etc.
Mistral. J’entendais Emmanuel Macron dire, il y a un mois et demi, « on a des licornes françaises de l’intelligence artificielle française, etc. » Oui, le siège social est en France, les trois dirigeants sont trois Français, etc. Sauf que les financements, aujourd’hui, ne viennent que des États-Unis, donc problématique selon moi.
Vous allez certainement croire que je suis anti-étasunien, ce n’est pas totalement faux, surtout en ce moment.
Domination culturelle[modifier]
Maintenant la partie domination culturelle.
Je pense que ça fera partie des questions, mais cela aussi me pose un vrai problème.
IA comme assistant « magique »
L’IA, aujourd’hui, est présentée comme quelque chose de magique. Si vous avez bien suivi le début de ce que je vous disais, en fait ce n’est pas du tout magique. Mais, à la fois on utilise l’émoji étincelle le petit émoticône qu’on voit à droite qui est, normalement, le signe de la magie.
La couleur c’est le violet. Les personnes qui travaillent sur le design graphique disent que le violet c’est normalement la couleur de la magie. Ce n’est donc pas pour rien qu’on retrouve beaucoup de violet dès qu’il y a l’IA avec ce petit icône « ça va vous assister, etc. ».
Forcing IA – Les mecs relous en soirée
Je prenais l’exemple des mecs relous, en soirée, qui forcent un peu, le petit forcing, le mec qui vient vous voir en disant « eh ! tu ne veux pas utiliser mon assistant IA ? »
Ça c’est une capture d’Adobe Acrobat Pro. À chaque fois que vous ouvrez Adobe Acrobat Pro, « est-ce que discuter avec plusieurs documents pour gagner du temps et simplifier votre workflow avec l’assistant IA, générer des résumés blablabla, blablabla, c’est très bien vendu.
Toujours les mecs relous en soirée, ce n’est pas que Adobe Acrobat, on peut trouver ça maintenant dans quasiment tous les produits. Pour moi ça commence à être vraiment relou depuis quelques mois.
L’IA : « Je suis trop sympa, soyons amis ! »
Et puis il y a le côté : « Je suis trop sympa, viens, on est potes. Salut, je m’appelle Siri ou je m’appelle machin, je suis ton assistant IA ou je suis ton collaborateur et je vais t’aider à travailler, etc. » Ça me faisait penser au mec qui vient vous dire « laisse-moi ton 06, on est potes ». Relou !
Techno-solutionnisme partout
Techno-solutionnisme partout, justice nulle part.
On commence à voir apparaître de l’IA dans des produits qui n’en ont absolument pas besoin. Là, une pub de bière qui dit « on met de l’intelligence artificielle dans la IPA, donc dans les tireuses à bière, gérées par de l’intelligence artificielle ».
Mais pourquoi ??
Pourquoi est-ce qu’on fait tout ça ? La réponse va vous étonner, ou pas, eh bien c’est pour gagner du pognon, je pense que je n’ai surpris personne à ce niveau-là. Un exemple pour moi assez parlant. Hier je faisais une conf avec Halte à l’Obsolescence Programmée et on parlait justement de ce cas-là. Si vous allez sur le site de Microsoft aujourd’hui, on essaye de vous vendre des PC, c’est très bien présenté, c’est très joli. Ce qui est important, vous n’arrivez sans doute pas à lire en haut mais c’est marqué « À compter du 14 octobre 2025, Windows 10 ne proposera plus de support et ne recevra plus de mises à jour logicielles gratuites », donc obsolescence programmée, vraiment. Pourquoi est-ce que c’est le 14 octobre, pourquoi c’est 2025 et pas 2026 ? Parce que ça coûte du pognon pour Microsoft et qu’il n’a pas envie de payer, tout simplement. Ce n’est pas que ça ne marche plus, c’est qu’ils n’ont pas envie de mettre des humains pour travailler là-dessus. Donc on vous vend des PC plus rapides, améliorés par l’IA, etc. Ça veut dire quoi ? Ça veut dire qu’il y a des entreprises qui vont jeter des portables, des ordis, tout simplement parce qu’elles vont vouloir que leur personnel, leurs collaborateurs, comme on dit maintenant, parce qu’on est très vieille France, vont avoir besoin du dernier PC à la mode.
Appropriation Propriété intellectuelle
Autre point rigolo sur l’aspect culturel c’est que, évidemment, cette demande impose de respecter la propriété intellectuelle, vous n’avez pas le droit de copier Microsoft Word, vous n’avez pas le droit de l’offrir à votre voisin, mais en fait ça ne marche que quand on est riche, on peut dire ça. Donc un drame en quatre actes.
- Premier acte, OpenAI, la boîte qui fait ChatGPT, est prise un peu la main dans le pot de confiture, notamment par The New York Times et l’auteur de Game of Thrones qui dit « excusez-moi, « j’ai des preuves que vous avez entraîné votre intelligence artificielle sur la base des données que moi j’ai produites en tant qu’auteur ». Tous les articles du New York Times ont été aspirés par OpenAI, donc ChatGPT. Game of Thrones a été aspiré par ChatGPT sans l’accord des auteurs et des journalistes.
- Acte 2, « oui, mais vous comprenez, c’est compliqué, on en avait besoin ». Aux États-Unis, il y a une partie très particulière du droit d’auteur américain, qui s’appelle le fair use, qui dit qu’on a le droit si c’est pour un truc qui ne va pas nuire à la société ou à l’auteur original, on a le droit de copier », un régime particulier du droit d’auteur qui, d’ailleurs, n’existe pas dans le Code de la propriété intellectuelle en France, mais, aux États-Unis, il y a le fair use. Donc OpenAI dit « vous comprenez c’est le fair use », ils prennent des procès qu’ils vont gagner, je ne me fais aucune illusion.
- Acte 3, DeepSeek est l’intelligence artificielle chinoise qui est sortie il y a quelques semaines et OpenAI dit « excusez-moi, mais j’ai l’impression que DeepSeek s’est entraînée sur OpenAI. On n’est pas du tout d’accord ! », ils sont rigolos.
- Acte 4. Donc, maintenant, que demandent Google et OpenAI ? Eh bien, ils demandent à Trump d’adoucir les lois qui encadrent l’entraînement des IA en disant « c’est open bar. On s’en fout de à qui appartiennent les données. Si une page est en ligne sur Internet, l’IA a le droit de l’aspirer » et c’est vers ça qu’on va demain et quand je dis demain c’est presque littéralement déjà aujourd’hui, on y est quasiment.
Les « bonnes vieilles méthodes »
Comment est-ce qu’ils font ça ? Eh bien le pognon ! Surprise ! Qui est surpris ? Pas moi. Là vous avez un graphique du nombre de lobbyistes qui sont allés voir les différents départements américains à la Maison-blanche ces dernières années, qui concerne des membres de lobbyistes auprès de l’intelligence artificielle. Les données sont relativement transparentes, sauf que, vous imaginez bien qu’il y a des repas qui se font dans des hôtels avec la moquette qui vous arrive aux chevilles, du champagne qui coule à flots et qui ne sont pas enregistrés là-dedans. Mais, sur ce qu’on arrive à compter, on voit qu’il y a quand même une explosion du nombre de lobbyistes qui travaillent, notamment à la Maison-blanche, pour faire pencher les lois en leur faveur.
Toujours sur la question culturelle.
Je parlais tout à l’heure des biais. Ceci est une représentation graphique d’où viennent les données qui ont servi à entraîner, notamment ChatGPT. On voit une surreprésentation absolument massive des données occidentales. Donc on arrive à quoi ?
Techno-féodalisme partout
On arrive à WEIRD AI, c’est-à-dire qui vient essentiellement du monde occidental, éduqué, industrialisé, riche et plutôt pays démocratiques. Si vous regardez le nombre de données qui viennent d’Afrique ! Autant vous dire que si vous posez une question en wolof à ChatGPT sur la culture malienne, ça va être compliqué.
La langue anglaise est la principale utilisée, du coup, ça fait quoi ? Vu que ChatGPT a été entraîné sur des données en anglais, le résultat c’est que ChatGPT, notamment, performe, c’est-à-dire est beaucoup plus efficace quand vous lui posez une question en anglais et réponse en anglais, que si vous lui posez la question en breton ou en wolof, en breton je pense que ça ne marchera même pas.
Donc tout ça renforce l’hégémonie de la culture anglo-saxonne, en particulier étasunienne, en dissolvant petit à petit une majorité de cultures existantes, qui sont en train d’être dissoutes petit à petit dans les résultats que produit cette intelligence artificielle. Autant vous dire que pour tout ce qui est des savoirs traditionnels, notamment les savoirs oraux, la médecine traditionnelle, etc., tout ça est balayé par les IA américaines.
Make Capitalism Great Again – Make Fascism Great Again
J’aime bien cette photo parce qu’on a l’impression que Donald Trump va baiser la main d’Elon Musk, ce n’est pas loin. Mon avis perso, je n’engage pas Framasoft là-dessus, Elon Musk est le coprésident des États-Unis. Je pourrais vous en parler pendant une heure, posez-moi des questions sur Elon Musk. J’adore ce mec ! Il est fasciste, il a milité pour la FP, le parti d’extrême-droite allemand il y a encore quelques semaines, donc ça pose de sérieux problèmes quand c’est notamment ce mec-là qui a le pouvoir, en tout cas l’oreille de Donald Trump pour signer le décret qui va dire qu’il faut déréguler à fond.
Résumons 57’26[modifier]
Donc qu’avons-nous appris aujourd’hui Jamy ?
Qu’on a sept entreprises qui dominent le marché du numérique, les fameux sept salopards.
Elles possèdent des richesses énormes,
elles permettent de s’approprier les moyens de production,
elles permettent de voler le travail et de légaliser ce vol en plus en faisant du lobbying. Ils sont malins quand même !
Les propriétaires de ces entreprises et les hommes politiques travaillent main dans la main
et globalement ces entreprises vivent de l’innovation.
L’IA, justement, c’est une innovation qui dépend des moyens de production de ces sept entreprises, c’est donc toute la domination technique dont je vous parlais tout à l’heure.
Elle reproduit intrinsèquement, on ne peut pas l’éviter, des inégalités et des injustices.
Elle produit de nouvelles formes d’impérialisme.
Ces entreprises utilisent leur position dominante pour imposer leurs innovations auprès de qui ? De nous.
Ces innovations, notamment l’intelligence artificielle, entretiennent et accroissent la surveillance, l’aliénation et l’exploitation des êtres humains au profit d’une classe plus privilégiée, clairement le capitalisme.
Ces innovations entretiennent et accroissent l’exploitation des ressources planétaires au profit du, je n’ai pas trouvé autre chose, que le profit. S’il y a des pro-capitalistes dans la salle, je serais ravi de savoir pourquoi on fait ça.
L’IA oui pose un problème, pose même des milliers de problèmes, mais derrière quand on regarde le fond du problème, ce n’est pas la technologie qui pose problème, c’est ce qu’on en fait.
Le moment « tomates »[modifier]
Il est 19 heures, je suis à la bourre totale, mais je vais quand même faire le petit moment tomates.
J’ai utilisé de l’IA pour préparer cette conférence. J’aurais pu ne pas en utiliser, mais je vais vous expliquer pourquoi je l’ai utilisée.
Mais… Pourquoi ?[modifier]
Concrètement, je l’ai utilisée pour faire quoi ?
J’avais besoin, à différents moments, de faire une compilation de sources qui sont diverses et éparpillées, qui peuvent être journalistiques, académiques, etc. J’avais donc besoin d’aller chercher de l’information que je n’arrivais pas à trouver via les moteurs de recherche traditionnels, j’ai mis Google, mais vous pouvez utiliser DuckDuckGo ou ce que vous voulez, peu importe. J’ai fait un nombre de recherches relativement invraisemblables pour cette conférence. J’ai dû faire, en gros, une dizaine de requêtes ChatGPT, donc beaucoup moins, en termes d’impact écologique, que les 416 recherche Google ou DuckDuckGo, par contre, en termes d’éthique, je me sens un peu sale. Je n’ai pas utilisé l’IA pour la création d’images, je n’en avais pas l’utilité.
Pourquoi est-ce que j’ai fait ça ? Et c’est là pour moi où ça devient intéressant : j’ai gagné du temps. Et pourquoi est-ce que j’avais besoin de gagner du temps ? Par exemple, pour préparer une conférence comme ça, j’ai quelques collègues de Framasoft dans la salle, j’ai passé une quarantaine d’heures. J’aurais sans doute passé, on va dire entre 10 et 20 heures de plus. Vous pourriez me regarder et me dire « tu aurais pu passer les 10 ou 20 heures de plus et ne pas utiliser l’IA ». Le problème, j’y reviens, c’est qu’on vit dans un système capitaliste. Je suis salarié de l’association, j’ai plein de trucs à faire, mon taf, mon métier, ma fonction ce n’est pas conférencier, c’est coordinateur des services numériques, donc j’avais besoin d’aller vite pour gagner du temps, pour faire économiser, quelque part, de l’argent à l’association.
L’IA c’est caca, mais pas dans tous les cas[modifier]
C’est le type de choix devant lequel je me suis retrouvé, devant lequel vous allez vous retrouver.
Pour moi, l’IA c’est caca, mais pas dans tous les cas. Selon moi et je souligne, ce n’est pas selon Framasoft, c’est selon Pierre-Yves Gosset, l’IA, sans être souhaitable, peut être pertinente.
Typiquement, la correction de la lumière sur les photos, quand vous prenez une photo et que c’est corrigé automatiquement, ça peut être pertinent, ça ne consomme pas beaucoup, ça marche, etc.
Faire des tris de données, on en parlait avec une amie il n’y a pas très longtemps, pour son association, elle voulait créer une formule pour un tableur, elle ne savait pas comment créer cette formule, du coup, elle a demandé à ChatGPT qui a répondu, qui lui a donné la formule. Elle a donc gagné du temps et pourquoi pas.
En gros, ça peut aussi servir pour de la traduction, si vous n’avez pas d’enjeu derrière cette traduction, sinon embauchez des traducteurs et des traductrices ; pour l’accessibilité, notamment pour la transcription de sons et pour faire les sous-titrages parce que plein de gens sont déficients auditifs ; pour les sciences dures ça peut être utile.
Donc chacun a son curseur. Je ne vous jugerai pas, j’espère, et merci de ne pas me juger derrière.
Optimisation des modèles[modifier]
Je vous passe cette slide pour gagner un petit peu de temps. En gros, ce que je dis là-dedans, c’est que, petit à petit, l’IA va sans doute consommer moins d’électricité sur l’entraînement, mais il va se passer la même chose qu’avec les moteurs de voiture, ça veut dire que nous, nous allons consommer, nous allons faire beaucoup plus de requêtes auprès des intelligences artificielles parce qu’on nous force à les utiliser, on nous enjoint très fortement à les utiliser.
Inférence ≠ Entraînement[modifier]
C’est un petit peu la théorie du colibri, on est à Primevère, la métaphore du colibri. Il y a l’incendie dans la forêt, les animaux sont en train de fuir et ils voient le petit colibri qui apporte sa goutte d’eau pour éteindre l’incendie. On lui demande « pourquoi tu fais ça petit colibri ? », parce que je fais ma part. C’est très chouette de faire sa part en se disant « je ne vais pas utiliser l’intelligence artificielle », très bien. Mais pour moi, cette théorie avec laquelle je suis plutôt en désaccord, pose deux questions et deux problèmes.
Le premier c’est quid de l’intérêt collectif. Par exemple, peut-être que le colibri aurait pu orienter l’éléphant, qui, avec de l’eau dans sa trompe, aurait pu aller éteindre plus d’incendie qu’un colibri qui fait des allers-retours, donc l’intérêt du collectif, ça joue.
Et deuxièmement : en fait, qui a foutu le feu à cette forêt ? On est pris dans des incendies permanents, politiques, etc., et on n’a pas le temps de se poser la question : pourquoi est-ce qu’on veut ça ?
Là, j’ai essayé de vous démontrer que ces sept entreprises-là ont tout intérêt à ce que vous ne regardiez pas qui a foutu le feu à la forêt, mais plutôt à ce que vous soyez prêt à vous poser la question « je suis propre, je suis pur, je n’ai pas utilisé l’IA. »
Le problème, pour moi, ce n’est pas de faire une requête ChatGPT, c’est de foutre de l’IA partout.
Le parallèle que j’essaye de trouver, c’est celui avec le sucre industriel, qui n’existait pas il n’y a encore pas si longtemps que ça et qu’on retrouve aujourd’hui partout alors que ça pose des problèmes de santé publique absolument monstrueux.
Éléments de réponses[modifier]
Pour entamer les questions, j’en ai encore pour une minute.
« Yaka boycotter l’IA »[modifier]
La réponse qu’on fait souvent c’est « il n’y a qu’à boycotter l’IA ! »
J’ai une formation d’économiste, mais je n’ai pas précisé, d’économiste marxiste, pour moi, c’est une position bourgeoise. Pourquoi ? Prenons la voiture. On pourrait dire que la voiture pose d’énormes problèmes écologiques, on n’a qu’à pas utiliser la voiture. Oui, sauf que si vous êtes une mère célibataire qui habite à la campagne, qui a trois enfants, qu’il faut emmener l’une au judo, la gamine au foot ou je ne sais quoi, ça devient vachement compliqué de dire « tu n’as qu’à tout faire en vélo », si c’est loin. Du coup, on a ses propres curseurs. Le côté « il n’y a qu’à boycotter l’IA » je l’entends tout à fait, boycottez l’IA si vous voulez, mais, pour moi, c’est une position de privilégié. Parfois, il est difficile de s’extraire d’un système oppressif, notamment quand c’est le technocapitalisme.
Proposition « les 5R de l’IA »[modifier]
La proposition que je fais en conclusion, j’essaye de faire le parallèle entre la gestion des déchets et la gestion de l’IA. Si vous n’aviez pas compris que je suis contre l’IA, c’est plus clair.
Dans les déchets, normalement, c’est refuser, réduire, réutiliser, réparer et rendre à la terre ou recycler.
Pour l’IA, la proposition qu’on peut faire c’est d’abord :
- refuser d’utiliser l’IA quand on peut, ce n’est pas boycotter toujours ; à chaque fois que c’est possible, c’est refuser d’utiliser l’intelligence artificielle ;
- utiliser un moteur de recherche ou un bouquin ou votre cerveau, ce n’est pas très cher et c’est beaucoup plus économe en énergie ;
- il va falloir réguler, mais ça va prendre du temps, je suis un déçu permanent des régulations, donc mettre en place des cadres éthiques et juridiques, ce qui veut dire qu’il faut avoir un débat politique avant, on n’est pas du tout là-dedans, le Sommet de l’IA qui avait lieu le mois dernier c’était cramons des milliards, je n’ai pas compris ;
- responsabiliser, donc sensibiliser notamment les développeurs, développeuses et les utilisateurs et utilisatrices aux impacts socio-économiques et environnementaux de l’IA, ce que j’espère avoir fait ce soir ;
- et rediriger vers des modèles libres si possible, mais qui ne sont pas du tout éthiques ou, etc., ce sera juste un peu mieux, un peu moins la merde, mais globalement ça va être la merde.
Ça va être la merde[modifier]
Il va falloir douter de tout et ça va être épuisant. Si ça ne l’est pas déjà pour vous, attendez-vous à être fatigué de ces questions d’intelligence artificielle, pour nous c’est déjà le cas, mais vous allez y venir aussi.
Bernard Stiegler parlait de pharmakon, c’est à la fois le remède le poison et le bouc émissaire. Par exemple, si vous prenez un Doliprane tout va bien, si vous prenez 10 Doliprane d’affilée, en même temps, vous mourrez dans d’atroces souffrances en plus. L’IA c’est un peu pareil. On peut se dire que c’est une technologie intéressante, que ça peut être un remède en astronomie, mais ça va devenir aussi un bouc émissaire. On va dire « c’est la faute de l’IA ». Non, ce sera la faute politique du fait qu’on n’a pas su gérer le débat.
L’IA est là, et il va falloir « faire avec »[modifier]
Il va donc falloir faire avec, tout simplement parce que sortir de l’IA ça va être aussi compliqué que sortir du capitalisme et je ne sais pas trop comment on fait ça. Il y a des conférences à Primevère, il y avait d’ailleurs une conférence aujourd’hui je crois.
Ne nous trompons pas : nos adversaires ne sont pas ceux qui utilisent l’IA, ce sont clairement les techno-solutionnistes, les capitalistes et les fascistes qui, clairement, utilisent l’IA massivement.
Notre meilleur allié c’est l’éducation et de préférence l’éducation populaire parce que l’Éducation nationale fait ce qu’elle peut, mais elle est un peu à la ramasse.
Et notre meilleure porte de sortie, ce seront probablement ceux qu’on appelle les communs numériques et ce sera pour une autre conférence parce qu’il est 19 heures presque 10. Merci.
[Applaudissements]
Questions du public et réponses 1 h 08’ 07[modifier]
Public : Bonsoir. Merci pour cette conférence passionnante. Est-ce qu’on pourra avoir accès à vos slides ?
Pierre-Yves Gosset : Tout ce que produit Framasoft est sous licence libre. Donc oui, vous aurez accès à nos slides. Le plus simple sera d’aller sur wiki.framasoft.org et vous devriez les trouver sans trop de difficultés, à partir de demain ou après-demain. Laissez-moi finir le week-end tranquille, lundi tout ira mieux, je n’en peux plus. Mais oui, bien sûr. Du coup, j’ai enregistré juste les slides, donc les slides plus l’audio enregistré par Primevère, donc vous y aurez accès.
Je vous en prie.
Public : Est-ce que c’est vrai que le moteur de recherche de Google est moins efficace maintenant, qu’il a été dégradé pour nous forcer à utiliser l’IA ?
Pierre-Yves Gosset : On va sortir un article là-dessus, dans pas longtemps, sur le Framablog, qui est tiré d’un article de Cory Doctorow, blogueur et journaliste américain, qui démontre que Google a effectivement dégradé la qualité de ses réponses pour deux raisons.
La première, c’est le pognon, parce que ça permet d’afficher la publicité.
La deuxième, c’est aussi pour orienter vers l’intelligence artificielle derrière.
Donc oui, effectivement, il y a potentiellement, peut-être que ça s’arrêtera demain, une dégradation volontaire de la qualité.
Public : Je complète en disant que, dans les aspects involontaires, le fait que le Web pullule de contenus générés par IA qui semblent vachement bien référencés, qui sont pensés pour être bien référencés. Donc les contenus originaux, les contenus créés par des humains et des humaines, vont être extrêmement difficiles à trouver.
Pierre-Yves Gosset : L’emmerdification. Appelons ça comme ça. Enshittification.
Public : Merci pour cette conférence. Petit élément de complément sur l’IA, il me semble que des modèles libres existent et je crois que Mozilla va aussi bosser sur un truc. Il y a aussi ça qui existe et l’IA ne va pas chercher forcément des modèles de partout, enfin l’IA générative, mais il y a aussi des bonnes manières de l’utiliser en faisant tourner, par exemple, sur un corpus fermé. On pourrait mettre toutes les données de Frama sur une IA Frama. On pourrait donc trouver facilement toutes les infos que donne Frama, avec toutes les limites que peut avoir une IA, mais pour avoir une information générale. Je voulais également tempérer cette histoire de données, le poids des données quand on fait une recherche, à savoir que sur ChatGPT en particulier et les différents modèles, il y a des modèles qui sont ??? [1 h 11 min 11], qui permettent donc de faire des recherches qui consomment très peu de ressources. Typiquement, pour une recette de cuisine on n’a pas besoin d’un modèle ??? [1 h 11 min 18] ou je ne sais quoi, on peut avoir un modèle mini qui utilise très peu, c’est donc moins violent que d’autres recherches, ça peut être mieux.
Pierre-Yves Gosset : C’est moins pire !
Public : C’est moins pire que de faire cinq recherches sur Google pour trouver la recette.
Pierre-Yves Gosset : Autant je suis tout à fait d’accord avec la première remarque et tu as raison sur la deuxième, sauf que l’effet rebond, vraiment, on ne va pas y couper. J’espère, je n’ai pas forcément été hyper clair, mais c’est un système dans lequel ces entreprises nous font rentrer. Même si la requête consommait 0,00001 % de ce que ça consomme aujourd’hui, c’est est-ce que c’est ce monde-là qu’on veut, ou pas ? Écologiquement, peut-être que ça sera mieux, mais même si l’impact écologique était celui d’une requête Google, ce qui est très loin d’être le cas, ma problématique c’est qu’on nous l’impose de partout et que, comme tu disais, on se retrouve avec ça.
Public : C’est tout à fait aligné. Du coup, pour ce qui est des gens qui disent qu’ils ont absolument besoin de rechercher, en fait c’était ce qui me semble plus pertinent, si vous voulez vous déresponsabiliser un peu.
Pour terminer, un des points que tu as évoqués qui me semble particulièrement important, c’est qu’on perd le savoir. Tu parlais du syndrome GPS, je sais que je suis dans ce cas-là, je ne sais pas m’orienter parce que je l’ai toujours fait avec un GPS et c’est le cas de plein de gens. Pour avoir donné beaucoup de cours, l’impression que c’est de plus en plus comme ça pour les étudiants, sans mettre tout le monde dans le même panier. En fait, on perd l’habitude de réfléchir et quand on utilise beaucoup l’IA, on n’arrive plus à réfléchir, on perd cette capacité. Le savoir c’est le pouvoir. Plus vous utilisez l’IA de manière intensive, moins vous allez réfléchir et plus vous êtes sous l’emprise, finalement, des grosses compagnies d’IA.
Pierre-Yves Gosset : Les sept, Magnificent seven.
Encore quelques questions. Surtout pour qu’ils puissent fermer la salle après, je réponds tans que j’ai de l’eau.
Public : Je pose la question : par rapport à la présentation que vous avez faite des acteurs, des montants, etc., est-ce qu’il y a des spécificités de l’IA dans le domaine militaire ? Du genre est-ce qu’il y en a qui réfléchissent à de l’IA souveraine ?
Pierre-Yves Gosset : La réponse est oui. Sur les IA militaires, c’est clairement Israël qui domine avec les États-Unis, sans commentaire.
Pour les IA souveraines, je pense que la France travaille sur ses propres modèles et quand je dis la France ce ne sont pas juste des start-ups. La problématique c’est que jusqu’à la deuxième élection de Trump, jusqu’au début de cette année, globalement ça ne gênait absolument pas les gouvernements français ou allemand ou que sais-je d’utiliser les produits américains. Maintenant qu’on est tous devant le fait accompli que Trump est fou, eh ben ils se disent « il faut qu’on se méfie, parce que si Trump, demain, veut couper l’accès de tout Google ou tout Facebook à l’ensemble de l’Europe, il a le pouvoir de le faire parce que George Bush junior a signé, le 13 ou le 14 septembre 2001, quelques jours après les attentats du 11 septembre, un décret qui s’appelle le PATRIOT Act qui dit que toutes les entreprises américaines doivent obéir au gouvernement fédéral. Donc, Trump peut faire un décret en disant « je coupe » et ça met globalement nos dirigeants en panique, donc oui, ils veulent de l’IA souveraine, moi je préfère le terme « autonomie stratégique » parce que souveraineté ça me pique un peu. En tout cas, ils se disent qu’on a intérêt à avoir nos propres IA entraînées avec vos propres données, etc.
Donc oui, c’est en cours, ça peut servir pour des applications militaires, ça pourrait servir pour des applications civiles. La militarisation est une des slides sur lesquelles je suis passé hyper vite. Pour moi, ça pose un problème éthique : quand on envoie un drone dirigé par l’IA bombarder un village en Afghanistan, par exemple, il n’y a plus d’humain. À la limite, c’est un développeur qui a programmé le truc en amont, mais il n’y aura même pas besoin d’un prompt, c’est-à-dire quelqu’un qui va écrire « il faut aller bombarder tel village », l’IA sera suffisamment « intelligente », noter le nombre de guillemets derrière, pour dire « là, il y a un objectif stratégique à aller détruire », du coup il n’y a plus d’implication humaine. Donc, on va voir arriver la guerre menée uniquement par des robots, des intelligences artificielles, exactement comme on voit arriver l’agriculture gérée par l’IA, avec des drones qui vont aller lâcher la goutte d’intrant, de pesticide, exactement là où il faut, parce que c’est mieux comme ça, ou la goutte d’eau là où il faut parce qu’il faut.
Personnellement je ne veux pas de ce monde-là. Il va falloir s’autonomiser, mais je pense que rentrer dans une espèce de course à « il nous faut notre IA » n’est pas la bonne direction à prendre, mais c’est probablement celle qu’on va prendre.
Public : Donc après la conférence, c’est très clair, je vais passer pour un terrible bourgeois, mais je n’ai pas tout à fait capté le raisonnement sur le boycott de l’IA. Je pense que la comparaison avec le fait de culpabiliser quelqu’un qui utilise sa Twingo diesel depuis 20 ans, dans le sens où la personne qui utilise sa Twingo diesel est tributaire de politiques qui ont plus de 50 ans de transformation des paysages publics pour rendre les gens dépendants de la voiture, cette structure a conditionné les gens et là on est coincé. J’ai l’impression que l’IA est apparue très soudainement et je n’ai pas l’impression qu’autour de nous ça c’est structurellement de nouveau IA ??? [1 h 17 min 32], donc j’ai l’impression qu’on peut s’en passer.
Pierre-Yves Gosset : Sur certains faits, oui on pourra se passer d’IA générative. Encore une fois, si vous refusez au maximum, c’est tant mieux.
Sur le diesel, qu’on mette les diesels à la poubelle, pourquoi pas. Si c’est pour les remplacer par des Tesla, ça pose un autre problème. On peut se dire que ça consomme vachement moins, mais, encore une fois, effet rebond, métaux rares, six millions de morts en République démocratique du Congo, c’est juste le carnage. Encore une fois, si on veut se poser la question écologique, et pas que écologique parce que ta question porte aussi sur l’éthique, est-ce qu’on peut boycotter l’IA ? Oui, boycottez. Ce que je vous demande c’est de ne pas juger les autres. Si vous voulez boycotter l’IA très bien, pas de problème avec ça.
Je m’attendais à la fin à une question du genre « il n’y a qu’à la boycotter ! ». Oui, si vous voulez, seulement, aujourd’hui les agendas, les plannings des femmes de ménage des grands hôtels parisiens sont gérés par l’intelligence artificielle ! Sur l’intelligence artificielle générative oui, évitez d’utiliser Midjourney ou Dall-E qui sont deux intelligences artificielles de génération d’images pour générer des images de chats, oui. Si ça vous fait rire, faites-le une fois et puis arrêtez. Il faut faire gaffe à son usage. Mon truc c’est de lutter contre la pureté militante.
Public : Est-ce que DeepSeek est vraiment un progrès en matière d’économie ?
Pierre-Yves Gosset : Écologique ? Jusqu’à récemment, je vous aurais dit oui. Il se trouve que, aujourd’hui, est sorti un article qui dit que ça a peut-être coûté beaucoup plus en énergie que ce qu’on prévoyait au début. Pour faire la petite explication technique, la supputation qu’on a, c’est qu’on pense que DeepSeek a été l’objet de ce qu’on appelle une distillation, c’est-à-dire que c’est une intelligence artificielle qui, au lieu d’apprendre sur la masse de données générales dont je vous parlais tout à l’heure, des teras et des téraoctets, même des pétaoctets, des exaoctets de données, aurait peut-être appris sur la base d’une autre intelligence artificielle. Quand on fait ça, forcément, il n’y a plus besoin d’un traitement aussi gigantesque, donc, en entraînant une IA sur une autre IA et non pas sur le savoir global, c’est beaucoup moins cher, on peut économiser beaucoup d’électricité, etc. Et puis, on n’est pas sûr de ça, parce que ça se passe en Chine et personne n’a de visibilité sur la façon dont ça marche réellement. Donc, je ne sais pas répondre à cette question.
Public : Une autre question sur le stockage des données. On nous a annoncé 109 milliards d’investissement en France sur de l’intelligence artificielle, or ce sont des sociétés américaines qui vont stocker les données recueillies sur des serveurs aux États-Unis dont on ne sera pas propriétaires.
Pierre-Yves Gosset : Tout à fait.
Public : À quoi ça va nous servir tout ça ?
Pierre-Yves Gosset : Si c’est à moi que vous posez la question, je vous réponds « à rien ». L’investissement que Macron a promis c’était 109 milliards en France. Trump dès le quatrième jour, poussé par Elon Musk qui, vous l’avez compris, a son intérêt derrière, parlait de faire un plan à 500 milliards. Et si, demain, il faut dépenser un trillion, ils le dépenseront. Ils veulent rester maîtres de ce système qui leur permet de faire tourner l’avenir dont eux rêvent. Je rappelle que le rêve d’Elon Musk c’est d’aller sur Mars et d’être immortel. Je parlais des conseillers et conseillères d’orientation qui sont virés pour être remplacés par ChatGPT, probablement par son IA qui s’appelle Grok, on voit ça à tous les niveaux dans le gouvernement américain. J’espère que vous avez tous suivi qu’il n’y a plus d’USAID, le programme d’aide américain à l’international. Aujourd’hui, en ce moment même, des gens meurent là, qui ne devraient pas mourir, parce que Elon Musk a dit « il faut couper USAID » et que Trump a signé le décret.
Ma problématique, derrière, est de dire « super, la France doit mettre 109 milliards », on n’a pas besoin de 109 milliards pour faire une IA, vraiment. Pour moi, sur ces 109 milliards, 100 milliards vont partir dans des start-ups qui vont juste cramer le pognon, et il n’en sortira rien. On parlait tout à l’heure d’intelligence artificielle notamment académique, aujourd’hui des modèles existent, qui tournent pour pas cher. Est-ce que c’est moins performant ? Oui, en tout cas sur l’aspect global, ça ne vous donnera pas la recette du gratin de chou-fleur, mais si vous voulez poser des questions en astronomie, ça marche assez bien.
Pour moi c’est juste comment entretenir les industriels et je finis avec un chiffre. On parlait de Mistral, le fleuron de l’intelligence artificielle française. Pour info, vous pouvez vérifier sur Wikipédia qui cite pas mal de sources elles-mêmes doublées, vous avez Cédric O qui était secrétaire d’État au numérique sous Macron 1, qui a investi, je crois, je vous laisse aller vérifier sur Wikipédia, 179 euros dans Mistral quand il était encore secrétaire d’État ou juste après avoir laissé son poste, et aujourd’hui ça vaudrait 19 millions ; 179 euros, 19 millions. Quand je vois Macron dire qu’il faut mettre 109 milliards je ne peux pas m’empêcher de me dire qu’il y a quand même une part, je ne veux pas dire de corruption, en tout cas de pantouflage, ce qu’on appelle les revolving doors. Ils se préparent pour après en se disant « si je lâche 109 milliards sur l’intelligence artificielle », demain Macron va aller bosser pour des start-ups, etc., il récupéra le pognon… le ruissellement en boucle, le recyclage
Public : Bonsoir. Merci beaucoup, c’était très intéressant. Je m’interroge par rapport à l’éducation. Dans l’objectif de l’association c’est l’éducation populaire, vous dites que l’Éducation nationale ne joue pas son rôle, je suis d’accord avec vous.
Pierre-Yves Gosset : Ils sont à la bourre.
Public : Complètement, même pire ! Je pose ma question : comment sensibiliser à cette question. ? Ce qui m’inquiète, c’est justement par rapport à la jeunesse et comment jouer ce rôle d’éducation ? Comment faire ? Est-ce que dans les universités, aujourd’hui, il y a des choses qui se jouent ? En Belgique, il y a des choses qui se jouent dans certaines éducations, est-ce qu’en France c’est pareil ? Dans les lycées ou les collèges, comment faire ?
Pierre-Yves Gosset : La réponse principale c’est : on est à la ramasse, complètement. C’est un peu trop simpliste comme réponse. Beaucoup d’enseignants réfléchissent notamment sur c’est quoi enseigner, notamment évaluer quand on ne peut plus évaluer sur les rendus textuels que nous remettent les étudiants et étudiantes. Aujourd’hui je suis tombé sur un chiffre : 54 % des 15/24 ans utiliseraient l’intelligence artificielle générative. Je pense que ce chiffre est complètement sous-évalué. Avec mon institut La Louche, je dis qu’on est au moins à 90 % des 15/24 ans qui utilisent ChatGPT pour faire leurs devoirs et les rendre. Pour moi, la meilleure réponse qu’on puisse apporter, elle va être dans l’éducation et l’éducation populaire. Je vous parlais tout à l’heure du site FramamIA, sur lequel on a fait, pareil, 50 heures de taf dessus, ce n’est pas non plus grand-chose, mais on a essayé de détailler notamment ce que je vous ai expliqué au début, comment ça marche, les problèmes que ça pose, etc., et la sortie, derrière, passe pour moi par les communs numériques. Finalement, votre question c’est comment est-ce qu’on sort du capitalisme, y compris dans l’éducation ? Je n’ai pas forcément de réponse à cette question. La seule réponse que j’ai c’est par les communs. I faudrait une autre conférence pour expliquer réellement ce que sont les communs numériques. Pour moi, les communs numériques sont la meilleure réponse qu’on puisse apporter en disant aux gamins « ce qu’on va te demander, ce n’est plus de produire ton truc individuellement, mais de le produire en groupe, de savoir le restituer à l’oral, c’est-à-dire avec ton cerveau et pas avec une feuille imprimée », maintenant c’est quasiment tout en PDF envoyé sur Pronote.
Pour moi, c’est comment on change le système et je ne sais pas répondre à cette question autrement que par les communs.
Public : Merci beaucoup Pierre-Yves pour cette conférence.
[Applaudissements]
Organisateur : Je vous rappelle que vous pouvez retrouver Framasoft dans le salon, dans le pôle numérique. Il y a d’autres associations qui travaillent sur le sujet et puis vous pouvez retrouver les enregistrements des conférences sur le site de Primevère d’ici probablement deux semaines.