Les petites mains derrière les technologies d'intelligence artificielle
Titre : Les petites mains derrière les technologies d'intelligence artificielle !
Intervenants : Thomas le Bonniec - Clément Durand
Lieu : Émission Les dessous de l'IA
Date : 7 février 2025
Durée : 1 h
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription[modifier]
Voix off : Bonjour et bienvenue sur Les dessous de l’IA, le podcast qui tente de mieux comprendre les évolutions de l’intelligence artificielle et leur impact sur nos sociétés. Bonne écoute.
Clément Durand : Bonjour, Thomas, et bienvenue sur Les dessous de l’IA.
Aujourd’hui, on va essayer de mieux comprendre le rôle que jouent les humains, notamment les travailleurs du clic, dans l’entraînement et le développement des technologies d’IA.
Pour commencer, est-ce que tu pourrais te présenter, revenir un petit peu sur ton parcours et ce qui t’a amené à t’intéresser à cette question des travailleurs du clic et de leur rôle dans les systèmes d’intelligence artificielle.
Thomas le Bonniec : Oui, bien sûr. Déjà merci pour l’invitation, Clément.
Actuellement, je suis doctorant à l’Institut polytechnique de paris, sous la direction d’Antonio Casilli et de Corinne Vercher-Chaptal, je travaille sur la reconnaissance des travailleurs de l’intelligence artificielle par les agences de protection des données. En fait, j’ai une expérience en tant qu’ancien travailleur du clic. C’est donc de là qu’est parti mon intérêt pour cette question, j’étais un peu de l’autre côté de la barricade au départ, ayant eu une expérience concrète de ce que cela voulait dire. Ayant rencontré les bonnes personnes et aussi avec mon parcours de sociologue, je me suis dit que c’était le sujet le plus intéressant pour faire une thèse par la suite. C’est donc ce que je fais depuis environ un an et demi.
Clément Durand : « Les travailleurs du clic », c’est un terme qu’on entend un petit peu, mais concrètement, qu’est-ce que ça recouvre ? Qui sont ces travailleurs du clic et quel est ce métier ? Je ne sais pas si c’est un métier, en tout cas que recouvre ce rôle de travailleur du clic comme réalité en termes de tâches quotidiennes, etc. ? Est-ce que tu as quelques exemples.
Thomas le Bonniec : De manière concrète, un travailleur du clic, ça peut être, par exemple, un modérateur de contenu pour Facebook, ça peut être quelqu’un qui se crée un compte sur une plateforme de travail, ça peut aussi être un chauffeur Uber. Ce sont des activités qui ne sont effectivement pas nécessairement reconnues comme du travail, ça passe souvent par des intermédiaires qui sont des plateformes et, dans le cas de l’intelligence artificielle, ce sont des personnes qui font de l’annotation de données. Dans le contexte actuel de production de l’intelligence artificielle, notamment pour les LLM, les modèles de langage très larges, par exemple ChatGPT, il faut en fait une partie de travail humain. Dans la boucle, ça correspond à l’acronyme RLHF, Reinforcement Learning from Human Feedback.
Il y a des moments où, par nécessité, il va falloir qu’il y ait des humains qui fassent l’expérience d’un contexte particulier. Par exemple, lorsqu’on parle de ChatGPT, il ne suffit pas de présenter au modèle d’IA une grande quantité de données et ensuite on a le résultat tout prêt. Ça a déjà été expérimenté par le passé et ça a donné des résultats désastreux. Il faut déjà, dans un premier temps, ce que les ingénieurs appellent du fine-tuning, c’est-à-dire de l’ajustement des paramètres, leurs poids relatifs dans le modèle. Ensuite, il y a effectivement cette partie de Reinforcement Learning from Human Feedback.
Antonio Casilli, qui est mon directeur de recherche, a co-publié un article, il y a quelques années, qui est très connu dans le milieu, et qui résume la question en disant qu’il y a trois grands types de rôles pour les travailleurs du clic : il y a l’entraînement, il y a la correction, et puis il y a l’imitation, ce qui ne veut pas dire forcément, que ces rôles soient différents dans le temps.
L’entraînement, c’est dans la phase d’entraînement de l’IA.
La correction, c’est dans la phase de déploiement, une fois que le modèle a déjà été sorti et qu’on se rend compte que, par exemple, dans certains contextes, ChatGPT est en train de dire des choses qui sont inacceptables au vu de l’entreprise qui le produit. C’est un produit commercial, donc ça ne va pas trop lorsque quelqu’un dit « j’ai envie de me suicider », l’IA répond en disant « les dix meilleures méthodes pour se suicider sont les suivantes. » Il faut bien qu’il y ait, à un moment ou à un autre, une supervision humaine pour se rendre compte, premièrement, qu’il y a un problème à tel endroit et, ensuite, que ce n’est pas vraiment ça qu’il faudrait que ça réponde. Donc, de manière concrète, il va y avoir des gens qui vont corriger cette partie.
Clément Durand : J’aimerais bien qu’on s’arrête deux minutes sur l’exemple que tu cites de ces trois rôles, de ces trois moments où il va y avoir une intervention humaine, en continuant peut-être de filer l’exemple de ChatGPT. Justement, du point de vue du travailleur du clic, quelles sont les actions et comment ça se passe pour lui, à la fois dans cette phase d’entraînement, dans la phase de correction et de l’imitation ? Si on devait reprendre l’exemple de ChatGPT et se placer du point de vue de la personne, donc de ce travailleur du clic qui va être amené à faire des actions, comment ça se passe et qu’est-ce qu’il a à faire concrètement, pendant ces trois phrases ?
Thomas le Bonniec : En fait, peut-être que se contenter de parler de ChatGPT n’est pas forcément la meilleure idée, parce que c’est quand même une activité qui est beaucoup plus large que ça. Il y a aussi beaucoup d’analyse visuelle, ça passe aussi par de la segmentation d’image, ça peut parfois servir pour des algorithmes de reconnaissance faciale. Ça peut être aussi pour de l’entraînement de véhicules dit autonomes, ce genre de chose.
Si on prend l’exemple d’un véhicule autonome, les phases d’entraînement et de correction vont se ressembler maintenant parce que, en fait, ça va être des personnes qui vont voir des images, des vidéos issues des caméras qui viennent d’une voiture, dite autonome, en train de circuler sur une route. Et ces personnes vont cliquer, littéralement, elles vont avoir une interface sur laquelle elles vont détourer, par exemple, les personnes, les passages piétons, un certain nombre de choses, et ensuite ils vont les étiqueter, ils vont mettre un mot clé correspondant. Ce travail se répète des millions et des millions de fois afin de présenter suffisamment d’exemples au modèle d’IA, afin qu’il finisse à peu près par comprendre. Et encore, c’est laborieux pour qu’il finisse par comprendre à peu près ce que la voiture est censée faire : là, il y a un piéton, donc il faut ralentir. Ça c’est le travail d’entraînement et de vérification. La vérification, dans ce cas-ci, c’est à peu près la même chose, ce sera donc une vidéo à détourer.
Quant à l’imitation, qui est une activité un peu différente, c’est en fait le moment où il y a des humains qui se font passer pour une IA. C’est un cas assez particulier. Dans ce cas-là, ce qui est constaté régulièrement, c’est que ce sont, par exemple, des entreprises qui ne fabriquent pas de modèle d’IA ou qui n’y sont pas encore, et qui sont pourtant en train de vendre un système, un produit qu’elles disent être automatisé. L’ exemple classique ce sont des travailleurs à Madagascar qui sont en train de regarder des flux vidéos en temps réel de caméras en France, de personnes dans des supermarchés. En fait, à ce moment-là, ce que l’entreprise a vendu à son client, c’est un système automatisé de surveillance qui lui signale lorsque quelqu’un serait en train de faire du vol à la tire. En fait, ce ne sont pas des algorithmes, ce sont des humains qui, lorsqu’ils voient quelque chose de suspect, vont cliquer sur un bouton.
L’idée c’est que si c’est une entreprise qui est authentiquement en train de chercher à créer un modèle d’IA, alors, à ce moment-là, il devrait y avoir une sorte de collecte des données dans ce travail-là. Si ça n’est pas le cas, si c’est une start-up qui n’a pas les moyens d’aller jusque-là, c’est effectivement difficile de dire que c’est autre chose qu’un mensonge.
Donc ce sont les trois grands rôles : le travail d’annotation des données au préalable, avant le déploiement d’un système, la vérification avec des données qui ont été collectées par le système dans son environnement et enfin, l’imitation où ce sont des humains qui se font passer pour des machines.
Clément Durand : L’imitation, c’est un peu ce qu’on avait entendu quand Elon Musk avait présenté ses robots.
Thomas le Bonniec : C’est exactement ça, c’est un assez bon exemple. Elon Musk est coutumier du fait, ce n’est pas le seul. Google avait aussi sorti à un moment, il me semble fin 2023, une vidéo sur Gemini. C’était une vidéo qui était puissamment éditée, qui semblait démontrer que l’ère de l’IA générative multimodale était arrivée et qu’il était possible simplement, comme avec un échange simple avec un assistant vocal, d’avoir un modèle qui vous produise de la vidéo, de l’audio, des photos, qui soit capable de faire des choses hallucinantes, extrêmement impressionnantes, mais, en réalité, il s’est avéré que tout cela n’était qu’un montage. Il y a donc beaucoup d’esbroufe. C’est quelque chose qu’il faut quand même de garder à l’esprit. C’est ce que dit Thibault Prévost dans Les Prophètes de l’IA – Pourquoi la Silicon Valley nous vend l’apocalypse, c’est aussi ce que ce que disait Émile Torres et Timnit Gebru sur l’idéologie TESCREAL. Il faut toujours garder à l’esprit qu’il y a quand même une part de messianique, de fantasme aussi là-dedans. On parle d’intelligence artificielle générale, de modèles qui arrivent à quelque chose qui s’approche de la conscience humaine ! Là, on se rapproche plus de la science-fiction que de la réalité.
Clément Durand : J’imagine qu’il y a quand même beaucoup d’argent en jeu, donc, forcément, c’est important aussi de convaincre des investisseurs, de raconter des histoires qui donnent envie d’y croire.
Thomas le Bonniec : Tout à fait. Je voudrais juste ajouter un truc là-dessus : OpenAI continue de perdre de l’argent à l’heure actuelle, alors qu’à la fin de l’année dernière, à la fin de 2024, ils avaient déclaré qu’ils avaient un revenu, je ne me souviens plus des chiffres exacts, mais il me semble que c’est quelque chose de l’ordre de quatre milliards annuels, quatre milliards de dollars, et des dépenses à hauteur de six milliards de dollars. Et Sam Altman avait déclaré, à ce moment-là, qu’il pourrait augmenter le prix d’accès à ChatGPT version professionnelle, que ça devrait être plus que 200 dollars, qu’il était en train de faire une fleur ou je ne sais quoi. À ce moment-là, ils ont aussi déclaré qu’avec leur modèle économique, suivant leurs projections, ils arriveraient à l’équilibre à l’horizon 2030, il me semble, lorsqu’ils seraient en t rain de générer un chiffre d’affaires de l’ordre de 14 milliards de dollars pour des dépenses qui tourneraient autour de 10 ou 11 milliards. Donc c’est ça, en fait, leur idée, parce ChatGPT a aussi des coûts énormes, des coûts en termes de serveurs, des coûts en termes de puissance de calcul, ça représente des dépenses gigantesques,. Ils sont constamment en train de lever à nouveau des fonds auprès de leurs investisseurs. C’est un gouffre financier à l’heure actuelle.
Clément Durand : J’aimerais bien te poser une autre question justement sur ce rôle de ces travailleurs du clic dans les systèmes d’IA, une question peut-être un peu de naïve : est-ce qu’on vend beaucoup autour de l’IA et de plus en plus aujourd’hui avec l’IA générative, avec cette question de l’automatisation, grâce à l’IA on n’aura plus besoin de travailler, on va pouvoir automatiser un certain nombre de tâches, comme si, finalement, c’était la machine qui allait faire à notre place. Ce que je comprends, dans ce que tu décris, c’est que finalement, certes, on va pouvoir automatiser certaines choses grâce à des algorithmes d’IA, pour autant, pour pouvoir produire et maintenir ces algorithmes d’IA, on a quand même besoin d’humains sur des métiers qui sont peu rémunérés, peu visibles, peu réglementés. Est-ce qu’on peut imaginer, demain, des algorithmes d’IA qui n’auraient pas besoin de ces travailleurs-là pour être entraînés, pour être maintenus, avec d’autres architectures, ou pas du tout ?
13’23[modifier]
Thomas le Bonniec : C’est une affirmation. Je fais partie des gens qui pensent que non. Après, c’est l’avenir qui va nous le dire. Simplement par la manière dont sont constitués les modèles d’IA à l’heure actuelle, ils ont besoin d’énormément de données, ils ont besoin de toujours en collecter davantage, ce qui pose problème aussi parce que, au bout d’un moment, étant donné qu’on fait de la collecte de données sur Internet, on fait du scraping, on récupère tous les textes, toutes les photos, mais qu’en même temps, il y a de plus en plus de contenus générés par de l’IA, il y a un peu la question de la maladie de la vache folle qui se pose. Est-ce que les modèles d’IA entraînés sur des données d’IA sont toujours performants ? Quelques articles de recherche sont sortis l’année dernière et ont tendance à faire penser que c’est une assez mauvaise nouvelle, qu’il faut des données produites par des humains, pas des données produites par des IA.
C’est la première chose. Il y faut nécessairement beaucoup, de données et il en faut de plus en plus, il en faut constamment, et puis, en plus, il faut mettre à jour tout ça. Par exemple, le vocabulaire des humains évolue, donc il faut en tenir compte. Ça veut donc aussi dire qu’il y a toujours une partie de travail d’actualisation qui nécessite de la mise en forme par des humains. Ce qui était acceptable à un moment ne le devient plus. La connotation d’un mot devient très différente d’un moment à un autre. Avant 2020, lorsqu’on disait « corona », on disait que c’était la bière et maintenant, après la pandémie, corona, c’est le coronavirus. Ça connote des choses différentes et pour tout ça, il continue d’y avoir besoin de travailleurs.
Sur le fait que l’IA automatise des choses. Je pense qu’il faudrait arrêter de dire que l’IA va remplacer des humains. Pour moi, l’IA ne remplace pas le travail humain, elle déplace les travailleurs. En fait, il y a un projet politique derrière qui est quand même assez clair et, là-dessus, peut-être qu’on peut faire le parallèle avec l’ubérisation. C’est le remplacement d’activités salariées, rémunérées, avec un statut, avec un contrat, avec des garanties sociales, dans des pays où il y a des revenus qui sont garantis, donc des « pays du Nord », entre guillemets, l’Europe par exemple, par du travail précaire, extrêmement précaire, mal payé, qui met des gens en situation de dépendance dans d’autres pays du Sud. Pareil, là l’exemple type, c’est Madagascar. Il y a eu, l’année dernière une lutte assez intéressante. La boîte s’appelle Onclusive. Onclusive est une boîte qui fait de la veille stratégique pour le compte d’un certain nombre de clients et Onclusive a été rachetée par un investisseur américain. Ils se sont dit que ce qui serait malin, ce serait d’annoncer qu’il allait faire appel à l’IA au moment d’un plan de licenciement. Le plan de licenciement consistait à virer, je ne sais plus si c’est 40 ou 60 % des effectifs sur 300 personnes réparties pour la plupart en France et dans un ou deux pays du Maghreb. En creusant un petit peu, il s’est avéré que la proposition de solution d’IA d’Onclusive, c’était de passer par une boîte, par un sous-traitant, qui allait employer des gens à Madagascar, mais qui seraient payés beaucoup moins pour faire à peu près la même chose, au moins dans un premier temps, le temps de passer à un modèle d’IA qui permette de remplacer les personnes qualifiées, compétentes, avec beaucoup d’ancienneté chez Onclusive.
C’est donc cela qui se passe. Ça ne revient pas à dire que ça ne marche pas et ça ne sert à rien, ça revient à dire que la manière dont c’est employé à l’heure actuelle cherche à permettre de faire des économies sur le dos des travailleurs. Et vraiment, je dis ça, c’est juste un constat à ce stade, ce n’est même pas une interprétation on va dire politique de la chose, c’est comme ça que ça se passe, et voilà !
Mais on pourrait se dire que, finalement, ce n’est peut-être pas plus mal que des travailleurs de Madagascar ou de Colombie – en Colombie il y a de la modération de contenu pour TikTok – ou au Kenya où il y a des gens qui ont fait de la modération de contenu pour Facebook, fassent ce travail-là, puisque ça permet de faire des transferts de revenus ou je ne sais quoi. Mais ils sont payés très mal, ils se retrouvent dans des conditions de travail qui sont déplorables, avec une dépendance très forte à l’égard de leur employeur et, à ce moment-là, on se retrouve à décrire des situations de travail qui ressemble furieusement à celles du 19e siècle. Il n’y a pas de garantie de travail, par exemple, c’est du travail à la pièce, donc, quand un projet se termine, les gens se retrouvent en larmes, à ne pas savoir s’ils vont réussir à gagner de l’argent pour vivre. Il peut s’avérer que des gens travaillent pendant des heures et des heures comme des forcenés. Lorsqu’on est payé correctement et qu’on est en Union européenne, là ça va, on peut gagner un revenu décent, mais lorsqu’on est dans un pays d’Afrique, dans des pays d’Asie du Sud-Est aussi ou d’Amérique latine, c’est dur parce que ces plateformes et ces entreprises ne se privent absolument pas d’exploiter ces travailleurs en leur proposant des sommes parfois dérisoires, en jouant sur le fait que c’est un marché planétaire. Ça veut dire que les travailleurs du Venezuela, parce qu’ils sont au Venezuela, pas pour autre chose, sont moins bien payés que les autres, ou alors parce qu’on va leur attribuer également un certain nombre d’adjectifs : les travailleurs du Venezuela vont être réputés moins bons que les autres et puis, éventuellement, ça peut mener à des situations où on essentialise même les nationalités.
Clément Durand : Tu as évoqué pas mal de pays où, justement, on externalise ce travail-là, je ne sais pas si c’est le bon terme, qu’on pourrait classer un peu dans le Sud, dans les pays du Sud. En tout cas en préparant cet épisode et de ce je constate, c’est que la question de ces travailleurs est relativement peu visible, peu présente dans les discussions sur l’IA. En tout cas en Occident, je ne constate pas que ce soit un sujet qu’on prenne à bras-le-corps, et même, je suis sûr que plein de gens ne sont pas conscients que pour entraîner ces modèles on a besoin de travailleurs du clic qui vont travailler dans des conditions précaires, même parfois dans les entreprises. Je lisais un article récemment, je ne me souviens plus de l’entreprise américaine, où, justement, on avait des ingénieurs dans la Silicon Valley qui travaillaient, je crois, avec des gens aux Philippines et qui organisaient des learning expeditions aux Philippines pour essayer de créer du contact avec ces travailleurs-là, pour déculpabiliser aussi, d’une certaine façon, ces ingénieurs de la Silicon Valley qui gagnent des centaines de milliers d’euros, alors que leurs homologues philippins, par exemple, touchent des sommes beaucoup plus faibles. Mais, une fois qu’on avait fini ce voyage, on rentrait dans son petit cocon dans la Silicon Valley et on oubliait un peu tout ce qui s’était passé.
Comment expliques-tu le fait que cette question-là soit finalement très peu présente dans le débat ? Est-ce que c’est lié à quelque chose de structurel ou est-ce qu’il y a une volonté un peu délibérée des entreprises de ne pas trop en parler parce que forcément, en termes d’image, ça peut être un peu négatif et ça amènerait peut-être aussi à questionner les promesses d’une IA générale de tout automatiser, si on se rendait vraiment compte de la façon dont c’est fait, et peut-être que, en fait, ça ne donnerait pas si envie que ça ? Si on dit qu’on a des travailleurs du clic qui se retrouvent à travailler comme au 19e siècle, en termes de progrès, on fait mieux.
Thomas le Bonniec : Oui, c’est les deux. C’est à la fois quelque chose de structurel et c’est à la fois une volonté délibérée de tenter de dissimuler les choses.
Je vais prendre le deuxième point d’abord, parce que, même si c’est important, ça me semble moins important que le premier.
Il y a effectivement à la fois des enjeux publicitaires et commerciaux pour essayer de montrer, et c’est quelque chose qu’on retrouve plus largement dans le domaine du numérique, que l’IA est quelque chose d’intangible, quelque chose d’immatériel, il y a aussi beaucoup de technosolutionnisme, c’est aussi ça l’idée. Quand on écoute Sundar Pichai, le PDG de Google, ou bien celui d’OpenAI, ou bien Elon Musk ou bien Mark Zuckerberg, ils ont tous l’air de penser qu’avec plus de numérique, plus d’outils que eux développent dans ce système économique duquel ils profitent bien plus que les autres, ils réussiront à apporter des solutions qui seront bonnes pour l’humanité entière. Ça c’est du technosolutionnisme.
Quand on est dans cette idéologie, qu’on a sauté à pieds joints dedans et qu’on s’en est imbibé, à ce moment-là on se dit même des choses, et c’est ce que décrivent Émile Torres et Timnit Gebru dans leur article « L’idéologie TESCREAL » eh bien, à ce moment-là, on cesse de penser à ce qui se passe à l’heure actuelle, et on commence à réfléchir en millions d’années. On se dit que pour le bien de l’humanité du futur, alors il ne faut que rien ne les empêche de poursuivre dans leur voie. D’ailleurs, c’est aussi ce qu’a dit Elon Musk avec ses deux saluts nazis, au moment de l’intronisation de Donald Trump, il a dit : « Vous avez sauvé le futur de l’humanité », c’est ce qu’il a dit juste avant quand on regarde cette vidéo qui a été largement repartagée. Il disait que, pour lui, c’était une affaire existentielle ; l’élection de Donald Trump permettait de sauver ce futur fantasmé avec des milliards d’êtres humains qui vont coloniser l’espace, avec des êtres humains qui vont être dématérialisés à leur tour parce qu’on va créer des consciences humaines dans des systèmes complexes, numérisées en fait, donc, pour le bien de ces milliards de milliards de consciences humaines à venir dans des milliers d’années, il est absolument essentiel de laisser tomber tout le reste, donc la lutte contre le réchauffement climatique, les inégalités sociales, on se fiche de tout cela. La priorité absolue dans ce contexte, c’est de développer à tout-va ces systèmes d’IA, parce que c’est le premier pas vers une IA générale qui serait en mesure de résoudre tous les problèmes qu’on connaît à l’heure actuelle. C’est le premier point.
Le deuxième point qui me semble beaucoup plus important et qui relève effectivement de conditions générales de l’organisation économique et politique globale, c’est qu’on est dans un modèle d’échange inégal. C’est Jason Hickel, un économiste qui a écrit en particulier sur ces questions-là, qui en fait, à l’heure actuelle, des conditions qui sont essentielles afin de créer ces modèles d’IA.
Jusqu’à présent, on a parlé un peu du travail, mais quelque chose dont on ne peut pas se passer non plus, ce sont les ressources minérales et les ressources minérales et, pareil, c’est un domaine dans lequel l’exploitation est très présente. Ce sont des travailleurs du Sud global qui sont en train de creuser pour sortir du nickel, du cobalt et des matières premières essentielles qui vont ensuite être transformées et, en fin de circuit, vont servir à créer des ordinateurs, des chips, des cartes graphiques, etc.
C’est la même chose aussi pour le travail d’entraînement des intelligences artificielles. Ce sont les pays du Sud qui fournissent le plus gros contingent de travailleurs. Ça ne veut pas dire que dans les pays du Nord, on ne trouve pas aussi des travailleurs qui sont similairement précarisés, en tout cas, c’est bien une situation d’échange inégal. On pourrait même aller jusqu’à dire, si on veut lui attribuer une connotation négative, que c’est du pillage.
Clément Durand : En préparant l’entretien, j’ai lu un article que tu avais partagé du Guardian qui parlait de travailleurs kényans qui avaient été modérateurs pour Meta, qui avaient fait une action en justice, si je ne dis pas de bêtises, qui souffraient de stress post-traumatique, un syndrome qu’on retrouve en général plutôt chez des soldats, des personnes victimes de guerre ou d’actes terroristes. Comment explique-t-on que des travailleurs du clic, des gens qui sont, si je caricature, assis derrière un bureau à travailler sur un ordinateur, peuvent souffrir de ce type de pathologie ? Et, si on élargit un peu le spectre, plus globalement quelles sont les conséquences qu’on observe de ces modèles de travail sur les individus ou sur les communautés, en fait, dans lesquels ils évoluent ?
Thomas le Bonniec : C’est difficile de répondre en un seul coup, parce que ça représente quand même une force de travail qui est majeure. Ce sont beaucoup de gens.
Pour le cas des travailleurs kényans, c’était quand même un cas d’exploitation vraiment très poussé.
le boulot des modérateurs de contenu pour Samasource au Kenya consistait à modérer ce que Facebook appelle des marchés, des zones géographiques parfois très larges, donc ils étaient très peu nombreux. Parmi les choses qu’on peut reprocher à Facebook, c’est que pendant longtemps, et même à l’heure actuelle, ils n’ont pas embauché ou embauché très peu de personnes pour gérer et modérer les contenus d’un grand nombre de pays qu’ils considéraient pouvoir ignorer. Il y a donc des modérateurs de contenu pour les États-Unis ou pour le l’anglais. D’ailleurs, on a des modérateurs de contenu pour l’Europe, par exemple la France, parce que, à ce moment-là, ce sont où il y a des régulateurs et c’est aussi une question de réputation. Par contre pour l’Afrique, ils s’en fichaient.
Donc, ce sont des travailleurs qui se retrouvent à gérer des dizaines de millions de personnes alors qu’ils ne sont pas assez nombreux. Leur travail, toute la journée, c’était de voir des images, des vidéos, des contenus violents, extrêmement violents, le plus violent qu’on puisse imaginer.
En fait, c’est aussi ça : on a des expériences d’Internet qui sont totalement différentes selon qu’on soit Européen ou Latino-américain par exemple.
Au début de l’histoire de Facebook, il y avait beaucoup moins de modération également. C’était relativement facile, à mon avis, de trouver des images ou des vidéos qui seraient considérées comme inacceptables selon les conditions d’utilisation de Facebook, je parle de la France ou de l’Europe. Il y a des pays où c’est encore le cas à l’heure actuelle. Loin de moi l’envie de faire des descriptions très graphiques du contenu de ce travail, mais il faut bien avoir à l’esprit que c’était gore, extrêmement gore, ce sont des choses qui sont difficiles à regarder ne serait-ce qu’une fois, et leur travail consistait à traiter des centaines de requêtes par jour.
J’en ai interviewé. Il y en a qui m’ont décrit, en personne, des contenus extrêmement violents et qui m’ont décrit aussi les effets que ça avait sur leur psyché. Ça veut dire que ce sont des gens qui se retrouvent à faire des cauchemars, à faire des insomnies, qui se retrouvent à commencer à boire, à développer des addictions pour essayer de cesser de voir ces images, parce que, au bout d’un moment, ça devient trop. Ils racontent des situations vraiment effrayantes. Tout cela est reconnu par la médecine du travail, en France par exemple, ça s’appelle des risques psychosociaux et là, en fait, on est au degré ultime des risques psychosociaux en termes de contenu du travail. Sachant qu’en plus il y avait un défaut absolu d’accompagnement de la parole par leur employeur, qui n’avait pas consacré les moyens nécessaires au fait d’embaucher ne serait-ce qu’un psychologue, un vrai.
Donc cette situation-là, c’est un cas topique, c’est un cas exemplaire qui nous donne une idée de la mesure de l’exploitation nécessaire à développer des systèmes d’IA telles qu’on les connaît à l’heure actuelle.
31’ 44[modifier]
Clément Durand : Pour continuer sur Meta, parce que dans l’actualité très chaude, Mark Zuckerberg a annoncé la fin, en tout cas en grande partie, de la modération sur ses plateformes, de la mise en place de notes de communauté, sachant qu’ils emploient entre 20 et 30 000 personnes. Au regard de ton expérience, à ton avis, qu’est-ce que ça peut changer, qu’est-ce que ça va changer en termes d’interaction sur les plateformes ? J’ai l’impression d’avoir compris qu’ils ont gardé des équipes de modération sur les contenus graphiques, mais qu’ils ont décidé de déplacer vers le Texas, où on aurait des personnes moins soumises à une idéologie particulière. Finalement, de ce que je comprends, c’est que nous, en tant qu’Européens, on le disait, on a une expérience d’Internet qui est très différent parce que, en amont, on a des personnes qui ont filtré les contenus auquel on va être exposés. La question que j’allais te poser : si on supprime tout ou partie de ces personnes qui filtrent les contenus, qu’est-ce que ça change de notre expérience d’internet ?
Thomas le Bonniec : En fait, l’annonce de Zuckerberg ce n’est pas exactement ça, il ne dit pas qu’il va se débarrasser de la modération, il dit qu’il va se débarrasser du fact-checking. Le fact-checking, pour ce que j’en ai compris, ce sont des accords avec des agences de presse, donc ce qu’auraient Libération, Le Figaro, Le Monde en collaboration avec Facebook qui mettraient des sortes de corrections. Apparemment, cela ne marche pas très, ce n’est pas exactement la même chose que la modération du contenu, comme le fait de supprimer tous les contenus violents. Première chose.
Deuxième chose, cette annonce ne s’applique qu’aux États-Unis, parce que le Brésil a immédiatement réagi, y compris par la voix de du président brésilien, et le Brésil a déjà réussi à tordre la main à Elon Musk l’année dernière, il me semble que c’était à peu près sur le même sujet par rapport à la modération sur X, sur Twitter.
Là, c’est un effet d’annonce et ça veut dire que Facebook est en train de modifier ses priorités au sens où, désormais, il y a des choses qui vont être considérées comme acceptables et qui ne l’étaient pas auparavant. En gros, ça revient à dire que Zuckerberg a fini sa mue, peut-être même qu’il a décidé qu’il allait arrêter de se cacher et que maintenant, il allait embrasser ouvertement une idéologie réactionnaire et violente, transphobe, éventuellement aussi homophobe ; ce genre de chose devient maintenant des choses qui sont acceptables.
Ça modifie effectivement notre expérience, ça modifie l’expérience des utilisateurs de Facebook, parce que ça voudra dire que, maintenant, ils verront des choses qui auparavant étaient considérées comme inacceptables, mais ne sont plus rangées dans ces catégories-là. Ça ne veut pas dire que la modération disparaît. Ça veut dire que les catégories de ce qui est acceptable et de ce qui ne l’est pas sont modifiées par Facebook, par la plateforme Et en fait, ce que je trouve acceptable et ce que je ne trouve pas acceptable, c’est quelque chose d’éminemment politique.
Par ailleurs, un article qui est sorti dans 404 Media rapporte que des travailleurs de chez Facebook, parce qu’il y a évidemment parmi eux des membres de la communauté LGBT, sont très déçus et qui le font savoir en interne. Par contre, ça c’est modéré, ça c’est censuré ; en interne, les critiques sont modérées, censurées. Ça ne signale pas du tout la disparition de la modération chez Facebook, ça signale simplement un tournant conservateur réactionnaire. C’est un appel du pied de Zuckerberg pour dire à la nouvelle administration américaine qu’il est de son côté.
Clément Durand : Tu as évoqué, en te présentant, que tu avais été travailleur du clic, tu as notamment joué un rôle dans la révélation de certaines pratiques d’Apple, qui enregistrait les conversations qui étaient captées via Siri, l’assistant vocal. Récemment, Apple a signé un accord de 95 millions de dollars pour mettre fin à une action judiciaire, sans pour autant reconnaître qu’ils avaient mal agi, fait des choses condamnables. Peux-tu revenir un petit peu sur cette affaire et peut-être les enseignements que tu en tires sur les pratiques des grandes entreprises technologiques, on peut parler d’Apple, mais il y en nécessairement d’autres, en termes de traitement des données personnelles et de respect des réglementations, je pense notamment au RGPD ?
Thomas le Bonniec : Lorsque ces révélations sont faites par la presse, on est en 2019, c’était il y a déjà plusieurs années. À ce moment-là, j’ai effectivement travaillé un certain temps pour un sous-traitant d’Apple en Irlande. Je faisais partie de ce contingent de personnes, nombreuses, un contingent assez large en Irlande et dans d’autres pays d’Europe, qui écoutait des enregistrements captés par l’assistant vocal et les gens n’étaient pas au courant. De manière très concrète, à ce moment-là, on se rend compte que ça ressemble quand même à un système de surveillance de masse comme pourrait le mettre en place une agence de renseignement très peu scrupuleuse. Après, que ce soit à des fins relativement différentes ou à des fins commerciales, éventuellement, c’est de la spéculation, on ne sait pas exactement, ou bien simplement, comme ils l’affirment, juste pour améliorer la qualité de l’assistant vocal, ce qui est une tautologie en soi : on ne roule pas pour rouler.
En tout cas, en termes de pratique, à ce moment-là, il y a des questions fondamentales qui se posent en termes de protection de données à caractère personnel, de protection de la vie privée, de degré de conscience des personnes vis-à-vis des situations dans lesquelles elles se retrouvent. En gros on peut ranger tout ça sous la grande catégorie du capitalisme de surveillance. Ces données collectées représentent un gain, ça présente une valeur potentiellement importante pour les entreprises qui les captent. Elles se rendent compte, lorsqu’elles installent un micro et un assistant vocal, qu’enregistrer les gens et mieux capter ce qui est dit par la voix, ça représente une source, ça représente un matériau de bien meilleure qualité que ce que, par exemple, on tape sur son téléphone, ce que peuvent collecter des cookies, ou ce genre de chose, parce qu’il y a moins d’intermédiaires numériques encore, eh bien, elles vont en profiter.
C’est aussi le cas d’Amazon, c’est aussi une carte Google, Microsoft, ils ont tous été pris la main dans le sac au même moment. Donc très clairement, pour moi, il n’y a aucun doute sur le fait que ce sont des violations du RGPD, même probablement du droit pénal, du droit national. Je ne sais pas dans quel pays le fait d’enregistrer les gens à leur insu, sans qu’on soit de la police, mandaté par un juge, est considéré comme légal.
Ça témoigne d’une absence d’intérêt total de la part de l’Union européenne pour ces questions-là.
Si on ne souhaite pas faire appliquer la régulation, si on ne souhaite pas faire appliquer le droit européen, quelle qu’en soit la raison, à ce moment-là, on n’est pas soumis au droit européen, on est soumis à une autre forme de droit, peut-être même qu’on pourrait argumenter que c’est soit le droit américain soit le droit de ces plateformes-là qui s’arrogent donc le rôle de législateur en pratique, de ce qui est acceptable ou non en termes de collecte et de traitement des données.
Ce cas-là est symptomatique de tout un tas d’autres. Il faut faire le lien, d’un côté, avec des révélations d’Edward Snowden en 2013, qui disait déjà, à l’époque que le programme PRISM, qui était l’un des programmes phares de l’Agence de surveillance dont il était membre, pour laquelle il travaillait chez un sous-traitant, la NSA [National Security Agency], en fait la NSA collectait via PRISM des données de tous les acteurs majeurs d’Internet, ça concernait également Apple, YouTube, Google, etc.
Il y a tout à parier que ces accès continuent d’être présents, possibles, faisables. C’est aussi la raison pour laquelle Max Schrems, l’avocat autrichien, a réussi à faire tomber deux fois les accords de transfert de données entre l’Union européenne et les États-Unis, précisément parce qu’il y a un risque inacceptable en termes de traitement des données à caractère personnel des citoyens européens, puisque ces données personnelles peuvent être récupérées à tout moment par des agences de renseignement américain, et pas des gens à haut profil, c’est tout le monde.
C’est le premier rapprochement à faire, et le deuxième, c’est qu’on a constamment des affaires comme ça, il y a tout le temps des histoires qui sortent sur la manière dont les données des personnes sont collectées sans leur consentement. Ça peut être, par exemple, les caméras installées sur les véhicules Tesla. Des travailleurs, des employés de la société repèrent des vidéos qui les intéressent et se les partagent en interne, des vidéos à caractère intime, des gens qui mettent nus à côté de leur voiture ou ce genre de chose, qui ne savent pas que ces caméras sont susceptibles de les enregistrer à tout moment, que ces enregistrements peuvent être récupérés et, ensuite, puissent disparaître dans la nature. Amazon fait la même chose avec les caméras Ring, un truc qui est très développé aux États-Unis. C’est une caméra qu’on installe au portillon pour voir qui est en train de sonner à la porte. Ils en ont même fait un programme télé à un moment. Amazon s’est dit que c’était marrant, que c’était une bonne idée de créer un programme qui compilait les meilleures vidéos, les plus drôles d’Amazon Ring, d’ailleurs, on en trouve en quantité sur Internet. Ça peut être parce que ça a été publié par le propriétaire de la maison, mais, en même temps, Amazon s’arroge le droit de collecter ces vidéos à tout moment. Moi je n’ai pas donné mon consentement pour ce genre de chose et quand je vois, en passant dans la rue, qu’il y a des caméras de ce style-là qui sont installés aux portes des maisons, je trouve ça inquiétant.
Clément Durand : Pour continuer sur cette question de la réglementation, tu as publié récemment un article où, justement, tu soulignais le rôle crucial, hyper-important du RGPD dans la production et le déploiement des systèmes d’IA au sein de l’Union européenne. Est-ce que tu pourrais préciser un peu ce rôle, en tout cas comment tu vois les choses ? Et peut-être faire un parallèle sur la façon dont ça se complète éventuellement avec la nouvelle réglementation, l’AI Act.
43’ 28[modifier]
Thomas le Bonniec : Le règlement sur l’IA précise justement qu’il ne remplace en aucun cas le RGPD. Les obligations relatives au RGPD continuent de s’appliquer. Il y a aussi un rôle qui est attribué, de base, aux agences de protection des données sur le contrôle de certains modèles d’IA, je ne sais plus exactement lesquels. En fait, ça revient à dire que le RGPD continue de s’appliquer. Puisqu’on est en train de parler de systèmes d’IA qui nécessitent souvent des données à caractère personnel, en tout cas pour ceux qui ont besoin de données à caractère personnel, le RGPD s’applique, il n’y a pas de question là-dessus. À mon avis, le Règlement général sur la protection des données est un excellent outil pour aborder ces questions-là du point de vue de la régulation.
Ce que j’avais écrit dans cet article de recherche consiste à dire que la régulation, ça n’est pas juste la loi, ça n’est pas ce que dit un texte de loi, c’est la manière dont les personnes concernées s’en saisissent. Une réglementation de ce style-là cartographie, en quelque sorte, une activité économique. Elle dit ce qu’on a le droit de faire, ce qu’on n’a pas le droit de faire, elle met des bornes. Elle dit « dans ce cadre-là vous avez le droit, par exemple, de collecter des données à caractère personnel, et voilà l’usage que vous avez le droit d’en faire, voilà l’usage commercial ». Mais la régulation, en fait, c’est la manière dont le mode de production se fait dans la réalité, c’est-à-dire que c’est le compromis entre les institutions, les acteurs qui participent à ce mode de production. Ça veut dire que, en réalité, la régulation, ce sont les entreprises qui la font en partie en plus des agences chargées de l’application de cette réglementation.
Ce que je dis, c’est qu’il y a deux acteurs fondamentaux qui sont laissés de côté, beaucoup trop laissés de côté, qui sont les travailleurs, notamment les travailleurs des plateformes et d’entraînement des modèles d’IA et les consommateurs, les usagers. Ce sont deux grands groupes qui sont absolument fondamentaux, à la fois parce qu’ils produisent du travail et des données personnelles, et puis aussi parce qu’ils sont souvent victimes d’agissements qui sont contraires à ce que dit la loi. Il serait donc temps, pour eux, qu’ils puissent s’organiser de manière à avoir une influence, à peser aussi à leur tour dans la régulation et on en a quelques exemples. On a des travailleurs pour Uber, des chauffeurs, qui ont porté plainte auprès de la CNIL, qui a ensuite transmis ça à l’Agence néerlandaise de protection des données. Ils ont exercé leur droit d’accès parce que, parmi les choses qu’ils voulaient comprendre, c’était pourquoi deux chauffeurs ayant la même course sont payés différemment, par exemple, ce genre de choses, donc c’est à ce moment-là qu’ils exercent leur droit d’accès. Très concrètement, le droit d’accès, ça veut dire « je demande à une application ou à un service que j’utilise de me transmettre toutes les données relatives à moi, ce genre de chose ». Uber ne s’étant pas exécutée s’est pris deux amendes l’année dernière, une à la fin de l’année, il me semble aussi. Une pour non-respect du droit d’accès, puisque les informations fournies aux chauffeurs étaient bateaux, c’était très loin du compte et la deuxième pour un transfert indu de données vers un pays tiers qui n’avait pas les garanties nécessaires du point de vue du RGPD.
C’est un exemple concret. Il y en a d’autres, il devrait y en avoir plus, il devrait, c’est ce que j’argumente, un début de coordination entre, par exemple, les organisations de défense des droits des consommateurs et les syndicats ou les organisations représentant les travailleurs du clic, comme d’ailleurs c’est le cas au Kenya. Désormais les ex-travailleurs, les ex-modérateurs de contenu qui étaient au Kenya, qui étaient exploités, ont commencé à s’organiser, à créer aussi leur propre syndicat, mais c’est une nouveauté dans cet univers-là.
Clément Durand : J’ai une question un peu plus macro. On entend quand même pas mal parler de l’impact environnemental du numérique et des systèmes d’IA, en tout cas c’est un sujet qui est sur la table, moins de celui de l’impact social, on va dire, et de la question de la captation des données personnelles. C’est juste moi qui parle, mais j’ai l’impression d’entendre une petite musique quand même assez régulièrement de « si vous n’avez rien à cacher, il n’y a pas de problème pour qu’on capte vos données personnelles et puis, c’est pour votre bien, on va améliorer les services, vous inquiétez pas, on ne fait rien de toutes ces données. ». Comment pourrait-on mieux sensibiliser à la fois le public dont tu parlais – les consommateurs, les travailleurs – les décideurs et les entreprises, pas forcément celles qui produisent ces technologies, mais celles qui les utilisent, parce qu’il y a quand même dans ces entreprises des personnes qui auraient envie, peut-être, de faire différemment ? Comment peut-on mieux sensibiliser à ces enjeux, à la fois sur la question environnementale, sur la question des données personnelles, sur la question de l’impact social de la production de ces systèmes d’IA et, peut-être, quels seraient les leviers d’action pour faire un petit peu bouger les choses ?
Thomas le Bonniec : Comme réaction à des gens qui disent « je n’ai rien à cacher », j’ai envie de dire « si vous n’avez rien à cacher, montrez-moi le contenu de vos poches et montrez-moi toutes vos conversations, tous vos SMS. Vous n’avez rien à cacher, ne me cachez rien ! À la limite, mettez-vous nu devant moi si c’est vraiment ce dont vous avez envie. » On a forcément des choses qu’on n’a pas envie de partager. C’est le premier élément.
Le deuxième, c’est que même des personnes qui sont très informées n’ont qu’une idée parcellaire, en fait, de la totalité des données qui sont collectées et de leur intérêt.
Le troisième élément, c’est que la protection des données et la vie privée, c’est quelque chose d’absolument essentiel et que les gens qui sont les plus susceptibles de subir des abus notamment de la part d’un État ou d’une entreprise le savent mieux que les autres. Lorsqu’on est dans une situation de travail où le patron est susceptible de nous vouloir du mal, alors à ce moment-là, on sait qu’on a intérêt à ne pas lui donner les armes dont il pourrait avoir besoin pour nous faire du tort. Même chose dans tout un tas d’autres situations.
Donc, ça, c’est faux. On a forcément des choses à cacher, parce qu’on a forcément un cercle d’intimité dans lequel on ne veut pas que tout le monde s’immisce. C’est absolument essentiel, donc, effectivement, il y a un travail monumental à faire pour contrer le discours de la part des GAFAM, parce que c’est cela aussi. Apple se met en scène pour dire qu’il protège la vie privée des gens. C’est essayer de présenter la chose comme étant plus confortable, plus facile, plus tout un tas de choses. Ça veut aussi dire que ça crée une dépendance à des outils numériques dans lesquels on se retrouve enfermé. Ça nous rend illettrés, d’un certain point de vue, ça nous rend analphabètes par rapport aux outils dont on se sert. On ne comprend pas ce qu’est Zoom, ne comprend pas ce qu’est Microsoft Teams, on ne comprend pas ce qu’est Chrome, on comprend pas ce qu’est que Microsoft. Tout est fait pour dissimuler ou pour empêcher les gens d’avoir un minimum de contrôle sur les outils qu’ils ont achetés et c’est aussi ça qui est un peu hallucinant. On paye deux fois tous les outils numériques dont on sert : on les paye avec de l’argent et, ensuite, on continue de les payer avec des données. On paye une application deux fois aussi, avec des données et avec de l’argent.
Je ne suis pas certain qu’il y ait un remède immédiat, facile. Je vais quand même dire ceci. Je suis inquiet pour l’avenir et je ne suis pas du tout convaincu que le numérique puisse continuer dans sa trajectoire actuelle, que les entreprises et l’économie du numérique puissent poursuivre dans leur trajectoire actuelle parce que ça consomme une énergie monstrueuse. On est déjà en train d’assister à des luttes politiques, pour savoir, par exemple, en Irlande et aux Pays-Bas, à qui attribuer les ressources en électricité : est-ce que ça va être à des datacenters ou est-ce que ça va être pour assurer les nécessités des foyers qui sont dans la même ville ? Microsoft a aussi annoncé la création d’une centrale à charbon ou à gaz, je ne sais plus, pareil, en Irlande. Microsoft, Google et les autres sont en train d’exploser complètement les objectifs climat qu’ils s’étaient fixés parce qu’ils se disent qu’il faut absolument foncer dans cette lutte. Et avec l’arrivée de Donald Trump, c’est la même chose. Donc, je ne suis pas convaincu qu’ils continueront d’avoir les moyens de leurs ambitions d’un point de vue environnemental, parce que ça représente une gabegie d’électricité, d’eau et de ressources et, à un moment ou à un autre, les ressources étant finies, étant donné l’avenir à court et moyen terme qui nous attend, je ne suis pas convaincu qu’ils puissent continuer de consommer autant d’énergie, d’électricité qu’ils le souhaitent.
Clément Durand : Une dernière question pour clôturer cet entretien. Si tu avais des propositions, deux/trois grandes pistes d’action, justement pour, peut-être, se réapproprier un peu plus ces technologies, mieux comprendre comment ça fonctionne et mieux prendre en compte tous ces enjeux qui sont multiples dans les développements de l’IA et des technologies numériques, peut-être d’un point de vue français ou européen. Quels seraient, selon toi, les deux/trois grands axes sur lesquels on pourrait avoir un levier d’action ou une capacité à faire un peu bouger les choses ?
Thomas le Bonniec : Je dirais qu’à l’échelle individuelle, c’est dans notre intérêt, par exemple c’est dans mon intérêt, de me passer au maximum de Google, Microsoft, Facebook. Je sais que c’est très difficile. Si on peut se passer d’un smartphone, on s’en passe quoi ! Si on peut transférer ses données et utiliser un fournisseur de service qui soit en open source et qui sache minimiser l’impact environnemental, par exemple, c’est bien. Il faut passer par Framasoft, il faut utiliser Linux, ce genre de chose. Ça c’est au niveau individus, c’est dans notre intérêt personnel. Moi, en tant qu’individu, c’est mon intérêt de faire ça, de manière très concrète, très immédiate.
À l’échelle plus grande, il y a quelque chose qui s’annonce effectivement à l’horizon avec l’avènement de Donald Trump et avec la manière dont Elon Musk se mêle désormais de politique en Allemagne et au Royaume-Uni. Les discours qu’on entendait sur la souveraineté du numérique vont avoir un poids essentiel, alors que c’était ignoré. En 2022, lorsque Elon Musk a racheté Twitter, ce sont carrément des partis politiques entiers, ce sont réellement des rédactions comme celle du Monde qui annoncent qu’elles quittent Twitter, qu’elles s’en vont, que ce n’est plus possible. Tout d’un coup, on se rend compte maintenant qu’en fait l’Union européenne est totalement sous la coupe des GAFAM, que ce sont des acteurs étrangers, ce sont des acteurs hostiles et que, s’ils le veulent, toute cette structure leur permet d’avoir une influence démesurée sur les affaires européennes.
Il y a longtemps que les acteurs du numérique libre, que les organisations de défense des droits numériques essaient de faire valoir ce sujet aux niveaux nationaux et européens. Mais jusqu’à présent, ce qui est quand même assez hallucinant, c’est que, dans les dix dernières années, je ne sais pas si on peut compter le nombre d’accords qui ont été passés entre Microsoft, Apple, Google et le ministère de l’Éducation français. C’est cela qui s’est passé : des projets pour équiper des départements entiers de tablettes Microsoft ou Apple, pour les donner à des collégiens. À ce moment-là, les collégiens sont éduqués à vivre dans une situation de dépendance numérique. À ma connaissance, le seul service qui a développé son propre système autonome c’est la Gendarmerie. Je crois que les gendarmes sont à peu près les seuls à avoir développé leur propre système d’exploitation à part entière. À ce moment-là, ils ont effectivement un degré d’autonomie que les autres ne connaissent pas.
Je crois bien qu’il y a, à ce niveau-là, quelque chose d’absolument urgent à faire.
En résumé, c’est envisager de faire appliquer la réglementation européenne une bonne fois pour toutes, pour de bon.
La deuxième, c’est commencer à envisager des solutions, des logiciels numériques développés en Europe, idéalement sur le modèle des communs numériques et pas pour créer l’équivalent d’un Google européen, il faudra l’éviter à tout prix.
Et finalement, en fait, minimiser notre utilisation du numérique.
De manière très concrète, par rapport au sujet de l’intelligence artificielle, est-ce qu’on a vraiment besoin de ChatGPT ? Je ne suis pas convaincu. Je ne suis absolument pas convaincu que, pour la plupart des usages qui en sont faits à l’heure actuelle, ce soit vraiment nécessaire. C’est un truc qui crée aussi une forme de dépendance en termes de connaissance. Je sais que ce que je m’apprête à dire va faire un peu boomer, va faire un peu vieux jeu, n’empêche que c’est vrai, c’est quelque chose qui est fondamentalement inquiétant : si je ne m’appuie que sur ChatGPT pour m’apporter des réponses par rapport à des connaissances que je suis censé avoir, par exemple, je suis étudiant en droit et à chaque fois qu’il faut que j’aille chercher une référence de droit dans les textes de droit, je n’utilise que ChatGPT, eh bien ce sont des connaissances que je n’aurai pas. Le jour où le service cesse de fonctionner parce qu’il y a une panne informatique, parce que OpenAI décide de cesser de le mettre à disposition en Europe, c’est gênant ! Ou alors, peut-être qu’il va y avoir ce qu’ils appellent une hallucination, peut-être qu’il y aura une information qui est fausse, et je ne l’aurai pas vérifiée parce que je fais confiance à ce truc-là.
Clément Durand : Merci beaucoup, Thomas, d’avoir répondu à mes questions. J’espère à bientôt.
Thomas le Bonniec : Merci pour l’invitation. C’était un plaisir.
Voix off : L’épisode est maintenant terminé. J’espère qu’il vous a plu. N’hésitez pas à le partager autour de vous et à vous abonner au podcast pour écouter les prochains épisodes.
À bientôt.