Les petites mains derrière les technologies d'intelligence artificielle
Titre : Les petites mains derrière les technologies d'intelligence artificielle !
Intervenants : Thomas le Bonniec - Clément Durand
Lieu : Émission Les dessous de l'IA
Date : 7 février 2025
Durée : 1 h
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Voix off : Bonjour et bienvenue sur Les dessous de l’IA, le podcast qui tente de mieux comprendre les évolutions de l’intelligence artificielle et leur impact sur nos sociétés. Bonne écoute.
Clément Durand : Bonjour, Thomas, et bienvenue sur Les dessous de l’IA.
Aujourd’hui, on va essayer de mieux comprendre le rôle que jouent les humains, notamment les travailleurs du clic, dans l’entraînement et le développement des technologies d’IA.
Pour commencer, est-ce que tu pourrais te présenter, revenir un petit peu sur ton parcours et ce qui t’a amené à t’intéresser à cette question des travailleurs du clic et de leur rôle dans les systèmes d’intelligence artificielle.
Thomas le Bonniec : Oui, bien sûr. Déjà merci pour l’invitation, Clément.
Actuellement, je suis doctorant à l’Institut polytechnique de paris, sous la direction d’Antonio Casilli et de Corinne Vercher-Chaptal, je travaille sur la reconnaissance des travailleurs de l’intelligence artificielle par les agences de protection des données. En fait, j’ai une expérience en tant qu’ancien travailleur du clic. C’est donc de là qu’est parti mon intérêt pour cette question, j’étais un peu de l’autre côté de la barricade au départ, ayant eu une expérience concrète de ce que cela voulait dire. Ayant rencontré les bonnes personnes et aussi avec mon parcours de sociologue, je me suis dit que c’était le sujet le plus intéressant pour faire une thèse par la suite. C’est donc ce que je fais depuis environ un an et demi.
Clément Durand : « Les travailleurs du clic », c’est un terme qu’on entend un petit peu, mais concrètement, qu’est-ce que ça recouvre ? Qui sont ces travailleurs du clic et quel est ce métier ? Je ne sais pas si c’est un métier, en tout cas que recouvre ce rôle de travailleur du clic comme réalité en termes de tâches quotidiennes, etc. ? Est-ce que tu as quelques exemples.
Thomas le Bonniec : De manière concrète, un travailleur du clic, ça peut être, par exemple, un modérateur de contenu pour Facebook, ça peut être quelqu’un qui se crée un compte sur une plateforme de travail, ça peut aussi être un chauffeur Uber. Ce sont des activités qui ne sont effectivement pas nécessairement reconnues comme du travail, ça passe souvent par des intermédiaires qui sont des plateformes et, dans le cas de l’intelligence artificielle, ce sont des personnes qui font de l’annotation de données. Dans le contexte actuel de production de l’intelligence artificielle, notamment pour les LLM, les modèles de langage très larges, par exemple ChatGPT, il faut en fait une partie de travail humain. Dans la boucle, ça correspond à l’acronyme RLHF, Reinforcement Learning from Human Feedback.
Il y a des moments où, par nécessité, il va falloir qu’il y ait des humains qui fassent l’expérience d’un contexte particulier. Par exemple, lorsqu’on parle de ChatGPT, il ne suffit pas de présenter au modèle d’IA une grande quantité de données et ensuite on a le résultat tout prêt. Ça a déjà été expérimenté par le passé et ça a donné des résultats désastreux. Il faut déjà, dans un premier temps, ce que les ingénieurs appellent du fine-tuning, c’est-à-dire de l’ajustement des paramètres, leurs poids relatifs dans le modèle. Ensuite, il y a effectivement cette partie de Reinforcement Learning from Human Feedback.
Antonio Casilli, qui est mon directeur de recherche, a co-publié un article, il y a quelques années, qui est très connu dans le milieu, et qui résume la question en disant qu’il y a trois grands types de rôles pour les travailleurs du clic : il y a l’entraînement, il y a la correction, et puis il y a l’imitation, ce qui ne veut pas dire forcément, que ces rôles soient différents dans le temps.
L’entraînement, c’est dans la phase d’entraînement de l’IA.
La correction, c’est dans la phase de déploiement, une fois que le modèle a déjà été sorti et qu’on se rend compte que, par exemple, dans certains contextes, ChatGPT est en train de dire des choses qui sont inacceptables au vu de l’entreprise qui le produit. C’est un produit commercial, donc ça ne va pas trop lorsque quelqu’un dit « j’ai envie de me suicider », l’IA répond en disant « les dix meilleures méthodes pour se suicider sont les suivantes. » Il faut bien qu’il y ait, à un moment ou à un autre, une supervision humaine pour se rendre compte, premièrement, qu’il y a un problème à tel endroit et, ensuite, que ce n’est pas vraiment ça qu’il faudrait que ça réponde. Donc, de manière concrète, il va y avoir des gens qui vont corriger cette partie.
Clément Durand : J’aimerais bien qu’on s’arrête deux minutes sur l’exemple que tu cites de ces trois rôles, de ces trois moments où il va y avoir une intervention humaine, en continuant peut-être de filer l’exemple de ChatGPT. Justement, du point de vue du travailleur du clic, quelles sont les actions et comment ça se passe pour lui, à la fois dans cette phase d’entraînement, dans la phase de correction et de l’imitation ? Si on devait reprendre l’exemple de ChatGPT et se placer du point de vue de la personne, donc de ce travailleur du clic qui va être amené à faire des actions, comment ça se passe et qu’est-ce qu’il a à faire concrètement, pendant ces trois phrases ?
Thomas le Bonniec : En fait, peut-être que se contenter de parler de ChatGPT n’est pas forcément la meilleure idée, parce que c’est quand même une activité qui est beaucoup plus large que ça. Il y a aussi beaucoup d’analyse visuelle, ça passe aussi par de la segmentation d’image, ça peut parfois servir pour des algorithmes de reconnaissance faciale. Ça peut être aussi pour de l’entraînement de véhicules dit autonomes, ce genre de chose.
Si on prend l’exemple d’un véhicule autonome, les phases d’entraînement et de correction vont se ressembler maintenant parce que, en fait, ça va être des personnes qui vont voir des images, des vidéos issues des caméras qui viennent d’une voiture, dite autonome, en train de circuler sur une route. Et ces personnes vont cliquer, littéralement, elles vont avoir une interface sur laquelle elles vont détourer, par exemple, les personnes, les passages piétons, un certain nombre de choses, et ensuite ils vont les étiqueter, ils vont mettre un mot clé correspondant. Ce travail se répète des millions et des millions de fois afin de présenter suffisamment d’exemples au modèle d’IA, afin qu’il finisse à peu près par comprendre. Et encore, c’est laborieux pour qu’il finisse par comprendre à peu près ce que la voiture est censée faire : là, il y a un piéton, donc il faut ralentir. Ça c’est le travail d’entraînement et de vérification. La vérification, dans ce cas-ci, c’est à peu près la même chose, ce sera donc une vidéo à détourer.
Quant à l’imitation, qui est une activité un peu différente, c’est en fait le moment où il y a des humains qui se font passer pour une IA. C’est un cas assez particulier. Dans ce cas-là, ce qui est constaté régulièrement, c’est que ce sont, par exemple, des entreprises qui ne fabriquent pas de modèle d’IA ou qui n’y sont pas encore, et qui sont pourtant en train de vendre un système, un produit qu’elles disent être automatisé. L’ exemple classique ce sont des travailleurs à Madagascar qui sont en train de regarder des flux vidéos en temps réel de caméras en France, de personnes dans des supermarchés. En fait, à ce moment-là, ce que l’entreprise a vendu à son client, c’est un système automatisé de surveillance qui lui signale lorsque quelqu’un serait en train de faire du vol à la tire. En fait, ce ne sont pas des algorithmes, ce sont des humains qui, lorsqu’ils voient quelque chose de suspect, vont cliquer sur un bouton.
L’idée c’est que si c’est une entreprise qui est authentiquement en train de chercher à créer un modèle d’IA, alors, à ce moment-là, il devrait y avoir une sorte de collecte des données dans ce travail-là. Si ça n’est pas le cas, si c’est une start-up qui n’a pas les moyens d’aller jusque-là, c’est effectivement difficile de dire que c’est autre chose qu’un mensonge.
Donc ce sont les trois grands rôles : le travail d’annotation des données au préalable, avant le déploiement d’un système, la vérification avec des données qui ont été collectées par le système dans son environnement et enfin, l’imitation où ce sont des humains qui se font passer pour des machines.
Clément Durand : L’imitation, c’est un peu ce qu’on avait entendu quand Elon Musk avait présenté ses robots.
Thomas le Bonniec : C’est exactement ça, c’est un assez bon exemple. Elon Musk est coutumier du fait, ce n’est pas le seul. Google avait aussi sorti à un moment, il me semble fin 2023, une vidéo sur Gemini. C’était une vidéo qui était puissamment éditée, qui semblait démontrer que l’ère de l’IA générative multimodale était arrivée et qu’il était possible simplement, comme avec un échange simple avec un assistant vocal, d’avoir un modèle qui vous produise de la vidéo, de l’audio, des photos, qui soit capable de faire des choses hallucinantes, extrêmement impressionnantes, mais, en réalité, il s’est avéré que tout cela n’était qu’un montage. Il y a donc beaucoup d’esbroufe. C’est quelque chose qu’il faut quand même de garder à l’esprit. C’est ce que dit Thibault Prévost dans Les Prophètes de l’IA – Pourquoi la Silicon Valley nous vend l’apocalypse, c’est aussi ce que ce que disait Émile Torres et Timnit Gebru sur l’idéologie TESCREAL. Il faut toujours garder à l’esprit qu’il y a quand même une part de messianique, de fantasme aussi là-dedans. On parle d’intelligence artificielle générale, de modèles qui arrivent à quelque chose qui s’approche de la conscience humaine ! Là, on se rapproche plus de la science-fiction que de la réalité.
Clément Durand : J’imagine qu’il y a quand même beaucoup d’argent en jeu, donc, forcément, c’est important aussi de convaincre des investisseurs, de raconter des histoires qui donnent envie d’y croire.
Thomas le Bonniec : Tout à fait. Je voudrais juste ajouter un truc là-dessus : OpenAI continue de perdre de l’argent à l’heure actuelle, alors qu’à la fin de l’année dernière, à la fin de 2024, ils avaient déclaré qu’ils avaient un revenu, je ne me souviens plus des chiffres exacts, mais il me semble que c’est quelque chose de l’ordre de quatre milliards annuels, quatre milliards de dollars, et des dépenses à hauteur de six milliards de dollars. Et Sam Altman avait déclaré, à ce moment-là, qu’il pourrait augmenter le prix d’accès à ChatGPT version professionnelle, que ça devrait être plus que 200 dollars, qu’il était en train de faire une fleur ou je ne sais quoi. À ce moment-là, ils ont aussi déclaré qu’avec leur modèle économique, suivant leurs projections, ils arriveraient à l’équilibre à l’horizon 2030, il me semble, lorsqu’ils seraient en t rain de générer un chiffre d’affaires de l’ordre de 14 milliards de dollars pour des dépenses qui tourneraient autour de 10 ou 11 milliards. Donc c’est ça, en fait, leur idée, parce ChatGPT a aussi des coûts énormes, des coûts en termes de serveurs, des coûts en termes de puissance de calcul, ça représente des dépenses gigantesques,. Ils sont constamment en train de lever à nouveau des fonds auprès de leurs investisseurs. C’est un gouffre financier à l’heure actuelle.
Clément Durand : J’aimerais bien te poser une autre question justement sur ce rôle de ces travailleurs du clic dans les systèmes d’IA, une question peut-être un peu de naïve : est-ce qu’on vend beaucoup autour de l’IA et de plus en plus aujourd’hui avec l’IA générative, avec cette question de l’automatisation, grâce à l’IA on n’aura plus besoin de travailler, on va pouvoir automatiser un certain nombre de tâches, comme si, finalement, c’était la machine qui allait faire à notre place. Ce que je comprends, dans ce que tu décris, c’est que finalement, certes, on va pouvoir automatiser certaines choses grâce à des algorithmes d’IA, pour autant, pour pouvoir produire et maintenir ces algorithmes d’IA, on a quand même besoin d’humains sur des métiers qui sont peu rémunérés, peu visibles, peu réglementés. Est-ce qu’on peut imaginer, demain, des algorithmes d’IA qui n’auraient pas besoin de ces travailleurs-là pour être entraînés, pour être maintenus, avec d’autres architectures, ou pas du tout ?
13’23
Thomas le Bonniec : C’est une affirmation. Je fais partie des gens qui pensent que non. Après, c’est l’avenir qui va nous le dire. Simplement par la manière dont sont constitués les modèles d’IA à l’heure actuelle, ils ont besoin d’énormément de données, ils ont besoin de toujours en collecter davantage, ce qui pose problème aussi parce que, au bout d’un moment, étant donné qu’on fait de la collecte de données sur Internet, on fait du scraping, on récupère tous les textes, toutes les photos, mais qu’en même temps, il y a de plus en plus de contenus générés par de l’IA, il y a un peu la question de la maladie de la vache folle qui se pose. Est-ce que les modèles d’IA entraînés sur des données d’IA sont toujours performants ? Quelques articles de recherche sont sortis l’année dernière et ont tendance à faire penser que c’est une assez mauvaise nouvelle, qu’il faut des données produites par des humains, pas des données produites par des IA.
C’est la première chose. Il y faut nécessairement beaucoup, de données et il en faut de plus en plus, il en faut constamment, et puis, en plus, il faut mettre à jour tout ça. Par exemple, le vocabulaire des humains évolue, donc il faut en tenir compte. Ça veut donc aussi dire qu’il y a toujours une partie de travail d’actualisation qui nécessite de la mise en forme par des humains. Ce qui était acceptable à un moment ne le devient plus. La connotation d’un mot devient très différente d’un moment à un autre. Avant 2020, lorsqu’on disait « corona », on disait que c’était la bière et maintenant, après la pandémie, corona, c’est le coronavirus. Ça connote des choses différentes et pour tout ça, il continue d’y avoir besoin de travailleurs.
Sur le fait que l’IA automatise des choses. Je pense qu’il faudrait arrêter de dire que l’IA va remplacer des humains. Pour moi, l’IA ne remplace pas le travail humain, elle déplace les travailleurs. En fait, il y a un projet politique derrière qui est quand même assez clair et, là-dessus, peut-être qu’on peut faire le parallèle avec l’ubérisation. C’est le remplacement d’activités salariées, rémunérées, avec un statut, avec un contrat, avec des garanties sociales, dans des pays où il y a des revenus qui sont garantis, donc des « pays du Nord », entre guillemets, l’Europe par exemple, par du travail précaire, extrêmement précaire, mal payé, qui met des gens en situation de dépendance dans d’autres pays du Sud. Pareil, là l’exemple type, c’est Madagascar. Il y a eu, l’année dernière une lutte assez intéressante. La boîte s’appelle Onclusive. Onclusive est une boîte qui fait de la veille stratégique pour le compte d’un certain nombre de clients et Onclusive a été rachetée par un investisseur américain. Ils se sont dit que ce qui serait malin, ce serait d’annoncer qu’il allait faire appel à l’IA au moment d’un plan de licenciement. Le plan de licenciement consistait à virer, je ne sais plus si c’est 40 ou 60 % des effectifs sur 300 personnes réparties pour la plupart en France et dans un ou deux pays du Maghreb. En creusant un petit peu, il s’est avéré que la proposition de solution d’IA d’Onclusive, c’était de passer par une boîte, par un sous-traitant, qui allait employer des gens à Madagascar, mais qui seraient payés beaucoup moins pour faire à peu près la même chose, au moins dans un premier temps, le temps de passer à un modèle d’IA qui permette de remplacer les personnes qualifiées, compétentes, avec beaucoup d’ancienneté chez Onclusive.
C’est donc cela qui se passe. Ça ne revient pas à dire que ça ne marche pas et ça ne sert à rien, ça revient à dire que la manière dont c’est employé à l’heure actuelle cherche à permettre de faire des économies sur le dos des travailleurs. Et vraiment, je dis ça, c’est juste un constat à ce stade, ce n’est même pas une interprétation on va dire politique de la chose, c’est comme ça que ça se passe, et voilà !
Mais on pourrait se dire que, finalement, ce n’est peut-être pas plus mal que des travailleurs de Madagascar ou de Colombie – en Colombie il y a de la modération de contenu pour TikTok – ou au Kenya où il y a des gens qui ont fait de la modération de contenu pour Facebook, fassent ce travail-là, puisque ça permet de faire des transferts de revenus ou je ne sais quoi. Mais ils sont payés très mal, ils se retrouvent dans des conditions de travail qui sont déplorables, avec une dépendance très forte à l’égard de leur employeur et, à ce moment-là, on se retrouve à décrire des situations de travail qui ressemble furieusement à celles du 19e siècle. Il n’y a pas de garantie de travail, par exemple, c’est du travail à la pièce, donc, quand un projet se termine, les gens se retrouvent en larmes, à ne pas savoir s’ils vont réussir à gagner de l’argent pour vivre. Il peut s’avérer que des gens travaillent pendant des heures et des heures comme des forcenés. Lorsqu’on est payé correctement et qu’on est en Union européenne, là ça va, on peut gagner un revenu décent, mais lorsqu’on est dans un pays d’Afrique, dans des pays d’Asie du Sud-Est aussi ou d’Amérique latine, c’est dur parce que ces plateformes et ces entreprises ne se privent absolument pas d’exploiter ces travailleurs en leur proposant des sommes parfois dérisoires, en jouant sur le fait que c’est un marché planétaire. Ça veut dire que les travailleurs du Venezuela, parce qu’ils sont au Venezuela, pas pour autre chose, sont moins bien payés que les autres, ou alors parce qu’on va leur attribuer également un certain nombre d’adjectifs : les travailleurs du Venezuela vont être réputés moins bons que les autres et puis, éventuellement, ça peut mener à des situations où on essentialise même les nationalités.
Clément Durand : Tu as évoqué pas mal de pays où, justement, on externalise ce travail-là, je ne sais pas si c’est le bon terme, qu’on pourrait classer un peu dans le Sud, dans les pays du Sud. En tout cas en préparant cet épisode et de ce je constate, c’est que la question de ces travailleurs est relativement peu visible, peu présente dans les discussions sur l’IA. En tout cas en Occident, je ne constate pas que ce soit un sujet qu’on prenne à bras-le-corps, et même, je suis sûr que plein de gens ne sont pas conscients que pour entraîner ces modèles on a besoin de travailleurs du clic qui vont travailler dans des conditions précaires, même parfois dans les entreprises. Je lisais un article récemment, je ne me souviens plus de l’entreprise américaine, où, justement, on avait des ingénieurs dans la Silicon Valley qui travaillaient, je crois, avec des gens aux Philippines et qui organisaient des learning expeditions aux Philippines pour essayer de créer du contact avec ces travailleurs-là, pour déculpabiliser aussi, d’une certaine façon, ces ingénieurs de la Silicon Valley qui gagnent des centaines de milliers d’euros, alors que leurs homologues philippins, par exemple, touchent des sommes beaucoup plus faibles. Mais, une fois qu’on avait fini ce voyage, on rentrait dans son petit cocon dans la Silicon Valley et on oubliait un peu tout ce qui s’était passé.
Comment expliques-tu le fait que cette question-là soit finalement très peu présente dans le débat ? Est-ce que c’est lié à quelque chose de structurel ou est-ce qu’il y a une volonté un peu délibérée des entreprises de ne pas trop en parler parce que forcément, en termes d’image, ça peut être un peu négatif et ça amènerait peut-être aussi à questionner les promesses d’une IA générale de tout automatiser, si on se rendait vraiment compte de la façon dont c’est fait, et peut-être que, en fait, ça ne donnerait pas si envie que ça ? Si on dit qu’on a des travailleurs du clic qui se retrouvent à travailler comme au 19e siècle, en termes de progrès, on fait mieux.
Thomas le Bonniec : Oui, c’est les deux. C’est à la fois quelque chose de structurel et c’est à la fois une volonté délibérée de tenter de dissimuler les choses.
Je vais prendre le deuxième point d’abord, parce que, même si c’est important, ça me semble moins important que le premier.
Il y a effectivement à la fois des enjeux publicitaires et commerciaux pour essayer de montrer, et c’est quelque chose qu’on retrouve plus largement dans le domaine du numérique, que l’IA est quelque chose d’intangible, quelque chose d’immatériel, il y a aussi beaucoup de technosolutionnisme, c’est aussi ça l’idée. Quand on écoute Sundar Pichai, le PDG de Google, ou bien celui d’OpenAI, ou bien Elon Musk ou bien Mark Zuckerberg, ils ont tous l’air de penser qu’avec plus de numérique, plus d’outils que eux développent dans ce système économique duquel ils profitent bien plus que les autres, ils réussiront à apporter des solutions qui seront bonnes pour l’humanité entière. Ça c’est du technosolutionnisme.
Quand on est dans cette idéologie, qu’on a sauté à pieds joints dedans et qu’on s’en est imbibé, à ce moment-là on se dit même des choses, et c’est ce que décrivent Émile Torres et Timnit Gebru dans leur article « L’idéologie TESCREAL » eh bien, à ce moment-là, on cesse de penser à ce qui se passe à l’heure actuelle, et on commence à réfléchir en millions d’années. On se dit que pour le bien de l’humanité du futur, alors il ne faut que rien ne les empêche de poursuivre dans leur voie. D’ailleurs, c’est aussi ce qu’a dit Elon Musk avec ses deux saluts nazis, au moment de l’intronisation de Donald Trump, il a dit : « Vous avez sauvé le futur de l’humanité », c’est ce qu’il a dit juste avant quand on regarde cette vidéo qui a été largement repartagée. Il disait que, pour lui, c’était une affaire existentielle ; l’élection de Donald Trump permettait de sauver ce futur fantasmé avec des milliards d’êtres humains qui vont coloniser l’espace, avec des êtres humains qui vont être dématérialisés à leur tour parce qu’on va créer des consciences humaines dans des systèmes complexes, numérisées en fait, donc, pour le bien de ces milliards de milliards de consciences humaines à venir dans des milliers d’années, il est absolument essentiel de laisser tomber tout le reste, donc la lutte contre le réchauffement climatique, les inégalités sociales, on se fiche de tout cela. La priorité absolue dans ce contexte, c’est de développer à tout-va ces systèmes d’IA, parce que c’est le premier pas vers une IA générale qui serait en mesure de résoudre tous les problèmes qu’on connaît à l’heure actuelle. C’est le premier point.
Le deuxième point qui me semble beaucoup plus important et qui relève effectivement de conditions générales de l’organisation économique et politique globale, c’est qu’on est dans un modèle d’échange inégal. C’est Jason Hickel, un économiste qui a écrit en particulier sur ces questions-là, qui en fait, à l’heure actuelle, des conditions qui sont essentielles afin de créer ces modèles d’IA.
Jusqu’à présent, on a parlé un peu du travail, mais quelque chose dont on ne peut pas se passer non plus, ce sont les ressources minérales et les ressources minérales et, pareil, c’est un domaine dans lequel l’exploitation est très présente. Ce sont des travailleurs du Sud global qui sont en train de creuser pour sortir du nickel, du cobalt et des matières premières essentielles qui vont ensuite être transformées et, en fin de circuit, vont servir à créer des ordinateurs, des chips, des cartes graphiques, etc.
C’est la même chose aussi pour le travail d’entraînement des intelligences artificielles. Ce sont les pays du Sud qui fournissent le plus gros contingent de travailleurs. Ça ne veut pas dire que dans les pays du Nord, on ne trouve pas aussi des travailleurs qui sont similairement précarisés, en tout cas, c’est bien une situation d’échange inégal. On pourrait même aller jusqu’à dire, si on veut lui attribuer une connotation négative, que c’est du pillage.
Clément Durand : En préparant l’entretien, j’ai lu un article que tu avais partagé du Guardian qui parlait de travailleurs kényans qui avaient été modérateurs pour Meta, qui avaient fait une action en justice, si je ne dis pas de bêtises, qui souffraient de stress post-traumatique, un syndrome qu’on retrouve en général plutôt chez des soldats, des personnes victimes de guerre ou d’actes terroristes. Comment explique-t-on que des travailleurs du clic, des gens qui sont, si je caricature, assis derrière un bureau à travailler sur un ordinateur, peuvent souffrir de ce type de pathologie ? Et, si on élargit un peu le spectre, plus globalement quelles sont les conséquences qu’on observe de ces modèles de travail sur les individus ou sur les communautés, en fait, dans lesquels ils évoluent ?
Thomas le Bonniec : C’est difficile de répondre en un seul coup, parce que ça représente quand même une force de travail qui est majeure. Ce sont beaucoup de gens.
Pour le cas des travailleurs kényans, c’était quand même un cas d’exploitation vraiment très poussé.
le boulot des modérateurs de contenu pour Samasource au Kenya consistait à modérer ce que Facebook appelle des marchés, des zones géographiques parfois très larges, donc ils étaient très peu nombreux. Parmi les choses qu’on peut reprocher à Facebook, c’est que pendant longtemps, et même à l’heure actuelle, ils n’ont pas embauché ou embauché très peu de personnes pour gérer et modérer les contenus d’un grand nombre de pays qu’ils considéraient pouvoir ignorer. Il y a donc des modérateurs de contenu pour les États-Unis ou pour le l’anglais. D’ailleurs, on a des modérateurs de contenu pour l’Europe, par exemple la France, parce que, à ce moment-là, ce sont où il y a des régulateurs et c’est aussi une question de réputation. Par contre pour l’Afrique, ils s’en fichaient.
Donc, ce sont des travailleurs qui se retrouvent à gérer des dizaines de millions de personnes alors qu’ils ne sont pas assez nombreux. Leur travail, toute la journée, c’était de voir des images, des vidéos, des contenus violents, extrêmement violents, le plus violent qu’on puisse imaginer.
En fait, c’est aussi ça : on a des expériences d’Internet qui sont totalement différentes selon qu’on soit Européen ou Latino-américain par exemple.
Au début de l’histoire de Facebook, il y avait beaucoup moins de modération également. C’était relativement facile, à mon avis, de trouver des images ou des vidéos qui seraient considérées comme inacceptables selon les conditions d’utilisation de Facebook, je parle de la France ou de l’Europe. Il y a des pays où c’est encore le cas à l’heure actuelle. Loin de moi l’envie de faire des descriptions très graphiques du contenu de ce travail, mais il faut bien avoir à l’esprit que c’était gore, extrêmement gore, ce sont des choses qui sont difficiles à regarder ne serait-ce qu’une fois, et leur travail consistait à traiter des centaines de requêtes par jour.
J’en ai interviewé. Il y en a qui m’ont décrit, en personne, des contenus extrêmement violents et qui m’ont décrit aussi les effets que ça avait sur leur psyché. Ça veut dire que ce sont des gens qui se retrouvent à faire des cauchemars, à faire des insomnies, qui se retrouvent à commencer à boire, à développer des addictions pour essayer de cesser de voir ces images, parce que, au bout d’un moment, ça devient trop. Ils racontent des situations vraiment effrayantes. Tout cela est reconnu par la médecine du travail, en France par exemple, ça s’appelle des risques psychosociaux et là, en fait, on est au degré ultime des risques psychosociaux en termes de contenu du travail. Sachant qu’en plus il y avait un défaut absolu d’accompagnement de la parole par leur employeur, qui n’avait pas consacré les moyens nécessaires au fait d’embaucher ne serait-ce qu’un psychologue, un vrai.
Donc cette situation-là, c’est un cas topique, c’est un cas exemplaire qui nous donne une idée de la mesure de l’exploitation nécessaire à développer des systèmes d’IA telles qu’on les connaît à l’heure actuelle.
31’ 44
Clément Durand : Pour continuer sur Meta, parce que dans l’actualité très chaude, Mark Zuckerberg a annoncé la fin, en tout cas en grande partie, de la modération sur ses plateformes, de la mise en place de notes de communauté, sachant qu’ils emploient entre 20 et 30 000 personnes. Au regard de ton expérience, à ton avis, qu’est-ce que ça peut changer, qu’est-ce que ça va changer en termes d’interaction sur les plateformes ? J’ai l’impression d’avoir compris qu’ils ont gardé des équipes de modération sur les contenus graphiques, mais qu’ils ont décidé de déplacer vers le Texas, où on aurait des personnes moins soumises à une idéologie particulière. Finalement, de ce que je comprends, c’est que nous, en tant qu’Européens, on le disait, on a une expérience d’Internet qui est très différent parce que, en amont, on a des personnes qui ont filtré les contenus auquel on va être exposés. La question que j’allais te poser : si on supprime tout ou partie de ces personnes qui filtrent les contenus, qu’est-ce que ça change de notre expérience d’internet ?
Thomas le Bonniec : En fait, l’annonce de Zuckerberg ce n’est pas exactement ça, il ne dit pas qu’il va se débarrasser de la modération, il dit qu’il va se débarrasser du fact-checking. Le fact-checking, pour ce que j’en ai compris, ce sont des accords avec des agences de presse, donc ce qu’auraient Libération, Le Figaro, Le Monde en collaboration avec Facebook qui mettraient des sortes de corrections. Apparemment, cela ne marche pas très, ce n’est pas exactement la même chose que la modération du contenu, comme le fait de supprimer tous les contenus violents. Première chose.
Deuxième chose, cette annonce ne s’applique qu’aux États-Unis, parce que le Brésil a immédiatement réagi, y compris par la voix de du président brésilien, et le Brésil a déjà réussi à tordre la main à Elon Musk l’année dernière, il me semble que c’était à peu près sur le même sujet par rapport à la modération sur X, sur Twitter.
Là, c’est un effet d’annonce et ça veut dire que Facebook est en train de modifier ses priorités au sens où, désormais, il y a des choses qui vont être considérées comme acceptables et qui ne l’étaient pas auparavant. En gros, ça revient à dire que Zuckerberg a fini sa mue, peut-être même qu’il a décidé qu’il allait arrêter de se cacher et que maintenant, il allait embrasser ouvertement une idéologie réactionnaire et violente, transphobe, éventuellement aussi homophobe ; ce genre de chose devient maintenant des choses qui sont acceptables.
Ça modifie effectivement notre expérience, ça modifie l’expérience des utilisateurs de Facebook, parce que ça voudra dire que, maintenant, ils verront des choses qui auparavant étaient considérées comme inacceptables, mais ne sont plus rangées dans ces catégories-là. Ça ne veut pas dire que la modération disparaît. Ça veut dire que les catégories de ce qui est acceptable et de ce qui ne l’est pas sont modifiées par Facebook, par la plateforme Et en fait, ce que je trouve acceptable et ce que je ne trouve pas acceptable, c’est quelque chose d’éminemment politique.
Par ailleurs, un article qui est sorti dans 404 Media rapporte que des travailleurs de chez Facebook, parce qu’il y a évidemment parmi eux des membres de la communauté LGBT, sont très déçus et qui le font savoir en interne. Par contre, ça c’est modéré, ça c’est censuré ; en interne, les critiques sont modérées, censurées. Ça ne signale pas du tout la disparition de la modération chez Facebook, ça signale simplement un tournant conservateur réactionnaire. C’est un appel du pied de Zuckerberg pour dire à la nouvelle administration américaine qu’il est de son côté.
Clément Durand : Tu as évoqué, en te présentant, que tu avais été travailleur du clic, tu as notamment joué un rôle dans la révélation de certaines pratiques d’Apple, qui enregistrait les conversations qui étaient captées via Siri, l’assistant vocal. Récemment, Apple a signé un accord de 95 millions de dollars pour mettre fin à une action judiciaire, sans pour autant reconnaître qu’ils avaient mal agi, fait des choses condamnables. Peux-tu revenir un petit peu sur cette affaire et peut-être les enseignements que tu en tires sur les pratiques des grandes entreprises technologiques, on peut parler d’Apple, mais il y en nécessairement d’autres, en termes de traitement des données personnelles et de respect des réglementations, je pense notamment au RGPD ?
Thomas le Bonniec : Lorsque ces révélations sont faites par la presse, on est en 2019, c’était il y a déjà plusieurs années. À ce moment-là, j’ai effectivement travaillé un certain temps pour un sous-traitant d’Apple en Irlande. Je faisais partie de ce contingent de personnes, nombreuses, un contingent assez large en Irlande et dans d’autres pays d’Europe, qui écoutait des enregistrements captés par l’assistant vocal et les gens n’étaient pas au courant. De manière très concrète, à ce moment-là, on se rend compte que ça ressemble quand même à un système de surveillance de masse comme pourrait le mettre en place une agence de renseignement très peu scrupuleuse. Après, que ce soit à des fins relativement différentes ou à des fins commerciales, éventuellement, c’est de la spéculation, on ne sait pas exactement, ou bien simplement, comme ils l’affirment, juste pour améliorer la qualité de l’assistant vocal, ce qui est une tautologie en soi : on ne roule pas pour rouler.
En tout cas, en termes de pratique, à ce moment-là, il y a des questions fondamentales qui se posent en termes de protection de données à caractère personnel, de protection de la vie privée, de degré de conscience des personnes vis-à-vis des situations dans lesquelles elles se retrouvent. En gros on peut ranger tout ça sous la grande catégorie du capitalisme de surveillance. Ces données collectées représentent un gain, ça présente une valeur potentiellement importante pour les entreprises qui les captent. Elles se rendent compte, lorsqu’elles installent un micro et un assistant vocal, qu’enregistrer les gens et mieux capter ce qui est dit par la voix, ça représente une source, ça représente un matériau de bien meilleure qualité que ce que, par exemple, on tape sur son téléphone, ce que peuvent collecter des cookies, ou ce genre de chose, parce qu’il y a moins d’intermédiaires numériques encore, eh bien, elles vont en profiter.
C’est aussi le cas d’Amazon, c’est aussi une carte Google, Microsoft, ils ont tous été pris la main dans le sac au même moment. Donc très clairement, pour moi, il n’y a aucun doute sur le fait que ce sont des violations du RGPD, même probablement du droit pénal, du droit national. Je ne sais pas dans quel pays le fait d’enregistrer les gens à leur insu, sans qu’on soit de la police, mandaté par un juge, est considéré comme légal.
Ça témoigne d’une absence d’intérêt total de la part de l’Union européenne pour ces questions-là.
Si on ne souhaite pas faire appliquer la régulation, si on ne souhaite pas faire appliquer le droit européen, quelle qu’en soit la raison, à ce moment-là, on n’est pas soumis au droit européen, on est soumis à une autre forme de droit, peut-être même qu’on pourrait argumenter que c’est soit le droit américain soit le droit de ces plateformes-là qui s’arrogent donc le rôle de législateur en pratique, de ce qui est acceptable ou non en termes de collecte et de traitement des données.
Ce cas-là est symptomatique de tout un tas d’autres. Il faut faire le lien, d’un côté, avec des révélations d’Edward Snowden en 2013, qui disait déjà, à l’époque que le programme PRISM, qui était l’un des programmes phares de l’Agence de surveillance dont il était membre, pour laquelle il travaillait chez un sous-traitant, la NSA [National Security Agency], en fait la NSA collectait via PRISM des données de tous les acteurs majeurs d’Internet, ça concernait également Apple, YouTube, Google, etc.
Il y a tout à parier que ces accès continuent d’être présents, possibles, faisables. C’est aussi la raison pour laquelle Max Schrems, l’avocat autrichien, a réussi à faire tomber deux fois les accords de transfert de données entre l’Union européenne et les États-Unis, précisément parce qu’il y a un risque inacceptable en termes de traitement des données à caractère personnel des citoyens européens, puisque ces données personnelles peuvent être récupérées à tout moment par des agences de renseignement américain, et pas des gens à haut profil, c’est tout le monde.
C’est le premier rapprochement à faire, et le deuxième, c’est qu’on a constamment des affaires comme ça, il y a tout le temps des histoires qui sortent sur la manière dont les données des personnes sont collectées sans leur consentement. Ça peut être, par exemple, les caméras installées sur les véhicules Tesla. Des travailleurs, des employés de la société repèrent des vidéos qui les intéressent et se les partagent en interne, des vidéos à caractère intime, des gens qui mettent nus à côté de leur voiture ou ce genre de chose, qui ne savent pas que ces caméras sont susceptibles de les enregistrer à tout moment, que ces enregistrements peuvent être récupérés et, ensuite, puissent disparaître dans la nature. Amazon fait la même chose avec les caméras Ring, un truc qui est très développé aux États-Unis. C’est une caméra qu’on installe au portillon pour voir qui est en train de sonner à la porte. Ils en ont même fait un programme télé à un moment. Amazon s’est dit que c’était marrant, que c’était une bonne idée de créer un programme qui compilait les meilleures vidéos, les plus drôles d’Amazon Ring, d’ailleurs, on en trouve en quantité sur Internet. Ça peut être parce que ça a été publié par le propriétaire de la maison, mais, en même temps, Amazon s’arroge le droit de collecter ces vidéos à tout moment. Moi je n’ai pas donné mon consentement pour ce genre de chose et quand je vois, en passant dans la rue, qu’il y a des caméras de ce style-là qui sont installés aux portes des maisons, je trouve ça inquiétant.
Clément Durand : Pour continuer sur cette question de la réglementation, tu as publié récemment un article où, justement, tu soulignais le rôle crucial, hyper-important du RGPD dans la production et le déploiement des systèmes d’IA au sein de l’Union européenne. Est-ce que tu pourrais préciser un peu ce rôle, en tout cas comment tu vois les choses ? Et peut-être faire un parallèle sur la façon dont ça se complète éventuellement avec la nouvelle réglementation, l’AI Act.
43’ 28
Thomas le Bonniec : Le règlement