Différences entre les versions de « Les nouveaux tâcherons du clic »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 74 : Ligne 74 :
 
==12’ 35==
 
==12’ 35==
  
<b>Antonio Casilli : </b>OK
+
<b>Antonio Casilli : </b>OK. Je vais vous raconter, ce n’est pas vraiment une petite anecdote parce que c’est quelque chose qui fait partie de l’une de nos observations participantes et, en plus, qui a fait l’objet d’une publication scientifique, donc ce n’est pas vraiment de l’anecdotique. Avec les étudiants et collègues de mon groupe de recherche, nous avons passé une semaine, en 2022, dans une usine à micro-tâches de Tananarive, à Madagascar. Nous partagions notre quotidien avec 120 personnes qui travaillaient le jour et la nuit pour réaliser de l’intelligence artificielle à la main. Par là, je veux dire que parfois elles passaient des heures et des heures à annoter des images de prompteurs du type Linky, ce n’était pas Linky.
 +
 
 +
<b>France Charruyer : </b>Des fermes à clics.
 +
 
 +
<b>Antonio Casilli : </b>Oui, ce sont presque des fermes à clics, mais, en même temps, c’était quand même du travail de très haut niveau. Souvent, les fermes à clics, ce sont des personnes qui cliquent sans savoir exactement pourquoi, parce qu’elles ont été payées pour devenir des faux fans ou followers sur Instagram, c’est un cas classique. Ces personnes-là devaient quand même y mettre beaucoup d’intelligence humaine, donc, dans cette intelligence artificielle, il y avait beaucoup d’intelligence non artificielle.<br/>
 +
Le cas particulier était que l’une des applications qu’ils développaient concernait une entreprise européenne qui produisait des caméras de surveillance intelligentes, je souligne le côté « intelligentes », parce que l’intelligence, encore une fois, n’était pas si artificielle que ça. Que font ces caméras ? Elles sont déployées dans des supermarchés, mais elles pourraient très bien être utilisées pour faire de la reconnaissance faciale pendant les JO. Ces caméras, déployées dans des supermarchés européens, détectent si quelqu’un est en train de voler un bout de chocolat ou des pâtes, peu importe, donc, elles sont capables non seulement de détecter les êtres humains, mais aussi de détecter le geste illicite. Face à ça, elles envoient un message, donc un SMS automatique aux caissiers ou aux agents sécurité. J’ai beaucoup insisté sur « intelligence automatique ». Maintenant, oubliez ces adjectifs-là parce que la réalité est que dans le garage et dans le grenier de cette maisonnette de la périphérie de Tananarive, il y avait des équipes de 30/60 personnes qui, en temps réel, étaient en train de vérifier si quelqu’un était en train de voler du chocolat ou des pâtes. Elles faisaient semblant d’être un automate, un système automatique, en envoyant un texto, en plus un texto standard, aux caissiers en disant « à tel endroit, quelqu’un qui a volé du chocolat. »
 +
 
 +
<b>France Charruyer : </b>Ça manque de transparence.
 +
 
 +
<b>Antonio Casilli : </b>Ça manque de transparence, c’est certain, mais ça ne manque pas d’intelligence et elle ne se situe pas là où on la soupçonnerait. Ce n’est pas l’intelligence des algorithmes, c’est l’intelligence de ces personnes-là qui doivent vraiment apprendre à reconnaître des gestes, des comportements, des endroits qui ne sont pas forcément les leurs.
 +
 
 +
<b>France Charruyer : </b>Ce n’est pas inné !
 +
 
 +
<b>Antonio Casilli : </b>Si vous êtes un travailleur malgache ou un travailleur kényan, ce n’est pas certain que vous que vous sachiez exactement comment les choses se passent dans tous les autres pays du monde.<br/>
 +
Autre exemple très terre à terre : les gens qui sont payés pour faire de la détection automatique de plateaux repas dans les cantines. Si vous êtes, que sais-je, un travailleur au Bangladesh, vous ne savez pas, par exemple, qu’en France, dans les cantines françaises en correspondance de certaines fêtes commandées, par exemple la fête de Noël, la forme des assiettes change parce qu’on met des assiettes spéciales Noël, et là, vous vous perdez vos repères. En plus, vous ne savez pas ce qu’il y a dans ces assiettes-là. Les systèmes alimentaires, dans plusieurs pays d’Afrique ou d’Asie, ne correspondent pas du tout aux trucs qu’on bouffe ici en France.
 +
 
 +
<b>France Charruyer : </b>L’engagement sociétal de ces multiples multinationales algorithmiques qui engrangent des milliards et des milliards de bénéfices et qui s’engagent dans une course folle à celui qui aura la plus grosse IA, du moins celle qui est présumée la plus performante, du moins avec une puissance de calcul phénoménale, elles sont en train de nous masquer l’essentiel.
 +
 
 +
<b>Antonio Casilli : </b>Elles sont en train de nous masquer le fait que ce travail-là est un travail incontournable, vous ne pouvez pas vous passer de ce travail-là. On l’appelle parfois <em>the Human-in-the-loop</em>, en anglais ça veut dire « l’être humain dans la boucle ».
 +
 
 +
<b>France Charruyer : </b>Et c’est la même chose pour les contenus, finalement le droit d’auteur. Là, n’a-ton pas une injonction et un devoir de s’intéresser à la juste répartition de la valeur, qu’il s’agisse du travail ou des contenus ?
 +
 
 +
<b>Antonio Casilli : </b>Pour les contenus, l’avantage est quand même que vous savez déjà où sont les contenus, qui les a produits et que, d’un certain point de vue, le droit d’auteur permet de mieux protéger ces personnes que face à une population entièrement invisibilisée.
 +
 
 +
<b>France Charruyer : </b>Je pense qu’on en arrive à une invisibilisation également de ceux qui vont revendiquer des droits d’auteur, parce que c’est très difficile, en pratique, d’exercer en <em>opt-out</em>. Il y a des organismes, des organisations, on va en parler, on essaie, sur la nouvelle directive, de mettre en place une gestion collective des droits. Mais pour ceux qui nous intéressent, les précarisés, les invisibles, les tâcherons du clic, quelles sont les solutions que l’on a pour s’en occuper enfin et introduire un peu de justice sociale dans tout cela ?
 +
 
 +
<b>Antonio Casilli : </b>Parlons d’abord de transparence, vous avez évoqué le mot à plusieurs reprises. Il faudrait effectivement avoir une injonction d’une transparence plus importante pour les entreprises, ce qui pose un problème. Pour ces entreprises, la transparence signifie, d’une part, dévoiler non pas le secret industriel mais, à la limite et d’une manière un peu crue, les Anglais disent « comment on produit la saucisse, qu’est-ce qu’on met dans la saucisse comme ingrédients ».
 +
 
 +
<b>France Charruyer : </b>Pour cela il y a des obligations, mais on s’intéresse à la transparence de l’algorithme mais pas à la transparence et ceux qui y participent.
 +
 
 +
<b>Antonio Casilli : </b>Très vite, on se heurte à un problème avec ces obligations qui est qu’elles s’inscrivent dans des très longues chaînes de sous-traitance. Si j’ai des obligations en termes de transparence dans ce que je fais, si je suis, par exemple, une entreprise du CAC 40, je peux vous raconter ce que je fais à Toulouse ou à Paris et être très transparent sur ce qui se passe dans nos bureaux. En même temps, cette obligation de transparence s’arrête lorsque j’ai un sous-traitant et que ce sous-traitant a un autre sous-traitant, que cet autre sous-traitant passe par une plateforme et que cette plateforme, à son tour, se tourne vers des petites mini-entreprise informelles ou individuelles, dans des pays très éloignés.
 +
 
 +
<b>France Charruyer : </b>Non structurées, non conscientes de leurs droits et qui ont besoin de ce travail pour faire vivre leur famille, donc un asservissement volontaire.
 +
 
 +
<b>Antonio Casilli : </b>Oui ou, plutôt, une situation de chantage à l’emploi et, dans certains cas, de chantage au visa, parce que vous avez aussi pas mal, en Europe en particulier, de populations migrantes qui sont impliquées dans ce type de travail. La modération de Facebook faite en Allemagne, qui fait l’objet aujourd’hui d’un contentieux, était faite largement par des personnes qui venaient de pays comme l’Iran, l’Azerbaïdjan et dont le visa dépendait du fait qu’elles continuent à réaliser ces tâches et surtout qu’elles ne fassent pas des vagues face à une entreprise qui a des pratiques qui ne sont pas vraiment très respectueuses du droit du travail, surtout dans un pays comme l’Allemagne où on est effectivement face à une régulation assez sérieuse.
 +
 
 +
<b>France Charruyer : </b>Donc l’acceptabilité sociale, c’est important, parce qu’on parle beaucoup d’explicabilité, d’interprétabilité, mais aussi d’acceptabilité sociale. Le travail que vous faites est donc très important de dévoilement, pas simplement le dévoilement de l’individu, il y a aussi et surtout le dévoilement des cas d’usage, des pratiques et des logiques sous-jacentes derrière tout cela. On est donc sur une organisation d’une gouvernementalité algorithmique qui repose sur un asservissement d’une partie de la population, plus ou moins volontaire. Que fait-on face à ça ?
 +
 
 +
<b>Antonio Casilli : </b>D’abord, je vais vous avouer un truc de sociologue : arrêtons peut-être de parler d’acceptabilité sociale, c’est un concept assez dangereux.<br/>
 +
Dans mon métier de professeur universitaire, mais, en même temps, de chercheur, j’ai souvent affaire à des entreprises ou à des pouvoirs publics qui nous demandent des expertises, et ce mot de l’acceptabilité est agité comme l’objet même de ce que devrait être notre travail : assurer l’acceptabilité de technologies. Je pense que notre rôle devrait être de mettre en question ces technologies, l’existence pas l’acceptabilité ! Si on rentre dans une logique d’acceptabilité dire qu’on a produit une machine dont les effets sont potentiellement très dangereux – l’exemple classique qu’on utilise entre nous, c’est la machine à tuer les enfants ; on invente un truc comme ça – et on n’a même pas le droit de dire « votre machine est complètement débile ! Non seulement elle est débile, mais elle est criminelle ! ». Si je dis la même chose « on a inventé une machine à précariser les emplois et maintenant toi, occupe-toi de l’acceptabilité sociale de cela », j’ai un problème !
 +
 
 +
<b>France Charruyer : </b>C’est compliqué. En fait, on a une polarisation qui est accrue sur le marché du travail au détriment des travailleurs les moins qualifiés. En fait, on refait toujours la même chose.
 +
 
 +
<b>Antonio Casilli : </b>En effet, on refait toujours la même chose depuis plusieurs siècles.<br/>
 +
D’abord monter les travailleurs informels versus les travailleurs formels, parce qu’il faut pas oublier que, souvent, le spectre des micro-travailleurs, ces masses de micro-travailleurs qui se trouvent à l’autre bout du monde, est agité contre les salariés de chez nous en disant « tu as intérêt à te tenir à carreau, parce que, sinon, je vais délocaliser tout ça, via une plateforme, au Bangladesh ».
 +
 
 +
<b>France Charruyer : </b>Donc on met tout le monde au pas.
 +
 
 +
<b>Antonio Casilli : </b>On met tout le monde en concurrence et c’est une vieille histoire. C’est pour cela, effectivement, que le fait de récupérer le mot de tâcheron, qui n’était pas péjoratif il y a deux siècles, c’est pour souligner le fait qu’on est en train de revenir en arrière de deux siècles. Quand les tâcherons étaient la seule forme d’existence des travailleurs, certainement une forme même idéale, à la limite, parce que le tâcheronnat a quand même assuré un certain niveau d’autonomie aux travailleurs qui pouvaient choisir de réaliser, ou pas, une tâche.
 +
 
 +
<b>France Charruyer : </b>On va y revenir ?
 +
 
 +
<b>Antonio Casilli : </b>On n’est pas dans la même situation, parce que les micro-tâcherons qui sont aujourd’hui sur des plateformes n’ont pas vraiment cette liberté de pouvoir dire non : si votre visa, si votre revenu et, en même temps, votre existence à l’intérieur d’un écosystème numérique, dépend de ça, vous n’avez pas vraiment la possibilité de dire non. D’autant plus que, et c’est un autre élément, parce que vous parlez de transparence, la transparence est double : ces entreprises et ces plateformes ne sont pas transparentes vis-à-vis des travailleurs. Si je suis un micro-tâcheron inscrit aujourd’hui sur une plateforme et qu’on me dit de retranscrire 20 mots, on ne me dit pas pourquoi. Il y a des tas de raisons pour ne pas me dire pourquoi, il y a des questions de droit des affaires, il y a des questions de ne pas introduire un biais supplémentaire dans les algorithmes qui vont être produits à la fin, mais, parfois, les effets sont désastreux. Si vous vous retrouvez à entraîner, comme j’ai vu des personnes le faire, des intelligences artificielles à déployer dans le contexte militaire, est-ce que vous êtes un train, sans le savoir, de contribuer à un crime contre l’humanité ? Un autre exemple qui remonte un peu à notre étude de 2019 sur le micro-travail en France : des personnes étaient micro payées pour réaliser une tâche qui consistait à jouer à un jeu vidéo dans lequel il fallait se rapprocher de personnes à l’apparence et au nom « à consonance française », je mets ça entre beaucoup de guillemets, et s’éloigner de personnes à l’apparence et au nom dont les consonances ne sont pas françaises de souche, on va dire comme ça. Les travailleurs se posaient ces questions : pourquoi sommes-nous en train de jouer à ce jeu et de nous faire micro payer pour jouer à ce jeu ? Est-ce que nous sommes en train de participer, par exemple, à des expérimentations de psychologie sociale sur les attitudes discriminatoires des Français ou est-ce que nous sommes en train de dresser un jeu vidéo raciste pour on ne sait pas exactement qui ?
 +
 
 +
<b>France Charruyer : </b>Donc, on en revient toujours à l’obligation de loyauté qui sous-tend tous les rapports sociétaux, pas uniquement ceux dans lesquels je suis dans le cadre d’une relation salariée, avec le lien de subordination, mais ceux aussi auxquels je me dois d’être éthique et sûre dans mon environnement, de toute ma chaîne de sous-traitance, du plus gros au plus petit et à mes micro-travailleurs. En fait, toutes les directives qu’on est en train d’avoir sur les obligations de vigilance, de soutenabilité, de transparence, <em>AI Act</em>, <em>Data Act</em>, tout ce paquet digital autour de la circulation de la donnée, de la valorisation de la donnée, font l’impasse sur le sujet principal.
 +
 
 +
==26’ 43==
 +
 
 +
<b>Antonio Casilli : </b>Sur les travailleurs.<br/>

Version du 20 avril 2024 à 08:55


Titre : Les nouveaux tâcherons du clic

Intervenant·e·s : Antonio Casilli - France Charruyer

Lieu : Podcast Les Causeries Data

Date : 15 avril 2024

Durée : 39 min

Fichier audio

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

France Charruyer : Bienvenue aux Causeries Data de Data Ring. Aujourd’hui, nous avons le plaisir d’accueillir Antonio Casilli, qu’on ne présente plus, qui se présentera, qui a écrit des ouvrages sur les travailleurs du clic, sur l’avènement du management algorithmique.
Aujourd’hui, on façonne les individus ; se succède une matière virtuelle, impalpable, la donnée ; on produit, on collecte, c’est le moteur de la nouvelle économie ; on réfléchit moins ; l’algorithme est invisible, mais il nous transforme, il nous façonne ; le numérique nous fabrique, nous le fabriquons aussi.
Face à cette plateformisation de l’économie, Antonio, j’ai envie de vous entendre, j’ai envie que vous nous en parliez, j’ai envie que vous nous parliez de ce dont on parle peu, tous ceux qui travaillent sur cette mécanisation algorithmique, ces micro-travailleurs et j’ai envie, d’abord, de vous demander pourquoi vous êtes intéressé au digital labor ? Pourquoi ? D’abord toujours le pourquoi des choses.

Antonio Casilli : Le pourquoi des choses ? Le pourquoi des choses, c’est que, étant donné mon âge qui n’est plus vert et surtout mon origine, on peut le deviner à mon accent, je ne suis pas vraiment franco-français, mon origine italienne, je suis tombé très tôt dans le chaudron d’abord de l’informatique et, de l’autre côté, dans une pensée qu’on a appelée, à une époque, post-opéraïste, post-ouvriériste. Ce sont les personnes qui s’occupent de comment le travail s’articule dans un contexte dans lequel on a abandonné, désormais, le lieu de travail, donc un travail qui n’a pas de lieu. Et ce travail n’a pas de lieu, il y a 30 ans ou il y a 20 ans, était celui des freelances, celui des personnes qui travaillaient depuis chez elles. Après, tout cela s’est généralisé dans la mesure où pas mal de profession, désormais, s’appuient sur des figures professionnelles qui ne ressemblent pas exclusivement aux salariés d’antan et, suite à des chocs, par exemple la crise pandémique, la généralisation du travail à distance a fait en sorte que chacun d’entre nous, d’un certain point de vue, soit un peu plus télétravailleur aujourd’hui, avec beaucoup de bémols et avec, surtout, une variabilité des situations.
Les personnes desquelles je m’occupe depuis désormais presque une décennie, qu’on appelle les micro-travailleurs, sont, si vous voulez, la frontière extrême de ce travail à distance.

France Charruyer : Qu’on ne voit pas

Antonio Casilli : On les voit de plus en plus, ces dernières années, parce que, quand même, on a eu l’explosion de l’intelligence artificielle et l’intelligence artificielle, elle, est très visible et tout un tas questions surgissent au niveau politique, au niveau juridique, sur, finalement, qui fait l’intelligence artificielle.
On voit tout le temps, parce qu’ils s’affichent dans les médias, les grands scientifiques, comme Yann Le Cun, monsieur intelligence artificielle de Facebook, ou d’autres qui ont forgé les algorithmes, mais, après, on se dit « peut-être que n’est pas vraiment le travail d’un seul innovateur, c’est le travail d’une véritable usine à intelligence artificielle, donc qui sont les ouvriers de cette usine ? » . Et dès qu’on se pose cette question, d’abord on se rend compte du fait que ces intelligences artificielles n’existent pas s’il n’y a pas un travail de personnes qui, parfois, en temps réel, sont en train de faire l’algorithme, de faire exister l’algorithme, et là on commence à aller chercher ces travailleurs et on les trouve à des endroits qui vont vous surprendre.

France Charruyer : Jadis vous nous en parliez de ces Turcs mécaniques. En fait, ce que vous êtes en train de nous dire, c’est que l’IA magique, qu’on est en train de nous défendre, de nous dépeindre à tour de bras, de ChatGPT, de Copilote, de Mistral, de Google, de Gemini et d’autres, en fait, derrière, n’est rien sans nous. On a une IA Potemkine, des Turcs mécaniques, dont nous sommes tous en train de nourrir la machine sans véritablement comprendre ce qu’on est en train de faire. J’aimerais bien une illustration, parce que j’ai vu qu’il y avait un travail cybernétique dont on parle peu, je crois qu’il y a Amazon, la plateforme d’Amazon, il y a Clickworker également, et on a, sur l’évolution du droit du travail, de plus en plus recours à du micro-travail, des micro-tâches, y compris pour les salariés. Que vous pouvez-vous nous dire là-dessus ?

Antonio Casilli : D’abord il faut faire un petit détour historique. Vous avez cité le Turc mécanique ou l’intelligence artificielle Potemkine, ce sont des termes, des formules un peu spécialisées qui, peut-être, ne parlent pas à ceux qui nous écoutent. Donc, petit détour dans l’empire autrichien du 18e siècle, ce n’est pas vraiment là où on situe la naissance de l’intelligence artificielle, mais, à un certain moment, un monsieur qui s’appelait baron von Kempelen, a inventé la première intelligence artificielle, soi-disant, qui était le célèbre joueur turc d’échecs. C’était un robot, un automate déguisé en Turc ottoman, qui était censé simuler les processus cognitifs d’un joueur d’échecs, donc de défier et battre aux échecs des champions bien en chair et en os. La légende veut que même Napoléon ait été par le Turc mécanique Or, dans le Turc mécanique, il y a un problème : en réalité, c’était un canular. À l’intérieur de l’automate se cachait, en réalité, un joueur, un véritable être humain qui, d’abord, était capable de déchiffrer ce qui se passait sur l’échiquier et, ensuite, était capable de mettre en place une stratégie.
Cette métaphore a été récupérée par Jeff Bezos, le patron d’Amazon, en 2005, il y a presque 20 ans, quand, à un certain moment, il a voulu lancer une plateforme de type un peu spécial qui ne faisait pas de e-commerce de livres ou de chaussures, comme Amazon tout venant, mais qui faisait commerce de travail humain. Il a donc a appelé cette plateforme « Amazon Mechanical Turk » parce qu’il se disait, et ce sont vraiment ses propos, « c’est une manière de faire de la artificial artificial intelligence ».

France Charruyer : Cynique !

Antonio Casilli : Oui, cynique ! Il avait dit « c’est de la fausse intelligence artificielle » qu’on a, ensuite, appelée aussi « intelligence artificielle Potemkine », c’est une autre référence aux Russes de la même période que le Turc mécanique historique, bref, peu importe ! Ce qui veut dire qu’aujourd’hui et depuis désormais 20 ans, on crée des plateformes qui ont comme vocation le fait de mettre au travail, plutôt au micro-travail, des personnes qui sont appelées à réaliser des tâches très petites, je vous donne quelques exemples, qui consistent à retranscrire des textes, ou à traduire des bouts de textes.

France Charruyer : Ou à indexer.

Antonio Casilli : Oui. Je parle de textes, parce que, évidemment, ça évoque tout de suite ChatGPT et ChatGPT a été pré-entraîné grâce au travail de ces personnes-là qui, à longueur de journée, ont récupéré des grandes masses de données qui ont été collectées sur Internet, de manière plus ou moins légale par OpenAI, le producteur de ChatGPT. Il fallait, ensuite, améliorer ces données brutes, les enrichir et, pour enrichir ces données, il fallait non pas confier toute la masse de données à quelques experts très bien payés, ça aurait été non seulement très cher mais très long. On a donc choisi cette autre option qui consiste à prendre cette masse de données et filer un petit bout de cette masse de données à une personne et après un autre bout à une autre personne et, très vite, vous vous retrouvez avec des millions de personnes qui font ce travail.

France Charruyer : Peu qualifiées, invisibles.

Antonio Casilli : Comment les qualifier, c’est encore plus complexe. En plus, vous me posez la question en 2024, lorsqu’il y a une véritable discussion au niveau de la communauté des chercheurs sur la façon d’appeler ces personnes et c’est parfois une discussion très musclée.

France Charruyer : Sous-traitants, micro-travailleurs ?

Antonio Casilli : Commençons par la façon dont les entreprises parlent de ces personnes-là. D’abord, elles n’en parlent pas en tant que travailleurs. Si elles emploient le terme de crowdwork, elles insistent beaucoup sur le côté crowd, sur le côté « foule », plutôt que sur le côté work, sur le côté « travail ».
Après, effectivement, on peut parfois avoir des micro-travailleurs qui sont recrutés via des chaînes de sous-traitance, parfois assez classiques, surtout lorsqu’on a affaire à des pays à faible revenu. Nous travaillons beaucoup sur des pays comme Madagascar, en Afrique, Kenya récemment puisque, évidemment, c’était là où ChatGPT a été fait largement, Venezuela en Amérique latine, mais on a aussi le Bangladesh, les Philippines, encore une fois, ce n’est pas vraiment la Silicon Valley ! On ne s’imagine pas que l’intelligence artificielle est faite, à la main parfois, par des millions de personnes dans ces pays comme ceux-là. Et, dans ces pays-là, pour des questions qui sont parfois des questions de connectivité et même d’approvisionnement à un courant électrique : à Tananarive, la capitale de Madagascar, vous avez des décrochages assez fréquents ; au Venezuela, Caracas, San Cristóbal, ce sont des villes, même des villes importantes où vous avez de l’électricité, disons, 10 heures par jour. Dans ce contexte-là, il faut s’organiser pour pouvoir assurer ce travail, il faut s’organiser avec une bonne connectivité, des endroits dans lesquels ces personnes peuvent vraiment consacrer du temps à faire ce type de micro-tâche. Parfois, elles ne sont pas équipées chez elles, donc, il faut les inviter à se rendre à des endroits. Ça redevient donc un travail de bureau qui a un lieu mais qui, quand même, n’est pas encadré de la manière formelle qu’on souhaiterait.

France Charruyer : Il y a donc une précarisation, on parle aussi de précariat.

Antonio Casilli : On parle de précariat, certainement pour les pays européens. Pour les pays européens, ces personnes-là sont des personnes qui sont payées à la pièce, à la tâche. C’est pour cela qu’on parle non seulement de micro-tâches, mais qu’on utilise un terme que j’ai moi-même forgé et qui est très controversé, je l’admets, qui est donc le terme de micro-tâcherons.

France Charruyer : Ou les tâcherons du clic.

Antonio Casilli : Les tâcherons du clic ! C’est, effectivement, une manière d’insister beaucoup sur le fait que ce n’est pas un travail souhaitable. Si je le dis c’est parce que parfois, dans mon activité, j’ai affaire surtout aux plus jeunes qui m’écrivent des messages privés sur Twitter du type « j’ai vu ce que vous avez dit sur ça, c’est terrible, mais moi ça m’intéresse ! – Écoute, franchement, ce n’est pas vraiment le sens de ce que je dis. Je raconte ça pour mettre pour souligner le danger social, même pour toi, en tant que travailleur, d’aller faire un travail comme ça. ». Donc, insister sur le fait que ce n’est pas un travail souhaitable.

France Charruyer : Et qu’il faut peut-être qu’on parle de la transparence, puisqu’on parle souvent de soutenabilité, d’engagement, de RSE.

Antonio Casilli : Ça, c’est pour les entreprises.

France Charruyer : Oui, mais même les entreprises qui, aujourd’hui, vont avoir la plus forte capitalisation boursière sont celles qui vont produire beaucoup d’IA et celles qui, par vocation, par nécessité, vont faire appel à ces micro-travailleurs et qui vont souvent le taire. On nous en parle très peu. On est donc dans une forme d’illusion. Peut-être qu’il y a 20 ans, Bezos était ou cynique ou visionnaire. Quand on vous parle de Turc mécanique et, qu’en fait, c’est un canular, est-ce qu’on n’est pas face à un canular, aujourd’hui, lorsque l’on est en train de nous faire passer des IA génératives pour de la magie, qui vont tout nous faire, et, en fait, qu’elles ne font que recracher ce qu’on leur donne ?

12’ 35

Antonio Casilli : OK. Je vais vous raconter, ce n’est pas vraiment une petite anecdote parce que c’est quelque chose qui fait partie de l’une de nos observations participantes et, en plus, qui a fait l’objet d’une publication scientifique, donc ce n’est pas vraiment de l’anecdotique. Avec les étudiants et collègues de mon groupe de recherche, nous avons passé une semaine, en 2022, dans une usine à micro-tâches de Tananarive, à Madagascar. Nous partagions notre quotidien avec 120 personnes qui travaillaient le jour et la nuit pour réaliser de l’intelligence artificielle à la main. Par là, je veux dire que parfois elles passaient des heures et des heures à annoter des images de prompteurs du type Linky, ce n’était pas Linky.

France Charruyer : Des fermes à clics.

Antonio Casilli : Oui, ce sont presque des fermes à clics, mais, en même temps, c’était quand même du travail de très haut niveau. Souvent, les fermes à clics, ce sont des personnes qui cliquent sans savoir exactement pourquoi, parce qu’elles ont été payées pour devenir des faux fans ou followers sur Instagram, c’est un cas classique. Ces personnes-là devaient quand même y mettre beaucoup d’intelligence humaine, donc, dans cette intelligence artificielle, il y avait beaucoup d’intelligence non artificielle.
Le cas particulier était que l’une des applications qu’ils développaient concernait une entreprise européenne qui produisait des caméras de surveillance intelligentes, je souligne le côté « intelligentes », parce que l’intelligence, encore une fois, n’était pas si artificielle que ça. Que font ces caméras ? Elles sont déployées dans des supermarchés, mais elles pourraient très bien être utilisées pour faire de la reconnaissance faciale pendant les JO. Ces caméras, déployées dans des supermarchés européens, détectent si quelqu’un est en train de voler un bout de chocolat ou des pâtes, peu importe, donc, elles sont capables non seulement de détecter les êtres humains, mais aussi de détecter le geste illicite. Face à ça, elles envoient un message, donc un SMS automatique aux caissiers ou aux agents sécurité. J’ai beaucoup insisté sur « intelligence automatique ». Maintenant, oubliez ces adjectifs-là parce que la réalité est que dans le garage et dans le grenier de cette maisonnette de la périphérie de Tananarive, il y avait des équipes de 30/60 personnes qui, en temps réel, étaient en train de vérifier si quelqu’un était en train de voler du chocolat ou des pâtes. Elles faisaient semblant d’être un automate, un système automatique, en envoyant un texto, en plus un texto standard, aux caissiers en disant « à tel endroit, quelqu’un qui a volé du chocolat. »

France Charruyer : Ça manque de transparence.

Antonio Casilli : Ça manque de transparence, c’est certain, mais ça ne manque pas d’intelligence et elle ne se situe pas là où on la soupçonnerait. Ce n’est pas l’intelligence des algorithmes, c’est l’intelligence de ces personnes-là qui doivent vraiment apprendre à reconnaître des gestes, des comportements, des endroits qui ne sont pas forcément les leurs.

France Charruyer : Ce n’est pas inné !

Antonio Casilli : Si vous êtes un travailleur malgache ou un travailleur kényan, ce n’est pas certain que vous que vous sachiez exactement comment les choses se passent dans tous les autres pays du monde.
Autre exemple très terre à terre : les gens qui sont payés pour faire de la détection automatique de plateaux repas dans les cantines. Si vous êtes, que sais-je, un travailleur au Bangladesh, vous ne savez pas, par exemple, qu’en France, dans les cantines françaises en correspondance de certaines fêtes commandées, par exemple la fête de Noël, la forme des assiettes change parce qu’on met des assiettes spéciales Noël, et là, vous vous perdez vos repères. En plus, vous ne savez pas ce qu’il y a dans ces assiettes-là. Les systèmes alimentaires, dans plusieurs pays d’Afrique ou d’Asie, ne correspondent pas du tout aux trucs qu’on bouffe ici en France.

France Charruyer : L’engagement sociétal de ces multiples multinationales algorithmiques qui engrangent des milliards et des milliards de bénéfices et qui s’engagent dans une course folle à celui qui aura la plus grosse IA, du moins celle qui est présumée la plus performante, du moins avec une puissance de calcul phénoménale, elles sont en train de nous masquer l’essentiel.

Antonio Casilli : Elles sont en train de nous masquer le fait que ce travail-là est un travail incontournable, vous ne pouvez pas vous passer de ce travail-là. On l’appelle parfois the Human-in-the-loop, en anglais ça veut dire « l’être humain dans la boucle ».

France Charruyer : Et c’est la même chose pour les contenus, finalement le droit d’auteur. Là, n’a-ton pas une injonction et un devoir de s’intéresser à la juste répartition de la valeur, qu’il s’agisse du travail ou des contenus ?

Antonio Casilli : Pour les contenus, l’avantage est quand même que vous savez déjà où sont les contenus, qui les a produits et que, d’un certain point de vue, le droit d’auteur permet de mieux protéger ces personnes que face à une population entièrement invisibilisée.

France Charruyer : Je pense qu’on en arrive à une invisibilisation également de ceux qui vont revendiquer des droits d’auteur, parce que c’est très difficile, en pratique, d’exercer en opt-out. Il y a des organismes, des organisations, on va en parler, on essaie, sur la nouvelle directive, de mettre en place une gestion collective des droits. Mais pour ceux qui nous intéressent, les précarisés, les invisibles, les tâcherons du clic, quelles sont les solutions que l’on a pour s’en occuper enfin et introduire un peu de justice sociale dans tout cela ?

Antonio Casilli : Parlons d’abord de transparence, vous avez évoqué le mot à plusieurs reprises. Il faudrait effectivement avoir une injonction d’une transparence plus importante pour les entreprises, ce qui pose un problème. Pour ces entreprises, la transparence signifie, d’une part, dévoiler non pas le secret industriel mais, à la limite et d’une manière un peu crue, les Anglais disent « comment on produit la saucisse, qu’est-ce qu’on met dans la saucisse comme ingrédients ».

France Charruyer : Pour cela il y a des obligations, mais on s’intéresse à la transparence de l’algorithme mais pas à la transparence et ceux qui y participent.

Antonio Casilli : Très vite, on se heurte à un problème avec ces obligations qui est qu’elles s’inscrivent dans des très longues chaînes de sous-traitance. Si j’ai des obligations en termes de transparence dans ce que je fais, si je suis, par exemple, une entreprise du CAC 40, je peux vous raconter ce que je fais à Toulouse ou à Paris et être très transparent sur ce qui se passe dans nos bureaux. En même temps, cette obligation de transparence s’arrête lorsque j’ai un sous-traitant et que ce sous-traitant a un autre sous-traitant, que cet autre sous-traitant passe par une plateforme et que cette plateforme, à son tour, se tourne vers des petites mini-entreprise informelles ou individuelles, dans des pays très éloignés.

France Charruyer : Non structurées, non conscientes de leurs droits et qui ont besoin de ce travail pour faire vivre leur famille, donc un asservissement volontaire.

Antonio Casilli : Oui ou, plutôt, une situation de chantage à l’emploi et, dans certains cas, de chantage au visa, parce que vous avez aussi pas mal, en Europe en particulier, de populations migrantes qui sont impliquées dans ce type de travail. La modération de Facebook faite en Allemagne, qui fait l’objet aujourd’hui d’un contentieux, était faite largement par des personnes qui venaient de pays comme l’Iran, l’Azerbaïdjan et dont le visa dépendait du fait qu’elles continuent à réaliser ces tâches et surtout qu’elles ne fassent pas des vagues face à une entreprise qui a des pratiques qui ne sont pas vraiment très respectueuses du droit du travail, surtout dans un pays comme l’Allemagne où on est effectivement face à une régulation assez sérieuse.

France Charruyer : Donc l’acceptabilité sociale, c’est important, parce qu’on parle beaucoup d’explicabilité, d’interprétabilité, mais aussi d’acceptabilité sociale. Le travail que vous faites est donc très important de dévoilement, pas simplement le dévoilement de l’individu, il y a aussi et surtout le dévoilement des cas d’usage, des pratiques et des logiques sous-jacentes derrière tout cela. On est donc sur une organisation d’une gouvernementalité algorithmique qui repose sur un asservissement d’une partie de la population, plus ou moins volontaire. Que fait-on face à ça ?

Antonio Casilli : D’abord, je vais vous avouer un truc de sociologue : arrêtons peut-être de parler d’acceptabilité sociale, c’est un concept assez dangereux.
Dans mon métier de professeur universitaire, mais, en même temps, de chercheur, j’ai souvent affaire à des entreprises ou à des pouvoirs publics qui nous demandent des expertises, et ce mot de l’acceptabilité est agité comme l’objet même de ce que devrait être notre travail : assurer l’acceptabilité de technologies. Je pense que notre rôle devrait être de mettre en question ces technologies, l’existence pas l’acceptabilité ! Si on rentre dans une logique d’acceptabilité dire qu’on a produit une machine dont les effets sont potentiellement très dangereux – l’exemple classique qu’on utilise entre nous, c’est la machine à tuer les enfants ; on invente un truc comme ça – et on n’a même pas le droit de dire « votre machine est complètement débile ! Non seulement elle est débile, mais elle est criminelle ! ». Si je dis la même chose « on a inventé une machine à précariser les emplois et maintenant toi, occupe-toi de l’acceptabilité sociale de cela », j’ai un problème !

France Charruyer : C’est compliqué. En fait, on a une polarisation qui est accrue sur le marché du travail au détriment des travailleurs les moins qualifiés. En fait, on refait toujours la même chose.

Antonio Casilli : En effet, on refait toujours la même chose depuis plusieurs siècles.
D’abord monter les travailleurs informels versus les travailleurs formels, parce qu’il faut pas oublier que, souvent, le spectre des micro-travailleurs, ces masses de micro-travailleurs qui se trouvent à l’autre bout du monde, est agité contre les salariés de chez nous en disant « tu as intérêt à te tenir à carreau, parce que, sinon, je vais délocaliser tout ça, via une plateforme, au Bangladesh ».

France Charruyer : Donc on met tout le monde au pas.

Antonio Casilli : On met tout le monde en concurrence et c’est une vieille histoire. C’est pour cela, effectivement, que le fait de récupérer le mot de tâcheron, qui n’était pas péjoratif il y a deux siècles, c’est pour souligner le fait qu’on est en train de revenir en arrière de deux siècles. Quand les tâcherons étaient la seule forme d’existence des travailleurs, certainement une forme même idéale, à la limite, parce que le tâcheronnat a quand même assuré un certain niveau d’autonomie aux travailleurs qui pouvaient choisir de réaliser, ou pas, une tâche.

France Charruyer : On va y revenir ?

Antonio Casilli : On n’est pas dans la même situation, parce que les micro-tâcherons qui sont aujourd’hui sur des plateformes n’ont pas vraiment cette liberté de pouvoir dire non : si votre visa, si votre revenu et, en même temps, votre existence à l’intérieur d’un écosystème numérique, dépend de ça, vous n’avez pas vraiment la possibilité de dire non. D’autant plus que, et c’est un autre élément, parce que vous parlez de transparence, la transparence est double : ces entreprises et ces plateformes ne sont pas transparentes vis-à-vis des travailleurs. Si je suis un micro-tâcheron inscrit aujourd’hui sur une plateforme et qu’on me dit de retranscrire 20 mots, on ne me dit pas pourquoi. Il y a des tas de raisons pour ne pas me dire pourquoi, il y a des questions de droit des affaires, il y a des questions de ne pas introduire un biais supplémentaire dans les algorithmes qui vont être produits à la fin, mais, parfois, les effets sont désastreux. Si vous vous retrouvez à entraîner, comme j’ai vu des personnes le faire, des intelligences artificielles à déployer dans le contexte militaire, est-ce que vous êtes un train, sans le savoir, de contribuer à un crime contre l’humanité ? Un autre exemple qui remonte un peu à notre étude de 2019 sur le micro-travail en France : des personnes étaient micro payées pour réaliser une tâche qui consistait à jouer à un jeu vidéo dans lequel il fallait se rapprocher de personnes à l’apparence et au nom « à consonance française », je mets ça entre beaucoup de guillemets, et s’éloigner de personnes à l’apparence et au nom dont les consonances ne sont pas françaises de souche, on va dire comme ça. Les travailleurs se posaient ces questions : pourquoi sommes-nous en train de jouer à ce jeu et de nous faire micro payer pour jouer à ce jeu ? Est-ce que nous sommes en train de participer, par exemple, à des expérimentations de psychologie sociale sur les attitudes discriminatoires des Français ou est-ce que nous sommes en train de dresser un jeu vidéo raciste pour on ne sait pas exactement qui ?

France Charruyer : Donc, on en revient toujours à l’obligation de loyauté qui sous-tend tous les rapports sociétaux, pas uniquement ceux dans lesquels je suis dans le cadre d’une relation salariée, avec le lien de subordination, mais ceux aussi auxquels je me dois d’être éthique et sûre dans mon environnement, de toute ma chaîne de sous-traitance, du plus gros au plus petit et à mes micro-travailleurs. En fait, toutes les directives qu’on est en train d’avoir sur les obligations de vigilance, de soutenabilité, de transparence, AI Act, Data Act, tout ce paquet digital autour de la circulation de la donnée, de la valorisation de la donnée, font l’impasse sur le sujet principal.

26’ 43

Antonio Casilli : Sur les travailleurs.