Différences entre les versions de « Les nouveaux tâcherons du clic »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 131 : Ligne 131 :
  
 
==26’ 43==
 
==26’ 43==
 +
<b>Antonio Casilli : </b>Sur les travailleurs.<br/>
 +
J’ai une vision légèrement différente. Je pense que la question de la loyauté a été une tentative très importante il y a une dizaine d’années. En effet, dans ce qu’on vient de dire, par exemple dans le cas classique d’un travailleur qui se retrouve à faire une tâche sans savoir pourquoi, là, il y a vraiment un besoin de loyauté vis-à-vis du travailleur si on le considère comme n’importe quel utilisateur de n’importe quelle plateforme. Facebook doit être loyal vis-à-vis de ses utilisateurs par exemple sur le type de recommandation algorithmique.
 +
 +
<b>France Charruyer : </b>Ce qu’elle a du mal à faire. Cambridge Analytica est passée par là
 +
 +
<b>Antonio Casilli : </b>Je me souviens de la notion de loyauté. Il y avait justement un rapport du Conseil national du numérique en France, ça remonte à 2014, il y a dix ans, et ça marchait bien pour le type d’écosystème qu’on avait à l’esprit, dans ce rapport-là en particulier, qui était un système très dominé par des plateformes de médias sociaux. Aujourd’hui, on a une situation légèrement différente, d’abord on voit aussi d’autres plateformes et on se rend compte, effectivement, que ces plateformes ne sont pas envisageables si on ne prend pas en compte une longue chaîne de sous-traitance internationale. C’est pour cela que je dis que la question du devoir de vigilance a encore son mot à dire
 +
 +
<b>France Charruyer : </b>La compliance, la vraie compliance.
 +
 +
<b>Antonio Casilli : </b>La <em>compliance</em> c’est comment les entreprises envisagent, après, l’obligation de vigilance et c’est aussi un jeu dangereux parce qu’on se retrouve avec des entreprises qui ont envie de faire le minimum nécessaire ; c’est normalement cela la <em>compliance</em>.
 +
 +
<b>France Charruyer : </b>Juste pour passer, le costume, on met le joli costume !<br/>
 +
Là on a quand même un vrai sujet, c’est-à-dire qu’on a des géants, des plateformes qui sont en situation de monopole, on assiste à une centralisation du pouvoir par l’IA au détriment des plus petits. Qu’est-ce qu’on va faire sur cette asymétrie qui est en train de se constituer à une échelle démentielle, avec quatre opérateurs qui disent ce qu’on doit faire le matin, ce qu’on doit faire le soir, ce qu’on va peut-être même être contraints de penser, parce qu’il n’y a pas que les microtravailleurs qui sont dans une situation d’asservissement ? Est-ce qu’une des questions de la loyauté, à laquelle vous avez très bien répondu, n’est-ce pas ce qu’il va nous rester d’autonomie de la volonté ?
 +
 +
<b>Antonio Casilli : </b>Vous dites quatre opérateurs parce que ce sont les GAFA français.
 +
 +
<b>France Charruyer : </b>Ou les Chinois. On en a une dizaine, en fait, qui jouent en ce moment.
 +
 +
<b>Antonio Casilli : </b>En effet. D’abord ne pas sous-estimer le fait que l’acronyme change tout le temps. C’est certain que les deux dernières années ont été les années dans lesquelles le « M » de GAFAM, donc Microsoft a quand même fait un truc assez phénoménal.
 +
 +
<b>France Charruyer : </b>Maintenant on a Nvidia, donc on a le « N ».
  
<b>Antonio Casilli : </b>Sur les travailleurs.<br/>
+
<b>Antonio Casilli : </b>C’est vrai. Mais le M est arrivé à non seulement absorber dans son orbite OpenAI, donc ChatGPT, Mistral tout de suite ! Ils ont lancé le produit, paf !, ils ont vendu tout ça !
 +
 
 +
<b>France Charruyer : </b>Avec une vassalisation du gouvernement.
 +
 
 +
<b>Antonio Casilli : </b>OK, longue histoire ! Vous venez de citer le gouvernement, donc parlons aussi du fait que les GAFAM ou alors les MAMAA [Microsoft, Amazon, Meta, Apple et Alphabet], parce qu’ils ont changé de nom entre-temps, n’existent pas si elles ne sont pas aussi dans un écosystème politique : le paquet européen dont vous avez parlé, le paquet digital, ces 30 directives, <em>AI Act</em>.
 +
 
 +
<b>France Charruyer : </b>Le mille-feuille.
 +
 
 +
<b>Antonio Casilli : </b>Ce paquet-là est fait par les institutions européennes, mais en collaboration stricte et directe avec ces grandes entreprises, en créant, par exemple, ce qu’on appelle des bacs à sable, c’est-à-dire des lieux d’expérimentation, ou alors en établissant des standards qui sont faits en concert.
 +
 
 +
<b>France Charruyer : </b>Des standards et référentiels qui sont accessibles à des grandes entreprises, qui sont peu accessibles aux entreprises qui sont de taille plus moyenne ou plus modeste, ou à la société civile. C’est très coûteux. Outre les enjeux de cybersécurité qui se greffent là-dessus, ce à quoi nous assistons c’est qu’aujourd’hui ces intelligences artificielles génératives sont en train aussi de s’empoisonner, puisqu’on a beaucoup de données synthétiques qui arrivent. Finalement, le canular de départ, d’il y a 20 ans, sur le Turc mécanique, on l’observe aujourd’hui, on voit qu’il y a des micro-travailleurs. On voit que, maintenant, sous couvert de réglementation, on se dit qu’il faut peut-être jouer le match différemment, beaucoup de données synthétiques qui alimentent les machines parce que c’est cher de respecter une réglementation. Selon vous, à quoi va-t-on assister là ?
 +
 
 +
<b>Antonio Casilli : </b>Pour répondre à quoi on va assister, je mets d’abord un tout petit bémol sur la question des données synthétiques. C’est quelque chose qu’on tend à ressortir toutes les quelques années, le fait de dire qu’on peut entraîner ces mêmes intelligences qui produisent des données synthétiques avec des données synthétiques en entrée. Il y a un petit problème le problème est qu’on rentre dans des boucles.
 +
 
 +
<b>France Charruyer : </b>De rétroaction infinie.
 +
 
 +
<b>Antonio Casilli : </b>Oui, ce qu’on appelle, en statistique, du sur-apprentissage, c’est-à-dire qu’elles se spécialisent sur des choses sur lesquelles elles sont spécialisées : si votre base de données de départ avait, par exemple, un biais pro-personnes à la peau blanche, votre machine va produire encore plus de données de visages blancs, donc, après, va créer des boucles dans lesquelles tous les autres…, donc votre intelligence artificielle ne va pas marcher, tout simplement.
 +
 
 +
<b>France Charruyer : </b>Après, il y a le pire. On fait maintenant du design, c’est-à-dire qu’on va introduire de la discrimination positive et je me retrouve, avec Gemini et Google, avec des papes noirs ou asiatiques, etc., donc ça devient aujourd’hui une grande farce ; on s’amuse !
 +
 
 +
<b>Antonio Casilli : </b>En tant qu’Italien, je peux vous dire qu’il y a eu des papes noirs, sauf qu’on les a représentés d’une manière très différente, il y avait des empereurs romains noirs, c’est moins impressionnant en ce qui me concerne. Bref !<br/>
 +
Pour revenir à la situation et comment la situation se présente aujourd’hui. On se retrouve certainement dans une situation conflictuelle. Ces entreprises-là, toutes oligopolistiques qu’elles soient, se trouvent aujourd’hui dans une situation dans laquelle elles ne peuvent plus se permettre de produire ou lancer des produits sans être soumises, d’entrée, à une vigilance de la société civile, de l’opinion publique ensuite, et après des gouvernements mêmes, parce que les gouvernements sont quand même redevables vis-à-vis des autres pouvoirs et contre-pouvoirs, qui, en jouant le jeu de la régulation, j’insiste beaucoup sur le fait que c’est un spectacle, c’est un ballet, sont là aussi pour rappeler à ces entreprises qu’elles ne peuvent pas se permettre, en 2024, ce qu’elles se permettaient en 2014.
 +
 
 +
<b>France Charruyer : </b>C’est la société du spectacle.
 +
 
 +
<b>Antonio Casilli : </b>Oui, la société du spectacle régulateur, c’est certain !
 +
 
 +
<b>France Charruyer : </b>Donc on a avancé quand même !
 +
 
 +
<b>Antonio Casilli : </b>Certainement. En termes d’allégations marketing, elles ne peuvent plus se permettre les choses qu’elles se permettaient auparavant, dire que cette intelligence artificielle va marcher, qu’elle va être entièrement automatisée, qu’elle va avoir des effets positifs pour toute la société, que ça va entraîner un monde collaboratif.
 +
 
 +
<b>France Charruyer : </b>Et merveilleux. Donc la logique de redevabilité de la régulation fonctionne ?
 +
 
 +
<b>Antonio Casilli : </b>De ce point de vue-là, oui. En même temps, on voit aussi que les intérêts des gouvernements et des grandes entreprises peuvent converger d’une manière vicieuse ; je pense que le <em>AI Act</em> a été le cas le plus extrême de cela. D’abord, il y a un gros trou dans le <em>AI Act</em>, c’est-à-dire qu’il ne parle pas de travail.
 +
 
 +
<b>France Charruyer : </b>Ni du juge.
 +
 
 +
<b>Antonio Casilli : </b>C’est vrai. L’absence du travail est due au fait que, en parallèle, on était en train de négocier la directive européenne sur le travail des plateformes, donc, comme on ne peut pas être partout, même les décideurs politiques ont dit « toi, tu vas plutôt t’occuper de ça et moi je vais dans l’autre commission ».<br/>
 +
La question beaucoup plus grave est que les pouvoirs publics, les forces de l’ordre et tout un tas de pouvoirs économiques qui sont liés, si vous voulez, au complexe militaro-industriel, sont arrivés à trouer cette directive de manière telle que, aujourd’hui, on ne peut plus déployer, de manière disons non régulée, une intelligence artificielle de reconnaissance faciale sur les citoyens français, par contre pour tous les migrants dans la mer, eh ien oui, c’est parfait, même si c’est, par la suite, pour cibler leur embarcation et la couler.
 +
 
 +
<b>France Charruyer : </b>Ce n’est à la même base légale, c’est donc la centralisation du pouvoir par la donnée.
 +
 
 +
<b>Antonio Casilli : </b>Ce n’est pas la même base légale, ce qui veut dire que cette régulation est complice du fait d’établir que ce n’est pas la même humanité, ce ne sont pas les mêmes droits de l’homme et de la femme et de tous les autres.
 +
 
 +
<b>France Charruyer : </b>Pourtant, on en parle des droits de l’homme ! On nous dit qu’on va devoir faire des droits de l’homme <em>risk assessment</em>, c’est-à-dire des analyses de risque fondé sur un contrôle de la proportionnalité à l’égard des droits de l’homme, on s’en gargarise beaucoup, mais on est en train de reconstituer une espèce de sous-humanité, c’est véritablement cet enjeu et ce défi sur lequel vous vous battez. Déjà, pour nous, c’est merveilleux de vous entendre et on a envie de vous entendre encore davantage. Pour ceux qui ne connaissent pas c’était la directive dont on parlait tout à l’heure, du 11 mars 2024, du Conseil de l’Union européenne sur les travailleurs des plateformes. On doit tous se poser la question sur ce nouveau prolétariat, ce nouveau précariat, et cette notion de dignité dont tout le monde se gargarise, ce n’est pas la dignité uniquement pour quelques-uns, c’est de la dignité pour tous dans l’usage des nouvelles technologies.<br/>
 +
La suite, ça sera contrôler le temps pour contrôler les corps, privatiser le temps. Finalement, la métaphore ultime ne serait-elle pas qu’on est toujours dans une relation de maître à esclave, Antonio ?
 +
 
 +
<b>Antonio Casilli : </b>Déjà, je ne sais pas si c’est les mots « esclave », « esclavage » s’adaptent bien. Là on est dans un contexte de travail et le travail, en tant que notion, a été inventé par opposition à l’esclavage. L’esclavage est, finalement, une activité qui n’est pas libre. Le travail doit toujours être libre, le plus possible. Il y a donc, effectivement, des possibilités d’émancipation du travail – c’est, si vous voulez, le côté envolée lyrique –, mais on a aussi dans notre <em>to do list</em>, les choses à faire dans les années à venir, d’abord une lutte acharnée contre ces oligopoles : il faut casser ces grandes entreprises, c’est une question d’antitrust, si vous voulez. Et, de l’autre côté, il faut faire appliquer des lois qui existent déjà en termes, par exemple encore une fois, de responsabilité civile, mais même au niveau environnemental de ces entreprises ; c’est une question de soutenabilité, qui devient soutenabilité sociale et environnementale de ces grandes entreprises, sans oublier qu’il faut insister sur le fait que des standards de travail dignes existent au niveau international, l’activité du syndicalisme, au niveau international, existe, des standards de travail existent au niveau international. Qu’on commence déjà par faire respecter ceux-là et c’est le minimum qu’on puisse demander.
 +
 
 +
<b>France Charruyer : </b>Notre boussole doit donc toujours rester l’humain, pas simplement sur des articles de loi, et on doit l’exercer de manière très concrète. Nous attendons avec impatience la réforme des actions de groupe qui nous permettra, peut-être, de rétablir les curseurs au bon endroit.<br/>
 +
Je vous remercie infiniment Antonio d’être venu, je vous ai reçu beaucoup de bonheur aujourd’hui, et à bientôt pour les nouvelles <em>Causeries Data</em>, toujours plus de techno lucidité face à la déferlante des algorithmes.
 +
 
 +
<b>Antonio Casilli : </b>Merci à vous.

Version du 20 avril 2024 à 14:40


Titre : Les nouveaux tâcherons du clic

Intervenant·e·s : Antonio Casilli - France Charruyer

Lieu : Podcast Les Causeries Data

Date : 15 avril 2024

Durée : 39 min

Fichier audio

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

France Charruyer : Bienvenue aux Causeries Data de Data Ring. Aujourd’hui, nous avons le plaisir d’accueillir Antonio Casilli, qu’on ne présente plus, qui se présentera, qui a écrit des ouvrages sur les travailleurs du clic, sur l’avènement du management algorithmique.
Aujourd’hui, on façonne les individus ; se succède une matière virtuelle, impalpable, la donnée ; on produit, on collecte, c’est le moteur de la nouvelle économie ; on réfléchit moins ; l’algorithme est invisible, mais il nous transforme, il nous façonne ; le numérique nous fabrique, nous le fabriquons aussi.
Face à cette plateformisation de l’économie, Antonio, j’ai envie de vous entendre, j’ai envie que vous nous en parliez, j’ai envie que vous nous parliez de ce dont on parle peu, tous ceux qui travaillent sur cette mécanisation algorithmique, ces micro-travailleurs et j’ai envie, d’abord, de vous demander pourquoi vous êtes intéressé au digital labor ? Pourquoi ? D’abord toujours le pourquoi des choses.

Antonio Casilli : Le pourquoi des choses ? Le pourquoi des choses, c’est que, étant donné mon âge qui n’est plus vert et surtout mon origine, on peut le deviner à mon accent, je ne suis pas vraiment franco-français, mon origine italienne, je suis tombé très tôt dans le chaudron d’abord de l’informatique et, de l’autre côté, dans une pensée qu’on a appelée, à une époque, post-opéraïste, post-ouvriériste. Ce sont les personnes qui s’occupent de comment le travail s’articule dans un contexte dans lequel on a abandonné, désormais, le lieu de travail, donc un travail qui n’a pas de lieu. Et ce travail n’a pas de lieu, il y a 30 ans ou il y a 20 ans, était celui des freelances, celui des personnes qui travaillaient depuis chez elles. Après, tout cela s’est généralisé dans la mesure où pas mal de profession, désormais, s’appuient sur des figures professionnelles qui ne ressemblent pas exclusivement aux salariés d’antan et, suite à des chocs, par exemple la crise pandémique, la généralisation du travail à distance a fait en sorte que chacun d’entre nous, d’un certain point de vue, soit un peu plus télétravailleur aujourd’hui, avec beaucoup de bémols et avec, surtout, une variabilité des situations.
Les personnes desquelles je m’occupe depuis désormais presque une décennie, qu’on appelle les micro-travailleurs, sont, si vous voulez, la frontière extrême de ce travail à distance.

France Charruyer : Qu’on ne voit pas

Antonio Casilli : On les voit de plus en plus, ces dernières années, parce que, quand même, on a eu l’explosion de l’intelligence artificielle et l’intelligence artificielle, elle, est très visible et tout un tas questions surgissent au niveau politique, au niveau juridique, sur, finalement, qui fait l’intelligence artificielle.
On voit tout le temps, parce qu’ils s’affichent dans les médias, les grands scientifiques, comme Yann Le Cun, monsieur intelligence artificielle de Facebook, ou d’autres qui ont forgé les algorithmes, mais, après, on se dit « peut-être que n’est pas vraiment le travail d’un seul innovateur, c’est le travail d’une véritable usine à intelligence artificielle, donc qui sont les ouvriers de cette usine ? » . Et dès qu’on se pose cette question, d’abord on se rend compte du fait que ces intelligences artificielles n’existent pas s’il n’y a pas un travail de personnes qui, parfois, en temps réel, sont en train de faire l’algorithme, de faire exister l’algorithme, et là on commence à aller chercher ces travailleurs et on les trouve à des endroits qui vont vous surprendre.

France Charruyer : Jadis vous nous en parliez de ces Turcs mécaniques. En fait, ce que vous êtes en train de nous dire, c’est que l’IA magique, qu’on est en train de nous défendre, de nous dépeindre à tour de bras, de ChatGPT, de Copilote, de Mistral, de Google, de Gemini et d’autres, en fait, derrière, n’est rien sans nous. On a une IA Potemkine, des Turcs mécaniques, dont nous sommes tous en train de nourrir la machine sans véritablement comprendre ce qu’on est en train de faire. J’aimerais bien une illustration, parce que j’ai vu qu’il y avait un travail cybernétique dont on parle peu, je crois qu’il y a Amazon, la plateforme d’Amazon, il y a Clickworker également, et on a, sur l’évolution du droit du travail, de plus en plus recours à du micro-travail, des micro-tâches, y compris pour les salariés. Que vous pouvez-vous nous dire là-dessus ?

Antonio Casilli : D’abord il faut faire un petit détour historique. Vous avez cité le Turc mécanique ou l’intelligence artificielle Potemkine, ce sont des termes, des formules un peu spécialisées qui, peut-être, ne parlent pas à ceux qui nous écoutent. Donc, petit détour dans l’empire autrichien du 18e siècle, ce n’est pas vraiment là où on situe la naissance de l’intelligence artificielle, mais, à un certain moment, un monsieur qui s’appelait baron von Kempelen, a inventé la première intelligence artificielle, soi-disant, qui était le célèbre joueur turc d’échecs. C’était un robot, un automate déguisé en Turc ottoman, qui était censé simuler les processus cognitifs d’un joueur d’échecs, donc de défier et battre aux échecs des champions bien en chair et en os. La légende veut que même Napoléon ait été par le Turc mécanique Or, dans le Turc mécanique, il y a un problème : en réalité, c’était un canular. À l’intérieur de l’automate se cachait, en réalité, un joueur, un véritable être humain qui, d’abord, était capable de déchiffrer ce qui se passait sur l’échiquier et, ensuite, était capable de mettre en place une stratégie.
Cette métaphore a été récupérée par Jeff Bezos, le patron d’Amazon, en 2005, il y a presque 20 ans, quand, à un certain moment, il a voulu lancer une plateforme de type un peu spécial qui ne faisait pas de e-commerce de livres ou de chaussures, comme Amazon tout venant, mais qui faisait commerce de travail humain. Il a donc a appelé cette plateforme « Amazon Mechanical Turk » parce qu’il se disait, et ce sont vraiment ses propos, « c’est une manière de faire de la artificial artificial intelligence ».

France Charruyer : Cynique !

Antonio Casilli : Oui, cynique ! Il avait dit « c’est de la fausse intelligence artificielle » qu’on a, ensuite, appelée aussi « intelligence artificielle Potemkine », c’est une autre référence aux Russes de la même période que le Turc mécanique historique, bref, peu importe ! Ce qui veut dire qu’aujourd’hui et depuis désormais 20 ans, on crée des plateformes qui ont comme vocation le fait de mettre au travail, plutôt au micro-travail, des personnes qui sont appelées à réaliser des tâches très petites, je vous donne quelques exemples, qui consistent à retranscrire des textes, ou à traduire des bouts de textes.

France Charruyer : Ou à indexer.

Antonio Casilli : Oui. Je parle de textes, parce que, évidemment, ça évoque tout de suite ChatGPT et ChatGPT a été pré-entraîné grâce au travail de ces personnes-là qui, à longueur de journée, ont récupéré des grandes masses de données qui ont été collectées sur Internet, de manière plus ou moins légale par OpenAI, le producteur de ChatGPT. Il fallait, ensuite, améliorer ces données brutes, les enrichir et, pour enrichir ces données, il fallait non pas confier toute la masse de données à quelques experts très bien payés, ça aurait été non seulement très cher mais très long. On a donc choisi cette autre option qui consiste à prendre cette masse de données et filer un petit bout de cette masse de données à une personne et après un autre bout à une autre personne et, très vite, vous vous retrouvez avec des millions de personnes qui font ce travail.

France Charruyer : Peu qualifiées, invisibles.

Antonio Casilli : Comment les qualifier, c’est encore plus complexe. En plus, vous me posez la question en 2024, lorsqu’il y a une véritable discussion au niveau de la communauté des chercheurs sur la façon d’appeler ces personnes et c’est parfois une discussion très musclée.

France Charruyer : Sous-traitants, micro-travailleurs ?

Antonio Casilli : Commençons par la façon dont les entreprises parlent de ces personnes-là. D’abord, elles n’en parlent pas en tant que travailleurs. Si elles emploient le terme de crowdwork, elles insistent beaucoup sur le côté crowd, sur le côté « foule », plutôt que sur le côté work, sur le côté « travail ».
Après, effectivement, on peut parfois avoir des micro-travailleurs qui sont recrutés via des chaînes de sous-traitance, parfois assez classiques, surtout lorsqu’on a affaire à des pays à faible revenu. Nous travaillons beaucoup sur des pays comme Madagascar, en Afrique, Kenya récemment puisque, évidemment, c’était là où ChatGPT a été fait largement, Venezuela en Amérique latine, mais on a aussi le Bangladesh, les Philippines, encore une fois, ce n’est pas vraiment la Silicon Valley ! On ne s’imagine pas que l’intelligence artificielle est faite, à la main parfois, par des millions de personnes dans ces pays comme ceux-là. Et, dans ces pays-là, pour des questions qui sont parfois des questions de connectivité et même d’approvisionnement à un courant électrique : à Tananarive, la capitale de Madagascar, vous avez des décrochages assez fréquents ; au Venezuela, Caracas, San Cristóbal, ce sont des villes, même des villes importantes où vous avez de l’électricité, disons, 10 heures par jour. Dans ce contexte-là, il faut s’organiser pour pouvoir assurer ce travail, il faut s’organiser avec une bonne connectivité, des endroits dans lesquels ces personnes peuvent vraiment consacrer du temps à faire ce type de micro-tâche. Parfois, elles ne sont pas équipées chez elles, donc, il faut les inviter à se rendre à des endroits. Ça redevient donc un travail de bureau qui a un lieu mais qui, quand même, n’est pas encadré de la manière formelle qu’on souhaiterait.

France Charruyer : Il y a donc une précarisation, on parle aussi de précariat.

Antonio Casilli : On parle de précariat, certainement pour les pays européens. Pour les pays européens, ces personnes-là sont des personnes qui sont payées à la pièce, à la tâche. C’est pour cela qu’on parle non seulement de micro-tâches, mais qu’on utilise un terme que j’ai moi-même forgé et qui est très controversé, je l’admets, qui est donc le terme de micro-tâcherons.

France Charruyer : Ou les tâcherons du clic.

Antonio Casilli : Les tâcherons du clic ! C’est, effectivement, une manière d’insister beaucoup sur le fait que ce n’est pas un travail souhaitable. Si je le dis c’est parce que parfois, dans mon activité, j’ai affaire surtout aux plus jeunes qui m’écrivent des messages privés sur Twitter du type « j’ai vu ce que vous avez dit sur ça, c’est terrible, mais moi ça m’intéresse ! – Écoute, franchement, ce n’est pas vraiment le sens de ce que je dis. Je raconte ça pour mettre pour souligner le danger social, même pour toi, en tant que travailleur, d’aller faire un travail comme ça. ». Donc, insister sur le fait que ce n’est pas un travail souhaitable.

France Charruyer : Et qu’il faut peut-être qu’on parle de la transparence, puisqu’on parle souvent de soutenabilité, d’engagement, de RSE.

Antonio Casilli : Ça, c’est pour les entreprises.

France Charruyer : Oui, mais même les entreprises qui, aujourd’hui, vont avoir la plus forte capitalisation boursière sont celles qui vont produire beaucoup d’IA et celles qui, par vocation, par nécessité, vont faire appel à ces micro-travailleurs et qui vont souvent le taire. On nous en parle très peu. On est donc dans une forme d’illusion. Peut-être qu’il y a 20 ans, Bezos était ou cynique ou visionnaire. Quand on vous parle de Turc mécanique et, qu’en fait, c’est un canular, est-ce qu’on n’est pas face à un canular, aujourd’hui, lorsque l’on est en train de nous faire passer des IA génératives pour de la magie, qui vont tout nous faire, et, en fait, qu’elles ne font que recracher ce qu’on leur donne ?

12’ 35

Antonio Casilli : OK. Je vais vous raconter, ce n’est pas vraiment une petite anecdote parce que c’est quelque chose qui fait partie de l’une de nos observations participantes et, en plus, qui a fait l’objet d’une publication scientifique, donc ce n’est pas vraiment de l’anecdotique. Avec les étudiants et collègues de mon groupe de recherche, nous avons passé une semaine, en 2022, dans une usine à micro-tâches de Tananarive, à Madagascar. Nous partagions notre quotidien avec 120 personnes qui travaillaient le jour et la nuit pour réaliser de l’intelligence artificielle à la main. Par là, je veux dire que parfois elles passaient des heures et des heures à annoter des images de prompteurs du type Linky, ce n’était pas Linky.

France Charruyer : Des fermes à clics.

Antonio Casilli : Oui, ce sont presque des fermes à clics, mais, en même temps, c’était quand même du travail de très haut niveau. Souvent, les fermes à clics, ce sont des personnes qui cliquent sans savoir exactement pourquoi, parce qu’elles ont été payées pour devenir des faux fans ou followers sur Instagram, c’est un cas classique. Ces personnes-là devaient quand même y mettre beaucoup d’intelligence humaine, donc, dans cette intelligence artificielle, il y avait beaucoup d’intelligence non artificielle.
Le cas particulier était que l’une des applications qu’ils développaient concernait une entreprise européenne qui produisait des caméras de surveillance intelligentes, je souligne le côté « intelligentes », parce que l’intelligence, encore une fois, n’était pas si artificielle que ça. Que font ces caméras ? Elles sont déployées dans des supermarchés, mais elles pourraient très bien être utilisées pour faire de la reconnaissance faciale pendant les JO. Ces caméras, déployées dans des supermarchés européens, détectent si quelqu’un est en train de voler un bout de chocolat ou des pâtes, peu importe, donc, elles sont capables non seulement de détecter les êtres humains, mais aussi de détecter le geste illicite. Face à ça, elles envoient un message, donc un SMS automatique aux caissiers ou aux agents sécurité. J’ai beaucoup insisté sur « intelligence automatique ». Maintenant, oubliez ces adjectifs-là parce que la réalité est que dans le garage et dans le grenier de cette maisonnette de la périphérie de Tananarive, il y avait des équipes de 30/60 personnes qui, en temps réel, étaient en train de vérifier si quelqu’un était en train de voler du chocolat ou des pâtes. Elles faisaient semblant d’être un automate, un système automatique, en envoyant un texto, en plus un texto standard, aux caissiers en disant « à tel endroit, quelqu’un qui a volé du chocolat. »

France Charruyer : Ça manque de transparence.

Antonio Casilli : Ça manque de transparence, c’est certain, mais ça ne manque pas d’intelligence et elle ne se situe pas là où on la soupçonnerait. Ce n’est pas l’intelligence des algorithmes, c’est l’intelligence de ces personnes-là qui doivent vraiment apprendre à reconnaître des gestes, des comportements, des endroits qui ne sont pas forcément les leurs.

France Charruyer : Ce n’est pas inné !

Antonio Casilli : Si vous êtes un travailleur malgache ou un travailleur kényan, ce n’est pas certain que vous que vous sachiez exactement comment les choses se passent dans tous les autres pays du monde.
Autre exemple très terre à terre : les gens qui sont payés pour faire de la détection automatique de plateaux repas dans les cantines. Si vous êtes, que sais-je, un travailleur au Bangladesh, vous ne savez pas, par exemple, qu’en France, dans les cantines françaises en correspondance de certaines fêtes commandées, par exemple la fête de Noël, la forme des assiettes change parce qu’on met des assiettes spéciales Noël, et là, vous vous perdez vos repères. En plus, vous ne savez pas ce qu’il y a dans ces assiettes-là. Les systèmes alimentaires, dans plusieurs pays d’Afrique ou d’Asie, ne correspondent pas du tout aux trucs qu’on bouffe ici en France.

France Charruyer : L’engagement sociétal de ces multiples multinationales algorithmiques qui engrangent des milliards et des milliards de bénéfices et qui s’engagent dans une course folle à celui qui aura la plus grosse IA, du moins celle qui est présumée la plus performante, du moins avec une puissance de calcul phénoménale, elles sont en train de nous masquer l’essentiel.

Antonio Casilli : Elles sont en train de nous masquer le fait que ce travail-là est un travail incontournable, vous ne pouvez pas vous passer de ce travail-là. On l’appelle parfois the Human-in-the-loop, en anglais ça veut dire « l’être humain dans la boucle ».

France Charruyer : Et c’est la même chose pour les contenus, finalement le droit d’auteur. Là, n’a-ton pas une injonction et un devoir de s’intéresser à la juste répartition de la valeur, qu’il s’agisse du travail ou des contenus ?

Antonio Casilli : Pour les contenus, l’avantage est quand même que vous savez déjà où sont les contenus, qui les a produits et que, d’un certain point de vue, le droit d’auteur permet de mieux protéger ces personnes que face à une population entièrement invisibilisée.

France Charruyer : Je pense qu’on en arrive à une invisibilisation également de ceux qui vont revendiquer des droits d’auteur, parce que c’est très difficile, en pratique, d’exercer en opt-out. Il y a des organismes, des organisations, on va en parler, on essaie, sur la nouvelle directive, de mettre en place une gestion collective des droits. Mais pour ceux qui nous intéressent, les précarisés, les invisibles, les tâcherons du clic, quelles sont les solutions que l’on a pour s’en occuper enfin et introduire un peu de justice sociale dans tout cela ?

Antonio Casilli : Parlons d’abord de transparence, vous avez évoqué le mot à plusieurs reprises. Il faudrait effectivement avoir une injonction d’une transparence plus importante pour les entreprises, ce qui pose un problème. Pour ces entreprises, la transparence signifie, d’une part, dévoiler non pas le secret industriel mais, à la limite et d’une manière un peu crue, les Anglais disent « comment on produit la saucisse, qu’est-ce qu’on met dans la saucisse comme ingrédients ».

France Charruyer : Pour cela il y a des obligations, mais on s’intéresse à la transparence de l’algorithme mais pas à la transparence et ceux qui y participent.

Antonio Casilli : Très vite, on se heurte à un problème avec ces obligations qui est qu’elles s’inscrivent dans des très longues chaînes de sous-traitance. Si j’ai des obligations en termes de transparence dans ce que je fais, si je suis, par exemple, une entreprise du CAC 40, je peux vous raconter ce que je fais à Toulouse ou à Paris et être très transparent sur ce qui se passe dans nos bureaux. En même temps, cette obligation de transparence s’arrête lorsque j’ai un sous-traitant et que ce sous-traitant a un autre sous-traitant, que cet autre sous-traitant passe par une plateforme et que cette plateforme, à son tour, se tourne vers des petites mini-entreprise informelles ou individuelles, dans des pays très éloignés.

France Charruyer : Non structurées, non conscientes de leurs droits et qui ont besoin de ce travail pour faire vivre leur famille, donc un asservissement volontaire.

Antonio Casilli : Oui ou, plutôt, une situation de chantage à l’emploi et, dans certains cas, de chantage au visa, parce que vous avez aussi pas mal, en Europe en particulier, de populations migrantes qui sont impliquées dans ce type de travail. La modération de Facebook faite en Allemagne, qui fait l’objet aujourd’hui d’un contentieux, était faite largement par des personnes qui venaient de pays comme l’Iran, l’Azerbaïdjan et dont le visa dépendait du fait qu’elles continuent à réaliser ces tâches et surtout qu’elles ne fassent pas des vagues face à une entreprise qui a des pratiques qui ne sont pas vraiment très respectueuses du droit du travail, surtout dans un pays comme l’Allemagne où on est effectivement face à une régulation assez sérieuse.

France Charruyer : Donc l’acceptabilité sociale, c’est important, parce qu’on parle beaucoup d’explicabilité, d’interprétabilité, mais aussi d’acceptabilité sociale. Le travail que vous faites est donc très important de dévoilement, pas simplement le dévoilement de l’individu, il y a aussi et surtout le dévoilement des cas d’usage, des pratiques et des logiques sous-jacentes derrière tout cela. On est donc sur une organisation d’une gouvernementalité algorithmique qui repose sur un asservissement d’une partie de la population, plus ou moins volontaire. Que fait-on face à ça ?

Antonio Casilli : D’abord, je vais vous avouer un truc de sociologue : arrêtons peut-être de parler d’acceptabilité sociale, c’est un concept assez dangereux.
Dans mon métier de professeur universitaire, mais, en même temps, de chercheur, j’ai souvent affaire à des entreprises ou à des pouvoirs publics qui nous demandent des expertises, et ce mot de l’acceptabilité est agité comme l’objet même de ce que devrait être notre travail : assurer l’acceptabilité de technologies. Je pense que notre rôle devrait être de mettre en question ces technologies, l’existence pas l’acceptabilité ! Si on rentre dans une logique d’acceptabilité dire qu’on a produit une machine dont les effets sont potentiellement très dangereux – l’exemple classique qu’on utilise entre nous, c’est la machine à tuer les enfants ; on invente un truc comme ça – et on n’a même pas le droit de dire « votre machine est complètement débile ! Non seulement elle est débile, mais elle est criminelle ! ». Si je dis la même chose « on a inventé une machine à précariser les emplois et maintenant toi, occupe-toi de l’acceptabilité sociale de cela », j’ai un problème !

France Charruyer : C’est compliqué. En fait, on a une polarisation qui est accrue sur le marché du travail au détriment des travailleurs les moins qualifiés. En fait, on refait toujours la même chose.

Antonio Casilli : En effet, on refait toujours la même chose depuis plusieurs siècles.
D’abord monter les travailleurs informels versus les travailleurs formels, parce qu’il faut pas oublier que, souvent, le spectre des micro-travailleurs, ces masses de micro-travailleurs qui se trouvent à l’autre bout du monde, est agité contre les salariés de chez nous en disant « tu as intérêt à te tenir à carreau, parce que, sinon, je vais délocaliser tout ça, via une plateforme, au Bangladesh ».

France Charruyer : Donc on met tout le monde au pas.

Antonio Casilli : On met tout le monde en concurrence et c’est une vieille histoire. C’est pour cela, effectivement, que le fait de récupérer le mot de tâcheron, qui n’était pas péjoratif il y a deux siècles, c’est pour souligner le fait qu’on est en train de revenir en arrière de deux siècles. Quand les tâcherons étaient la seule forme d’existence des travailleurs, certainement une forme même idéale, à la limite, parce que le tâcheronnat a quand même assuré un certain niveau d’autonomie aux travailleurs qui pouvaient choisir de réaliser, ou pas, une tâche.

France Charruyer : On va y revenir ?

Antonio Casilli : On n’est pas dans la même situation, parce que les micro-tâcherons qui sont aujourd’hui sur des plateformes n’ont pas vraiment cette liberté de pouvoir dire non : si votre visa, si votre revenu et, en même temps, votre existence à l’intérieur d’un écosystème numérique, dépend de ça, vous n’avez pas vraiment la possibilité de dire non. D’autant plus que, et c’est un autre élément, parce que vous parlez de transparence, la transparence est double : ces entreprises et ces plateformes ne sont pas transparentes vis-à-vis des travailleurs. Si je suis un micro-tâcheron inscrit aujourd’hui sur une plateforme et qu’on me dit de retranscrire 20 mots, on ne me dit pas pourquoi. Il y a des tas de raisons pour ne pas me dire pourquoi, il y a des questions de droit des affaires, il y a des questions de ne pas introduire un biais supplémentaire dans les algorithmes qui vont être produits à la fin, mais, parfois, les effets sont désastreux. Si vous vous retrouvez à entraîner, comme j’ai vu des personnes le faire, des intelligences artificielles à déployer dans le contexte militaire, est-ce que vous êtes un train, sans le savoir, de contribuer à un crime contre l’humanité ? Un autre exemple qui remonte un peu à notre étude de 2019 sur le micro-travail en France : des personnes étaient micro payées pour réaliser une tâche qui consistait à jouer à un jeu vidéo dans lequel il fallait se rapprocher de personnes à l’apparence et au nom « à consonance française », je mets ça entre beaucoup de guillemets, et s’éloigner de personnes à l’apparence et au nom dont les consonances ne sont pas françaises de souche, on va dire comme ça. Les travailleurs se posaient ces questions : pourquoi sommes-nous en train de jouer à ce jeu et de nous faire micro payer pour jouer à ce jeu ? Est-ce que nous sommes en train de participer, par exemple, à des expérimentations de psychologie sociale sur les attitudes discriminatoires des Français ou est-ce que nous sommes en train de dresser un jeu vidéo raciste pour on ne sait pas exactement qui ?

France Charruyer : Donc, on en revient toujours à l’obligation de loyauté qui sous-tend tous les rapports sociétaux, pas uniquement ceux dans lesquels je suis dans le cadre d’une relation salariée, avec le lien de subordination, mais ceux aussi auxquels je me dois d’être éthique et sûre dans mon environnement, de toute ma chaîne de sous-traitance, du plus gros au plus petit et à mes micro-travailleurs. En fait, toutes les directives qu’on est en train d’avoir sur les obligations de vigilance, de soutenabilité, de transparence, AI Act, Data Act, tout ce paquet digital autour de la circulation de la donnée, de la valorisation de la donnée, font l’impasse sur le sujet principal.

26’ 43

Antonio Casilli : Sur les travailleurs.
J’ai une vision légèrement différente. Je pense que la question de la loyauté a été une tentative très importante il y a une dizaine d’années. En effet, dans ce qu’on vient de dire, par exemple dans le cas classique d’un travailleur qui se retrouve à faire une tâche sans savoir pourquoi, là, il y a vraiment un besoin de loyauté vis-à-vis du travailleur si on le considère comme n’importe quel utilisateur de n’importe quelle plateforme. Facebook doit être loyal vis-à-vis de ses utilisateurs par exemple sur le type de recommandation algorithmique.

France Charruyer : Ce qu’elle a du mal à faire. Cambridge Analytica est passée par là

Antonio Casilli : Je me souviens de la notion de loyauté. Il y avait justement un rapport du Conseil national du numérique en France, ça remonte à 2014, il y a dix ans, et ça marchait bien pour le type d’écosystème qu’on avait à l’esprit, dans ce rapport-là en particulier, qui était un système très dominé par des plateformes de médias sociaux. Aujourd’hui, on a une situation légèrement différente, d’abord on voit aussi d’autres plateformes et on se rend compte, effectivement, que ces plateformes ne sont pas envisageables si on ne prend pas en compte une longue chaîne de sous-traitance internationale. C’est pour cela que je dis que la question du devoir de vigilance a encore son mot à dire

France Charruyer : La compliance, la vraie compliance.

Antonio Casilli : La compliance c’est comment les entreprises envisagent, après, l’obligation de vigilance et c’est aussi un jeu dangereux parce qu’on se retrouve avec des entreprises qui ont envie de faire le minimum nécessaire ; c’est normalement cela la compliance.

France Charruyer : Juste pour passer, le costume, on met le joli costume !
Là on a quand même un vrai sujet, c’est-à-dire qu’on a des géants, des plateformes qui sont en situation de monopole, on assiste à une centralisation du pouvoir par l’IA au détriment des plus petits. Qu’est-ce qu’on va faire sur cette asymétrie qui est en train de se constituer à une échelle démentielle, avec quatre opérateurs qui disent ce qu’on doit faire le matin, ce qu’on doit faire le soir, ce qu’on va peut-être même être contraints de penser, parce qu’il n’y a pas que les microtravailleurs qui sont dans une situation d’asservissement ? Est-ce qu’une des questions de la loyauté, à laquelle vous avez très bien répondu, n’est-ce pas ce qu’il va nous rester d’autonomie de la volonté ?

Antonio Casilli : Vous dites quatre opérateurs parce que ce sont les GAFA français.

France Charruyer : Ou les Chinois. On en a une dizaine, en fait, qui jouent en ce moment.

Antonio Casilli : En effet. D’abord ne pas sous-estimer le fait que l’acronyme change tout le temps. C’est certain que les deux dernières années ont été les années dans lesquelles le « M » de GAFAM, donc Microsoft a quand même fait un truc assez phénoménal.

France Charruyer : Maintenant on a Nvidia, donc on a le « N ».

Antonio Casilli : C’est vrai. Mais le M est arrivé à non seulement absorber dans son orbite OpenAI, donc ChatGPT, Mistral tout de suite ! Ils ont lancé le produit, paf !, ils ont vendu tout ça !

France Charruyer : Avec une vassalisation du gouvernement.

Antonio Casilli : OK, longue histoire ! Vous venez de citer le gouvernement, donc parlons aussi du fait que les GAFAM ou alors les MAMAA [Microsoft, Amazon, Meta, Apple et Alphabet], parce qu’ils ont changé de nom entre-temps, n’existent pas si elles ne sont pas aussi dans un écosystème politique : le paquet européen dont vous avez parlé, le paquet digital, ces 30 directives, AI Act.

France Charruyer : Le mille-feuille.

Antonio Casilli : Ce paquet-là est fait par les institutions européennes, mais en collaboration stricte et directe avec ces grandes entreprises, en créant, par exemple, ce qu’on appelle des bacs à sable, c’est-à-dire des lieux d’expérimentation, ou alors en établissant des standards qui sont faits en concert.

France Charruyer : Des standards et référentiels qui sont accessibles à des grandes entreprises, qui sont peu accessibles aux entreprises qui sont de taille plus moyenne ou plus modeste, ou à la société civile. C’est très coûteux. Outre les enjeux de cybersécurité qui se greffent là-dessus, ce à quoi nous assistons c’est qu’aujourd’hui ces intelligences artificielles génératives sont en train aussi de s’empoisonner, puisqu’on a beaucoup de données synthétiques qui arrivent. Finalement, le canular de départ, d’il y a 20 ans, sur le Turc mécanique, on l’observe aujourd’hui, on voit qu’il y a des micro-travailleurs. On voit que, maintenant, sous couvert de réglementation, on se dit qu’il faut peut-être jouer le match différemment, beaucoup de données synthétiques qui alimentent les machines parce que c’est cher de respecter une réglementation. Selon vous, à quoi va-t-on assister là ?

Antonio Casilli : Pour répondre à quoi on va assister, je mets d’abord un tout petit bémol sur la question des données synthétiques. C’est quelque chose qu’on tend à ressortir toutes les quelques années, le fait de dire qu’on peut entraîner ces mêmes intelligences qui produisent des données synthétiques avec des données synthétiques en entrée. Il y a un petit problème le problème est qu’on rentre dans des boucles.

France Charruyer : De rétroaction infinie.

Antonio Casilli : Oui, ce qu’on appelle, en statistique, du sur-apprentissage, c’est-à-dire qu’elles se spécialisent sur des choses sur lesquelles elles sont spécialisées : si votre base de données de départ avait, par exemple, un biais pro-personnes à la peau blanche, votre machine va produire encore plus de données de visages blancs, donc, après, va créer des boucles dans lesquelles tous les autres…, donc votre intelligence artificielle ne va pas marcher, tout simplement.

France Charruyer : Après, il y a le pire. On fait maintenant du design, c’est-à-dire qu’on va introduire de la discrimination positive et je me retrouve, avec Gemini et Google, avec des papes noirs ou asiatiques, etc., donc ça devient aujourd’hui une grande farce ; on s’amuse !

Antonio Casilli : En tant qu’Italien, je peux vous dire qu’il y a eu des papes noirs, sauf qu’on les a représentés d’une manière très différente, il y avait des empereurs romains noirs, c’est moins impressionnant en ce qui me concerne. Bref !
Pour revenir à la situation et comment la situation se présente aujourd’hui. On se retrouve certainement dans une situation conflictuelle. Ces entreprises-là, toutes oligopolistiques qu’elles soient, se trouvent aujourd’hui dans une situation dans laquelle elles ne peuvent plus se permettre de produire ou lancer des produits sans être soumises, d’entrée, à une vigilance de la société civile, de l’opinion publique ensuite, et après des gouvernements mêmes, parce que les gouvernements sont quand même redevables vis-à-vis des autres pouvoirs et contre-pouvoirs, qui, en jouant le jeu de la régulation, j’insiste beaucoup sur le fait que c’est un spectacle, c’est un ballet, sont là aussi pour rappeler à ces entreprises qu’elles ne peuvent pas se permettre, en 2024, ce qu’elles se permettaient en 2014.

France Charruyer : C’est la société du spectacle.

Antonio Casilli : Oui, la société du spectacle régulateur, c’est certain !

France Charruyer : Donc on a avancé quand même !

Antonio Casilli : Certainement. En termes d’allégations marketing, elles ne peuvent plus se permettre les choses qu’elles se permettaient auparavant, dire que cette intelligence artificielle va marcher, qu’elle va être entièrement automatisée, qu’elle va avoir des effets positifs pour toute la société, que ça va entraîner un monde collaboratif.

France Charruyer : Et merveilleux. Donc la logique de redevabilité de la régulation fonctionne ?

Antonio Casilli : De ce point de vue-là, oui. En même temps, on voit aussi que les intérêts des gouvernements et des grandes entreprises peuvent converger d’une manière vicieuse ; je pense que le AI Act a été le cas le plus extrême de cela. D’abord, il y a un gros trou dans le AI Act, c’est-à-dire qu’il ne parle pas de travail.

France Charruyer : Ni du juge.

Antonio Casilli : C’est vrai. L’absence du travail est due au fait que, en parallèle, on était en train de négocier la directive européenne sur le travail des plateformes, donc, comme on ne peut pas être partout, même les décideurs politiques ont dit « toi, tu vas plutôt t’occuper de ça et moi je vais dans l’autre commission ».
La question beaucoup plus grave est que les pouvoirs publics, les forces de l’ordre et tout un tas de pouvoirs économiques qui sont liés, si vous voulez, au complexe militaro-industriel, sont arrivés à trouer cette directive de manière telle que, aujourd’hui, on ne peut plus déployer, de manière disons non régulée, une intelligence artificielle de reconnaissance faciale sur les citoyens français, par contre pour tous les migrants dans la mer, eh ien oui, c’est parfait, même si c’est, par la suite, pour cibler leur embarcation et la couler.

France Charruyer : Ce n’est à la même base légale, c’est donc la centralisation du pouvoir par la donnée.

Antonio Casilli : Ce n’est pas la même base légale, ce qui veut dire que cette régulation est complice du fait d’établir que ce n’est pas la même humanité, ce ne sont pas les mêmes droits de l’homme et de la femme et de tous les autres.

France Charruyer : Pourtant, on en parle des droits de l’homme ! On nous dit qu’on va devoir faire des droits de l’homme risk assessment, c’est-à-dire des analyses de risque fondé sur un contrôle de la proportionnalité à l’égard des droits de l’homme, on s’en gargarise beaucoup, mais on est en train de reconstituer une espèce de sous-humanité, c’est véritablement cet enjeu et ce défi sur lequel vous vous battez. Déjà, pour nous, c’est merveilleux de vous entendre et on a envie de vous entendre encore davantage. Pour ceux qui ne connaissent pas c’était la directive dont on parlait tout à l’heure, du 11 mars 2024, du Conseil de l’Union européenne sur les travailleurs des plateformes. On doit tous se poser la question sur ce nouveau prolétariat, ce nouveau précariat, et cette notion de dignité dont tout le monde se gargarise, ce n’est pas la dignité uniquement pour quelques-uns, c’est de la dignité pour tous dans l’usage des nouvelles technologies.
La suite, ça sera contrôler le temps pour contrôler les corps, privatiser le temps. Finalement, la métaphore ultime ne serait-elle pas qu’on est toujours dans une relation de maître à esclave, Antonio ?

Antonio Casilli : Déjà, je ne sais pas si c’est les mots « esclave », « esclavage » s’adaptent bien. Là on est dans un contexte de travail et le travail, en tant que notion, a été inventé par opposition à l’esclavage. L’esclavage est, finalement, une activité qui n’est pas libre. Le travail doit toujours être libre, le plus possible. Il y a donc, effectivement, des possibilités d’émancipation du travail – c’est, si vous voulez, le côté envolée lyrique –, mais on a aussi dans notre to do list, les choses à faire dans les années à venir, d’abord une lutte acharnée contre ces oligopoles : il faut casser ces grandes entreprises, c’est une question d’antitrust, si vous voulez. Et, de l’autre côté, il faut faire appliquer des lois qui existent déjà en termes, par exemple encore une fois, de responsabilité civile, mais même au niveau environnemental de ces entreprises ; c’est une question de soutenabilité, qui devient soutenabilité sociale et environnementale de ces grandes entreprises, sans oublier qu’il faut insister sur le fait que des standards de travail dignes existent au niveau international, l’activité du syndicalisme, au niveau international, existe, des standards de travail existent au niveau international. Qu’on commence déjà par faire respecter ceux-là et c’est le minimum qu’on puisse demander.

France Charruyer : Notre boussole doit donc toujours rester l’humain, pas simplement sur des articles de loi, et on doit l’exercer de manière très concrète. Nous attendons avec impatience la réforme des actions de groupe qui nous permettra, peut-être, de rétablir les curseurs au bon endroit.
Je vous remercie infiniment Antonio d’être venu, je vous ai reçu beaucoup de bonheur aujourd’hui, et à bientôt pour les nouvelles Causeries Data, toujours plus de techno lucidité face à la déferlante des algorithmes.

Antonio Casilli : Merci à vous.