Différences entre versions de « La Méthode scientifique: Réseaux sociaux, les temps modèrent »

De April MediaWiki
Aller à la navigationAller à la recherche
(Création de la page)
 
(Commencé ; reprendre à 38'25)
Ligne 13 : Ligne 13 :
  
 
== Introduction ==
 
== Introduction ==
 +
 +
chaque minute ce sont trois cent cinquante mille messages qui sont postés sur twitter ça fait vingt et un millions par heure à ce rythme là comment est-il possible d'envisager une modération de s'assurer que face à cette déferlante aucun de ces messages ne contiennent de propos haineux inapproprié de fausses informations ou d'images violentes ; c'est tout l'enjeu quantitatif de la modération sur les réseaux sociaux auquel il faut ajouter l'enjeu qualitatif : qu'est-ce qui doit être modéré interdit ou supprimé sans pour autant porter atteinte à la liberté d'expression. entre modérateurs humains et algorithmes, législations nationales et internationales, le problème atteint un certain degré de raffinement dans la complexité.
 +
 +
Réseaux sociaux les temps modèrent, c'est le programme censuré qui est le nôtre pour l'heure qui vient bienvenue dans la méthode scientifique.
 +
 +
Et pour tout comprendre aux arcanes bien complexes comme vous allez l'entendre de la modération des réseaux sociaux j'ai le plaisir de recevoir aujourd'hui Leila Mörch. Bonjour
 +
 +
Bonjour
 +
 +
Vous êtes coordinatrice du projet de recherche du Content Policy and Society Lab à l'université de stanford en californie. Et nous sommes en ligne avec Asma Mhalla, bonjour.
 +
 +
Bonjour
 +
 +
Vous êtes enseignante à sciences po spécialiste des enjeux politiques et géopolitiques du numérique et j'ai d'ores et déjà à mes côtés notre doctorante julie charpenet bonjour
 +
 +
Bonjour
 +
 +
On vous entendra tout à l'heure vers seize heures trente nous présenter vos travaux de recherche mais on commence par celle qui a dû fermer dix sept de ses vingt cinq comptes Twitter pour des raisons que je ne dévoilerai pas, c'est
 +
natacha triou pour le journal des sciences.
 +
 +
 +
== Première partie ==
 +
 +
le vingt cinq avril dernier elon musk aujourd'hui homme le plus riche du monde et patron de spacex et tesla annonçait son intention de racheter le réseau social twitter pour la modique somme de quarante-quatre milliards de dollars. pourquoi donc vouloir débourser autant d'argent pour un réseau social qui ne génère un chiffre d'affaires que avec beaucoup de guillemets évidemment de cinq milliards. pour le rendre plus rentable certes mais surtout au nom de la liberté d'expression. pour le milliardaire les règles de twitter que l'on pourrait juger de ce côté-ci de l'atlantique plutôt lâches sont au contraire pour lui trop stricte son intention est de rendre la liberté d'expression sur le réseau social complète y compris pour exprimer des opinions qui sont ici en europe condamnées par la loi. comment modérer les réseaux sociaux, qui pour les modérer, êtres humains ou algorithmes doivent-ils ou non être filtrés, que disent les lois et comment les géants d'internet s'y conforment-ils ou non ? un problème qui comme vous allez l'entendre s'apparente à la quadrature du cercle. pourtant, dès le début d'internet de la nature même de ce réseau de communication décentralisé la question de ce qui peut s'y dire ou non se poser comme en atteste notre archive du jour, nous sommes en mille neuf cent quatre vingt treize
 +
 +
sur internet donc code de conduite implicite d'une part et d'autre part code d'écriture qui permet de resituer plus précisément les émotions de chacun josiane jouet
 +
 +
il existe effectivement des codes de bonne conduite sur internet comme ils existaient d'ailleurs sur le réseau télématique français et sur internet ça s'appelle la nétiquette contraction de net et du terme étiquette c'est finalement tout ce que vous êtes censé faire, et éviter de faire quand vous naviguez sur un réseau. il faut savoir se présenter, il y a des codes de bienséance minimaux à respecter et d'ailleurs si vous ne les respectez pas, hé bien plus personne bien sûr ne répondra à vos messages vous serez éjecté. La même chose se passait effectivement sur les forums du minitel français.
 +
 +
Voilà la nétiquette, ou net étiquette, ça paraît délicieusement désuet aujourd'hui mais ça pose finalement dès le départ les enjeux de base de ce que ce nouvel outil de communication qu'était internet que commençait à être internet produisait sur la façon de communiquer sur la liberté d'expression, Leïla Mörch.
 +
 +
Ce qui est assez intéressant et je pense que la position d'elon musk en ce moment révèle bien à quel point il est encore sur certains aspects en tout cas on peut imaginer dans cette époque pour lui du début du net ou du début du web où en fait il s'agissait de lutter contre une certaine forme de conservatisme religieux et où finalement internet était une forme d'espace à conquérir pour sortir de visions où il fallait être très pudique où il ne fallait pas parler de sexualité où il ne fallait pas avoir de violence juste une image de jeu vidéo hyper pixelisés de quelqu'un dont la tête explosait était complètement inimaginable sur les réseaux sociaux, et donc on peut imaginer que lui, il est encore dans cet espace là dans sa tête avec une forme de splinternet en fait où il se dit mais il faut qu'on retrouve cette liberté le web est censé être vraiment cet espace où on a de la place où on peut s'exprimer librement or entre-temps il y a eu une histoire de l'internet il y a eu une histoire et il y a eu une révélation au grand public de ce que la massification sur les réseaux sociaux peut amener de haine peut amener de danger peut amener... et donc en fait c'est
 +
assez intéressant de faire ce retour-là en arrière pour voir comment peut-être les fondateurs de twitter avaient la même vision qu'elon musk et puis un jour ils se sont pris le mur de la réalité. et donc cette mythologie là est intéressante à décortiquer
 +
 +
nicolas martin : ce qui est intéressant et ce qu'on entend aussi dans cette archive asma mhalla c'est que avec le web effectivement, quatre vingt treize
 +
c'est l'apparition, les débuts du www, on était face à une transformation complète de la façon de s'exprimer en tout cas de la façon dont on pouvait délivrer son information par rapport aux médias traditionnels, on était face un réseau ouvert décentralisé sur lequel le contrôle était très difficile et donc se posait la question de qu'est ce qu'on peut y dire est-ce qu'on doit tout y dire est-ce que ce doit être un espace totalement de libéralisme informationnel ou est-ce qu'il faut là aussi bien appliquer des règles un peu de l'ancien monde
 +
 +
en fait, alors au début de l'utopie d'internet évidemment il y avait cette idée mais très fausse en réalité d'un espace ouvert et égalitaire avec les prémices d'ailleurs de l'économie de la connaissance c'est-à-dire un accès absolument libre et gratuit à la connaissance pour tous et toutes. et donc c'était un peu l'idée en fait ce que vous dites très justement c'était d'horizontaliser la parole de tous donc un outil de démocratie directe qui en fait devait, aurait dû, repenser l'exercice même démocratique et même de ce qu'est la parole publique. en réalité ce qu'on a vu apparaître et je suis pas tellement en phase pour surpsychologiser musk en disant que il une vision... il a certes une vision utopique mais pas tellement bloquée du tout dans les années soixante soixante dix c'est-à-dire aux prémices de ce qu'était internet, le protocole en tout cas en lui-même, je pense qu'au contraire c'est un anarchiste de droite qui peut d'un point de vue sociétal pencher vers l'alt-right américaine parfois sur certains combats et qui a une vision en fait très en ligne avec l'acception américaine de la liberté d'expression, premier amendement de la constitution : une acception de la liberté d'expression maximaliste et sacralisée par la constitution elle-même d'ailleurs, et renforcé derrière par la section 230, c'est un texte qui en fait déresponsabilise le rôle des plateformes quant à leur responsabilité de modération et qui leur donne le statut d'hébergeur et non pas d'éditeur on y reviendra peut-être. donc par rapport à l'horizontalisation de la parole oui il y a eu un enjeu qui a été raté et qui a été d'autant plus raté que au tournant des années deux mille le web s'est reverticalisé et on a vu les big tech les fameuses gafam qui ont finalement remis du capitalisme prédateur, captif, ce capitalisme de surveillance etc. qui finalement a monétisé ce qui aurait dû être libre et gratuit. et par ailleurs et je terminerai là-dessus je parlais bien d'utopie parce que ça n'a été que ça, une utopie. la littératie numérique initiale qui aurait dû justement donner à tous les moyens d'accès et de compréhension de ces codes-là n'a jamais eu lieu, et en fait on s'aperçoit et ça ce sont des travaux de la sociologue américaine jens schraedie qui montre très bien qu'en réalité les inégalités, ceux qui ont d'emblée compris les codes étaient de toute façon des hommes blancs lettrés éduqués etc. et donc on avait une reproduction de ces inégalités
 +
pratiquement de façon native.
 +
 +
NM : je vais poser la question de manière très naïve parce que je pense que finalement c'est ce que j'essayais de montrer, ou en tout cas de montrer un peu l'ampleur des enjeux de la modération aujourd'hui non plus de l'internet ou du web mais des réseaux sociaux càd d'une partie de cet internet et de ces plateformes d'expression collective : quand on voit les différences de législation comme vient de l'évoquer asma mhalla la différence de conception de ce qu'est la liberté d'expression d'un pays à l'autre on parle des états-unis on pourrait parler de la russie ou la chine, quand on voit la quantité de contenu qui est posté au jour le jour est-ce que l'idée, l'objectif d'une modération aujourd'hui fait sens intellectuellement ? est-ce que c'est pas trop de contraintes pour pouvoir vraiment imaginer un jour que ces espaces-la soient modérés au sens où nous le comprenons ici aujourd'hui depuis ce studio en france avec notre conception politique sociologique et anthropologique ?
 +
 +
LM : déjà je pense que lorsqu'on imagine la modération, personne n'imagine une modération où il n'y aurait aucun raté c'est totalement impossible parce que tout simplement elle s'adapte à un espèce de contenu qui est toujours plus conséquent et puis après on a la question des bot qui vont arriver, on a la question des IA, qui publient on a vu au moment du scandale cambridge analytica des messages qui étaient envoyés à hauteur de quatre vingt dix mille fois de manière personnalisée donc il y a cet aspect-là où on va dire il ne faut pas se faire d'illusions. maintenant est-ce que c'est une raison pour baisser les bras et dire bon bah de toute façon quitte à être dans la mouise autant y aller à fond, on est pas trop sûr non plus parce que les premières victimes bah finalement ça sera les gens qui n'auront pas les moyens de s'équiper qui n'auront pas les moyens de lutter pour ça et encore une fois et c'est toute la vision peut-être de la liberté d'expression à l'américaine et encore celle-ci est de plus en plus divisée ou à l'européenne c'est comment est-ce que celle-ci peut être distribuée partagée ou est-ce que c'est la loi du plus fort comme ce qu'on peut voir aux etats-unis. et encore une fois cette histoire de premier amendement est très... elle est assez marrante parce que le premier amendement en fait normalement ne concerne pas directement les plateformes. le premier amendement normalement s'applique au gouvernement s'applique à l'état s'applique à ces positions là, les plateformes elles comme disait très bien asma mhalla sont régies par la section deux cent trente la section deux cent trente leur donne la possibilité ou non de modérer donc en fait le premier amendement ne concerne pas en premier lieu les entreprises privées et donc finalement pendant longtemps beaucoup disaient allons la section 230 ça permet aux grandes plateformes de faire ce qu'elles veulent atteinte à la liberté d'expression ce à quoi les démocrates répondaient attention, le premier amendement c'est pour les organismes publics ça ne concerne pas les entreprises privées, maintenant qu'elon musk est arrivé et dit lui-même je fais ce que je veux sur ma plateforme beaucoup disent attention il faut modérer non les entreprises privées font ce qu'elles veulent en leur demeure mais le premier amendement à l'origine c'est vraiment pour la partie gouvernements et on voit qu'aujourd'hui on a un overlap entre le public et le privé
 +
 +
nm : nous parlons donc de la modération sur les réseaux sociaux tout au long de cette heure en compagnie de Leïla Mörch et de Asma Mhalla peut-être est-ce qu'on peut commencer asma mhalla par expliquer aujourd'hui comment sont modérés les réseaux sociaux concrètement comment ça marche ; on va se fonder sur Twitter Facebook et Instagram principalement mais est-ce que vous pouvez nous expliquer comment c'est modéré ?
 +
 +
AM : oui alors en fait vous avez deux grands volets ou deux grandes façons de le faire d'abord c'est les modérations humaines donc c'est vraiment des individus comme vous et moi qui sont souvent d'ailleurs dans des contrées lointaines, philippines, afrique du nord, caucase qui sont absolument sous-payés dans des conditions délétères avec d'ailleurs des traumatismes psychologiques très profonds souvent très mal accompagnés d'ailleurs par les plateformes, et qui vont vraiment modérer en direct avec des heures de travail et des jours ouvrés les contenus la quantité phénoménale de contenu et d'information qui circule sur les réseaux sociaux. Ça ce sont les modérateurs humains sous-payés dans des conditions que j'évoquais. Là on est extrêmement en-dessous de ce qui pourrait être une ambition minimale de modération. un réseau social comme twitter trois cents millions d'utilisateurs actifs il a deux mille modérateur dans le monde. Facebook c'est à peu près dans les mêmes proportions donc on est vraiment sur de la
 +
sous-modération humaine et puis le deuxième grand volet de la modération c'est ce qu'on commence à voir apparaître c'est l'automatisation avec des débuts finalement d'algorithmes d'intelligence artificielle pas très sophistiqués qui essaient d'encoder, d'encapsuler un maximum d'informations de ce qui pourrait être modéré, c'est-à-dire censuré ou invisibilisés ou pas. et typiquement, et votre question est particulièrement d'actualité et intéressante parce qu'on a vu les failles ce week-end même suite aux tueries de buffalo où en réalité certes le live stream sur twitch a été coupé dès la deuxième minute donc assez vite par rapport à christchurch où en fait c'est là où tout le débat avait réellement commencé et qu'il n'avait été coupé qu'au bout de dix sept minutes donc là il y avait une réelle amélioration, en revanche les extraits de vidéos ont continué à circuler pendant plus de quarante-huit heures durant le week-end. donc s'est posé la question malgré tous les outils d'automatisation les plateformes existantes le travail de signalement y compris en france sur pharos qui est la plateforme de signalement on n'a pas réussi à endiguer ce type de viralité ou de contenu extrêmement viraux. et en fait qui sont d'abord relayés par les communautés suprémacistes et puis ensuite qui font par capillarité et boule de neige qui sont récupérés par les différents bords politiques pour décrier, pour dénoncer etc. peu importe pourvu que finalement on parle du contenu et donc typiquement l'exemple de ce week-end de buffalo est un échec fondamental de ce qu'est ou de ce qu'aurait dû être la modération qu'elle soit humaine et en l'occurrence c'était un dimanche donc on peut supposer que les équipes étaient en sous-effectif, donc problème organisationnel et puis derrière une automatisation qui visiblement concrètement a été totalement faillible ou en tout cas n'a pas réussi. et plus largement sur la question de la modération ou de la faisabilité même de la modération hé bien en fait c'est là le principal problème, ou plus exactement vous en avez deux à mon sens. le premier
 +
qui est très terre-à-terre, c'est la question très opérationnelle. est-ce qu'on est aujourd'hui en mesure d'industrialiser des moyens d'une part de modération mais surtout du contrôle de la modération typiquement dans le digital services act, le dsa dont on reparlera sûrement, on prévoit des instances de contrôle avec le régulateur, avec la justice, on voit aujourd'hui l'état de la justice on voit qu'aujourd'hui l'Arcom, le régulateur français, ils sont trois cent cinquante collaborateurs donc se pose réellement la question des moyens financiers, compétences, techniques, technologiques, et en réalité la question ou la réponse aujourd'hui est très claire nous n'avons pas les moyen d'industrialiser une modération qui soit en mesure de faire face à la volumétrie absolument extraordinaire de contenus et d'informations qui circulent. ça c'est le premier niveau de réponse. Et le deuxième niveau qui est beaucoup plus philosophique c'est de dire dès l'instant où on bute sur une voie sans issue qu'est la modération aujourd'hui plutôt que de s'entêter comment contourner la difficulté et à mon sens il faut remonter la chaîne de valeur. La modération en réalité c'est quand c'est déjà trop tard. Donc il va falloir repenser la question de l'éducation la question du régulateur le rôle de l'etat la responsabilité des plateformes leur modèle économique etc etc et ce sont là en réalité les véritables questions qui d'ailleurs et par parenthèse vont s'amplifier avec le métavers qui va arriver dans les prochaines années.
 +
 +
NM : je sais pas si on va avoir le temps d'aborder toutes ces questions-là dans les quarante minutes qui restent de l'émission mais on voit bien en tout cas
 +
ce qui est important LM et ce que pointe AM c'est que effectivement c'est finalement ce à quoi on venait au début c'est-à-dire que c'est quelque chose de titanesque, que finalement la modération c'est écrêter vraiment à la marge des comportements abusifs et dont on voit aussi que même en tentant d'écrêter à la marge ces comportements abusifs-là et bien l'intelligence artificielle comme on va l'entendre dans pas longtemps se
 +
trompe et finit par cibler les mauvais messages donc finalement qu'est ce qui reste de l'intention de cette modération qui a tout de même pour ambition de protéger les utilisatrices et les utilisateurs de messages haineux, de caractère qui peuvent leur nuire dans des conditions qu'on entend et qui sont par ailleurs humainement comme on vient de l'entendre particulièrement scandaleuses pour ce qui est de la modération humaine
 +
 +
LM : complètement. je pense que lorsqu'il s'agit de la modération il s'agit de n'être ni trop pessimiste ni trop optimiste. quand on voit la façon dont le droit s'est construit dans la vie réelle ça a mis des années des années et des années à pouvoir adresser toutes les situations de violence dans la rue aujourd'hui on voudrait que pour des plateformes qui ont moins de vingt ans on trouve en six mois la solution. c'est pour dire qu'il y a une question de moyens déjà à mettre en avant, et les plateformes ne mettent pas les moyens mais il y a aussi des questions...
 +
 +
NM : C'est pas qu'elles n'ont pas les moyens par ailleurs
 +
 +
LM : Ah c'est pas qu'elles n'ont pas les moyens, elles ne les mettent pas mais il y a aussi des questions de méthode. et donc effectivement à vouloir dire d'un coup oui mais la modération AI elle ne convient pas parce qu'elle a des biais parce qu'elle n'est pas explicable mais du coup est ce que ça veut dire qu'on sacrifie donc en fait finalement des personnes humaines parce que je vous invite tous à lire trois témoignages maximum de ce qu'ils voient honnêtement on ne peut pas demander plus d'effectifs humains que ça quasiment pas ce que c'est c'est trop dur en fait à voir.
 +
 +
NM : il faut préciser par ailleurs que il y a deux ans facebook a été condamné à verser cinquante deux millions de dollars à des milliers de modérateurs pour compensation des  traumatismes liés à leur travail puisque ce sont des gens qui sont confrontés à longueur de journée à des contenus haineux à des vidéos de meurtres et donc ce sont des gens qui vivent et qui témoignent de traumatismes profonds liés à ce métier qui est par ailleurs exercé dans les conditions que décrivait tout alors AM
 +
 +
LM : complètement, nous on est en lien avec beaucoup de modérateurs notamment avec  Chris Grey qui fait partie un peu des leaders de ces modérateurs-là et ce type-là de condamnations devrait arriver encore plus souvent mais encore une fois c'est 1 un manque de moyens 2 un manque de méthode et donc en fait lorsqu'on sépare ces questions-là de modération on se demande finalement à qui revient l'obligation. est-ce que la plateforme doit décider de tout, tout le temps, qui modère quoi est-ce que c'est elle qui doit les payer est-ce qu'il y a un moment une sorte de conseil extérieur qui peut être monté c'est pour ça que nous au Lab on essaie d'avoir une méthode globale qui permette d'avoir ce qu'on appelle la multi-stakeholders approach, la méthode multipartite, on essaye de travailler avec des associations, avec des experts, avec des politiques et avec des modérateurs pour ne pas laisser de trous dans la raquette et donc quand on voit ce qui se passe au niveau des tueries de buffalo mais aussi sur la modération par exemple en langues non anglophones c'est un drame absolu regardez la modération dans les pays en afrique c'est juste hallucinant en fait il n'y a quasiment aucune modération. Et en fait sur ces questions-là on ne pourra avoir que des réponses peut-être que technologiques ; ça ne veut pas dire qu'il ne doit pas y avoir des humains derrière, mais quand on regarde sur facebook quatre vingt dix pour cent des contenus sont finalement retirés par des IA, ça monte jusqu'à quatre vingt quinze dans les cas de contenu haineux et donc finalement pour moi le véritable enjeu d'investissement là-dedans c'est d'investir dans des meilleures technologies qui vont petit à petit progresser qui vont petit à petit prendre en compte le contexte si elles travaillent avec des associations si elles travaillent avec des mises en contexte si elle travaillent à ne pas être simplement faites par des techniciens dans un laboratoire au fond de la silicon valley avec des hommes qui ont cinquante ans... et même parfois beaucoup moins
 +
 +
NM : Il y a même des femmes aussi parfois
 +
 +
LM : voilà mais pour finir sur ce sujet-là donc ça va être 1) rendre ces IA beaucoup plus performantes et ça on va y arriver parce que la technologie progresse à une vitesse extraordinaire mais on va y arriver si honnêtement on va sur le terrain si honnêtement on fait de la contextualisation ; la deuxième chose c'est que ces IA doivent être efficaces mais explicables et ça c'est vraiment le deuxième aspect de la modération qui est très peu entendu et le DSA ne sanctuarise pas ça du tout c'est que même s'il recommande aux plateformes de justifier leurs décisions de modération les plateformes sont tenues responsables et peuvent avoir une amende si elle ne retirent pas des contenus, elles ne peuvent pas avoir une amende si elles retirent trop de contenu. et donc en fait c'est vraiment cette partie explicabilité qui va être essentielle.
 +
 +
NM : alors je précise que tout à l'heure dans quelques minutes, dans la deuxième partie de cette émission on va effectivement poser, on va revenir sur ce qu'évoquait tout à l'heure AM c'est-à-dire le DSA une directive européenne, on va essayer de poser des questions juridiques et évidemment des questions éthiques parce que se surajoute à toute cette problématique qui est déjà particulièrement complexe évidemment des enjeux éthiques extrêmement importants mais à propos justement de ce que vous évoquiez c'est-à-dire des limites des algorithmes et de l'intérêt à travailler notamment avec des acteurs associatifs ça tombe bien puisque c'est exactement ce dont on voulait vous parler dans notre reportage du jour, vous avez peut-être vous qui nous écoutez déjà été surprise ou surpris par des messages automatiques de modération de vos posts alors que vous pensiez pas à mal et que vous n'aviez pas l'impression d'avoir écrit quelque chose d'horrible notamment en envoyant des messages à l'intention de votre communauté avec un certain vocabulaire qui est mal compris par l'algorithme comme étant une insulte. bonjour alexandra delbo
 +
 +
AD : Bonjour Nicolas
 +
 +
NM : ce sort que je viens de décrire c'est ce qui arrive bien trop souvent notamment à des militants ou à des militantes associatifs.
 +
 +
AD : exactement et notamment des militants et militantes LGBT ; j'ai rencontré thibault grisons doctorant au sky le centre de recherche de la sorbonne sur l'IA et au laboratoire Gripic le centre de recherche en sciences de l'information et de la communication du Celsa et pour étudier comment les algorithmes peuvent censurer certaines publications de militants et militantes LGBT sur twitter il utilise deux approches. une première consiste en une collecte de témoignages et recueil d'expériences dont les militants et militantes disent être les victimes et la seconde est une récolte de données nommée reverse engineering. avec son algorithme il récolte régulièrement les données de profils ou de tweets avec certains mots-clés et dès qu'il aperçoit qu'un compte est bloqué ou un tweet a disparu il essaye de remonter au contenu modéré et à l'analyser et déterminer s'il s'agit d'une modération abusive ou non.
 +
 +
TG : dans le contexte de la modération des réseaux sociaux, des personnes en fait qui depuis ces cinq dernières années se sont rendu compte que leur contenu semblait être supprimé plus facilement que d'autres et ce type de censure-là semblait beaucoup toucher en tout cas les personnes qui étaient déjà victimes de haine en ligne, des militants antiracistes LGBT, féministes etc. ; le deuxième contexte c'est plus au niveau de la recherche on va dire d'un point de vue vraiment épistémologique depuis ces quinze dernières années en tout cas aux états-unis il y a beaucoup de travaux qui ont émergé notamment dans les cultural studies, dans le contexte anglo-saxon, où en fait on a commencé à prendre les outils comme l'intelligence artificielle ou plus largement tout ce qui relève de l'informatique, du numérique, comme des technologies qui pouvaient reproduire en fait des discriminations et c'est en fait de là qu'émerge le sujet des discriminations algorithmiques qui est encore très peu abordé dans la recherche francophone.
 +
 +
AD : donc cette discrimination algorithmique elle vient de biais dans la conception des algorithmes. est-ce que ça provient du jeu de données initial ou alors est-ce que c'est simplement une transposition des biais cognitifs, sous-entendu déjà discriminants, qui existent, par les humains ?
 +
 +
TG : alors en fait il y a tout un ensemble de causes possibles aux discriminations algorithmiques dues à tout un ensemble de biais algorithmiques qui existent déjà. c'est comme si en gros vous aviez... la conséquence c'était la discrimination algorithmique la cause c'est le biais algorithmiques et du coup effectivement le biais algorithmique peut être de plusieurs types soit parce que le jeu de données en lui-même est biaisé ; est-ce que c'est parce qu'on se base sur un corpus de données un jeu de données qui existe déjà, un corpus historique qui du coup est déjà lui-même biaisé, est-ce qu'on a créé un jeu de données artificielles sans pour autant penser aux biais qu'il pouvait constituer parce qu'on a du coup oublié de représenter telle ou telle catégorie de la population il y a aussi un biais algorithmique possible dans les équipes de designers en soi : qui sont ces personnes-là ? il y a des travaux par exemple qui montre que ce sont majoritairement des hommes blancs cisgenre, hétérosexuels. bref il y a tout un ensemble je pourrais continuer encore à parler de ça il y a tout un ensemble de biais
 +
qui existent et qui du coup permettent de formuler différentes hypothèses quand on a un cas de discrimination algorithmique
 +
 +
AD : comment étudier les discriminations dans la modération comment est-ce qu'on peut mesurer ses effets ?
 +
 +
TG : il y a deux approches la première ça va être d'abord de faire tout une concaténation de ces discriminations-là donc de ces formes de censure. comment ces formes de censure se matérialisent sur les réseaux sociaux : est-ce que c'est du déréférencement de contenu, est-ce que c'est de la suppression de contenu est-ce que c'est de la suspension de compte ? Une fois que cette parole militante-là est recueillie, ce que je fais c'est que moi j'essaie de faire de ce qu'on appelle de la reverse engineering où en fait j'essaie de voir comment fonctionnent ces algorithmes-là, donc là je récolte des données qui seront même potentiellement susceptibles d'être censurées plus tard je les récolte à l'instant T au moment où ils sont publiés je les récolte et, on va dire deux jours après ou vingt quatre heures après j'essaye de faire différentes hypothèses de temporalité, je repasse dessus avec mes lignes de code pour voir dans quelle mesure ils ont été modérés ou pas. Du coup j'ai ces lignes de code qu'ont été développées avec l'ingénieur en informatique Félix Allié qui sont au nombre de... je sais pas, il y a deux cent lignes de code d'un programme informatique juste pour qu'on puisse collecter en gros des mots-clés, notamment des mots-clés comme gay, pédé, gouine etc. pour voir en gros qu'est-ce qui est modéré et moi j'ai juste à entrer "Entrée", et boum, et j'ai en résultat de nouvelles lignes qui apparaissent des lignes de résultats on me dit pour chaque utilisateur : M. Tartempion, deux points, compte supprimé, deux points, compte modéré etc, et du coup, là j'ai ce tableau qui apparaît j'ai un fichier qui s'enregistre automatiquement sur mon ordinateur avec ce tableau-là. Et du coup j'ai un peu deux collectes j'ai cette collecte par profil, par statut de profil et j'ai une autre collecte qui est en fait la plus importante dans mon travail qui est une collecte par tweet qui aurait été modéré ou là c'est une collecte où je fais une recherche par mots-clés comme je disais avec les mots-clés gay et pédé gouine etc tout un ensemble de mots-clés qui renvoient à la culture LGBT soit parce que ce sont des insultes qui font l'objet de réappropriations militantes, comme c'est le cas de pédé, soit parce que c'est des mots-clés neutres qui renvoient à l'orientation sexuelle et je regarde sur ce tableau qu'on voit là je regarde en fait les tweets qui ont été supprimés et là par exemple j'ai un exemple d'un tweet qui dit je suis pédé
 +
après moi je retrace le chemin, donc depuis ce tableau je retourne sur le compte de l'utilisateur ou l'utilisatrice et en fait je vois que c'est un militant LGBT qui en fait tweet ça dans une forme de militantisme en fait. et du coup là il y a un cas de modération que je juge en tout cas abusive et que les militants et militantes jugent abusif. et en fait le propre de mon sujet c'est que c'est un sujet qui est beaucoup traité en informatique les biais algorithmiques mais pas d'un point de vue sciences humaines et sociales parce qu'en fait les chercheurs et chercheuses en sciences humaines et sociales ne savent pas vraiment comment marche la machine, sauf qu'en fait les informaticiens et informaticiennes ne savent pas vraiment comment marche la machine non plus parce que tout ça est opaque, et du coup moi j'ai à cœur dans ma recherche de faire une sorte de recherche action, une recherche un peu située où j'assume en fait un parti pris militant dans la manière dont je me saisis de mon sujet et du coup je cherche à rendre cette recherche en gros disponible pour ces sphères militantes-là et du coup à ce stade de ma thèse j'ai un petit peu rationalisé tous les cas de discrimination algorithmique. Mon enjeu maintenant c'est d'un peu rationaliser mon corpus : quels termes je vais choisir, est-ce que du coup je vais partir sur des mots-clés est-ce que je vais partir sur de la recherche par profil, est-ce que je vais repartir sur des entretiens, est-ce que je vais faire un peu de tout ça parce que je travaille aussi sur les chartes de modération etc, donc en gros : maintenant j'ai tout ça, qu'est-ce que je fais pour en gros être le plus convaincant en fait dans mon argument et en même temps produire des hypothèses sur : quels sont ces biais algorithmiques dans le contexte de la modération.
 +
 +
NM : voilà ce reportage sur les discriminations algorithmiques. AM, votre réaction à l'un de ces problèmes qui est aussi un problème de taille et de surmodération ?
 +
 +
AM : alors oui ça revient à ce qu'on disait tout à l'heure c'est-à-dire que certes on peut espérer qu'à un moment donné les algorithmes c'est-à-dire l'encodage, les datasets, la façon dont les algorithmes sont éduqués, sont entraînés puisse s'améliorer avec le temps, néanmoins il faut être un tout petit peu réaliste aujourd'hui les résultats sont plus que disons discutables ou modestes et le problème étant que il ne s'agit pas simplement d'un résultat technologique qu'on pourrait juger, évaluer à l'aune d'indicateurs techniques parce que si ça n'était que ça, il n'y aurait pas tellement de problèmes. Le problème qui est pointé là c'est que en effet ça crée d'une part de la discrimination, mais en réalité on retrouve ce sujet de l'algorithmisation et de l'automatisation y compris dans les questions de l'état plateforme, des services publics, de la reproduction des discriminations d'un certain type de populations en réalité c'est une reproduction du réel en amplifié, et c'est exactement les mêmes problèmes aussi qu'on retrouve sur les réseaux sociaux : les réseaux sociaux ne créent pas le problème ; en réalité ils le reflètent, ils l'amplifient, ils l'orientent et si on appose déjà à ce problème initial un algorithme qui ajoute encore des biais des filtres et donc des choix et par là donc de la subjectivité alors on risque d'avoir de de grands soucis d'autant plus que le problème qui s'attache aux réseaux sociaux c'est donc la question de la liberté d'expression et là le problème devient fondamentalement politique et non plus simplement technique ou technologique et donc ce qui est absolument extraordinairement passionnant dans le sujet en réalité c'est que tout ça s'hybride tout ça est imbriqué : modèle économique, modèle technologique, modèle politique, et les trois s'interpellent en permanence. et simplement je voulais rebondir tout à l'heure rapidement mais parce que c'est quand même en lien ; on peut parler de modération et c'est tout le sujet de notre émission mais en réalité parler de la modération des réseaux sociaux sans pointer le fait que les réseaux sociaux eux-mêmes sont devenus des entreprises politiques et géopolitiques et on l'a vu à l'aune de la guerre en ukraine -- ça devient aujourd'hui des champs de conflictualité, les réseaux sociaux sont des armes de guerre, sont militarisés, se joue de la désinformation de la cyberdéstabilisation, de l'intoxication informationnelle et ça a commencé en réalité à partir de 2016 avec les différentes ingérences russes dans les campagnes américaines le brexit la campagne présidentielle de deux mille dix sept etc et donc ce que je veux dire par là c'est que modérer n'est pas à prendre comme étant quelque chose de complètement neutre où toutes choses étant égales par ailleurs le réseau social par sa gouvernance par la vision de son patron la vision du monde ses appétences ses choix politiques Zuckerberg et le vietnam en deux mille vingt musk et l'ukraine en deux mille vingt deux etc etc n'est absolument pas neutre et donc modérer suppose aussi de comprendre quel est le modèle politique et quelle est l'idéologie qui est derrière. Ce qu'on visibilise c'est autant de choses qu'on va invisibiliser ensuite
 +
 +
NM : c'est exactement ce dont nous allons parler dans quelques minutes dans la deuxième partie de cette émission un mot très rapide une réaction très rapide LM.
 +
 +
LM : je souscris complètement à ce que dit AM et c'est vraiment l'intérêt énorme de cette affaire de musk et qui lève le voile sur un problème global et qu'en fait qu'il s'appelle musk ou qu'il s'appelle jack dorsey ou qui s'appelle Zuckerberg la vraie question en fait c'est de se rendre compte que derrière chaque méthode de modération en fait il est censé y avoir une vision politique et c'est pour ça que nous on s'appelle le Content Policy et pas le Content Moderation. On travaille sur les politiques de contenu, c'est à dire qu'il y a la couche modération c'est l'outillage finalement ; il y a la couche régulation c'est comment est-ce qu'on utilise ces outils et la couche politique de contenu c'est finalement quelle est la vision c'est quoi la liberté d'expression comment est-ce qu'un jour on plante un drapeau on dit ok ça va peut-être faire des pas contents, ça va peut-être faire des contents mais voici le modèle et c'est un modèle qu'on va choisir démocratiquement aujourd'hui cette politique elle est laissée à la main des grandes plateformes est-ce qu'il faut ou ce qui faut pas c'est un autre débat mais quand on voit l'impact sur la société de ces grandes plateformes cette politique là ne peut pas être laissée d'une manière arbitraire donc 100% en ligne.

Version du 23 mai 2022 à 11:11


Titre : La Méthode scientifique : Réseaux sociaux, les temps modèrent

Intervenant : Nicolas Martin (animateur), Asma Mhalla et Leïla Mörch (invitées)

Date : mercredi 18 mai 2022

Durée : 58'31

Lien vers la page de l'émission : https://www.radiofrance.fr/franceculture/podcasts/la-methode-scientifique/moderation-des-reseaux-sociaux-3598478


Introduction

chaque minute ce sont trois cent cinquante mille messages qui sont postés sur twitter ça fait vingt et un millions par heure à ce rythme là comment est-il possible d'envisager une modération de s'assurer que face à cette déferlante aucun de ces messages ne contiennent de propos haineux inapproprié de fausses informations ou d'images violentes ; c'est tout l'enjeu quantitatif de la modération sur les réseaux sociaux auquel il faut ajouter l'enjeu qualitatif : qu'est-ce qui doit être modéré interdit ou supprimé sans pour autant porter atteinte à la liberté d'expression. entre modérateurs humains et algorithmes, législations nationales et internationales, le problème atteint un certain degré de raffinement dans la complexité.

Réseaux sociaux les temps modèrent, c'est le programme censuré qui est le nôtre pour l'heure qui vient bienvenue dans la méthode scientifique.

Et pour tout comprendre aux arcanes bien complexes comme vous allez l'entendre de la modération des réseaux sociaux j'ai le plaisir de recevoir aujourd'hui Leila Mörch. Bonjour

Bonjour

Vous êtes coordinatrice du projet de recherche du Content Policy and Society Lab à l'université de stanford en californie. Et nous sommes en ligne avec Asma Mhalla, bonjour.

Bonjour

Vous êtes enseignante à sciences po spécialiste des enjeux politiques et géopolitiques du numérique et j'ai d'ores et déjà à mes côtés notre doctorante julie charpenet bonjour

Bonjour

On vous entendra tout à l'heure vers seize heures trente nous présenter vos travaux de recherche mais on commence par celle qui a dû fermer dix sept de ses vingt cinq comptes Twitter pour des raisons que je ne dévoilerai pas, c'est natacha triou pour le journal des sciences.


Première partie

le vingt cinq avril dernier elon musk aujourd'hui homme le plus riche du monde et patron de spacex et tesla annonçait son intention de racheter le réseau social twitter pour la modique somme de quarante-quatre milliards de dollars. pourquoi donc vouloir débourser autant d'argent pour un réseau social qui ne génère un chiffre d'affaires que avec beaucoup de guillemets évidemment de cinq milliards. pour le rendre plus rentable certes mais surtout au nom de la liberté d'expression. pour le milliardaire les règles de twitter que l'on pourrait juger de ce côté-ci de l'atlantique plutôt lâches sont au contraire pour lui trop stricte son intention est de rendre la liberté d'expression sur le réseau social complète y compris pour exprimer des opinions qui sont ici en europe condamnées par la loi. comment modérer les réseaux sociaux, qui pour les modérer, êtres humains ou algorithmes doivent-ils ou non être filtrés, que disent les lois et comment les géants d'internet s'y conforment-ils ou non ? un problème qui comme vous allez l'entendre s'apparente à la quadrature du cercle. pourtant, dès le début d'internet de la nature même de ce réseau de communication décentralisé la question de ce qui peut s'y dire ou non se poser comme en atteste notre archive du jour, nous sommes en mille neuf cent quatre vingt treize

sur internet donc code de conduite implicite d'une part et d'autre part code d'écriture qui permet de resituer plus précisément les émotions de chacun josiane jouet

il existe effectivement des codes de bonne conduite sur internet comme ils existaient d'ailleurs sur le réseau télématique français et sur internet ça s'appelle la nétiquette contraction de net et du terme étiquette c'est finalement tout ce que vous êtes censé faire, et éviter de faire quand vous naviguez sur un réseau. il faut savoir se présenter, il y a des codes de bienséance minimaux à respecter et d'ailleurs si vous ne les respectez pas, hé bien plus personne bien sûr ne répondra à vos messages vous serez éjecté. La même chose se passait effectivement sur les forums du minitel français.

Voilà la nétiquette, ou net étiquette, ça paraît délicieusement désuet aujourd'hui mais ça pose finalement dès le départ les enjeux de base de ce que ce nouvel outil de communication qu'était internet que commençait à être internet produisait sur la façon de communiquer sur la liberté d'expression, Leïla Mörch.

Ce qui est assez intéressant et je pense que la position d'elon musk en ce moment révèle bien à quel point il est encore sur certains aspects en tout cas on peut imaginer dans cette époque pour lui du début du net ou du début du web où en fait il s'agissait de lutter contre une certaine forme de conservatisme religieux et où finalement internet était une forme d'espace à conquérir pour sortir de visions où il fallait être très pudique où il ne fallait pas parler de sexualité où il ne fallait pas avoir de violence juste une image de jeu vidéo hyper pixelisés de quelqu'un dont la tête explosait était complètement inimaginable sur les réseaux sociaux, et donc on peut imaginer que lui, il est encore dans cet espace là dans sa tête avec une forme de splinternet en fait où il se dit mais il faut qu'on retrouve cette liberté le web est censé être vraiment cet espace où on a de la place où on peut s'exprimer librement or entre-temps il y a eu une histoire de l'internet il y a eu une histoire et il y a eu une révélation au grand public de ce que la massification sur les réseaux sociaux peut amener de haine peut amener de danger peut amener... et donc en fait c'est assez intéressant de faire ce retour-là en arrière pour voir comment peut-être les fondateurs de twitter avaient la même vision qu'elon musk et puis un jour ils se sont pris le mur de la réalité. et donc cette mythologie là est intéressante à décortiquer

nicolas martin : ce qui est intéressant et ce qu'on entend aussi dans cette archive asma mhalla c'est que avec le web effectivement, quatre vingt treize c'est l'apparition, les débuts du www, on était face à une transformation complète de la façon de s'exprimer en tout cas de la façon dont on pouvait délivrer son information par rapport aux médias traditionnels, on était face un réseau ouvert décentralisé sur lequel le contrôle était très difficile et donc se posait la question de qu'est ce qu'on peut y dire est-ce qu'on doit tout y dire est-ce que ce doit être un espace totalement de libéralisme informationnel ou est-ce qu'il faut là aussi bien appliquer des règles un peu de l'ancien monde

en fait, alors au début de l'utopie d'internet évidemment il y avait cette idée mais très fausse en réalité d'un espace ouvert et égalitaire avec les prémices d'ailleurs de l'économie de la connaissance c'est-à-dire un accès absolument libre et gratuit à la connaissance pour tous et toutes. et donc c'était un peu l'idée en fait ce que vous dites très justement c'était d'horizontaliser la parole de tous donc un outil de démocratie directe qui en fait devait, aurait dû, repenser l'exercice même démocratique et même de ce qu'est la parole publique. en réalité ce qu'on a vu apparaître et je suis pas tellement en phase pour surpsychologiser musk en disant que il une vision... il a certes une vision utopique mais pas tellement bloquée du tout dans les années soixante soixante dix c'est-à-dire aux prémices de ce qu'était internet, le protocole en tout cas en lui-même, je pense qu'au contraire c'est un anarchiste de droite qui peut d'un point de vue sociétal pencher vers l'alt-right américaine parfois sur certains combats et qui a une vision en fait très en ligne avec l'acception américaine de la liberté d'expression, premier amendement de la constitution : une acception de la liberté d'expression maximaliste et sacralisée par la constitution elle-même d'ailleurs, et renforcé derrière par la section 230, c'est un texte qui en fait déresponsabilise le rôle des plateformes quant à leur responsabilité de modération et qui leur donne le statut d'hébergeur et non pas d'éditeur on y reviendra peut-être. donc par rapport à l'horizontalisation de la parole oui il y a eu un enjeu qui a été raté et qui a été d'autant plus raté que au tournant des années deux mille le web s'est reverticalisé et on a vu les big tech les fameuses gafam qui ont finalement remis du capitalisme prédateur, captif, ce capitalisme de surveillance etc. qui finalement a monétisé ce qui aurait dû être libre et gratuit. et par ailleurs et je terminerai là-dessus je parlais bien d'utopie parce que ça n'a été que ça, une utopie. la littératie numérique initiale qui aurait dû justement donner à tous les moyens d'accès et de compréhension de ces codes-là n'a jamais eu lieu, et en fait on s'aperçoit et ça ce sont des travaux de la sociologue américaine jens schraedie qui montre très bien qu'en réalité les inégalités, ceux qui ont d'emblée compris les codes étaient de toute façon des hommes blancs lettrés éduqués etc. et donc on avait une reproduction de ces inégalités pratiquement de façon native.

NM : je vais poser la question de manière très naïve parce que je pense que finalement c'est ce que j'essayais de montrer, ou en tout cas de montrer un peu l'ampleur des enjeux de la modération aujourd'hui non plus de l'internet ou du web mais des réseaux sociaux càd d'une partie de cet internet et de ces plateformes d'expression collective : quand on voit les différences de législation comme vient de l'évoquer asma mhalla la différence de conception de ce qu'est la liberté d'expression d'un pays à l'autre on parle des états-unis on pourrait parler de la russie ou la chine, quand on voit la quantité de contenu qui est posté au jour le jour est-ce que l'idée, l'objectif d'une modération aujourd'hui fait sens intellectuellement ? est-ce que c'est pas trop de contraintes pour pouvoir vraiment imaginer un jour que ces espaces-la soient modérés au sens où nous le comprenons ici aujourd'hui depuis ce studio en france avec notre conception politique sociologique et anthropologique ?

LM : déjà je pense que lorsqu'on imagine la modération, personne n'imagine une modération où il n'y aurait aucun raté c'est totalement impossible parce que tout simplement elle s'adapte à un espèce de contenu qui est toujours plus conséquent et puis après on a la question des bot qui vont arriver, on a la question des IA, qui publient on a vu au moment du scandale cambridge analytica des messages qui étaient envoyés à hauteur de quatre vingt dix mille fois de manière personnalisée donc il y a cet aspect-là où on va dire il ne faut pas se faire d'illusions. maintenant est-ce que c'est une raison pour baisser les bras et dire bon bah de toute façon quitte à être dans la mouise autant y aller à fond, on est pas trop sûr non plus parce que les premières victimes bah finalement ça sera les gens qui n'auront pas les moyens de s'équiper qui n'auront pas les moyens de lutter pour ça et encore une fois et c'est toute la vision peut-être de la liberté d'expression à l'américaine et encore celle-ci est de plus en plus divisée ou à l'européenne c'est comment est-ce que celle-ci peut être distribuée partagée ou est-ce que c'est la loi du plus fort comme ce qu'on peut voir aux etats-unis. et encore une fois cette histoire de premier amendement est très... elle est assez marrante parce que le premier amendement en fait normalement ne concerne pas directement les plateformes. le premier amendement normalement s'applique au gouvernement s'applique à l'état s'applique à ces positions là, les plateformes elles comme disait très bien asma mhalla sont régies par la section deux cent trente la section deux cent trente leur donne la possibilité ou non de modérer donc en fait le premier amendement ne concerne pas en premier lieu les entreprises privées et donc finalement pendant longtemps beaucoup disaient allons la section 230 ça permet aux grandes plateformes de faire ce qu'elles veulent atteinte à la liberté d'expression ce à quoi les démocrates répondaient attention, le premier amendement c'est pour les organismes publics ça ne concerne pas les entreprises privées, maintenant qu'elon musk est arrivé et dit lui-même je fais ce que je veux sur ma plateforme beaucoup disent attention il faut modérer non les entreprises privées font ce qu'elles veulent en leur demeure mais le premier amendement à l'origine c'est vraiment pour la partie gouvernements et on voit qu'aujourd'hui on a un overlap entre le public et le privé

nm : nous parlons donc de la modération sur les réseaux sociaux tout au long de cette heure en compagnie de Leïla Mörch et de Asma Mhalla peut-être est-ce qu'on peut commencer asma mhalla par expliquer aujourd'hui comment sont modérés les réseaux sociaux concrètement comment ça marche ; on va se fonder sur Twitter Facebook et Instagram principalement mais est-ce que vous pouvez nous expliquer comment c'est modéré ?

AM : oui alors en fait vous avez deux grands volets ou deux grandes façons de le faire d'abord c'est les modérations humaines donc c'est vraiment des individus comme vous et moi qui sont souvent d'ailleurs dans des contrées lointaines, philippines, afrique du nord, caucase qui sont absolument sous-payés dans des conditions délétères avec d'ailleurs des traumatismes psychologiques très profonds souvent très mal accompagnés d'ailleurs par les plateformes, et qui vont vraiment modérer en direct avec des heures de travail et des jours ouvrés les contenus la quantité phénoménale de contenu et d'information qui circule sur les réseaux sociaux. Ça ce sont les modérateurs humains sous-payés dans des conditions que j'évoquais. Là on est extrêmement en-dessous de ce qui pourrait être une ambition minimale de modération. un réseau social comme twitter trois cents millions d'utilisateurs actifs il a deux mille modérateur dans le monde. Facebook c'est à peu près dans les mêmes proportions donc on est vraiment sur de la sous-modération humaine et puis le deuxième grand volet de la modération c'est ce qu'on commence à voir apparaître c'est l'automatisation avec des débuts finalement d'algorithmes d'intelligence artificielle pas très sophistiqués qui essaient d'encoder, d'encapsuler un maximum d'informations de ce qui pourrait être modéré, c'est-à-dire censuré ou invisibilisés ou pas. et typiquement, et votre question est particulièrement d'actualité et intéressante parce qu'on a vu les failles ce week-end même suite aux tueries de buffalo où en réalité certes le live stream sur twitch a été coupé dès la deuxième minute donc assez vite par rapport à christchurch où en fait c'est là où tout le débat avait réellement commencé et qu'il n'avait été coupé qu'au bout de dix sept minutes donc là il y avait une réelle amélioration, en revanche les extraits de vidéos ont continué à circuler pendant plus de quarante-huit heures durant le week-end. donc s'est posé la question malgré tous les outils d'automatisation les plateformes existantes le travail de signalement y compris en france sur pharos qui est la plateforme de signalement on n'a pas réussi à endiguer ce type de viralité ou de contenu extrêmement viraux. et en fait qui sont d'abord relayés par les communautés suprémacistes et puis ensuite qui font par capillarité et boule de neige qui sont récupérés par les différents bords politiques pour décrier, pour dénoncer etc. peu importe pourvu que finalement on parle du contenu et donc typiquement l'exemple de ce week-end de buffalo est un échec fondamental de ce qu'est ou de ce qu'aurait dû être la modération qu'elle soit humaine et en l'occurrence c'était un dimanche donc on peut supposer que les équipes étaient en sous-effectif, donc problème organisationnel et puis derrière une automatisation qui visiblement concrètement a été totalement faillible ou en tout cas n'a pas réussi. et plus largement sur la question de la modération ou de la faisabilité même de la modération hé bien en fait c'est là le principal problème, ou plus exactement vous en avez deux à mon sens. le premier qui est très terre-à-terre, c'est la question très opérationnelle. est-ce qu'on est aujourd'hui en mesure d'industrialiser des moyens d'une part de modération mais surtout du contrôle de la modération typiquement dans le digital services act, le dsa dont on reparlera sûrement, on prévoit des instances de contrôle avec le régulateur, avec la justice, on voit aujourd'hui l'état de la justice on voit qu'aujourd'hui l'Arcom, le régulateur français, ils sont trois cent cinquante collaborateurs donc se pose réellement la question des moyens financiers, compétences, techniques, technologiques, et en réalité la question ou la réponse aujourd'hui est très claire nous n'avons pas les moyen d'industrialiser une modération qui soit en mesure de faire face à la volumétrie absolument extraordinaire de contenus et d'informations qui circulent. ça c'est le premier niveau de réponse. Et le deuxième niveau qui est beaucoup plus philosophique c'est de dire dès l'instant où on bute sur une voie sans issue qu'est la modération aujourd'hui plutôt que de s'entêter comment contourner la difficulté et à mon sens il faut remonter la chaîne de valeur. La modération en réalité c'est quand c'est déjà trop tard. Donc il va falloir repenser la question de l'éducation la question du régulateur le rôle de l'etat la responsabilité des plateformes leur modèle économique etc etc et ce sont là en réalité les véritables questions qui d'ailleurs et par parenthèse vont s'amplifier avec le métavers qui va arriver dans les prochaines années.

NM : je sais pas si on va avoir le temps d'aborder toutes ces questions-là dans les quarante minutes qui restent de l'émission mais on voit bien en tout cas ce qui est important LM et ce que pointe AM c'est que effectivement c'est finalement ce à quoi on venait au début c'est-à-dire que c'est quelque chose de titanesque, que finalement la modération c'est écrêter vraiment à la marge des comportements abusifs et dont on voit aussi que même en tentant d'écrêter à la marge ces comportements abusifs-là et bien l'intelligence artificielle comme on va l'entendre dans pas longtemps se trompe et finit par cibler les mauvais messages donc finalement qu'est ce qui reste de l'intention de cette modération qui a tout de même pour ambition de protéger les utilisatrices et les utilisateurs de messages haineux, de caractère qui peuvent leur nuire dans des conditions qu'on entend et qui sont par ailleurs humainement comme on vient de l'entendre particulièrement scandaleuses pour ce qui est de la modération humaine

LM : complètement. je pense que lorsqu'il s'agit de la modération il s'agit de n'être ni trop pessimiste ni trop optimiste. quand on voit la façon dont le droit s'est construit dans la vie réelle ça a mis des années des années et des années à pouvoir adresser toutes les situations de violence dans la rue aujourd'hui on voudrait que pour des plateformes qui ont moins de vingt ans on trouve en six mois la solution. c'est pour dire qu'il y a une question de moyens déjà à mettre en avant, et les plateformes ne mettent pas les moyens mais il y a aussi des questions...

NM : C'est pas qu'elles n'ont pas les moyens par ailleurs

LM : Ah c'est pas qu'elles n'ont pas les moyens, elles ne les mettent pas mais il y a aussi des questions de méthode. et donc effectivement à vouloir dire d'un coup oui mais la modération AI elle ne convient pas parce qu'elle a des biais parce qu'elle n'est pas explicable mais du coup est ce que ça veut dire qu'on sacrifie donc en fait finalement des personnes humaines parce que je vous invite tous à lire trois témoignages maximum de ce qu'ils voient honnêtement on ne peut pas demander plus d'effectifs humains que ça quasiment pas ce que c'est c'est trop dur en fait à voir.

NM : il faut préciser par ailleurs que il y a deux ans facebook a été condamné à verser cinquante deux millions de dollars à des milliers de modérateurs pour compensation des traumatismes liés à leur travail puisque ce sont des gens qui sont confrontés à longueur de journée à des contenus haineux à des vidéos de meurtres et donc ce sont des gens qui vivent et qui témoignent de traumatismes profonds liés à ce métier qui est par ailleurs exercé dans les conditions que décrivait tout alors AM

LM : complètement, nous on est en lien avec beaucoup de modérateurs notamment avec Chris Grey qui fait partie un peu des leaders de ces modérateurs-là et ce type-là de condamnations devrait arriver encore plus souvent mais encore une fois c'est 1 un manque de moyens 2 un manque de méthode et donc en fait lorsqu'on sépare ces questions-là de modération on se demande finalement à qui revient l'obligation. est-ce que la plateforme doit décider de tout, tout le temps, qui modère quoi est-ce que c'est elle qui doit les payer est-ce qu'il y a un moment une sorte de conseil extérieur qui peut être monté c'est pour ça que nous au Lab on essaie d'avoir une méthode globale qui permette d'avoir ce qu'on appelle la multi-stakeholders approach, la méthode multipartite, on essaye de travailler avec des associations, avec des experts, avec des politiques et avec des modérateurs pour ne pas laisser de trous dans la raquette et donc quand on voit ce qui se passe au niveau des tueries de buffalo mais aussi sur la modération par exemple en langues non anglophones c'est un drame absolu regardez la modération dans les pays en afrique c'est juste hallucinant en fait il n'y a quasiment aucune modération. Et en fait sur ces questions-là on ne pourra avoir que des réponses peut-être que technologiques ; ça ne veut pas dire qu'il ne doit pas y avoir des humains derrière, mais quand on regarde sur facebook quatre vingt dix pour cent des contenus sont finalement retirés par des IA, ça monte jusqu'à quatre vingt quinze dans les cas de contenu haineux et donc finalement pour moi le véritable enjeu d'investissement là-dedans c'est d'investir dans des meilleures technologies qui vont petit à petit progresser qui vont petit à petit prendre en compte le contexte si elles travaillent avec des associations si elles travaillent avec des mises en contexte si elle travaillent à ne pas être simplement faites par des techniciens dans un laboratoire au fond de la silicon valley avec des hommes qui ont cinquante ans... et même parfois beaucoup moins

NM : Il y a même des femmes aussi parfois

LM : voilà mais pour finir sur ce sujet-là donc ça va être 1) rendre ces IA beaucoup plus performantes et ça on va y arriver parce que la technologie progresse à une vitesse extraordinaire mais on va y arriver si honnêtement on va sur le terrain si honnêtement on fait de la contextualisation ; la deuxième chose c'est que ces IA doivent être efficaces mais explicables et ça c'est vraiment le deuxième aspect de la modération qui est très peu entendu et le DSA ne sanctuarise pas ça du tout c'est que même s'il recommande aux plateformes de justifier leurs décisions de modération les plateformes sont tenues responsables et peuvent avoir une amende si elle ne retirent pas des contenus, elles ne peuvent pas avoir une amende si elles retirent trop de contenu. et donc en fait c'est vraiment cette partie explicabilité qui va être essentielle.

NM : alors je précise que tout à l'heure dans quelques minutes, dans la deuxième partie de cette émission on va effectivement poser, on va revenir sur ce qu'évoquait tout à l'heure AM c'est-à-dire le DSA une directive européenne, on va essayer de poser des questions juridiques et évidemment des questions éthiques parce que se surajoute à toute cette problématique qui est déjà particulièrement complexe évidemment des enjeux éthiques extrêmement importants mais à propos justement de ce que vous évoquiez c'est-à-dire des limites des algorithmes et de l'intérêt à travailler notamment avec des acteurs associatifs ça tombe bien puisque c'est exactement ce dont on voulait vous parler dans notre reportage du jour, vous avez peut-être vous qui nous écoutez déjà été surprise ou surpris par des messages automatiques de modération de vos posts alors que vous pensiez pas à mal et que vous n'aviez pas l'impression d'avoir écrit quelque chose d'horrible notamment en envoyant des messages à l'intention de votre communauté avec un certain vocabulaire qui est mal compris par l'algorithme comme étant une insulte. bonjour alexandra delbo

AD : Bonjour Nicolas

NM : ce sort que je viens de décrire c'est ce qui arrive bien trop souvent notamment à des militants ou à des militantes associatifs.

AD : exactement et notamment des militants et militantes LGBT ; j'ai rencontré thibault grisons doctorant au sky le centre de recherche de la sorbonne sur l'IA et au laboratoire Gripic le centre de recherche en sciences de l'information et de la communication du Celsa et pour étudier comment les algorithmes peuvent censurer certaines publications de militants et militantes LGBT sur twitter il utilise deux approches. une première consiste en une collecte de témoignages et recueil d'expériences dont les militants et militantes disent être les victimes et la seconde est une récolte de données nommée reverse engineering. avec son algorithme il récolte régulièrement les données de profils ou de tweets avec certains mots-clés et dès qu'il aperçoit qu'un compte est bloqué ou un tweet a disparu il essaye de remonter au contenu modéré et à l'analyser et déterminer s'il s'agit d'une modération abusive ou non.

TG : dans le contexte de la modération des réseaux sociaux, des personnes en fait qui depuis ces cinq dernières années se sont rendu compte que leur contenu semblait être supprimé plus facilement que d'autres et ce type de censure-là semblait beaucoup toucher en tout cas les personnes qui étaient déjà victimes de haine en ligne, des militants antiracistes LGBT, féministes etc. ; le deuxième contexte c'est plus au niveau de la recherche on va dire d'un point de vue vraiment épistémologique depuis ces quinze dernières années en tout cas aux états-unis il y a beaucoup de travaux qui ont émergé notamment dans les cultural studies, dans le contexte anglo-saxon, où en fait on a commencé à prendre les outils comme l'intelligence artificielle ou plus largement tout ce qui relève de l'informatique, du numérique, comme des technologies qui pouvaient reproduire en fait des discriminations et c'est en fait de là qu'émerge le sujet des discriminations algorithmiques qui est encore très peu abordé dans la recherche francophone.

AD : donc cette discrimination algorithmique elle vient de biais dans la conception des algorithmes. est-ce que ça provient du jeu de données initial ou alors est-ce que c'est simplement une transposition des biais cognitifs, sous-entendu déjà discriminants, qui existent, par les humains ?

TG : alors en fait il y a tout un ensemble de causes possibles aux discriminations algorithmiques dues à tout un ensemble de biais algorithmiques qui existent déjà. c'est comme si en gros vous aviez... la conséquence c'était la discrimination algorithmique la cause c'est le biais algorithmiques et du coup effectivement le biais algorithmique peut être de plusieurs types soit parce que le jeu de données en lui-même est biaisé ; est-ce que c'est parce qu'on se base sur un corpus de données un jeu de données qui existe déjà, un corpus historique qui du coup est déjà lui-même biaisé, est-ce qu'on a créé un jeu de données artificielles sans pour autant penser aux biais qu'il pouvait constituer parce qu'on a du coup oublié de représenter telle ou telle catégorie de la population il y a aussi un biais algorithmique possible dans les équipes de designers en soi : qui sont ces personnes-là ? il y a des travaux par exemple qui montre que ce sont majoritairement des hommes blancs cisgenre, hétérosexuels. bref il y a tout un ensemble je pourrais continuer encore à parler de ça il y a tout un ensemble de biais qui existent et qui du coup permettent de formuler différentes hypothèses quand on a un cas de discrimination algorithmique

AD : comment étudier les discriminations dans la modération comment est-ce qu'on peut mesurer ses effets ?

TG : il y a deux approches la première ça va être d'abord de faire tout une concaténation de ces discriminations-là donc de ces formes de censure. comment ces formes de censure se matérialisent sur les réseaux sociaux : est-ce que c'est du déréférencement de contenu, est-ce que c'est de la suppression de contenu est-ce que c'est de la suspension de compte ? Une fois que cette parole militante-là est recueillie, ce que je fais c'est que moi j'essaie de faire de ce qu'on appelle de la reverse engineering où en fait j'essaie de voir comment fonctionnent ces algorithmes-là, donc là je récolte des données qui seront même potentiellement susceptibles d'être censurées plus tard je les récolte à l'instant T au moment où ils sont publiés je les récolte et, on va dire deux jours après ou vingt quatre heures après j'essaye de faire différentes hypothèses de temporalité, je repasse dessus avec mes lignes de code pour voir dans quelle mesure ils ont été modérés ou pas. Du coup j'ai ces lignes de code qu'ont été développées avec l'ingénieur en informatique Félix Allié qui sont au nombre de... je sais pas, il y a deux cent lignes de code d'un programme informatique juste pour qu'on puisse collecter en gros des mots-clés, notamment des mots-clés comme gay, pédé, gouine etc. pour voir en gros qu'est-ce qui est modéré et moi j'ai juste à entrer "Entrée", et boum, et j'ai en résultat de nouvelles lignes qui apparaissent des lignes de résultats on me dit pour chaque utilisateur : M. Tartempion, deux points, compte supprimé, deux points, compte modéré etc, et du coup, là j'ai ce tableau qui apparaît j'ai un fichier qui s'enregistre automatiquement sur mon ordinateur avec ce tableau-là. Et du coup j'ai un peu deux collectes j'ai cette collecte par profil, par statut de profil et j'ai une autre collecte qui est en fait la plus importante dans mon travail qui est une collecte par tweet qui aurait été modéré ou là c'est une collecte où je fais une recherche par mots-clés comme je disais avec les mots-clés gay et pédé gouine etc tout un ensemble de mots-clés qui renvoient à la culture LGBT soit parce que ce sont des insultes qui font l'objet de réappropriations militantes, comme c'est le cas de pédé, soit parce que c'est des mots-clés neutres qui renvoient à l'orientation sexuelle et je regarde sur ce tableau qu'on voit là je regarde en fait les tweets qui ont été supprimés et là par exemple j'ai un exemple d'un tweet qui dit je suis pédé après moi je retrace le chemin, donc depuis ce tableau je retourne sur le compte de l'utilisateur ou l'utilisatrice et en fait je vois que c'est un militant LGBT qui en fait tweet ça dans une forme de militantisme en fait. et du coup là il y a un cas de modération que je juge en tout cas abusive et que les militants et militantes jugent abusif. et en fait le propre de mon sujet c'est que c'est un sujet qui est beaucoup traité en informatique les biais algorithmiques mais pas d'un point de vue sciences humaines et sociales parce qu'en fait les chercheurs et chercheuses en sciences humaines et sociales ne savent pas vraiment comment marche la machine, sauf qu'en fait les informaticiens et informaticiennes ne savent pas vraiment comment marche la machine non plus parce que tout ça est opaque, et du coup moi j'ai à cœur dans ma recherche de faire une sorte de recherche action, une recherche un peu située où j'assume en fait un parti pris militant dans la manière dont je me saisis de mon sujet et du coup je cherche à rendre cette recherche en gros disponible pour ces sphères militantes-là et du coup à ce stade de ma thèse j'ai un petit peu rationalisé tous les cas de discrimination algorithmique. Mon enjeu maintenant c'est d'un peu rationaliser mon corpus : quels termes je vais choisir, est-ce que du coup je vais partir sur des mots-clés est-ce que je vais partir sur de la recherche par profil, est-ce que je vais repartir sur des entretiens, est-ce que je vais faire un peu de tout ça parce que je travaille aussi sur les chartes de modération etc, donc en gros : maintenant j'ai tout ça, qu'est-ce que je fais pour en gros être le plus convaincant en fait dans mon argument et en même temps produire des hypothèses sur : quels sont ces biais algorithmiques dans le contexte de la modération.

NM : voilà ce reportage sur les discriminations algorithmiques. AM, votre réaction à l'un de ces problèmes qui est aussi un problème de taille et de surmodération ?

AM : alors oui ça revient à ce qu'on disait tout à l'heure c'est-à-dire que certes on peut espérer qu'à un moment donné les algorithmes c'est-à-dire l'encodage, les datasets, la façon dont les algorithmes sont éduqués, sont entraînés puisse s'améliorer avec le temps, néanmoins il faut être un tout petit peu réaliste aujourd'hui les résultats sont plus que disons discutables ou modestes et le problème étant que il ne s'agit pas simplement d'un résultat technologique qu'on pourrait juger, évaluer à l'aune d'indicateurs techniques parce que si ça n'était que ça, il n'y aurait pas tellement de problèmes. Le problème qui est pointé là c'est que en effet ça crée d'une part de la discrimination, mais en réalité on retrouve ce sujet de l'algorithmisation et de l'automatisation y compris dans les questions de l'état plateforme, des services publics, de la reproduction des discriminations d'un certain type de populations en réalité c'est une reproduction du réel en amplifié, et c'est exactement les mêmes problèmes aussi qu'on retrouve sur les réseaux sociaux : les réseaux sociaux ne créent pas le problème ; en réalité ils le reflètent, ils l'amplifient, ils l'orientent et si on appose déjà à ce problème initial un algorithme qui ajoute encore des biais des filtres et donc des choix et par là donc de la subjectivité alors on risque d'avoir de de grands soucis d'autant plus que le problème qui s'attache aux réseaux sociaux c'est donc la question de la liberté d'expression et là le problème devient fondamentalement politique et non plus simplement technique ou technologique et donc ce qui est absolument extraordinairement passionnant dans le sujet en réalité c'est que tout ça s'hybride tout ça est imbriqué : modèle économique, modèle technologique, modèle politique, et les trois s'interpellent en permanence. et simplement je voulais rebondir tout à l'heure rapidement mais parce que c'est quand même en lien ; on peut parler de modération et c'est tout le sujet de notre émission mais en réalité parler de la modération des réseaux sociaux sans pointer le fait que les réseaux sociaux eux-mêmes sont devenus des entreprises politiques et géopolitiques et on l'a vu à l'aune de la guerre en ukraine -- ça devient aujourd'hui des champs de conflictualité, les réseaux sociaux sont des armes de guerre, sont militarisés, se joue de la désinformation de la cyberdéstabilisation, de l'intoxication informationnelle et ça a commencé en réalité à partir de 2016 avec les différentes ingérences russes dans les campagnes américaines le brexit la campagne présidentielle de deux mille dix sept etc et donc ce que je veux dire par là c'est que modérer n'est pas à prendre comme étant quelque chose de complètement neutre où toutes choses étant égales par ailleurs le réseau social par sa gouvernance par la vision de son patron la vision du monde ses appétences ses choix politiques Zuckerberg et le vietnam en deux mille vingt musk et l'ukraine en deux mille vingt deux etc etc n'est absolument pas neutre et donc modérer suppose aussi de comprendre quel est le modèle politique et quelle est l'idéologie qui est derrière. Ce qu'on visibilise c'est autant de choses qu'on va invisibiliser ensuite

NM : c'est exactement ce dont nous allons parler dans quelques minutes dans la deuxième partie de cette émission un mot très rapide une réaction très rapide LM.

LM : je souscris complètement à ce que dit AM et c'est vraiment l'intérêt énorme de cette affaire de musk et qui lève le voile sur un problème global et qu'en fait qu'il s'appelle musk ou qu'il s'appelle jack dorsey ou qui s'appelle Zuckerberg la vraie question en fait c'est de se rendre compte que derrière chaque méthode de modération en fait il est censé y avoir une vision politique et c'est pour ça que nous on s'appelle le Content Policy et pas le Content Moderation. On travaille sur les politiques de contenu, c'est à dire qu'il y a la couche modération c'est l'outillage finalement ; il y a la couche régulation c'est comment est-ce qu'on utilise ces outils et la couche politique de contenu c'est finalement quelle est la vision c'est quoi la liberté d'expression comment est-ce qu'un jour on plante un drapeau on dit ok ça va peut-être faire des pas contents, ça va peut-être faire des contents mais voici le modèle et c'est un modèle qu'on va choisir démocratiquement aujourd'hui cette politique elle est laissée à la main des grandes plateformes est-ce qu'il faut ou ce qui faut pas c'est un autre débat mais quand on voit l'impact sur la société de ces grandes plateformes cette politique là ne peut pas être laissée d'une manière arbitraire donc 100% en ligne.