La Méthode scientifique: Réseaux sociaux, les temps modèrent

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Réseaux sociaux, les temps modèrent

Lieu : Émission La Méthode scientifique - France Culture

Intervenant : Nicolas Martin (animateur), Asma Mhalla et Leïla Mörch (invitées), Julie Charpenet (séquence « ma thèse montre en main »), Alexandra Delbot (reportage), Thibault Grison (personne interviewée dans le reportage)

Date : mercredi 18 mai 2022

Durée : 58 min 31

Podcast

Page de l'émission

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit par Syméon

Description

Comment les réseaux sociaux modèrent-ils la parole publique actuellement ? Comment s’y prennent-ils pour détecter les fausses informations, les discours haineux et le cyberharcèlement ? Quels sont les risques que leurs dispositifs de modération font courir à la liberté d’expression ?

Transcription

Nicolas Martin : Chaque minute, ce sont 350 000 messages qui sont postés sur Twitter, ça fait 21 millions par heure. À ce rythme-là, comment est-il possible d'envisager une modération, de s'assurer que face à cette déferlante aucun de ces messages ne contienne de propos haineux, inappropriés, de fausses informations ou d'images violentes ? C'est tout l'enjeu quantitatif de la modération sur les réseaux sociaux, auquel il faut ajouter l'enjeu qualitatif : qu'est-ce qui doit être modéré, interdit ou supprimé sans pour autant porter atteinte à la liberté d'expression ? Entre modérateurs humains et algorithmes, législations nationales et internationales, le problème atteint un certain degré de raffinement dans la complexité.

« Réseaux sociaux : les temps modèrent », c'est le programme censuré qui est le nôtre pour l'heure qui vient. Bienvenue dans La Méthode scientifique. Et pour tout comprendre aux arcanes, bien complexes comme vous allez l'entendre, de la modération des réseaux sociaux, j'ai le plaisir de recevoir aujourd'hui Leila Mörch. Bonjour.

Leila Mörch : Bonjour.

Nicolas Martin : Vous êtes coordinatrice du projet de recherche du Content Policy and Society Lab à l'université de Stanford en Californie. Et nous sommes en ligne avec Asma Mhalla, bonjour.

Asma Mhalla : Bonjour.

Nicolas Martin : Vous êtes enseignante à Sciences po, spécialiste des enjeux politiques et géopolitiques du numérique, et j'ai d'ores et déjà à mes côtés notre doctorante, Julie Charpenet. Bonjour.

Julie Charpenet : Bonjour.

Nicolas Martin : On vous entendra tout à l'heure, vers 16 heures 30, nous présenter vos travaux de recherche.
On commence par celle qui a dû fermer 17 de ses 25 comptes Twitter pour des raisons que je ne dévoilerai pas, c'est Natacha Triou pour le journal des sciences.

[Partie non transcrite]

7'58

Nicolas Martin : Le 25 avril dernier, Elon Musk, aujourd'hui homme le plus riche du monde et patron de SpaceX et Tesla, annonçait son intention de racheter le réseau social Twitter pour la modique somme de 44 milliards de dollars. Pourquoi donc vouloir débourser autant d'argent pour un réseau social qui ne génère un chiffre d'affaires que, avec beaucoup de guillemets évidemment, de « cinq milliards » ? Pour le rendre plus rentable, certes, mais surtout au nom de la liberté d'expression. Pour le milliardaire, les règles de Twitter, que l'on pourrait juger de ce côté-ci de l'Atlantique plutôt lâches, sont au contraire pour lui trop strictes ; son intention est de rendre la liberté d'expression, sur le réseau social, complète, y compris pour exprimer des opinions qui sont ici, en Europe, condamnées par la loi. Comment modérer les réseaux sociaux ? Qui pour les modérer ? Êtres humains ou algorithmes ? Doivent-ils ou non être filtrés ? Que disent les lois et comment les géants d'internet s'y conforment-ils ou non ? Un problème qui, comme vous allez l'entendre, s'apparente à la quadrature du cercle. Pourtant, dès le début d'Internet, de la nature même de ce réseau de communication décentralisé, la question de ce qui peut s'y dire ou non se posait, comme en atteste notre archive du jour, nous sommes en 1993.

Journaliste : Sur Internet donc, code de conduite implicite d'une part et d'autre part code d'écriture qui permet de resituer plus précisément les émotions de chacun, Josiane Jouët[1].

Josiane Jouët : Il existe effectivement des codes de bonne conduite sur Internet comme ils existaient, d'ailleurs, sur le réseau télématique français,. Sur Internet ça s'appelle la nétiquette, contraction de net et du terme « étiquette ». C'est finalement tout ce que vous êtes censé faire et éviter de faire quand vous naviguez sur un réseau. Il faut savoir se présenter, il y a des codes de bienséance minimaux à respecter, d'ailleurs, si vous ne les respectez pas, plus personne bien sûr ne répondra à vos messages, vous serez éjecté. La même chose se passait, effectivement, sur les forums du Minitel français.

Nicolas Martin : Voilà la nétiquette, ou net étiquette, ça paraît délicieusement désuet aujourd'hui, mais ça pose finalement, dès le départ, les enjeux de base de ce que ce nouvel outil de communication qu'était Internet, que commençait à être Internet, produisait sur la façon de communiquer sur la liberté d'expression, Leïla Mörch.

Leïla Mörch : C'est assez intéressant et je pense que la position d'Elon Musk, en ce moment, révèle bien à quel point il est encore sur certains aspects, en tout cas on peut imaginer de lui, dans cette époque du début du Net ou du début du Web, où, en fait, il s'agissait de lutter contre une certaine forme de conservatisme religieux et où, finalement, Internet était une forme d'espace à conquérir pour sortir de visions où il fallait être très pudique, où il ne fallait pas parler de sexualité, où il ne fallait pas avoir de violence — juste une image de jeu vidéo hyper pixelisée de quelqu'un dont la tête explosait était complètement inimaginable sur les réseaux sociaux. On peut imaginer que lui est encore, dans sa tête, dans cet espace-là, avec une forme de splinternet[2] où il se dit « il faut qu'on retrouve cette liberté, le Web est censé être vraiment cet espace où on a de la place, où on peut s'exprimer librement ». Or, entre-temps, il y a eu une histoire de l'Internet, il y a eu une histoire et il y a eu aussi une révélation au grand public de ce que la massification sur les réseaux sociaux peut amener de haine, peut amener de danger, peut amener... Donc, en fait, c'est assez intéressant de faire ce retour-là en arrière pour voir comment peut-être les fondateurs de Twitter avaient la même vision qu'Elon Musk et puis un jour ils se sont pris le mur de la réalité. Cette mythologie-là est intéressante à décortiquer.

Nicolas Martin : Ce qui est intéressant et ce qu'on entend aussi dans cette archive, Asma Mhalla, c'est qu'avec le Web — 1993 c'est effectivement l'apparition, les débuts du www — on était bien face à une transformation complète de la façon de s'exprimer, en tout cas de la façon dont on pouvait délivrer son information par rapport aux médias traditionnels. On était face un réseau ouvert, décentralisé, sur lequel le contrôle était très difficile et donc se posait immédiatement la question : que peut-on y dire ? Est-ce qu'on doit tout y dire ? Est-ce que ce doit être un espace totalement de libéralisme informationnel ou est-ce qu'il faut, là aussi, appliquer des règles un peu de l'ancien monde ?

Asma Mhalla : En fait au début de l'utopie d'Internet, il y avait évidemment cette idée, très fausse en réalité, d'un espace ouvert et égalitaire avec, d'ailleurs, les prémices de l'économie de la connaissance, c'est-à-dire un accès absolument libre et gratuit à la connaissance pour tous et toutes. Donc l'idée, en fait, ce que vous dites très justement, c'était d'horizontaliser la parole de tous, donc un outil de démocratie directe qui en fait devait, aurait dû, repenser l'exercice même démocratique et même de ce qu'est la parole publique. En réalité, ce qu'on a vu apparaître et je ne suis pas tellement en phase pour sur psychologiser Musk en disant qu'il a une vision. Il a certes une vision utopique mais pas tellement bloquée du tout dans les années 60-70, c'est-à-dire aux prémices de ce qu'était Internet, en tout casle protocole en lui-même. Je pense, au contraire, que c'est un anarchiste de droite qui peut, d'un point de vue sociétal, pencher vers l'Alt-right[3] américaine parfois sur certains combats, et qui a une vision, en fait, très en ligne avec l'acception américaine de la liberté d'expression , premier amendement de la Constitution[4], une acception de la liberté d'expression maximaliste et sacralisée par la Constitution elle-même d'ailleurs, et renforcé derrière par la section 230[5], un texte qui, en fait, déresponsabilise le rôle des plateformes quant à leur responsabilité de modération et qui leur donne le statut d'hébergeur et non pas d'éditeur, on y reviendra peut-être.
Donc, par rapport à l'horizontalisation de la parole, oui, il y a eu un enjeu qui a été raté et qui a été d'autant plus raté que, au tournant des années 2000, le Web s'est reverticalisé et on a vu les Big Tech, les fameuses GAFAM, qui ont finalement remis du capitalisme prédateur, captif, ce capitalisme de surveillance, etc., qui a finalement monétisé ce qui aurait dû être libre et gratuit. Par ailleurs, et je terminerai là-dessus, je parlais bien d'utopie parce que ça n'a été que ça, une utopie. La littératie numérique initiale, qui aurait dû justement donner à tous les moyens d'accès et de compréhension de ces codes-là, n'a jamais eu lieu. On s'aperçoit, ce sont des travaux de la sociologue américaine Jen Schradie[6] qui le montrent très bien, qu'en réalité ceux qui ont d'emblée compris les codes étaient, de toute façon, les hommes blancs, lettrés, éduqués, etc., et donc on avait une reproduction de ces inégalités pratiquement de façon native.

Nicolas Martin : Je vais poser la question de manière très naïve parce que je pense que, finalement, c'est ce que j'essayais de montrer, en tout cas de montrer un peu l'ampleur des enjeux de la modération aujourd'hui non plus de l'Internet ou du Web mais des réseaux sociaux, c'est-à-dire d'une partie de cet Internet et de ces plateformes d'expression collective. Quand on voit les différences de législation, comme vient de l'évoquer Asma Mhalla, la différence de conception de ce qu'est la liberté d'expression d'un pays à l'autre — on parle des États-Unis, on pourrait parler de la Russie ou la Chine —, quand on voit la quantité de contenus qui est postée au jour le jour, est-ce que l'idée, l'objectif d'une modération aujourd'hui fait sens intellectuellement ? Est-ce que ce n'est pas trop de contraintes pour pouvoir vraiment imaginer un jour que ces espaces-là soient modérés au sens où nous le comprenons ici, aujourd'hui, depuis ce studio en France, avec notre conception politique, sociologique et anthropologique ?

Leïla Mörch : Déjà, je pense que lorsqu'on imagine la modération, personne n'imagine une modération où il n'y aurait aucun raté. C'est totalement impossible, parce que tout simplement elle s'adapte à une espèce de contenu qui est toujours plus conséquent. Après, on a la question des bots qui vont arriver, la question des IA qui publient, on a vu ça au moment du scandale Cambridge Analytica[7], des messages qui étaient envoyés à hauteur de 90 000 fois de manière personnalisée, donc il y a cet aspect-là. On va dire qu'il ne faut pas se faire d'illusions. Maintenant, est-ce que c'est une raison pour baisser les bras et dire « de toute façon, quitte à être dans la mouise, autant y aller à fond », on n'est pas trop sûrs non plus, parce que les premières victimes, finalement, ce seront les gens qui n'auront pas les moyens de s'équiper, qui n'auront pas les moyens de lutter pour ça. Encore une fois, et c'est toute la vision peut-être de la liberté d'expression à l'américaine — et encore celle-ci est de plus en plus divisée — ou à l'européenne, c'est comment est-ce que celle-ci peut être distribuée, partagée, ou est-ce que c'est la loi du plus fort comme ce qu'on peut voir aux États-Unis ? Et encore une fois, cette histoire de premier amendement est assez marrante parce que le premier amendement, en fait, normalement ne concerne pas directement les plateformes. Le premier amendement, normalement, s'applique au gouvernement, s'applique à l'État, s'applique à ces positions-là. Les plateformes, elles, comme disait très bien Asma Mhalla, sont régies par la section 230. La section 230 leur donne la possibilité, ou non, de modérer. Donc, en fait, le premier amendement ne concerne pas en premier lieu les entreprises privées. Pendant longtemps beaucoup disaient : « La section 230, ça permet aux grandes plateformes de faire ce qu'elles veulent, atteinte à la liberté d'expression », ce à quoi les démocrates répondaient : « Attention, le premier amendement c'est pour les organismes publics, ça ne concerne pas les entreprises privées », maintenant qu'Elon Musk est arrivé et dit lui-même : « Je fais ce que je veux sur ma plateforme », beaucoup disent : « Attention, il faut modérer ». Non, les entreprises privées font ce qu'elles veulent en leur demeure, mais le premier amendement, à l'origine, c'est vraiment pour la partie gouvernement et on voit qu'aujourd'hui on a un overlap entre le public et le privé.

Voix off : France Culture - La Méthode scientifique - Nicolas Martin.

17' 19

Nicolas Martin : Nous parlons donc de la modération sur les réseaux sociaux tout au long de cette heure, en compagnie de Leïla Mörch et d'Asma Mhalla. Peut-être qu'on peut commencer, Asma Mhalla, par expliquer aujourd'hui comment sont modérés les réseaux sociaux. Concrètement, comment ça marche ? On va se fonder sur Twitter, Facebook et Instagram principalement, mais est-ce que vous pouvez nous expliquer comment c'est modéré ?

Asma Mhalla : Vous avez deux grands volets, ou deux grandes façons de le faire. D'abord, ce sont des modérations humaines, donc ce sont vraiment des individus comme vous et moi qui sont souvent, d'ailleurs, dans des contrées lointaines, Philippines, Afrique du Nord, Caucase, qui sont absolument sous-payés, dans des conditions délétères avec des traumatismes psychologiques très profonds, souvent très mal accompagnés par les plateformes, et qui vont vraiment modérer en direct avec des heures de travail et des jours ouvrés les contenus, la quantité phénoménale de contenus et d'informations qui circulent sur les réseaux sociaux. Ça, ce sont les modérateurs humains, sous-payés, dans des conditions que j'évoquais. Là, on est extrêmement en-dessous de ce qui pourrait être une ambition minimale de modération. Un réseau social comme Twitter, 300 millions d'utilisateurs actifs, il a 2000 modérateurs dans le monde. Facebook, c'est à peu près dans les mêmes proportions, donc on est vraiment sur de la sous-modération humaine.
Et puis le deuxième grand volet de la modération, c'est ce qu'on commence à voir apparaître, c'est l'automatisation avec des débuts d'algorithmes d'intelligence artificielle, pas très sophistiqués, qui essaient d'encoder, d'encapsuler un maximum d'informations de ce qui pourrait être modéré, c'est-à-dire censuré, invisibilisé ou pas. Et typiquement, et votre question est particulièrement d'actualité et intéressante parce qu'on a vu les failles ce week-end même suite aux tueries de Buffalo[8]. Certes, le life streaming sur Twitch a été coupé dès la deuxième minute, donc assez vite par rapport à Christchurch, où, en fait, c'est là où tout le débat avait réellement commencé, il n'avait été coupé qu'au bout de 17 minutes, donc là il y avait une réelle amélioration. En revanche, les extraits de vidéo ont continué à circuler pendant plus de 48 heures durant le week-end. Donc s'est posée la question : malgré tous les outils d'automatisation, les plateformes existantes, le travail de signalement y compris en France sur PHAROS[9] qui est la plateforme de signalement, on n'a pas réussi à endiguer ce type de viralité ou de contenus extrêmement viraux qui sont d'abord relayés par les communautés suprémacistes et ensuite, par capillarité et boule de neige, sont récupérés par les différents bords politiques pour décrier, pour dénoncer etc. Peu importe pourvu que finalement on parle du contenu. Donc typiquement, l'exemple de Buffalo ce week-end est un échec fondamental de ce qu'est ou de ce qu'aurait dû être la modération, qu'elle soit humaine — et en l'occurrence c'était un dimanche, donc on peut supposer que les équipes étaient en sous-effectif, donc problème organisationnel ­— et puis derrière une automatisation qui visiblement, concrètement, a été totalement faillible, en tout cas n'a pas réussi. Et plus largement sur la question de la modération ou de la faisabilité même de la modération, en fait, c'est là le principal problème, plus exactement vous en avez deux à mon sens. Le premier, très terre-à-terre, c'est la question opérationnelle. Est-ce qu'on est en mesure, aujourd'hui, d'industrialiser des moyens, d'une part, de modération mais surtout du contrôle de la modération. Typiquement, dans le Digital Services Act[10], le DSA dont on reparlera sûrement, on prévoit des instances de contrôle avec le régulateur, avec la justice. On voit aujourd'hui l'état de la justice, on voit aujourd'hui que l'Arcom [Autorité de régulation de la communication audiovisuelle et numérique], le régulateur français, ils sont 350 collaborateurs, donc se pose réellement la question des moyens financiers, compétences, techniques, technologiques, et en réalité la question, ou la réponse aujourd'hui, est très claire : nous n'avons pas les moyens d'industrialiser une modération qui soit en mesure de faire face à la volumétrie absolument extraordinaire de contenus et d'informations qui circulent. Ça, c'est le premier niveau de réponse. Le deuxième niveau, qui est beaucoup plus philosophique, c'est de dire : dès l'instant où on bute sur une voie sans issue qu'est la modération aujourd'hui, plutôt que de s'entêter, il faut chercher comment contourner la difficulté et à mon sens il faut remonter la chaîne de valeur. La modération en réalité c'est quand c'est déjà trop tard. Donc il va falloir repenser la question de l'éducation, la question du régulateur, le rôle de l'État, la responsabilité des plateformes, leur modèle économique, etc. Ce sont là, en réalité, les véritables questions qui d'ailleurs et par parenthèse vont s'amplifier avec le Métavers qui va arriver dans les prochaines années.

Nicolas Martin : Je ne sais pas si on va avoir le temps d'aborder toutes ces questions-là dans les 40 minutes qui restent de l'émission. En tout cas on voit bien ce qui est important, Leïla Mörch, et ce que pointe Asma Mhalla, c'est effectivement ce à quoi, finalement, on venait au début, c'est-à-dire que c'est quelque chose de titanesque, que la modération c'est écrêter vraiment à la marge des comportements abusifs et on voit aussi que même en tentant d'écrêter à la marge ces comportements abusifs-là, l'intelligence artificielle, comme on va l'entendre dans pas longtemps, se trompe et finit par cibler les mauvais messages. Donc qu'est ce qui reste de l'intention de cette modération qui a tout de même pour ambition de protéger les utilisatrices et les utilisateurs de messages haineux, de caractères qui peuvent leur nuire dans les conditions qu'on entend, et qui, par ailleurs, sont humainement comme on vient de l'entendre particulièrement scandaleuses pour ce qui est de la modération humaine.

Leïla Mörch : Complètement. Je pense que lorsqu'il s'agit de la modération, il s'agit de n'être ni trop pessimiste ni trop optimiste. Quand on voit la façon dont le droit s'est construit dans la vie réelle, ça a mis des années, des années et des années à pouvoir adresser toutes les situations de violence dans la rue ; aujourd'hui on voudrait que pour des plateformes qui ont moins de vingt ans on trouve en six mois la solution. C'est pour dire qu'il y a une question de moyens déjà à mettre en avant, et les plateformes ne mettent pas les moyens mais il y a aussi des questions...

Nicolas Martin : C'est pas qu'elles n'ont pas les moyens par ailleurs.

Leïla Mörch : Ah c'est pas qu'elles n'ont pas les moyens, elles ne les mettent pas mais il y a aussi des questions de méthode. Et donc effectivement à vouloir dire d'un coup : « oui, mais la modération AI, elle ne convient pas parce qu'elle a des biais, parce qu'elle n'est pas explicable », mais du coup est-ce que ça veut dire qu'on sacrifie donc en fait finalement des personnes humaines, parce que je vous invite tous à lire trois témoignages (maximum) de ce qu'ils voient, honnêtement, on ne peut pas demander plus d'effectifs humains que ça, parce que c'est trop dur en fait à voir.

Nicolas Martin : Il faut préciser par ailleurs qu'il y a deux ans Facebook a été condamné à verser 52 millions de dollars à des milliers de modérateurs pour compensation des traumatismes liés à leur travail, puisque ce sont des gens qui sont confrontés à longueur de journée à des contenus haineux, à des vidéos de meurtres, et donc ce sont des gens qui vivent et qui témoignent de traumatismes profonds liés à ce métier qui est par ailleurs exercé dans les conditions que décrivait tout alors Asma Mhalla.

Leïla Mörch : Complètement, nous on est en lien avec beaucoup de modérateurs notamment avec Chris Gray qui fait partie un peu des leaders de ces modérateurs-là, et ce type-là de condamnations devrait arriver encore plus souvent. Mais encore une fois, c'est 1) un manque de moyens, 2) un manque de méthode. Et donc en fait lorsqu'on sépare ces questions-là de modération, on se demande finalement à qui revient l'obligation. Est-ce que la plateforme doit décider de tout, tout le temps, qui modère quoi ? Est-ce que c'est elle qui doit les payer ? Est-ce qu'il y a un moment une sorte de conseil extérieur qui peut être monté ? C'est pour ça que nous, au Lab, on essaie d'avoir une méthode globale qui permette d'avoir ce qu'on appelle la multi-stakeholders approach, la méthode multipartite, on essaye de travailler avec des associations, avec des experts, avec des politiques et avec des modérateurs pour ne pas laisser de trous dans la raquette. Et donc, quand on voit ce qui se passe au niveau des tueries de Buffalo, mais aussi sur la modération par exemple en langues non anglophones, c'est un drame absolu. Regardez la modération dans les pays en Afrique, c'est juste hallucinant ; en fait, il n'y a quasiment aucune modération. Et en fait, sur ces questions-là, on ne pourra avoir que des réponses peut-être que technologiques ; ça ne veut pas dire qu'il ne doit pas y avoir des humains derrière, mais quand on regarde sur Facebook, 90 % des contenus sont finalement retirés par des IA, ça monte jusqu'à 95 % dans les cas de contenu haineux et donc finalement pour moi, le véritable enjeu d'investissement là-dedans, c'est d'investir dans des meilleures technologies qui vont petit à petit progresser, qui vont petit à petit prendre en compte le contexte si elles travaillent avec des associations, si elles travaillent avec des mises en contexte, si elles travaillent à ne pas être simplement faites par des techniciens dans un laboratoire au fond de la Silicon Valley avec des hommes qui ont cinquante ans... et même parfois beaucoup moins...

Nicolas Martin : Il y a même des femmes aussi parfois.

Leïla Mörch : Voilà. Mais pour finir sur ce sujet-là, donc ça va être 1) rendre ces IA beaucoup plus performantes et ça on va y arriver parce que la technologie progresse à une vitesse extraordinaire, mais on va y arriver si honnêtement on va sur le terrain, si honnêtement on fait de la contextualisation. La deuxième chose, c'est que ces IA doivent être efficaces mais explicables et ça c'est vraiment le deuxième aspect de la modération qui est très peu entendu, et le DSA ne sanctuarise pas ça du tout c'est que même s'il recommande aux plateformes de justifier leurs décisions de modération, les plateformes sont tenues responsables et peuvent avoir une amende si elle ne retirent pas des contenus, elles ne peuvent pas avoir une amende si elles retirent trop de contenu. Et donc en fait c'est vraiment cette partie explicabilité qui va être essentielle.

Nicolas Martin : Alors je précise que tout à l'heure dans quelques minutes, dans la deuxième partie de cette émission on va revenir sur ce qu'évoquait tout à l'heure Asma Mhalla, c'est-à-dire le DSA, une directive européenne, on va essayer de poser des questions juridiques et évidemment des questions éthiques, parce que se surajoute à toute cette problématique qui est déjà particulièrement complexe évidemment des enjeux éthiques extrêmement importants. Mais à propos justement de ce que vous évoquiez, c'est-à-dire des limites des algorithmes et de l'intérêt à travailler notamment avec des acteurs associatifs, ça tombe bien puisque c'est exactement ce dont on voulait vous parler dans notre reportage du jour, vous avez peut-être, vous qui nous écoutez, déjà été surprise ou surpris par des messages automatiques de modération de vos posts alors que vous ne pensiez pas à mal et que vous n'aviez pas l'impression d'avoir écrit quelque chose d'horrible, notamment en envoyant des messages à l'intention de votre communauté avec un certain vocabulaire qui est mal compris par l'algorithme comme étant une insulte. Bonjour Alexandra Delbot.

Alexandra Delbot : Bonjour Nicolas.

Nicolas Martin : Ce sort que je viens de décrire, c'est ce qui arrive bien trop souvent notamment à des militants ou à des militantes associatifs.

Alexandra Delbot : Exactement, et notamment des militants et militantes LGBT. J'ai rencontré Thibault Grison, doctorant au SCAI, le centre de recherche de la Sorbonne sur l'IA, et au laboratoire GRIPIC, le centre de recherche en sciences de l'information et de la communication du Celsa. Et pour étudier comment les algorithmes peuvent censurer certaines publications de militants et militantes LGBT sur Twitter, il utilise deux approches. Une première consiste en une collecte de témoignages et recueil d'expériences dont les militants et militantes disent être les victimes ; et la seconde est une récolte de données nommée reverse engineering. Avec son algorithme, il récolte régulièrement les données de profils ou de tweets avec certains mots-clés et dès qu'il aperçoit qu'un compte est bloqué ou un tweet a disparu il essaye de remonter au contenu modéré et à l'analyser et déterminer s'il s'agit d'une modération abusive ou non.

Thibault Grison : Dans le contexte de la modération des réseaux sociaux, des personnes en fait qui depuis ces cinq dernières années se sont rendu compte que leur contenu semblait être supprimé plus facilement que d'autres, et ce type de censure-là semblait beaucoup toucher en tout cas les personnes qui étaient déjà victimes de haine en ligne, des militants antiracistes LGBT, féministes etc. Le deuxième contexte, c'est plus au niveau de la recherche on va dire d'un point de vue vraiment épistémologique : depuis ces quinze dernières années, en tout cas aux États-Unis, il y a beaucoup de travaux qui ont émergé notamment dans les cultural studies, dans le contexte anglo-saxon, où en fait on a commencé à prendre les outils comme l'intelligence artificielle ou plus largement tout ce qui relève de l'informatique, du numérique, comme des technologies qui pouvaient reproduire des discriminations et c'est de là qu'émerge le sujet des discriminations algorithmiques qui est encore très peu abordé dans la recherche francophone.

Alexandra Delbot : Donc cette discrimination algorithmique elle vient de biais dans la conception des algorithmes. Est-ce que ça provient du jeu de données initial ou alors est-ce que c'est simplement une transposition des biais cognitifs, sous-entendu déjà discriminants, qui existent, par les humains ?

Thibault Grison : En fait, il y a tout un ensemble de causes possibles aux discriminations algorithmiques dues à tout un ensemble de biais algorithmiques qui existent déjà. C'est comme si en gros vous aviez... la conséquence c'était la discrimination algorithmique, la cause, c'est le biais algorithmique. Et du coup, effectivement, le biais algorithmique peut être de plusieurs types soit parce que le jeu de données en lui-même est biaisé — est-ce que c'est parce qu'on se base sur un corpus de données, un jeu de données, qui existe déjà, un corpus historique qui du coup est déjà lui-même biaisé, est-ce qu'on a créé un jeu de données artificiel sans pour autant penser aux biais qu'il pouvait constituer parce qu'on a du coup oublié de représenter telle ou telle catégorie de la population ? Il y a aussi un biais algorithmique possible dans les équipes de designers en soi : qui sont ces personnes-là ? Il y a des travaux par exemple qui montrent que ce sont majoritairement des hommes blancs cisgenre, hétérosexuels. Bref il y a tout un ensemble de biais qui existent et qui du coup permettent de formuler différentes hypothèses quand on a un cas de discrimination algorithmique.

Alexandra Delbot : Comment étudier les discriminations dans la modération ? Comment est-ce qu'on peut mesurer ses effets ?

Thibault Grison : Il y a deux approches. La première, ça va être d'abord de faire tout une concaténation de ces discriminations-là, donc de ces formes de censure. Comment ces formes de censure se matérialisent sur les réseaux sociaux ? Est-ce que c'est du déréférencement de contenu ? Est-ce que c'est de la suppression de contenu ? Est-ce que c'est de la suspension de compte ? Une fois que cette parole militante-là est recueillie, ce que je fais, c'est que moi j'essaie de faire de ce qu'on appelle de la reverse engineering où en fait j'essaie de voir comment fonctionnent ces algorithmes-là, donc là je récolte des données qui seront même potentiellement susceptibles d'être censurées plus tard, je les récolte à l'instant T, au moment où elles sont publiées, je les récolte et, on va dire deux jours après ou 24 heures après — j'essaye de faire différentes hypothèses de temporalité —, je repasse dessus avec mes lignes de code pour voir dans quelle mesure ils ont été modérés ou pas. Du coup, j'ai ces lignes de code qui ont été développées avec l'ingénieur en informatique Félix Allié qui sont au nombre de... je sais pas, il y a 200 lignes de code d'un programme informatique, juste pour qu'on puisse collecter en gros des mots-clés, notamment des mots-clés comme gay, pédé, gouine etc. pour voir en gros qu'est-ce qui est modéré, et moi j'ai juste à entrer "Entrée", et boum, et j'ai en résultat de nouvelles lignes qui apparaissent, des lignes de résultats, on me dit pour chaque utilisateur : M. Tartempion, deux points, compte supprimé, deux points, compte modéré etc., et du coup, là j'ai ce tableau qui apparaît, j'ai un fichier qui s'enregistre automatiquement sur mon ordinateur avec ce tableau-là. Et du coup j'ai un peu deux collectes j'ai cette collecte par profil, par statut de profil et j'ai une autre collecte qui est en fait la plus importante dans mon travail, qui est une collecte par tweet qui aurait été modéré ou là, c'est une collecte où je fais une recherche par mots-clés, comme je disais avec les mots-clés gay et pédé, gouine etc., tout un ensemble de mots-clés qui renvoient à la culture LGBT soit parce que ce sont des insultes qui font l'objet de réappropriations militantes, comme c'est le cas de pédé, soit parce que c'est des mots-clés neutres qui renvoient à l'orientation sexuelle. Et je regarde sur ce tableau qu'on voit là, je regarde en fait les tweets qui ont été supprimés, et là, par exemple, j'ai un exemple d'un tweet qui dit « je suis pédé » après moi, je retrace le chemin, donc depuis ce tableau je retourne sur le compte de l'utilisateur ou l'utilisatrice et en fait je vois que c'est un militant LGBT qui en fait tweete ça dans une forme de militantisme. Du coup, là, il y a un cas de modération que je juge abusive et que les militants et militantes jugent abusive. Le propre de mon sujet, c'est que c'est un sujet qui est beaucoup traité en informatique, les biais algorithmiques, mais pas d'un point de vue sciences humaines et sociales parce qu'en fait les chercheurs et chercheuses en sciences humaines et sociales ne savent pas vraiment comment marche la machine, sauf qu'en fait les informaticiens et informaticiennes ne savent pas vraiment comment marche la machine non plus parce que tout ça est opaque, et du coup j'ai à cœur, dans ma recherche, de faire une sorte de recherche action, une recherche un peu située où j'assume en fait un parti pris militant dans la manière dont je me saisis de mon sujet, et je cherche à rendre cette recherche disponible pour ces sphères militantes-là ; à ce stade de ma thèse j'ai un petit peu rationalisé tous les cas de discrimination algorithmique. Mon enjeu, maintenant, c'est d'un peu rationaliser mon corpus : quels termes je vais choisir, est-ce que je vais partir sur des mots-clés, est-ce que je vais partir sur de la recherche par profil, est-ce que je vais repartir sur des entretiens, est-ce que je vais faire un peu de tout ça parce que je travaille aussi sur les chartes de modération etc., donc en gros : maintenant j'ai tout ça, qu'est-ce que je fais pour être le plus convaincant dans mon argument, et en même temps produire des hypothèses sur : quels sont ces biais algorithmiques dans le contexte de la modération ?

Nicolas Martin : Voilà ce reportage sur les discriminations algorithmiques. Asma Mhalla, votre réaction à l'un de ces problèmes qui est aussi un problème de taille et de surmodération ?

Asma Mhalla : Ça revient à ce qu'on disait tout à l'heure, c'est-à-dire que, certes, on peut espérer qu'à un moment donné les algorithmes, c'est-à-dire l'encodage, les datasets, la façon dont les algorithmes sont éduqués, sont entraînés, puisse s'améliorer avec le temps, néanmoins il faut être un tout petit peu réaliste aujourd'hui. Les résultats sont, disons, plus que discutables ou modestes, le problème étant qu'il ne s'agit pas simplement d'un résultat technologique qu'on pourrait juger, évaluer à l'aune d'indicateurs techniques parce que si ça n'était que ça, il n'y aurait pas tellement de problèmes. Le problème qui est pointé là c'est qu'en effet ça crée d'une part de la discrimination, mais en réalité on retrouve ce sujet de l'algorithmisation et de l'automatisation y compris dans les questions de l'État plateforme, des services publics, de la reproduction des discriminations d'un certain type de populations. En réalité, c'est une reproduction du réel en amplifié, et c'est exactement les mêmes problèmes aussi qu'on retrouve sur les réseaux sociaux. Les réseaux sociaux ne créent pas le problème ; en réalité ils le reflètent, ils l'amplifient, ils l'orientent et si on appose déjà à ce problème initial un algorithme qui ajoute encore des biais, des filtres et donc des choix, et par là donc de la subjectivité, alors on risque d'avoir de grands soucis, d'autant plus que le problème qui s'attache aux réseaux sociaux c'est la question de la liberté d'expression, et là le problème devient fondamentalement politique et non plus simplement technique ou technologique. Donc, ce qui est absolument extraordinairement passionnant dans le sujet, en réalité, c'est que tout ça s'hybride, tout ça est imbriqué : modèle économique, modèle technologique, modèle politique, et les trois s'interpellent en permanence. Simplement, je voulais rebondir tout à l'heure rapidement mais parce que c'est quand même en lien ; on peut parler de modération, et c'est tout le sujet de notre émission. Mais en réalité, parler de la modération des réseaux sociaux sans pointer le fait que les réseaux sociaux eux-mêmes sont devenus des entreprises politiques et géopolitiques, et on l'a vu à l'aune de la guerre en Ukraine — ça devient aujourd'hui des champs de conflictualité, les réseaux sociaux sont des armes de guerre, sont militarisés, se joue de la désinformation, de la cyberdestabilisation, de l'intoxication informationnelle et ça a commencé en réalité à partir de 2016 avec les différentes ingérences russes dans les campagnes américaines, le Brexit, la campagne présidentielle de 2017, etc. Et donc, ce que je veux dire par là, c'est que modérer n'est pas à prendre comme étant quelque chose de complètement neutre où toutes choses étant égales par ailleurs. Le réseau social, par sa gouvernance, par la vision de son patron, la vision du monde, ses appétences, ses choix politiques, Zuckerberg et le Vietnam en 2020, Musk et l'Ukraine en 2022 etc. etc. n'est absolument pas neutre. Et donc modérer suppose aussi de comprendre quel est le modèle politique et quelle est l'idéologie qui est derrière. Ce qu'on visibilise c'est autant de choses qu'on va invisibiliser ensuite.

Nicolas Martin : C'est exactement ce dont nous allons parler dans quelques minutes dans la deuxième partie de cette émission. Un mot très rapide une réaction très rapide Leïla Mörch.

Leïla Mörch : Je souscris complètement à ce que dit Asma Mhalla, et c'est vraiment l'intérêt énorme de cette affaire de Musk, qui lève le voile sur un problème global, et qu'en fait, qu'il s'appelle Musk, ou qu'il s'appelle Jack Dorsey, ou qui s'appelle Zuckerberg, la vraie question en fait, c'est de se rendre compte que derrière chaque méthode de modération en fait il est censé y avoir une vision politique, et c'est pour ça que nous on s'appelle le Content Policy et pas le Content Moderation. On travaille sur les politiques de contenu, c'est-à-dire qu'il y a la couche modération, c'est l'outillage finalement ; il y a la couche régulation, c'est comment est-ce qu'on utilise ces outils ; et la couche politique de contenu, c'est finalement quelle est la vision, c'est quoi la liberté d'expression, comment est-ce qu'un jour on plante un drapeau, on dit : « OK, ça va peut-être faire des pas contents, ça va peut-être faire des contents, mais voici le modèle » et c'est un modèle qu'on va choisir démocratiquement. Aujourd'hui, cette politique est laissée à la main des grandes plateformes ; est-ce qu'il faut ou pas, c'est un autre débat mais quand on voit l'impact sur la société de ces grandes plateformes, cette politique-là ne peut pas être laissée d'une manière arbitraire donc 100% en ligne.

Nicolas Martin : On va continuer à discuter de la modération, je vous avais prévenu, c'est évidemment un problème aussi complexe qu'il est passionnant, on va se poser des questions de droit puisque heureusement il y a des législations qui peuvent ou non on va le voir encadrer ces problèmes de modération de contenu et évidemment les problèmes éthiques qui en découlent on continue d'en parler dans quelques secondes musicales.

Nicolas Martin : Puisque nous parlons donc des réseaux sociaux et des multiples problèmes posés par la question de la modération, nous en parlons avec Leïla Mörch qui est coordinatrice du projet de recherche du Content Policy and Society Lab à l'université de Stanford en Californie et Asma Mhalla, qui est enseignante à Sciences po, spécialiste des enjeux politiques et géopolitiques du numérique, mais tout de suite on passe à la recherche montre en main. Nous avons le plaisir de recevoir Julie Charpenet, rebonjour. Vous travaillez sur le pouvoir de modération des réseaux sociaux, contribution à l'étude d'un modèle de régulation des contenus. Vous faites votre thèse depuis septembre 2016 à l'université Côte d'Azur, bienvenue à la recherche montre en main, on vous écoute.

Julie Charpenet : Un immense merci à vous, Nicolas Martin, pour cette invitation. Je suis vraiment ravie d'être ici pour vous parler de la modération des réseaux sociaux sous le prisme juridique, un sujet ô combien d'actualité, comme vous l'avez d'ores et déjà démontré avec notamment le Digital Services Act. Mon travail de thèse consiste à comprendre et décrire les effets juridiques du pouvoir de modération des réseaux sociaux, en particulier sur la liberté d'expression. Le premier effet observé tient à la contractualisation de la liberté d'expression, puisque les plateformes définissent contractuellement ce qui peut être vu, lu, su ou dit sur leurs interfaces ; et en adhérant aux conditions générales d'utilisation, l'utilisateur consent ainsi à se soumettre aux règles de la plateforme et accepte de renoncer au moins partiellement à sa liberté d'expression. Un second effet tient à l'automatisation dont on a déjà parlé, du contrôle cette fois-ci de l'exercice du droit à la liberté d'expression. Au regard de la croissance exponentielle des flux de contenu sur leur interface, les plateformes n'ont eu d'autre choix de créer des algorithmes capables de filtrer les contenus en fonction des politiques des entreprises et, il faut le préciser, elles y ont été fortement encouragées par les pouvoirs publics ; enfin le pouvoir de modération des réseaux sociaux a pour conséquence une standardisation de la liberté d'expression et plus fondamentalement une standardisation du discours à l'échelle mondiale. En effet les réseaux sociaux se meuvent dans un environnement transnational et doivent aussi composer avec des lois nationales différentes voire en parfaite opposition, et le choix n'a pas été fait de définir des règles de modération territorialisées au risque de balkaniser l'Internet ou de limiter le partage des idées et, de l'aveu de la cheffe de politique mondiale de Facebook, l'application de dizaines de règles différentes dans le monde serait incroyablement plus difficile que d'appliquer un ensemble unique et cohérent. Alors, pour ce faire, les règles du discours sont ainsi définies dans les politiques de contenu enserrées dans les conditions générales d'utilisation qui sont elles de portée mondiale. Ce sont en effet les mêmes pour tous les citoyens du monde quel que soit le droit applicable dans leur pays d'origine. Or les politiques de modération rappellent aux utilisateurs l'interdiction de la diffusion de contenus illicites, c'est-à-dire des contenus interdits par la loi. Mais si les conditions générales d'utilisation sont les mêmes pour tous, de quelle loi s'agit-il ? Compte tenu du fait que les principaux réseaux sociaux sont américains et que les politiques de contenu sont définies par des juristes largement empreints de la culture du premier amendement, l'intuition première serait de craindre une américanisation du droit à la liberté d'expression. Le droit étatsunien serait alors la loi de référence à l'échelle mondiale. Je me suis employée dans mes recherches à vérifier cette intuition en analysant et comparant les politiques de contenu des principaux réseaux sociaux américains et, attention spoiler, ce n'est vraiment pas si simple.

Nicolas Martin : sans blague

Julie Charpenet : Il apparaît au contraire que, pour éviter des condamnations dans les États où la loi est plus restrictive, les réseaux sociaux ont une légère tendance à appliquer les lois les plus contraignantes et à les appliquer à des utilisateurs soumis normalement à des lois bien moins restrictives. Ce faisant, les réseaux sociaux créent leurs propres standards de liberté d'expression. Donc la question qui s'est posée était aussi de savoir si ces standards sont propres à chacune des plateformes ; pour le dire autrement est-ce que la « loi Facebook » est différente de la « loi Twitter ». Mon travail de comparaison révèle qu'en matière de contenu haineux par exemple, les politiques de contenu sont similaires entre elles à 78 % ; cela confirme l'hypothèse selon laquelle la standardisation de la liberté d'expression dépasserait les frontières territoriales du droit mais aussi les frontières des plateformes elles-mêmes. Dans le même sens, cette standardisation de la liberté d'expression à l'échelle globale résulte de l'utilisation des filtres algorithmiques souvent d'ailleurs élaborés en collaboration entre les plateformes, et de ce qu'on appelle la préférence technologique puisqu'au regard du coût de développement de ces outils, les ingénieurs les paramètrent selon la politique de l'entreprise et les appliquent de manière uniforme à l'échelle globale. Ainsi, par le cumul des fonctions normatives, par l'édiction des règles de modération et les fonctions répressives, par la détection et la sanction de non-respect de ces règles, les réseaux sociaux s'imposent comme les régulateurs d'une conversation mondiale et ses acteurs privés et économiques dépourvus de tout mandat démocratique. Et c'est peut-être là que le bât blesse essentiellement c'est à l'aide d'outils très éloignés des droits fondamentaux puisque le contrat est les algorithmes, et ils sont devenus les garants de notre liberté d'expression et en définissent les contours.

Nicolas Martin : Merci beaucoup Julie Charpenet. Il nous reste moins d'un quart d'heure alors qu'il faudrait à peu près deux heures pour discuter de tous ces enjeux absolument passionnants intellectuellement. Plusieurs choses, alors, je vais vous demander d'essayer de répondre de manière peut-être assez courte. Alors la première chose, une question assez simple et pourtant avec des implications assez vastes. Est-ce que les lois étatiques, je pense notamment en l'occurrence au DSA européen dont il va falloir nous expliquer ce que c'est, est-ce que les états ont encore un levier sur ces entreprises justement pour les forcer à amender, à revoir, à amplifier, à préciser leur politique de modération Leïla Mörch ?

Leïla Mörch : Pour essayer de le faire hyper simplement, hyper schématiquement, et donc de manière incomplète, le DSA est une obligation de moyens, le DSA ne définit pas ce qu'est un contenu illicite.

Nicolas Martin : Le « DSA » pour ?

Leïla Mörch : Digital Services Act.

Nicolas Martin : Qui va rentrer en fonction normalement en 2023.

Leïla Mörch : Exactement. Suivant la taille des plateformes évidemment qui sont concernées ; ça va être beaucoup plus rapide pour les très grandes plateformes. C'est une obligation de moyens, ce qui fait qu'à nul endroit il n'explique ce qui doit être retiré, la nature de ce qui doit être retiré, c'est vraiment une obligation de moyens. Là où il y a une certaine manière un trou dans la raquette parce qu'il y a effectivement une balkanisation, comme très bien dit, de ce qui est illicite ou pas, et donc finalement la protection par la loi en France va être extrêmement différente de ce qu'on va pouvoir trouver dans d'autres pays voire dans d'autres pays qui n'ont aucun caractère démocratique et dont finalement les conditions d'utilisation des plateformes souvent permettent de protéger une forme de discours ça c'est la première chose. La deuxième chose, c'est que ce DSA encore une fois oblige les plateformes à des sanctions si elles ne retirent pas les contenus, elle n'oblige pas les plateformes à des sanctions si celles-ci retirent trop et donc, encore une fois, c'est un échange à sens unique qui pose énormément de problèmes puisque c'est in fine toujours la liberté d'expression qui est mise en danger. Par rapport à la question de la standardisation : je souscris complètement à ce qui a été dit, je définirais peut-être juste un peu plus qu'il y a une forme de standardisation de ce qui est interdit parce que il n'y a pas de standardisation de ce qui doit être dit ou du moins pas encore, et ça c'est assez rassurant et finalement essayer de montrer que cette standardisation n'est peut-être pas si mal si elle est faite de manière démocratique et donc pas par les plateformes ni par uniquement les gouvernements parce que ces gouvernements-là peuvent avoir des intérêts dans ce choix-là, et donc la création d'une sorte de standard sur ce qui vraiment ne doit pas être dit puis ensuite des choses qui tiennent compte des contextes serait beaucoup plus sain en termes de régulation.

Nicolas Martin : Mais on voit bien tout le problème démocratique qui est posé par ces questions Asma Mhalla, de définir ce qui doit être dit ou de ce qui ne doit pas être dit, tout ça est évidemment extrêmement contextuel, extrêmement variable en fonction de l'endroit d'où l'on se place. Par exemple, on peut se poser la question éthique de savoir s'il est tolérable que le compte d'un président de la République démocratiquement élu, en exercice, soit fermé autoritairement par une entreprise privée.

Asma Mhalla : Vous me posez la colle pour finir.

Nicolas Martin : Non mais c'est essentiel...

Asma Mhalla : Alors, je vais être extrêmement franche avec vous : mes convictions personnelles n'ont cessé, n'ont littéralement cessé d'osciller sur cette question-là ; je n'ai jamais réussi, et je l'admets très modestement, jamais réussi à me faire une conviction absolument totale, finale, sur le sujet et pourquoi ?

Nicolas Martin : On parle de Donald Trump, je le rappelle rapidement pour ceux qui n'auraient pas compris l'allusion, on parle de la fermeture du compte Twitter et Facebook de Donald Trump.

Asma Mhalla : 2020, et un appel de Donald Trump, en tout cas un encouragement du climat insurrectionnel qui commençait d'ailleurs par des plateformes de l'alt-tech — dont on n'a pas du tout parlé parce qu'une heure c'est très court, mais en réalité la question de la désinformation au sens large, du complotisme etc. commence en réalité rarement sur les grandes plateformes. Ça commence toujours sur ce qu'on appelle des microplateformes de l'alt-tech qui ont toujours revendiqué très très peu de modération, et par capillarité ça grossit et donc les QAnon etc. avaient commencé sur 4chan, sont arrivés sur Twitter encouragés par Trump, et ça a fini par l'invasion du Capitole d'une part, la déplateformisation in extremis, et une fois que les élections ont été perdues, par Twitter, du même Trump, donc en fait quand politiquement l'affaire était pliée en gros et Facebook a suivi, donc c'est pour ça que je reviens sur la question idéologique, politique et aussi des penchants réellement sur l'échiquier politique de tel ou tel patron. Alors juste pour remettre les choses dans leur contexte et pour répondre : est-ce qu'on aurait dû — chacun se fait une conviction ; il y a des contenus qui sont parfois dans une zone grise où légalement, aux États-Unis, ils n'étaient pas interdits d'un point de vue juridique, mais qui sont dans une forme de décence morale et de responsabilité collective, et c'est sur ce plan-là, c'est-à-dire quand l'opinion publique a poussé, quand le camp démocrate aussi a poussé (et par ailleurs un tout petit peu instrumentalisé la chose) qu'on a déplateformisé et peut-être et probablement à juste titre dans un contexte incandescent. Maintenant, est-ce à dire qu'un leader d'opinion est plus sensible à une déplateformisation, à une censure qu'un autre, c'est un vaste débat qui mériterait, mon cher ami, une émission à part entière.

Nicolas Martin : Et encore peut-être même deux...

Asma Mhalla : Il faut absolument que je vous donne mes trois points et je vais être très très synthétique...

Nicolas Martin : Je vous en prie

Asma Mhalla : ... et donc très simpliste et schématique, mais il faut quand même que je vous réponde et en fait vos deux questions de cette dernière partie d'émission sont absolument liées. La première chose c'est : la personne qui a présenté, Julie, je crois, sa thèse...

Nicolas Martin : Julie Charpenet.

Asma Mhalla : C'est quelque chose d'extrêmement juste, dit quelque chose d'extrêmement juste sur l'hybridation de la philosophie non pas du droit mais de la philosophie du droit européen (si on devait vraiment le mettre dans un seul sac, encore que c'est beaucoup plus complexe que ça), et le droit américain ; et ce qui est particulièrement intéressant — c'est ce sur quoi je travaille et milite — c'est une espèce de cogouvernance transatlantique parce qu'il va falloir vraiment que les deux se parlent mais à condition que les États-Unis aient fixé leur doctrine. Or en réalité la démocratie américaine actuellement est à la croisée des chemins et si je devais schématiser vous avez deux grandes écoles qui s'affrontent ; l'école Musk : liberté d'expression maximaliste, modération minimale, et l'école Obama qui, lui, regarde du côté de l'Europe, est plutôt dans le camp démocrate progressiste et qui pousse à la transparence algorithmique, à la révision de la section 230, à davantage de modération à l'européenne. Les deux écoles s'affrontent aux États-Unis, aujourd'hui la religion finalement sur la liberté d'expression n'est pas fixée ou en tout cas elle est remise en jeu et ça va déterminer fondamentalement la suite et du climat politique américain et donc par ricochet, l'échiquier géopolitique occidental en tout cas. Et donc ce qui va se passer pour nous en Europe, le DSA nous prémunit, et le grand intérêt du DSA en réalité, au-delà de telle ou telle mesure ou je ne sais quoi c'est davantage sa philosophie générale, c'est-à-dire qu'il territorialise des Big Tech qui étaient jusque-là de nationalité, de droit, et d'inspiration américaines, tout d'un coup, dans le principe et en théorie, il les soumet aux juridictions européennes d'une part la Commission et puis surtout aux juridictions nationales, donc il renvoie vers la loi de 1881, le code pénal etc. en France.

Nicolas Martin : Asma Mhalla, je vais vous interrompre parce que j'aimerais poser une question à Julie Charpenet qu'il me semble absolument essentielle d'aborder, et encore une fois je savais que cette émission allait être trop courte pour toutes les choses que nous avions à dire et on en refera évidemment d'autres pour prolonger cette discussion. Mais Julie Charpenet, vous abordez aussi un point que nous n'avons pas encore malheureusement abordé qui me semble aussi absolument central c'est finalement cet oubli collectif ou cet impensé — parce que je pense que quand on utilise les réseaux sociaux on a tendance à se faire aveugler par l'écran de fumée de la liberté d'expression et de je vois tout ce que les gens postent or il y a évidemment des algorithmes qui choisissent ce que vous allez voir —, donc nous ne sommes pas face simplement à un défilé de contenu mais face à une proposition éditoriale et donc se pose la question qui est une question centrale dans cette affaire et dans cette problématique de la modération de la différence entre l'hébergeur et l'éditeur et là aussi c'est central puisque si on était face à de simples hébergeurs la question de la modération seraient finalement beaucoup plus simple à résoudre.

Julie Charpenet : Oui alors c'est une excellente remarque, alors on sort peut-être un petit peu du champ de la modération à proprement parler, puisque là, il est vraiment question d'un ordonnancement, pas d'une curation. Alors effectivement c'est très clairement cet ordonnancement qui a un petit peu fait exploser la classification entre hébergeurs et éditeurs. On a dit très clairement, la réponse est affirmative que Mark Zuckerberg n'est pas l'éditeur, le rédacteur en chef de Facebook. Néanmoins, la question est tangente, et c'est la raison pour laquelle le DSA n'est pas revenu sur cette question, n'a pas précisé véritablement les différentes positions des acteurs et s'est concentré vraiment sur la procédure de la modération et sur les effets de cette mise en avant de contenus.

Nicolas Martin : Une dernière question pour conclure Leïla Mörch, et peut-être sur les options, ou en tout cas les possibilités, qui ne sont pas encore appliquées qui pourraient permettre justement de redéfinir et de ne pas laisser à des opérateurs privés de décider ce qui relève ou non de la liberté d'expression et les utilisateurs dans tout ça ?

Leïla Mörch : Il y a énormément de questions dans cette question-là. La première, c'est : ces grandes plateformes-là vont finir par ne plus avoir le choix ; le sujet monte politiquement, et plus les gens vont se rendre compte, plus les gens vont devenir acteurs finalement de leurs réseaux sociaux. Ils vont réclamer la transparence, vont se mettre à signaler de manière plus intelligente donc tout ça c'est des questions d'éducation des enfants, des adultes, des élus pour que les gens prennent conscience de ce qui se passe. Cet établissement, finalement, de règles doit se faire de manière collective, doit se faire avec des associations qui remontent du terrain des choses qu'on voit mais depuis des années le DSA, tous les textes, en fait mettent dans la loi des choses sur lesquelles on a des levées de foulards depuis des années et on attend des drames pour les mettre en place donc 1) soyons plus proactifs, 2) mettons des moyens, 3) faisons confiance au terrain et ensuite 4) cessons aussi de penser que la modération va tout résoudre. La modération, c'est très bien, la modération, c'est extrêmement important ; ça ne résoudra pas les comportements humains parce que ce sera une invisibilisation aussi. Ce n'est pas parce qu'on va supprimer le racisme sur Internet qu'on va supprimer le racisme dans la vraie vie et finalement ce qui va compter ce seront l'impact des réseaux sociaux sur la société et donc finalement c'est ce qui se passe dans la société. Et encore une fois j'essaye de dire ça à chaque fois : il faut éduquer nos populations à l'esprit critique, il faut éduquer nos populations à la nuance, à la pensée complexe parce que c'est quand on ira à la source finalement du contenu, là où il naît, c'est-à-dire dans l'esprit de quelqu'un qu'on va pouvoir faire ça et on voit bien qu'on a voulu enlever les théories QAnon des réseaux sociaux aujourd'hui ils sont élus aux États-Unis !

Nicolas Martin : Mais ça veut dire faire reposer la modération finalement sur les utilisateurs c'est-à-dire que finalement on réduit la modération à portion congrue de la part des opérateurs et on dit finalement c'est aussi aux utilisateurs de se modérer eux-mêmes.

Leïla Mörch : Au contraire, plus de modération permet de la faire mieux ; plus de règles de modération, plus de moyens, plus de modérateurs permet de la faire mieux. C'est pas parce qu'on met plus de police pour protéger la population qu'on doit laisser la population sous une forme de paternalisme. Les gens sont intelligents, je veux dire à un moment si on leur donne les moyens aussi de comprendre ce qu'il se passe, si on leur donne les moyens de mieux se protéger, on va pouvoir arriver à des formes de modération qui leur conviennent mieux aussi. Donc moi je suis vraiment pour plus de modération de manière générale, pour qu'elle soit faite dans la dentelle. Ça, c'est la première chose. Mais ensuite je pense que ce qui va vraiment compter, c'est de recréer du lien social, de répondre à cette crise politique et sociale à laquelle on fait face et ça ne va pas pouvoir se compter en milliards ni en algorithmes ni en quoi que ce soit et c'est ça qu'il faut pas qu'on oublie.

Nicolas Martin : C'est une belle vision optimiste qui engage une transformation sociale bien importante par rapport au point de départ de notre discussion ; vous voyez, c'était une question complexe, on y reviendra bien évidemment parce que comme vous l'avez entendu nous n'avons pas eu le temps d'aborder tous les points ; c'était un sujet auquel nous consacrerons dans le futur je l'espère et assez prochainement une nouvelle émission. Merci beaucoup à toutes les trois merci Leïla Mörch, merci Asma Mhalla, merci Julie Charpenet d'être venues nous parler de la modération sur les réseaux sociaux.