Différences entre les versions de « Justice Sociale : le numérique à la barre - Trench Tech »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 227 : Ligne 227 :
 
<b>Mathilde Saliou : </b>Voilà, c’est ça.  
 
<b>Mathilde Saliou : </b>Voilà, c’est ça.  
  
<b>Mick Levy : </b>Mais comment Facebook détecte-t-il que c’est un truc de haine et qu’il va le porter encore plus, il y a des mécanismes spécifiques là-dessus ?
+
<b>Mick Levy : </b>Mais comment Facebook détecte-t-il que c’est un truc de haine et qu’il va le porter encore plus : il y a des mécanismes spécifiques là-dessus ?
  
<b>Mathilde Saliou : </b>Oui. Dans les documents que Frances Haugen a rendu publics, on s’est rendu que sous les posts Facebook, il y a tous les émojis j’aime, j’adore, je soutiens, je ne sais pas quoi, il y avait une décision arbitraire qui avait été prise. Je dis arbitraire parce qu’il y avait des explications pour certaines décisions dans les documents et, pour celle-là, on n’a pas pu trouver quel avait été le raisonnement. Il y a eu, par exemple, la décision arbitraire de donner cinq points à la colère, alors que toutes les autres émotions valent un point : dans la machine c’est toujours considéré comme plus intéressant, dès qu’un post provoque l’émotion colère la machine se dit « OK, cinq points sur ma grille de calcul, je vais le montrer un maximum ».
+
<b>Mathilde Saliou : </b>Oui. Dans les documents que Frances Haugen a rendu publics, on s’est rendu que sous les posts Facebook, il y a tous les émojis j’aime, j’adore, je soutiens, je ne sais pas quoi, il y avait une décision arbitraire qui avait été prise. Je dis arbitraire parce qu’il y avait des explications pour certaines décisions dans les documents et, pour celle-là, on n’a pas pu trouver quel avait été le raisonnement. Il y a eu, par exemple, la décision arbitraire de donner cinq points à la colère, alors que toutes les autres émotions valent un point. Dans la machine c’est toujours considéré comme plus intéressant : dès qu’un post provoque l’émotion colère, la machine se dit « OK, cinq points sur ma grille de calcul, je vais le montrer un maximum ».
  
 
<b>Mick Levy : </b>C’est hyper-bon à savoir. Quand on va publier des trucs sur Facebook, il faut qu’on demande à nos potes de mettre de la colère quand bien même ce n’est pas un truc de colère.
 
<b>Mick Levy : </b>C’est hyper-bon à savoir. Quand on va publier des trucs sur Facebook, il faut qu’on demande à nos potes de mettre de la colère quand bien même ce n’est pas un truc de colère.
Ligne 237 : Ligne 237 :
 
<b>Mick Levy : </b>Tu as une technique de gros hacking de base.  
 
<b>Mick Levy : </b>Tu as une technique de gros hacking de base.  
  
<b>Thibaut le Masne : </b>C’est pour cela que tu insultes avec çA ?
+
<b>Thibaut le Masne : </b>C’est pour cela que tu insultes avec ça ?
  
 
<b>Cyrille Chaudoit : </b>D’ailleurs, ça a été démontré aussi sur YouTube. Pas mal d’études ont montré que les vidéos qui s’enchaînaient automatiquement étaient plutôt des vidéos qui engageaient la colère, la haine, etc., parce que ça incite à rester. C’est effectivement quelque chose de totalement avéré. Là on parle d’outils auxquels nous sommes très habitués, comme les réseaux sociaux entre autres. Que penses-tu des nouveaux risques qui arriveraient avec cette entrée tonitruante de l’IA et des bots, en particulier les IA génératives, ChatGPT en tête de liste ?
 
<b>Cyrille Chaudoit : </b>D’ailleurs, ça a été démontré aussi sur YouTube. Pas mal d’études ont montré que les vidéos qui s’enchaînaient automatiquement étaient plutôt des vidéos qui engageaient la colère, la haine, etc., parce que ça incite à rester. C’est effectivement quelque chose de totalement avéré. Là on parle d’outils auxquels nous sommes très habitués, comme les réseaux sociaux entre autres. Que penses-tu des nouveaux risques qui arriveraient avec cette entrée tonitruante de l’IA et des bots, en particulier les IA génératives, ChatGPT en tête de liste ?
  
<b>Mathilde Saliou : </b>Je pense que ce sont un peu les mêmes en réalité. L’IA générative fait le buzz parce que ChatGPT peut produire un texte qui a vraiment l’air produit par un humain au premier regard. Mais, en soi, c’est l’aboutissement de plein de progrès dans la recherche sur l’intelligence artificielle qui ont lieu depuis 10/20 ans. Tout à l’heure on a parlé, je crois, des biais d’images de reconnaissance faciale. En 2018, Joy Buolamwini, qui est aussi la fondatrice de l’Algorithmic Justice League, avait démontré que quand on prenait les plus gros algos de reconnaissance faciale utilisés sur le marché à l’époque, ces machines reconnaissaient très bien les hommes mais beaucoup moins bien les femmes et très bien les blancs et beaucoup moins bien les noirs, du coup, si vous étiez une femme noire, une fois sur deux la machine se plantait. On retrouve le même type de biais dans les productions d’images dans Dall-E ou dans Midjourney, pas en termes de reconnaissance, en termes de production d’images. Par exemple, je ne sais pas si c’est à Midjourney ou à Dall-E, si vous demandez de produire une image de CIO, il va vous sortir un mec blanc en costard, potentiellement avec des lunettes et c’est tout. Il ne peut pas imaginer qu’il y ait une femme, qu’il y a des gens non-blancs qui soient CIO, directeurs.
+
<b>Mathilde Saliou : </b>Je pense que ce sont un peu les mêmes en réalité. L’IA générative fait le buzz parce que ChatGPT peut produire un texte qui a vraiment l’air produit par un humain au premier regard. Mais, en soi, c’est l’aboutissement de plein de progrès dans la recherche sur l’intelligence artificielle qui ont lieu depuis 10/20 ans. Tout à l’heure on a parlé, je crois, des biais d’images de reconnaissance faciale. En 2018, Joy Buolamwini, qui est aussi la fondatrice de l’Algorithmic Justice League, avait démontré que quand on prenait les plus gros algos de reconnaissance faciale utilisés sur le marché à l’époque, ces machines reconnaissaient très bien les hommes mais beaucoup moins bien les femmes, et très bien les blancs et beaucoup moins bien les noirs. Du coup, si vous étiez une femme noire, une fois sur deux la machine se plantait. On retrouve le même type de biais dans les productions d’images dans Dall-E ou dans Midjourney, pas en termes de reconnaissance, en termes de production d’images. Par exemple, je ne sais pas si c’est à Midjourney ou à Dall-E, si vous demandez de produire une image de CIO, il va vous sortir un mec blanc en costard, potentiellement avec des lunettes et c’est tout. Il ne peut pas imaginer qu’il y ait une femme, qu’il y a des gens non-blancs qui soient CIO, directeurs.
  
 
<b>Cyrille Chaudoit : </b>Pour cela il faut juste rappeler que les datasets sur lesquels il s’appuie, c’est-à-dire les données qu’on lui a données à manger justement pour s’inspirer, sont essentiellement composés de photos d’hommes blancs, quinquas pour décrire un CIO.
 
<b>Cyrille Chaudoit : </b>Pour cela il faut juste rappeler que les datasets sur lesquels il s’appuie, c’est-à-dire les données qu’on lui a données à manger justement pour s’inspirer, sont essentiellement composés de photos d’hommes blancs, quinquas pour décrire un CIO.
Ligne 249 : Ligne 249 :
 
<b>Mick Levy : </b>On va dire dans les arcanes de l’algo.
 
<b>Mick Levy : </b>On va dire dans les arcanes de l’algo.
  
<b>Cyrille Chaudoit : </b>Ce qui dit Mathilde est intéressant « dans la tête de la société », parce qu’il s’appuie sur de la data qui a été produite par nous, la société, auparavant, il n’y a pas que le concepteur, c’est plus profond que ça.
+
<b>Cyrille Chaudoit : </b>Ce qui dit Mathilde est intéressant : « dans la tête de la société », parce qu’il s’appuie sur de la data qui a été produite par nous, la société, auparavant, il n’y a pas que le concepteur, c’est plus profond que ça.
  
<b>Mathilde Saliou : </b>carrément. Ça vient de toutes parts et ça vient de nous tous, ce n’est pas que l’industrie tech, c’est plus. Derrière, mon problème c’est que la tech veuille se faire passer pour neutre, impartiale, plus juste que nous, alors qu’en fait pas du tout. Elle est en train de reproduire, et si on tombe dans le piège de son discours de neutralité, on risque de ne plus pouvoir protester, plus penser que ce soit protestable. Or je suis une femme, je suis convaincue que j’ai le droit à la même ??? que les hommes.
+
<b>Mathilde Saliou : </b>carrément. Ça vient de toutes parts et ça vient de nous tous, ce n’est pas que l’industrie tech, c’est plus que ça. Derrière, mon problème c’est que la tech veuille se faire passer pour neutre, impartiale, plus juste que nous, alors qu’en fait pas du tout. Elle est en train de reproduire, et si on tombe dans le piège de son discours de neutralité, on risque de ne plus pouvoir protester, plus penser que ce soit protestable. Or je suis une femme, je suis convaincue que j’ai le droit à la même ??? que les hommes.
  
 
<b>Mick Levy : </b>Nous en sommes convaincus avec toi.<br/>
 
<b>Mick Levy : </b>Nous en sommes convaincus avec toi.<br/>
C’est le moment prendre une petite bulle d’aération. Nous sommes ravis, aujourd’hui nous avons une nouvelle chronique à vous proposer, chronique proposée par un ancien invité. Peut-être que ça peut provoquer des vocations, Mathilde, si tu veux veut être chroniqueuse dans <em>Trench Tech</em>. On écoute, avec nous, Louis de Diesbach
+
C’est le moment prendre une petite bulle d’aération. Nous sommes ravis, aujourd’hui nous avons une nouvelle chronique à vous proposer, chronique proposée par un ancien invité. Peut-être que ça peut provoquer des vocations, Mathilde, si tu veux être chroniqueuse dans <em>Trench Tech</em>. On écoute, avec nous, Louis de Diesbach
  
 
<b>Voix off : </b>La tech entre les lignes.
 
<b>Voix off : </b>La tech entre les lignes.

Version du 11 septembre 2023 à 18:18


Titre : Justice Sociale : le numérique à la barre

Intervenant·e·s : Mathilde Saliou - Emmanuel Goffi - Louis de Diesbach - Cyrille Chaudoit - Mick Levy - Thibaut le Masne

Lieu : Émission Trench Tech

Date : 18 mai 2023

Durée : 1 h 05 min

Podcast

Page de présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Diverses voix off : Tiens, ils sont pas mignons les deux groupes de seniors ? On parle de fracture sans arrêt, on parle des couches sociales, de l’âge, etc. Ils ne sont pas tous équipés. Il n’y a pas qu’un problème d’équipement. Les deux-là passent un vrai déjeuner ensemble, ils se parlent.
Il n’y a pas de téléphone.
Je propose qu’on interroge nos invités en mode avion, on laisse tous les téléphones en dehors.
C’est ça, on pourrait essayer.
Ça se tente !
On rigole, mais l’injustice sociale liée au numérique est quand même bien plus grave que ça.
Ce n’est pas qu’une question d’avoir un smartphone, de l’utiliser ou pas. On va voir que ça crée de vraies inégalités.
Ça sera l’occasion d’échanger avec Mathilde. Quand on l’avait eue en préparation, ce qu’elle nous disait était quand même assez impressionnant. Elle ne va pas regarder que les inégalités homme-femme, elle va regarder les inégalités un peu partout.
Les inégalités sociales.
C’est aussi ça qui est important. On a souvent tendance à cliver et là…

Anne Gruwez, voix off : Je n’en ai peut-être pas l’air, j’ai suivi des cours de self-défense et je suis parfaitement capable de vous plaquer toute seule au sol. Si vous souhaitez une démonstration, je le fais immédiatement, sauf que vous allez vous retrouver d’abord assommé, parce que je vais d’abord vous assommer, ensuite vous plaquer au sol.

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Mick Levy : Bonjour. Quel plaisir de vous retrouver pour un nouvel épisode de Trench Tech. C’est Mick au micro, accompagné de mes deux acolytes, Cyrille et Thibaut.

Cyrille Chaudoit : Salut Mick.

Thibaut le Masne : Salut.

Mick Levy : Vous voulez exercer votre esprit critique pour une tech éthique, vous êtes au bon endroit. Trench tech c’est le talk-show qui décortique les impacts de la tech sur notre société. Et c’est important, car il semble que plus l’empreinte du numérique est forte sur la société, plus les inégalités se creusent ; que plus le numérique s’étend, plus les minorités sont marginalisées ; que plus le numérique gagne du terrain, plus certaines personnes sont fragilisées. Et les coupables sont déjà tout désignés : les réseaux sociaux qui ont plus intérêt à véhiculer la haine que l’amour au nom de l’économie de l’attention ; les algorithmes entraînés avec des données pleines de biais qui amplifient la non-représentativité des populations minoritaires ; les smartphones et leurs applications addictives qui nous piègent dans des bulles algorithmiques infernales. Mais derrière la rhétorique technologique, il y a des personnes qui souffrent et des populations qui se retrouvent isolées, et tout cela généralement dans un silence assourdissant. Car, dans le numérique, on n’a pas une Anne Gruwez, la juge super héros qu’on entend dans l’extrait de l’édifiant film-reportage Ni juge, ni soumise. On n’a pas Anne Gruwez, mais on a Mathilde Saliou, notre invitée du jour. Avec elle, nous allons voir pourquoi la tech semble être l’un des principaux supports d’une injustice sociale grandissante et surtout comment sortir de cette mécanique. Comme d’habitude vous retrouverez aussi deux chroniques pour s’inspirer, la Philo Tech d’Emmanuel Goffi, ainsi qu’une toute nouvelle chronique, on vous garde la surprise.
Il est maintenant grand temps d’accueillir notre invitée. Bonjour Mathilde.

Mathilde Saliou : Bonjour.

Mick Levy : Mathilde, nous pouvons nous tutoyer ?

Mathilde Saliou : Bien sûr.

Mick Levy : Génial. Faisons les présentations pour nos auditeurs. Mathilde, tu es journaliste spécialiste dans le numérique, diplômée de Sciences Po Paris. À ce titre, tu travailles pour Next INpact et tu interviens pour de nombreuses autres rédactions telles que RFI, The Guardian, Numerama ou encore Usbek & Rica pour n’en citer que quelques-unes. Tu as aussi été secrétaire générale de l’association Prenons la Une qui milite pour une meilleure représentation des femmes dans les médias et pour l’égalité dans les rédactions. Enfin, tu es l’autrice de Technoféminisme – Comment le numérique aggrave les inégalités qui est paru cette année aux éditions Grasset. On voit donc que ton combat c’est celui de l’égalité et de la justice sociale. On va voir ensemble comment il se traduit dans le numérique.
On passe tout de suite à notre première séquence : numérique partout, justice sociale nulle part.

Voix off : Trench Tech. Esprits Critiques pour Tech Éthique.

Numérique partout, justice sociale nulle part

Thibaut le Masne : Comme le disait Mick en intro, à mesure que le numérique se déploie dans toutes les strates de notre vie quotidienne, les inégalités semblent se creuser. Numérique partout, justice nulle part, justice sociale nulle part. Peux-tu nous dire, Mathilde, ce qu’est, pour toi, cette injustice sociale et surtout comment est-ce que tu l’as définie ?

Mathilde Saliou : Comme vous l’avez dit, j’ai pas mal travaillé sur les questions d’inégalités femme/homme à la base de mon métier, dans le monde des médias, dans le monde journalistique. En fait, je me suis rendu compte à la faveur de mouvements comme #MeToo, par exemple, ou comme Black Lives Matter qui a commencé dès 2016, que c’étaient des questions de toute manière beaucoup plus larges, qui touchaient la société dans son entier, sauf que moi, dans mon travail, je traitais en particulier du monde numérique. Je me suis donc demandé si que je ne pourrais pas prendre les lunettes d’analyse qui sont adoptées par ce type de mouvement pour aller regarder ce qui se passe du côté de la tech et ce qu’on trouve quand on se penche sur les questions de justice sociale, quand on enquête sur cet univers-là.

Mick Levy : Du coup, quels sont les problèmes d’injustice sociale que tu as pu détecter du fait du numérique, notamment. Est-ce que tu as quelques exemples concrets à nous communiquer ?

Mathilde Saliou : Oui. J’en ai trouvé dans plusieurs strates, si je puis dire.
La première c’était dans l’industrie elle-même. Quand on regarde les chiffres, il y a beaucoup plus d’hommes que de femmes, par exemple, si on prend juste cette inégalité-là : il y a souvent trois hommes pour une femme dans l’industrie de la tech. Sauf que quand on regarde dans le détail, beaucoup de ces 25 % de femmes présentes travaillent dans les fonctions de support, par exemple RH, communication, etc., mais dans les faits, ceux qui construisent les outils que nous utilisons au quotidien, c‘est encore plus que trois quarts d’hommes.
Après, sur la strate du dessus, les produits qu’ils construisent par exemple, je me suis rendu compte que l’industrie de la tech, même si elle se dit souvent plus neutre, plus impartiale peut-être que le jugement humain parce que construite à partir de l’informatique, à partir des mathématiques, en fait dans ces produits aussi elle embarque plein de biais. Un exemple, il y a des exemples de toutes sortes : les algorithmes publicitaires. On s’est rendu que sur Facebook ou sur Linkedin en particulier, les publicités d’offres d’emploi qui sont diffusées aux gens ne sont pas exactement les mêmes aux hommes qu’aux femmes. Quand on creuse, de la même manière que dans la société hors-ligne, les hommes ont plus facilement accès aux postes les plus rémunérateurs et aux postes avec le plus de responsabilités. En fait Linkedin renforçait pendant un temps cette question-là en poussant les offres de jobs les plus rémunérateurs ou avec le plus de responsabilités aux hommes et en ne les montrant pas, du moins pas autant, aux femmes. C’est un problème de techno, si je puis dire.
Dernière strate qui me semble assez importante, que je détaille un peu dans mon livre, c’est la strate de nos usages à nous autres citoyens, quelles que soient nos connaissances en tech, par exemple sur les réseaux sociaux qui sont devenus part intégrale de notre espace public en fait, sur lesquels on a plein de débats, on se rend compte qu’il y a énormément de violence qui touche tout le monde. Ça fait plusieurs années qu’on parle des questions de violence, de haine, de fausses informations, etc. Encore une fois, j’ai commencé à travailler sur la question d’abord en tant que journaliste parce que c’est un problème qui touche pas mal les journalistes comme d’autres professions publiques – si vous êtes politique, activiste, célébrité, vous avez plus de chances de vous prendre de la cyberviolence que d’autres types de professions. En fait, les chiffres montrent là encore que les hommes se prennent de la violence, mais les femmes en prennent une encore plus vicieuse, si je puis dire, encore plus énervée, si je prends l’exemple des journalistes : des collègues masculins peuvent se faire agresser sur la qualité de leur article ou sur le fait que leur média serait prétendument vendu à je ne sais pas quelle force politique et économique, les femmes vont se prendre le même type d’insulte et, en plus, on va les menacer de viol. C’est une chose qu’on retrouve dans tous les domaines. Quand les streameuses se font insulter c’est pareil, il y a cette dimension sur leurs corps, des réflexions sur la sexualité qu’on trouve moins quand ce sont les hommes qui se font agresser.
J’ai beaucoup pris l’angle femmes/hommes, déjà parce que les femmes, même si nous sommes plus souvent traitées comme une minorité, nous sommes quand même 50 % de la population en France.

Mick Levy : Les femmes, c’est finalement la plus grande minorité en France.

Mathilde Saliou : En fait, comme le disent pas mal de mouvements de la justice sociale, là dans les dernières années, il y a une dimension qu’on peut qualifier de ??? . En gros, si on prend tous les autres types d’inégalités qui sont souvent explorés dans les sciences sociales par exemple, inégalités de classe sociale, inégalités d’origine, en fonction de la sexualité, tout cela, eh bien on retrouve les mêmes dimensions de violence accrue pour les minorités raciales, et tout ça.

Thibaut le Masne : On va revenir à ces diversités des inégalités. J’aimerais qu’on revienne simplement quelques secondes peut-être sur ce phénomène du cyberharcèlement parce qu’il est extrêmement répandu, de plus en plus, d’ailleurs des travaux sont eux aussi de plus en plus répandus et il y a aussi des mesures qui sont prises à l’échelle gouvernementale.
Est-ce que tu peux nous caractériser un tout petit peu plus ce cyberharcèlement, tu nous en a déjà dit deux ou trois mots. Il prend aussi, parfois, de plus en plus, la forme de deepfake. Tu parlais de la problématique de la sexualité qui est souvent utilisée comme effet de levier. Est-ce que tu peux nous donner des exemples et nous raconter comment, aujourd’hui, on essaye de lutter contre ce cyberharcèlement qui touche, on le rappelle, davantage les femmes ?

Mathilde Saliou : Le cyberharcèlement peut prendre toutes sortes de formes. Quand on prend l’angle égalité femmes/hommes, celui dont je parle le plus souvent, celui que je viens d’évoquer, celui dans l’espace public si je peux dire, mais il faut bien voir que c’est aussi devenu, par exemple, un vecteur de violence conjugale.
Selon le centre ???, dans neuf cas de violence conjugales sur dix, il y a une composante numérique à la ???. Par exemple le conjoint violent, parce que ce sont principalement des hommes qui sont violents envers les femmes, va soit harceler la personne en lui envoyant des textos et des messages sur tous ses réseaux sociaux en permanence pour savoir où elle est, soit récupérer ses identifiant et mot de passe pour aller l’espionner sur ses comptes sociaux, soit faire la même chose sur des comptes bancaires ou des choses comme ça, ce qui permet à l’agresseur d’accroître son emprise économique. Ça peut aussi être ça.

Mick Levy : Tu ne vois pas nos têtes à tous les trois. Je n’avais jamais entendu parler d’une telle violence ! Incroyable ! 90 %...

Cyrille Chaudoit : La statistique est impressionnante.

Mick Levy : La modalité est impressionnante aussi.

Cyrille Chaudoit : La modalité est impressionnante. Je m’attendais à ce que tu nous parles de revenge porn, je te clashe, manifestement la première façon d’être violent vis-à-vis de l’autre c’est relativement, entre guillemets, « basique », c’est quand même d’une violence extraordinaire.

Mathilde Saliou : Exactement de la même manière que quand on parle du cyberharcèlement à l’école, la violence que rajoute l’ère numérique c’est qu’on ne peut plus jamais s’en échapper. À la base, quand on a parlé du cyberharcèlement la première fois en France, c’était dans le milieu scolaire, et la manière dont on essayait, dont on essaie encore, de sensibiliser les gens, c’est de montrer à quel point déjà le harcèlement scolaire ce n’est pas cool, mais le cyberharcèlement ne s’arrête jamais, même quand l’enfant rentrer chez lui, il n’a aucune manière de mettre la violence sur « pause ». Dans le cas de ??? c’est pareil, ça rajoute une espèce de dimension, ça ne s’arrête jamais.

Cyrille Chaudoit : Désolé, par notre intervention on t’a coupée, les autres modalités du coup ?

Mathilde Saliou : Les autres modalités de cyberviolence ?
Comme tu le disais, il y a des cas de deepfake, il y a toute la dimension spécifiquement sexuelle. Ça peut toucher à peu près n’importe qui. J’ai fait une grosse enquête sur le sujet avec une collègue qui s’appelle Ingrid ???, on se rend compte que dans les milieux scolaires, justement, ce qu’on appelle le revenge porn, qui est un peu un abus de langage parce que dedans il y a la notion de « revanche », alors que c’est pas parce que vous étiez dans une relation et vous ne voulez plus y être qu’il devrait y avoir revanche.

Cyrille Chaudoit : Ça cautionne presque le sujet, alors que ça n’a rien d’une revanche.

Mathilde Saliou : C’est ça, et même le côté pornographie, il y a des victimes qui n’aiment pas ça du tout qu’on appelle ça revenge porn, parce que ce qui se passe en fait, c’est que leur corps, des photos d’elles nues se retrouvent dans des groupes de conversations avec des centaines de milliers de personnes parfois. La pornographie faite de façon consentie existe, pour elles ; qu’on dise en plus que c’est de la pornographie, ç’est parfois une violence supplémentaire.

Cyrille Chaudoit : C‘est un problème de consentement. Ce n’est pas la sextape faite de manière consentie et qui échappe à un moment donné à l’intimité, ce sont des trucs qui sont pris même à ton insu.

Thibaut le Masne : Le terme est la triple peine quoi !

Mathilde Saliou : C’est ça. Il y a des cas assez connus qui ont eu lieu contre des célébrités. Vers 2014, je ne sais pas si vous vous souvenez, il y a plein d’images dénudées de Jennifer Lawrence et d’autres grandes stars qui ont fuité, parce qu’un hacker était allé choper des images persos sur tout le cloud en gros, raconté de manière raccourcie. Depuis le confinement, on se rend compte que ce type de pratique, notamment ce qu’on appelle les comptes « fisha », ce sont des comptes Snapchat, Telegram, etc, où des gens, principalement des jeunes garçons, se demandent les uns les autres des photos de filles de leur quartier, de leur école, de leur région. En fait, ils demandent des photos dénudées, des photos qui vont être récupérées par leur mec, par leur ex, par quelqu’un, que sais-je, ça fait des bulles de conversations assez énormes et c’est super dur pour les victimes déjà de les faire supprimer. Même avant ça, quand elles apprennent que leur image est dans un truc comme ça, ça les met vraiment dans un état catastrophique. Dans notre enquête avec ma collègue Ingrid ???, on a constaté qu’il y a une espèce de déconnexion complète entre la pratique de partage d’images faites par les jeunes hommes – plusieurs personnes qui ne s’étaient pas concertées nous ont dit « pour eux c’est comme s’échanger des cartes Pokémon ou des cartes Panini de foot ». On est vraiment dans un objectif de ??? la plus complète des filles et, de l’autre côté, quand les filles apprennent qu’elles ont été victimes de cela, ça crée vraiment des impacts traumatiques extrêmement forts, des cas de quasi-dépression voire de dépression : des jeunes filles se sont suicidées à cause ça.
C’est un des trucs qui me terrifie le plus. Il se trouve qu’avec des technos de type intelligence artificielle générative, il n’y a même pas besoin qu’on récupère une des images que vous avez faite dans un cadre privé, même pas besoin de prendre une image à votre insu, on peut prendre votre tête, la mettre sur un corps de quelqu’un d’autre et rendre un truc comme ça, sexuel, sexualisé.

Cyrille Chaudoit : C’est ce qui est arrivé à une twitcheuse américaine récemment.

Mathilde Saliou : C’est même arrivé à plusieurs twitcheuses, ça arrive. Des tests ont été faits de publicité, très facilement visibles sur Twitter et Facebook, me semble-t-il, avec ???. C’est malheureux, mais c’est aussi un usage possible de ces technos et ce n’est pas du tout une découverte qu’on aura faite avec Dall-E ou Midjourney, c’est un truc qu’on sait au moins depuis 2018, il me semble que ce sont les chiffres que j’avais trouvés.

Mick Levy : C’était notre deuxième épisode de Trench Tech, on l’a fait sur le thème des deepfakes et on avait longtemps parlé des deep pornsavec Gérald Holubowicz [1] qui est, depuis, devenu chroniqueur chez nous.

Cyrille Chaudoit : Dans la même veine, on a Louis de Diesbach, un invité précédent qui a une question pour toi, Mathilde.

Louis de Diesbach, voix off : Bonjour Mathilde. On sait qu’une grande partie des biais des algorithmes vient des datasets. Je voulais un peu savoir comment tu pensais trouver l’équilibre entre d’une part l’égalité, qui est quand même une valeur cardinale, égalité en modifiant potentiellement les datasets des algorithmes et, d’autre part, une autre valeur cardinale, la liberté qu’on pourrait espérer trouver en laissant les algorithmes tels qu’ils sont et en laissant, à ce moment-là, les individus naviguer.

Mathilde Saliou : Pour moi, la question de la liberté dans les algorithmes ne doit pas être exactement là. Pour moi, l’algorithme c’est la techno. On peut décider de la construire mieux, qu’on l’arrange là où elle fonctionne mal, etc.
Là où je vois un gros enjeu de liberté, notamment liberté d’expression, c’est par exemple quand on parle des discours possibles en ligne. Là il y a des choix à faire et, pour l’instant, des choix ont été faits pour laisser le discours le plus large possible sur la plupart des plateformes versus mettre des outils de modération plus forts pour protéger ceux qui sont victimes de violences mais qui, du coup, restreindraient la liberté.
Après, dans l’autre ??? des algos, très souvent ils sont présentés, par exemple par les entreprises qui les créent, comme des technologies révolutionnaires mais qui ne marchent pas encore parfaitement parce qu’il faut qu’on mette plus d’argent et plus de temps pour développer une version encore mieux des algorithmes.
En fait, on pourrait essayer de penser les choses à l’envers, dans l’autre sens. Dans le milieu médical, par exemple, on attend que les constructeurs aient prouvé que leur médicament fonctionne bien et qu’il ne met personne en danger avant qu’il ne soit mis sur le marché, et pas l’inverse.
Je mettrais la question de la liberté plus du côté des usages et, dans la partie construction, je pense qu’on a une réflexion à avoir tous ensemble, citoyens, constructeurs, journalistes et industriels aussi, sur quand est-ce qu’on est prêt à mettre une nouvelle techno sur le marché, parce qu’on a tendance à la mettre avant.

Mick Levy : Ils ne se posent pas la question comme ça ! Ils ne se posent pas du tout comme ça la question aujourd’hui.

Cyrille Chaudoit : C’est encore bien biaisé. Merci beaucoup Mathilde
C’est le moment de retrouver la Philo Tech pour essayer de remonter un peu ou de s’aérer un peu les neurones suite à tout ce qu’on vient d’apprendre.

Voix off : De la philo, de la tech, c’est Philo Tech.

Philo Tech 18’ 00

Cyrille Chaudoit : Chez Trench Tech, nous voulons aiguiser notre, mais aussi, votre esprit critique. Encore faut-il savoir ce qu’est l’esprit critique. Emmanuel, comme à ton habitude, tu ne vas pas nous le définir, mais tu vas plutôt nous proposer des pistes de réflexion.

Emmanuel Goffi : Oui, parce que l’esprit critique c’est comme le courage, on ne peut pas être prosélyte sans être pratiquant et c’est exactement, d’ailleurs, le positionnement de Trench Tech. Cela étant dit, c’est vrai qu’il nous manquait cette petite réflexion sur ce qu’est l’esprit critique. Je n’ai pas la prétention de dire ce qu’est l’esprit critique. Je vais me contenter, certainement par paresse, d’évoquer quelques idées.
Pour commencer on fait un petit saut historique pour se retrouver aux côtés d’Isocrate, un rhétoricien contemporain de Socrate, qui, dans son discours contre les sophistes, se lance dans une diatribe virulente contre ceux qu’il appelle, je le cite, « les docteurs de la sagesse, de dispensateurs de la félicité ». À la même époque, le poète Aristophane rédige Les Cavaliers, comédie dans laquelle il fustige les démagogues et donne naissance à l’expression aujourd’hui bien connue de « vendeurs de saucisse ou d’andouille » selon les traductions. Période également durant laquelle Socrate, père de la philosophie, critique assez vertement les sophistes et les oppose d’ailleurs aux philosophes.

Pourquoi est-ce que je mentionne ces trois figures antiques ? Pour deux raisons.
Les sophistes et la démocratie. Les sophistes sont ces sages qui, contre rétribution, forment les jeunes grecs à l’art oratoire, la rhétorique, avec une visée pratique qui inclut la prise de décision, l’argumentation et le gouvernement. C’est justement en pleine naissance de la démocratie, deuxième élément, que ces sophistes vont exprimer leur art pour aider les politiques à convaincre et les avocats à plaider. Ce que Socrate, comme Isocrate, leur reproche, c’est le dévoiement de la philosophie, à savoir l’amour désintéressé de la sagesse qui vise la vérité pour lui substituer cet art oratoire qui est l’éristique, c’est-à-dire le débat pour la victoire pure, même au prix de la vérité. C’est l’art des démagogues qui est moqué par Aristophane. Ces deux éléments favorisent l’idée de contrôle des opinions.

Cyrille Chaudoit : D’accord. Mais qu’en est-il de l’esprit critique dans tout ça ?

Emmanuel Goffi : L’esprit critique, c’est d’abord cette dimension de la pensée critique qui permet de prendre du recul sur ce que l’on nous dit, donc de s’émanciper des vendeurs de saucisse et autres sophistes, donc de rester libre.
De fait, l’esprit critique c’est la voie vers la liberté, celle de penser, de s’autodéterminer, de savoir par soi-même, d’être autonome. Cette autonomie est d’ailleurs considérée par de nombreux philosophes comme une condition à notre humanité. Qu’il s’agisse de Rousseau pour qui, je le cite, « renoncer à sa liberté c’est renoncer à sa qualité d’homme », de Kant qui affirme que l’autonomie est le principe suprême de moralité, ou de Nietzsche qui promeut l’esprit libre de celui qui pense autrement, qu’on ne l’attend de lui pour se défaire, nous dit-il, de l’oligarchie de l’esprit. Platon lui-même opérait une distinction de valeur entre la simple doxa, l’opinion, et l’épistémè, la science. Tout comme Kant, plus tard, distinguera l’agir par conformisme, c’est-à-dire par adéquation aux normes, et l’agir par devoir, c’est-à-dire par une conviction raisonnée.

En bref, l’esprit critique c’est notre bouclier contre la servitude volontaire de La Boétie, servitude qu’il conviendrait de liker, pour reprendre le titre du livre de Louis De Diesbach [Liker sa servitude] qui appelle, quant à lui, à l’émancipation volontaire. L’idée générale, en fait, c‘est d’échapper à cette servitude qui conduit inexorablement à la banalité du mal dénoncée par Hannah Arendt.

Cyrille Chaudoit : Oui. Comment associe-t-on esprit critique et technologie ?

Emmanuel Goffi : La technologie pourrait, par absence d’esprit critique, par exemple, contribuer à ce que Luciano Floridi appelle « l’enveloppement », dont une des dimensions consiste à transformer notre environnement en une infosphère favorable à l’IA. Dans cette infosphère, les humains pourraient devenir une partie du mécanisme, des fournisseurs de service, voire, pour les plus influençables, des intermédiaires entre d’autres humains et les machines. Les humains pourraient alors être utilisés comme des interfaces par d’autres humains, devenir des esclaves potentiels à la fois de celles et ceux qui utilisent la technologie pour nous rendre serviles et des machines elles-mêmes.
Heidegger affirmait déjà en 1958 que nous sommes enchaînés à la technique. Inquiétude de l’aliénation partagée par Jacques Ellul ou Théodore Adorno, et à laquelle Gilbert Simondon, qui rejette l’opposition entre technophobe et technophile, répond par une voie médiane reposant sur la connaissance des machines. Et là, la boucle est bouclée. Sans esprit critique, point de connaissance ni de capacité de compréhension de notre univers technique, et c‘est la servitude qui nous guette.
On finit avec Arendt qui nous rappelle, je la cite, « l’être humain ne doit jamais cesser de penser, c’est le seul rempart contre la barbarie ». Et c’est là tout l’enjeu de l’esprit critique : éviter que la barbarie ne revienne frapper à notre porte, même par la voie technologique.

Voix off :Trench Tech. Esprits Critiques pour Tech Éthique.

Les réseaux sociaux et les algorithmes entraînent de l'injustice sociale et fragilisent les minorités 22’58

Mick Levy : Encore une belle Philo Tech avec Emmanuel.
On l’a déjà évoqué avec plusieurs de nos invités : il faut sortir de la croyance que les outils numériques tels que les réseaux sociaux ou l’IA sont neutres. Il faut arrêter de croire que c’est seulement leurs usages, ce qu’on en fait, ce qu’on n’en fait pas, qui déterminent leur caractère éthique. Il faut assumer, finalement, que la façon dont ils sont intrinsèquement construits influe directement sur nos comportements, c’est ce que nous disent beaucoup nos invités et je crois que c’est aussi le message que tu portes, Mathilde.
Dans ce contexte, quelles sont les principales caractéristiques, finalement, des plateformes qui viennent générer cette injustice sociale ?

Mathilde Saliou : Il y en a plein, ça dépend de quelle plateforme on parle.
On a un peu parlé des réseaux sociaux. Il y a cette question : est-ce qu’on décide que c’est la liberté d’expression à tout crin et, en fait, c’est typiquement ce que fait Elon Musk côté Twitter. Du coup, quand il permet à des gens comme Andrew Tate, qui est un influenceur misogyne vraiment horrible, qui est actuellement en prison en Roumanie et qui attend d’être jugé pour trafic d’êtres humains, quand Elon Musk lui redonne accès à sa plateforme dès qu’il prend possession de Twitter, au nom de la liberté d’expression, en fait il met en danger ceux qui vont se faire harceler par Andrew Tate. Là, il y a un calcul qu’on fait assez peu, je trouve, il y a une mise en regard qu’on oublie un peu de faire quand on parle de liberté d’expression sur les réseaux sociaux. C’est un truc : est-ce qu’on protège les minorités comme on devrait ? Dans les textes de loi français, dans les textes de loi américains, il y a quand même des limites à la liberté d’expression pour protéger les gens face aux insultes racistes, antisémites, tout ça.

Mick Levy : C’est justement ce que j’allais dire. Effectivement, même quand dans la rue, quand on insulte quelqu’un, potentiellement on n’a pas le droit. C’est ça qui est assez surprenant. Sur Internet on dit que c’est la liberté d’expression d’insulter tout le monde à tout crin, comme tu dis, et dans la rue si je le fais, en revanche, je peux avoir des sanctions pénales.

Cyrille Chaudoit : Tu as le droit aux États-Unis du coup, dans la Silicon Valley.

Mathilde Saliou : Non ! Même pas. La liberté d’expression est plus large, il y a effectivement une conception plus large qu’en France, mais il y a quand même quelques limites. C’est quand même assez hypocrite de la part des constructeurs américains parce qu’en fait ils vont plus loin que leurs textes politiques. Sauf que si on a créé des lois, nous autres humains, pour faire société, c’est justement pour pouvoir faire société ensemble, pour qu’on ne se marche pas les uns sur les autres et qu’on ne soit pas trop violents les uns envers les autres.

Cyrille Chaudoit : D’un autre côté, tu peux quand même faire appel à la justice. Tu fais constater par huissier un tweet qui est diffamatoire, tu portes plainte, c’est possible. Ce que nous sommes en train de dire, c’est que les plateformes elles-mêmes ne font pas le job.

Mick Levy : C’est justement la différence, le tweet est vu par des millions et des millions de personnes ; j’insulte quelqu’un dans la rue, ce sont des dizaines de personnes qui sont autour de moi.

Cyrille Chaudoit : Je suis d’accord, mais tu peux quand même porter plainte.

Mick Levy : Tu peux porter plainte, mais l’insulte restera présente parce qu’elle ne sera pas forcément supprimée, sauf décision de justice.

Mick Levy : Du coup, là-dedans, revenons au cœur du débat. J’ai l’impression qu’il y a une certaine vision de la liberté d’expression qui est très propre à la personne qui emploie ce terme de liberté d’expression, d’une part, et puis il y a le fait de mélanger la liberté d’expression – tout le monde a envie d’avoir la liberté d’expression – et la nécessité de la modération finalement.

Mathilde Saliou : Il y a ça, oui, clairement. En fait, la question du modèle économique de nos outils numériques est souvent assez importante dans ces questions d’inégalités, à la fois dans le modèle économique et de marketing aussi, si je puis dire. Par exemple, l’industrie de l’intelligence artificielle aime beaucoup nous faire croire qu’elle a construit des machines qui sont quasiment intelligentes toutes seules, sauf que ce qu’elle fait c’est qu’elle invisibilise l’énorme travail qui prend énormément de temps et qui est très mal payé, qui consiste à, par exemple, étiqueter des tas et des tas de données pour entraîner les machines. Or ce travail par qui est-il fait ? Très souvent il est externalisé dans des anciennes colonies des pays européens, pour être très claire.

Mick Levy : On a vu l’affaire sur les Kenyans pour l’entraînement de ChatGPT. On a parlé aussi d’entraînement au Maroc et tout le problème des clickworkers avec TikTok, il y a quelques épisodes.

Cyrille Chaudoit : Pour le coup, en termes de justice sociale et d’inégalités sociales, on est quand même en plein dedans.

Mathilde Saliou : Autre cas aussi, ce sont tous les Uber et compagnie, entreprises de conduite, de chauffeurs et tout, et puis de livraisons, il y a eu toutes ces grosses enquêtes qui sont sorties sur comment Uber avait réussi à faire une espèce de coup de force en France avec notamment l’aide d’un super champion qui s’appelle Emmanuel ! Quand on regarde, il y a une mainmise assez intéressante. Il a fallu que ce soit des analystes politiques qui le disent noir sur blanc dans les interviews, pour que je capte le truc. Effectivement, autrefois jamais un Français n’aurait accepté une telle destruction de la protection du droit du travail. Comment ont-ils fait pour réussir à convaincre, en aussi peu de temps, autant de gens que c’était OK de faire travailler des gens à la tâche, en leur faisant parfois prendre de vrais dangers dans la circulation par exemple, quand ils vont à fond pour pouvoir livrer leurs courses au bon moment ? Il y a tout un truc là, pareil, qui est assez peu réfléchi, pas assez à mon goût, peut-être. En fait, ça participe aussi au système d’inégalités parce que les clients de ce type de plateforme ne sont pas, très clairement, des mêmes classes sociales que ceux qui vont livrer. D’ailleurs on sait qu’il y a beaucoup de personnes migrantes, potentiellement en situation irrégulière, qui travaillent sur ces plateformes pour se faire de l’argent. En fait, elles se font plus ou moins exploiter par ceux qui possèdent les comptes et qui les leur sous-traitent. Ça pose donc énormément de questions sociales, politiques.

Cyrille Chaudoit : Ces injustices sociales qui sont nées de nouveaux business modèles qui créent une nouvelle forme de travail, on les a connues par le passé, pas forcément nous de notre vivant, mais dans l’histoire de France et dans l’histoire en général de toutes les sociétés on va dire occidentales. Ça n’a jamais été la même classe qui faisait appel, en tant que consommateur, à une classe équivalente qui produisait. Si on s’en réfère aux précédentes révolutions industrielles, on fait notamment souvent référence à la crise des luddites qui allaient casser les machines qui automatisaient leur travail, ils perdaient leur travail, etc., l’économie à la tâche a existé par le passé. Finalement, ce que nous sommes en train de vivre là, même si on peut le déplorer, est-ce que ça ne participe pas d’une espèce systémique et de systématisme dès qu’il y a une lame de fond qui vient bousculer la société dans son organisation ?

Mathilde Saliou : C’est clair que le numérique n’a pas inventé ces inégalités, c’est clair qu’on les avait largement avant, néanmoins il les renforce dans certains domaines. Oui, on a déjà vu ces inégalités, mais on a aussi déjà largement lutté contre. J’ai fait une référence rapidement au droit du travail en France, si on a gagné des congés, des cadres de travail relativement sympathiques, je ne sais pas quel est le terme, des protections des travailleurs, etc., c’est grâce à plein de combats sociaux. Ce qui est là assez flagrant, assez étonnant, c’est que l’industrie du ???, qui se présente comme une industrie du progrès en plus : « grâce à toutes ces technos on va pouvoir faire mieux, on va pouvoir aller vers un monde plus désirable, plus sympathique, etc. ».

Mick Levy : La propagande est magnifique dans la tech.

Mathilde Saliou : C’est ça. En fait derrière, quand on creuse sous le storytelling, eh bien on se rend compte que pour ceux qui sont travailleurs, dans certains domaines, on revient en arrière en fait. Ce n’est pas un ???, ça pose question.

Cyrille Chaudoit : J’aimerais que tu nous aides un peu à creuser sur ce sujet-là. Si on reparle des réseaux sociaux qui avaient quand même pour première vocation d’essayer de rapprocher les gens et de rapprocher les peuples, on s’aperçoit aujourd’hui qu’il y a quand même pas mal de choses qui ne sont pas si terribles. Est-ce que tu pourrais essayer de nous expliquer un peu plus en profondeur ce qu’il y a de si mauvais, façon de parler, qu’est-ce qui enclenche aussi tant de choses ?

Mick Levy : Tant de haine. Tu n’arrives pas à sortir le mot.

Cyrille Chaudoit : Oui, c’est un peu ça.

Thibaut le Masne : Pourquoi tu es aussi méchant ?

Mick Levy : Parce que ! [Prononcé en criant, NdT]

Mathilde Saliou : Je pense que c’est à la fois la techno, parce que c’est comment ces plateformes ont été construites et, derrière, le modèle économique parce que c’est le modèle économique qui oriente les décisions qui sont prises quand on construit la technique. Je m’explique.
Les plateformes effectivement, Facebook, Twitter, à la fin des années 2000, au croisement des années 2010, disaient toutes « on va tous pouvoir discuter ensemble, c’est super, vive la démocratie, il y a un énorme espace public ». Et puis arrive Cambridge Analytica, arrive aussi le rôle de Facebook dans la promotion de la haine et le génocide de la minorité Rohingya en Birmanie. Encore aujourd’hui, en Éthiopie, il y a le même genre de problème, on sait que Facebook participe, faute de modération, à alimenter les haines interethniques qui ont lieu sur place. On se rend compte qu’il y a quand même un problème.

Cyrille Chaudoit : Je vais être volontairement un peu brut. On a l’impression que oui, on se rend compte qu’il y a un problème, mais ça reste encore assez loin.

Mathilde Saliou : Mais c’est là quand même !

Cyrille Chaudoit : Oui, mais il parait qu’on est plus sensible quand ça nous touche. Quand on parlait des attentats on disait ce n’est pas bien. Quand ça nous touche personnellement, on commence à se dire qu’il faut faire quelque chose. Là on est en train de parler de problèmes un peu extérieurs. Si je fais un peu le parallèle, l’invasion du Capitole a été quand même une espèce de piqûre assez violente d’un point de vue américain, là ils se sont dit « il va falloir qu’on fasse vraiment quelque chose ».

Mathilde Saliou : Qu’est-ce qui explique ça ? On s’est rendu compte, avec les diverses enquêtes et les diverses fuites de données – notamment celle de Frances Haugen, en 2021, de Facebook – que les algorithmes de la plupart de ces machines, de ces réseaux sociaux, étaient construits de telle sorte - encore une fois pour des raisons économiques - que nous restions engagés, comme disent les plateformes, le plus longtemps possible. Engagés ça veut juste dire connectés sur la plateforme et qu’on participe à la discussion, donc qu’on like, qu’on retweete, qu’on commente, qu’on repartage, tout ça. Plusieurs de ces plateformes se sont rendu compte que la meilleure manière de garder les gens engagés, c’était de diffuser des contenus violents, clivants, énervants.

Cyrille Chaudoit : Ce ne sont pas des petits chats ! Ce sont les contenus énervants.

Mathilde Saliou : Ce qui énerve les gens, c’est la haine. C’est finalement hyper-vendeur de diffuser des discours de haine.

Cyrille Chaudoit : C’est le fonds de commerce des populistes !

Mathilde Saliou : Voilà, c’est ça.

Mick Levy : Mais comment Facebook détecte-t-il que c’est un truc de haine et qu’il va le porter encore plus : il y a des mécanismes spécifiques là-dessus ?

Mathilde Saliou : Oui. Dans les documents que Frances Haugen a rendu publics, on s’est rendu que sous les posts Facebook, il y a tous les émojis j’aime, j’adore, je soutiens, je ne sais pas quoi, il y avait une décision arbitraire qui avait été prise. Je dis arbitraire parce qu’il y avait des explications pour certaines décisions dans les documents et, pour celle-là, on n’a pas pu trouver quel avait été le raisonnement. Il y a eu, par exemple, la décision arbitraire de donner cinq points à la colère, alors que toutes les autres émotions valent un point. Dans la machine c’est toujours considéré comme plus intéressant : dès qu’un post provoque l’émotion colère, la machine se dit « OK, cinq points sur ma grille de calcul, je vais le montrer un maximum ».

Mick Levy : C’est hyper-bon à savoir. Quand on va publier des trucs sur Facebook, il faut qu’on demande à nos potes de mettre de la colère quand bien même ce n’est pas un truc de colère.

Cyrille Chaudoit : Il faut savoir que les ??? de travail, ??? de ouf.

Mick Levy : Tu as une technique de gros hacking de base.

Thibaut le Masne : C’est pour cela que tu insultes avec ça ?

Cyrille Chaudoit : D’ailleurs, ça a été démontré aussi sur YouTube. Pas mal d’études ont montré que les vidéos qui s’enchaînaient automatiquement étaient plutôt des vidéos qui engageaient la colère, la haine, etc., parce que ça incite à rester. C’est effectivement quelque chose de totalement avéré. Là on parle d’outils auxquels nous sommes très habitués, comme les réseaux sociaux entre autres. Que penses-tu des nouveaux risques qui arriveraient avec cette entrée tonitruante de l’IA et des bots, en particulier les IA génératives, ChatGPT en tête de liste ?

Mathilde Saliou : Je pense que ce sont un peu les mêmes en réalité. L’IA générative fait le buzz parce que ChatGPT peut produire un texte qui a vraiment l’air produit par un humain au premier regard. Mais, en soi, c’est l’aboutissement de plein de progrès dans la recherche sur l’intelligence artificielle qui ont lieu depuis 10/20 ans. Tout à l’heure on a parlé, je crois, des biais d’images de reconnaissance faciale. En 2018, Joy Buolamwini, qui est aussi la fondatrice de l’Algorithmic Justice League, avait démontré que quand on prenait les plus gros algos de reconnaissance faciale utilisés sur le marché à l’époque, ces machines reconnaissaient très bien les hommes mais beaucoup moins bien les femmes, et très bien les blancs et beaucoup moins bien les noirs. Du coup, si vous étiez une femme noire, une fois sur deux la machine se plantait. On retrouve le même type de biais dans les productions d’images dans Dall-E ou dans Midjourney, pas en termes de reconnaissance, en termes de production d’images. Par exemple, je ne sais pas si c’est à Midjourney ou à Dall-E, si vous demandez de produire une image de CIO, il va vous sortir un mec blanc en costard, potentiellement avec des lunettes et c’est tout. Il ne peut pas imaginer qu’il y ait une femme, qu’il y a des gens non-blancs qui soient CIO, directeurs.

Cyrille Chaudoit : Pour cela il faut juste rappeler que les datasets sur lesquels il s’appuie, c’est-à-dire les données qu’on lui a données à manger justement pour s’inspirer, sont essentiellement composés de photos d’hommes blancs, quinquas pour décrire un CIO.

Mathilde Saliou : Oui. Du coup, pareil, dans les textes, on constate depuis plusieurs années que quand on a fait des recherches sur Google ou alors quand on fait de la traduction avec Google d’une langue neutre à une langue genrée, par exemple de l’anglais au français. Vous demandez de traduire a doctor, pendant un temps il traduisait automatiquement par « un docteur », parce qu’il n’y a qu’un homme qui pouvait être un docteur. Par contre, si vous demandiez de traduire a nurse, il allait nécessairement traduire au féminin par « une infirmière » parce que dans sa tête, dans la tête des concepteurs, dans la tête de la société ce sont plutôt des femmes.

Mick Levy : On va dire dans les arcanes de l’algo.

Cyrille Chaudoit : Ce qui dit Mathilde est intéressant : « dans la tête de la société », parce qu’il s’appuie sur de la data qui a été produite par nous, la société, auparavant, il n’y a pas que le concepteur, c’est plus profond que ça.

Mathilde Saliou : carrément. Ça vient de toutes parts et ça vient de nous tous, ce n’est pas que l’industrie tech, c’est plus que ça. Derrière, mon problème c’est que la tech veuille se faire passer pour neutre, impartiale, plus juste que nous, alors qu’en fait pas du tout. Elle est en train de reproduire, et si on tombe dans le piège de son discours de neutralité, on risque de ne plus pouvoir protester, plus penser que ce soit protestable. Or je suis une femme, je suis convaincue que j’ai le droit à la même ??? que les hommes.

Mick Levy : Nous en sommes convaincus avec toi.
C’est le moment prendre une petite bulle d’aération. Nous sommes ravis, aujourd’hui nous avons une nouvelle chronique à vous proposer, chronique proposée par un ancien invité. Peut-être que ça peut provoquer des vocations, Mathilde, si tu veux être chroniqueuse dans Trench Tech. On écoute, avec nous, Louis de Diesbach

Voix off : La tech entre les lignes.

La tech entre les lignes de Louis de Diesbach « Les perroquets stochastiques » 38’ 18

Mick Levy : Aujourd’hui nous avons le plaisir d’inaugurer une nouvelle chronique avec une voix que vous connaissez déjà dans Trench Tech puisque c’est celle de Louis de Diesbach que nous avons reçu entant qu’invité il y a tout juste quelques épisodes. Dans sa chronique, il va nous proposer de jeter un nouveau regard sur quelques grands papiers de recherche scientifique. Pour sa première chronique, il a choisi de revenir sur ces doux animaux nommés perroquets stochastiques.

Louis de Diesbach : Hello Mick. Effectivement aujourd’hui, suite aux différentes émules pour des chabots et des modèles de langage, je voulais vous emmener avec moi dans un article important, qui date de 2021, qui s’intitule On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, avec un émoji de perroquet dans le titre, en français « Sur les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ? ». Sorti en 2021, ce papier est aussi important sur le fond que sur ce qui l’entoure. L’article scientifique est l’œuvre de sept chercheuses et chercheurs, mais seulement l’ont signé de leur nom dont les deux autrices principales, Emily Bender, qui est professeure de linguistique computationnelle, rien que ça, à l’Université de Washington à Seattle et Timnit Gebru dont je vais parler dans une seconde.
Les trois autrices ou auteurs inconnus ont été forcés de garder l’anonymat par leur employeur. C’est justement suite à cet article que Timnit Gebru a été remerciée de chez Google où elle dirigeait l’équipe responsable de l’éthique de l’intelligence artificielle. Censurer la responsable de l’éthique de l’IA, tu me diras que c’est un petit peu paradoxal, mais apparemment, chez Google, c’est comme ça que ça marche. Lorsque le géant de Mountain View lui a demandé de retirer son nom de l’article, voire de ne pas le publier du tout, Gebru lui a dit que si jamais c’était comme ça, il faudrait qu’on discute un peu des modalités de son départ. Ce à quoi Google a répondu « super, du coup on accepte ta démission ». Pas vraiment un départ à l’amiable, mais ça peut marcher.

Mick Levy : Tu m’étonnes, sympa l’ambiance chez Google ! Elle a dû dire des trucs de ouf dans son papier pour en arriver là. Qu’y avait-il donc de si tendancieux ?

Louis de Diesbach : C’est une très bonne question. L’article fait justement partie des premiers à critiquer ce qu’on appelle les LLM, les large language models qui sont tous les modèles à la base de ChatGPT, de Bard, de ??? aussi, tous ces chatbots qu’on peut maintenant utiliser.
Après une intro qui rappelle un peu le contexte, l’article se divise en trois grandes parties : d’une part les coûts environnementaux, financiers, sociaux, etc. ; deuxièmement la problématique des données d’entraînement ; et enfin les risques de ces perroquets stochastiques, avant de clôturer avec des pistes de solutions.

Mick Levy : Du très classique finalement, rien de très sulfureux jusque-là.

Louis de Diesbach : Non, tout à fait. Les autrices mettent vraiment en avant, et pour la première fois, une certaine face cachée de la Silicon Valley, ce qui n’est pas très glamour, ce qu’on n’ose pas trop dire, le revers de la médaille. En abordant les coûts, elles mettent notamment en avant les coûts astronomiques, d’un point de vue environnemental, des LLM. Par exemple, l’entraînement d’un modèle basique correspond à près à 50 années d’émissions de CO2 d’un individu lambda, on parle ici de centaines de tonnes. Elles soulignent également que les personnes qui vont bénéficier de ces modèles ne sont pas celles qui vont souffrir des conséquences environnementales ou sociales. On a notamment parlé, lors de l’épisode qu’on a enregistré ensemble, des travailleurs keynians qui vont aider à ??? ChatGPT, on se rend vite compte qu’elles dénonçaient en fait déjà ce qui est devenu une réalité avec la sortie un peu tonitruante du chatbot d’Open AI.
Les autrices mettent également l’accent, je le disais, sur les données d’entraînement en mettant en exergue ce qui est aujourd’hui un refrain très connu : plus de données n’implique pas une plus grande qualité dans l’output, le choix des données est porteur de biais importants, etc., je ne vais pas vraiment m’attarder là-dessus parce que c’est un sujet qui a été longuement discuté, notamment dans certains épisodes précédents de Trench Tech. Cependant, Gebru et ses comparses insistent déjà sur le fait que nous pourrions être très impressionnés par les LLM et prendre pour de l’intelligence ce qui n’en est pas. C’est là qu’elles sont les premières à utiliser l’expression de « perroquets stochastiques » pour parler des chatbots, c’est-à-dire des animaux qui répètent bêtement des trucs basés sur une probabilité statistique. Il n’y a donc aucune forme d’intelligence là-dedans, même si on aimerait bien en voir.

Mick Levy : OK. Je vois. Du coup que retenir de cet article ?

Louis de Diesbach : C’est un article important parce que c’est un des premiers qui jette un pavé dans la mare et qui freine l’enthousiasme un peu délirant de la Silicon Vallley à propos des LLM. Ce n’est pas un article écrit par des philosophes un peu hippies ou bien une philosophie orientale. Non, ce sont bien des pairs de la Silicon Valley, on comprend pourquoi le positionnement de Timnit Gebru est tellement important puisqu’elle vient de Google, ce qui a donc entraîné son licenciement. Néanmoins, et pour conclure un peu, à l’heure actuelle les recommandations des autrices telles que prendre le temps, réfléchir aux impacts – et pas uniquement ceux qui affecteraient l’Occident –, impliquer les gouvernements à se pencher davantage sur le fonctionnement exact des machines plutôt que de s’extasier parce qu’elles répondent bien à des tests ou qu’elles peuvent passer le barreau de New-York, tout cela semble d’une pertinence cruciale pour les mois et les années à venir. Je pense qu’aujourd’hui, en 2023, alors que tout le monde crie un peu partout sur ChatGPT, c’est un article qui mériterait d’être lu et relu.

Voix off :Trench Tech. Esprits Critiques pour Tech Éthique.

Quelles sont les populations fragilisées avec le numérique ? Par quels mécanismes ? Comment y remédier ? 43’ 25

Cyrille Chaudoit : Une superbe première chronique de la part de Louis. Merci pour ça et comme on vous le disait à l’instant, Mathilde, tu es la bienvenue si tu veux venir chroniquer chez nous.

Je retiens notamment tes derniers mots où tu nous dis que penser que la technique est neutre c’est le meilleur moyen de laisser les inégalités se propager et c’est tout l’objet de ton combat que l’on retrouve dans ton livre.
On va essayer de voir ensemble dans cette dernière séquence où va le monde et surtout quelles sont les solutions qui peuvent s’offrir à nous. Lorsqu’on réfléchit à tout ce que nous a dit, forcément ça glace un petit peu le sang et on se dit vivement la partie des solutions.
Je me suis posé une question. J’ai lu une phrase d’un sociologue qui s’appelle Erik Olin Wright, qui dit « dans une société socialement juste l’ensemble des individus disposerait d’un accès égal aux moyens matériels et sociaux de vivre une vie épanouissante ». À priori, ça devrait être également le cas pour disposer d’un accès aux instances, pour pouvoir faire des choix éclairés. On essaie d’œuvrer autant que faire se peut, avec ce podcast, pour éclairer les choix des citoyens. Que penses-tu aujourd’hui de l’absence de consultation et de participation des citoyens sur notre présent et notre avenir numériques ?

Mathilde Saliou : Pour moi c’est un vrai problème. Dans mon livre, vu qu’il est titré « technoféminisme » je prends beaucoup l’angle des questions sociales, je dis qu’il faudrait plus de femmes, plus de minorités dans l’industrie numérique, en fait, c’est aussi un discours que je porte dans un autre sens, qui est : il faudrait plus de diversité d’expertise. Le monde numérique est principalement construit par des informaticiens, des gens très calés en maths, en informatique, en statistique, en tout ce que vous voulez, mais aujourd’hui le numérique est partout, il touche notre monde social, il le modifie. Il faudrait quand même, ça me paraît hyper important et ça te rejoint, qu’ils discutent beaucoup plus avec des experts en sciences humaines par exemple, en sciences politiques, mais aussi avec des utilisateurs finaux, parce que ce sont eux qui, parfois, détectent une problématique, un effet, un usage imprévu, potentiellement positif d’ailleurs, il n’y a pas que du négatif. Pour moi, il faudrait faire beaucoup plus une place du village.

Cyrille Chaudoit : Finalement, tu appelles à une plus grande diversité des profils qui se posent les questions de la tech et de son éthique. C’est ce qu’on dit très souvent dans nos livres, dans nos conférences, dans Trench Tech. On souhaite que les gens se sentent autorisés à penser par eux-mêmes ces sujets de la tech. Ce n’est pas la propriété d’experts techniciens ni totalement que des philosophes, même si on en accueille pas mal à notre micro. C’est vraiment l’affaire de tout un chacun et ce n’est pas si compliqué que ça de se poser ces questions parce que, finalement, ce sont toujours ces questions qu’on se pose depuis la nuit des temps, depuis qu’on est homme.
Néanmoins, depuis tout à l’heure, on a souligné notre usage récréatif de ces outils et, finalement, pas trop notre prise en main, notre désobéissance civile in fine, vis-à-vis de ces business qui essayent de nous enferrer, de nous engainer. Est-ce que tu as observé des initiatives individuelles ou collectives de la part d’associations, en tout cas de citoyens, de consommateurs, qui essaient de ruer un peu dans les brancards ?

Mathilde Saliou : Pour moi, tout ce qui consiste à faire d l’information, de la vulgarisation, des projets comme le vôtre, comme Trench Tech, expliquer un peu les dessous du monde numérique, c’est important parce que ça permet aux utilisateurs au quotidien de mieux comprendre ce qu’ils ont dans les mains. Après c’est un peu spécifique, mais évidemment que je n’ai pas mal travaillé sur les mouvements féministes. Il faut d’ailleurs parler des choses positives, Internet et la tech ont aussi permis l’explosion de mouvements comme #MeToo ou comme Black Lives Matter, etc., il y a quand même eu des intérêts très forts. Je constate, par exemple sur Instagram, qu’il y a des grosses communautés féministes et elles ont gagné en compétences et en compréhension du fonctionnement des algos d’Instagram, de ce qui faisait qu’elles étaient visibles ou pas, de ce qui faisait qu’elles risquaient ou pas la modération et lles échangent plein de savoirs sur ces questions-là. Pour c’est de l’empowerment, comme dirait les féministes, c’est de l’autonomisation en direct.

Mick Levy : De l’empowerment.

Mathilde Saliou : C’est parce qu’elles ont besoin d’être vues pour faire porter leur message, qu’elles réfléchissent à la façon dont ça marche, qu’elles observent, qu’elles en discutent. Je dis cela pour ces groupes-là parce que ce sont ceux que j’ai observés, mais je sais que c’est exactement la même chose dans les mouvements écolos par exemple, certains sont très actifs en ligne, donc des mouvements sur tout et n’importe quel sujet. Tout ce qui consiste à faire de la vulgarisation, de l’autonomisation, à partager le savoir, c’est, à mon sens, assez important parce qu’une fois qu’on a peu plus conscience de comment les réseaux sociaux formatent le type de contenu qu’on reçoit, on peut aller contre, en tout cas on peut aller chercher des chemins de traverse, si je puis dire.

Cyrille Chaudoit : Je crois beaucoup à l’effet collectif, en fait ces réseaux sociaux, du moins ces outils numériques n’ont d’existence que par nos usages. Au final, il suffirait qu’on les utilise moins pour qu’ils soient moins efficaces, on va dire ça comme ça, ou différemment.

Mick Levy : Qu’on les utilise beaucoup plus pour des trucs comme #MeToo que pour harceler les gens en ligne.

Cyrille Chaudoit : Voilà. Je reprends l’exemple de l’émoji colère, il suffirait qu’on se dise qu’on ne l’utilise plus jamais, comme ça, au moins ça réglerait un peu le truc, qu’on boycotte l’émoji colère, comme ça tous les posts auront à peu près le même équivalent, du coup ça rend caduc l’algorithme.
Est-ce que tu ne penses pas qu’il y aurait une partie réglementaire ou que, quelque part, à un moment où à un autre, il faudrait aussi que les États s’approprient ce sujet-là et enfin réglementent ces choses-là ? On en a un petit peu parlé avec l’attaque du Capitole.

Mathilde Saliou : Si, clairement. Pour moi, il y a une très grande importance du politique et je pense que les classes politiques, à travers le monde, ont mis beaucoup de temps. En fait, je ne sais pas dans quel sens ça s’est passé. Soit ce sont les entreprises de la tech qui ont été tellement fortes dans leur marketing, dans leur lobbying, qu’elles ont réussi à envoyer tellement de poudre dans les yeux de tout le monde qu’on a un peu oublié de les réguler pendant trop longtemps ; soit ce sont les politiques qui ont été trop longs à comprendre ce qui se passait, soit ce sont les deux, je ne sais pas.
Pour moi il faut qu’on remette du politique, donc de la régulation. Encore une fois pour toutes les autres industries, pourquoi celle-là serait exempte de cadre de vie, de fonctionnement dans la sphère économique, dans la sphère sociale, dans la sphère politique ?

Mick Levy : La grande question c’est quand même comment réglementer, comment réguler cette industrie si particulière, très tournée vers l’innovation et l’innovation va forcément beaucoup plus vite que la loi, du coup, on peut se poser la question. Le DSA, Digital Services Act, le DAM, Digital Market Act, vont bientôt entrer en application, est-ce que ça te semble être de bonnes solutions, de bons textes, est-ce que ça va dans le bon sens vis-à-vis des challenges qui sont en train d’arriver avec l’IA en particulier ?

Mathilde Saliou : La question de comment réguler est effectivement vaste et surtout il y a enjeu spécifique avec le numérique : les plus grosses entreprises ont pris une ampleur telle que ce ne sera jamais les mêmes règles selon l’endroit géographique dans lequel on se place. Il y a déjà cette question-là, mais, à mon avis, il ne faut pas se laisser endormir par leur idée « nous sommes des projets planétaires donc vous ne pouvez pas nous réguler ». Ce n’est pas parce que tu es un planétaire que chez moi tu vas fonctionner à l’encontre des lois qui existent déjà, ??? sur discours de haine par exemple.
L’Europe a effectivement décidé de se placer avec le RGPD et maintenant avec le DSA, le DMA, avec les réflexions sur les règlements sur l’intelligence artificielle. Elle cherche à être en pointe sur les réglementations. Je pense que les textes qui sont discutés, ou qui sont déjà passés, sont très intéressants parce qu’ils viennent apporter des réponses à certaines problématiques qu’on a vues éclore.
Le DSA régule un peu plus les questions de discours en ligne.
Le DMA vient mettre des cadres aussi sur la partie économique de la tech. Du coup on a quand même plutôt parlé des usages, mais, en soi, les grandes entreprises de la tech ont quand même des pratiques assez prédatrices sur le marché économique. Cette espèce de gigantesque monopole, ou minimum oligopole, ne laisse de place à personne d’autre. À priori ce n’est pas comme ça que notre économie fonctionne.
Donc oui, je pense que les politiques ont quelque chose à faire là-dessus. En Europe ils sont en train de le faire, c’est plutôt chouette, du coup à suivre. Après, il faut regarder ce que font les autres parce que nous ne ferons pas les choses de la même manière, parce qu’on n’a pas tous la même sensibilité, culture, etc.

Cyrille Chaudoit : C’est sûr. Je vais à nouveau faire référence à Louis, on aura beaucoup parlé de Louis dans cet épisode. Dans son épisode il nous disait à peu près en conclusion « je ne crois pas que les gens changent d’eux-mêmes, car ils sont trop manipulables, donc on a besoin du politique ». C’est un petit peu le sens de ce que nous sommes en train de dire là. Je crois aussi beaucoup aussi au bottom-up, au fait que les citoyens qui sont aussi des usagers et consommateurs de ces outils, à un moment donné, se rebellent d’une certaine manière, donc forcément que ça fasse réagir un petit peu le politique puisqu’on a un porte-monnaie, mais on a aussi un bulletin de vote, quand bien même chacun pensera ce qu’il veut de l’acte de voter. Mais comment fait-on ?
À un moment donné si on se référence à Obs qui nous a parlé du Léviathan en nous disant qu’on se choisit un léviathan justement pour faire justice. Là on parle de justice sociale depuis tout à l’heure. Que faut-il faire concrètement en 2023 ? Quel est le problème ? Nous ne sommes pas suffisamment informés ? Nous sommes trop enfumés par ces écrans de fumée, justement, que les Big Tech nous ont mis sous les yeux parce que c’est totalement récréatif et tellement addictif, comme une drogue, qu’on refuse de voir que ce qu’on te donne là on te prend dix fois plus dans ton dos ? Comment fait-on en 2023, en tant que consommateurs, citoyens, pour réagir et pour faire bouger au niveau politique ? C’est juste on s’éclaire et on se dit « finalement l’Europe bouge, donc allons-y ». Ou faut-il qu’on bouge autrement pour pouvoir faire réagir le politique ? Et est-ce que ça se décide, selon toi, au niveau européen ou déjà au niveau français ? Est-ce que, selon toi, nous sommes à la hauteur ou sommesnous complètement à la traîne ?

Mathilde Saliou : J’ai trois heures ?

Mick Levy : Il te reste exactement deux minutes 32, 31, 30…

Mathilde Saliou : Je ne pense pas qu’il faille se reposer sur nos lauriers, de toute façon jamais, never, parce que c’est un coup à ce que les choses ne soient pas suffisamment ???. À chaque fois qu’on trouve qu’il y a un problème, il vaut mieux essayer de chercher des solutions. Du coup, je ne peux pas avoir une seule solution à donner là tout de suite.

Cyrille Chaudoit : On a quand même l’impression que les gens ne se bougent pas trop. Si je simplifie ma question, à ton avis c’est parce qu’ils ne sont pas suffisamment informés ou c’est parce qu’on n’ose pas y aller parce que, finalement, c’est tellement cool d’utiliser les réseaux sociaux et les IA, pour faire simple, qu’on n’a pas trop envie, quand même, d’aller cracher dans la soupe ?

Mathilde Saliou : Sur cette partie-là un peu les deux je pense. On se tait un petit peu parce que, en même temps, ce sont des techniques qui sont construites pour nous garder un maximum connectés, bien addicts pendant très longtemps, je pense qu’il y a un peu de ça, c’est difficile de lutter contre.
Mais il y a aussi du manque de formation. C’est pour cela que je suis très en faveur de tout ce qui sert à vulgariser, à partager la connaissance, à expliquer au moins les bases de fonctionnement de ces technologies.
Je pense que quand même ça bouge et quand même il y a des engagements contre. Ce sont des gros sujets parce que la tech c’est un truc énorme et, comme on dit depuis le début, c’est tellement partout dans la société, qu’il faut peut-être s’y attaquer par petits morceaux, chacun en fonction de sa sensibilité.

Cyrille Chaudoit : Est-ce que tu as des initiatives que tu aurais à partager avec nos auditeurs pour qu’ils aillent se renseigner par eux-mêmes ?

Mathilde Saliou : Ce ne sont pas des initiatives, c’est plutôt la preuve que quand même ça bouge et que ça influence les politiques. Aujourd’hui nous sommes le 12 mai, au Parlement européen, ils sont en train de discuter du règlement sur l’intelligence artificielle. Pour l’instant c’est encore à l’étape de comités, donc plusieurs législateurs sont dans des groupes et réfléchissent à comment faire un texte qui satisfasse tout le monde. Hier ils se sont mis d’accord, on ne pensait pas que ça se passerait. En tout cas la plupart des organisations représentant la société civile ont milité très fort pour faire interdire la reconnaissance faciale. En tant que journaliste qui suivait ce que la France voulait, par exemple la France adore la vidéosurveillance, elle a très envie de faire plein de textes, elle a plutôt tendance à se prononcer contre l’interdiction. Eh bien hier les parlementaires qui travaillaient le texte se sont mis d’accord pour interdire la reconnaissance faciale. Attention, ça ne veut pas dire que ça va être interdit à la fin parce qu’il reste encore des étapes de discussion, il faut encore que le Parlement en parle en plénière et ensuite qu’on en parle avec tout le Parlement, qu’on en parle avec le Conseil de l’Europe et les représentants des États. C’est quand même un signal assez fort et dans les justifications qui ont été données par les porte-paroles, il y a le fait que « regardez ce qui se passe quand vous allumez la télé depuis deux ans, tout le monde en parle, ça inquiète le citoyen », donc les parlementaires se sont dit que c’est une bonne idée de proposer un texte où ces technos sont interdites. À mon sens, il y a quand même des mouvements de citoyens et ils sont suffisamment forts pour aller influencer jusqu’aux réflexions des parlementaires européens. Ça sert de se bouger.

Mick Levy : C’est hyper-rassurant. On avait effectivement l’opportunité, dans un précédent épisode ,d’échanger avec Cédric O, l’ancien ministre chargé du numérique, secrétaire d’État. Il nous disait qu’au final, le politicien va s’occuper que de la préoccupation de « son peuple , entre guillemets, du peuple. Si la préoccupation du peuple c’est le chômage, avoir une meilleure vie, etc., le numérique passera bien loin derrière. Ce que tu dis c’est que, finalement, il y a quand même des initiatives qui sont portées et qui peuvent aussi influencer les politiques.

Mathilde Saliou : L’autre exemple c’est la veille, le 10 mai, le secrétaire actuel d’État au Numérique, Jean-Noël Barrot, a présenté son projet de loi sur la sécurisation et la régularisation du numérique. Vous allez voir qu’il y a plein d’enjeux dans cette affaire. Dedans, il y a notamment des demandes formulées par des associations de défense de victimes de cyberharcèlement de mettre des règles plus carrées suer la gestion des cyber-harceleurs. En gros les faire exclure pour de bon pendant six mois à un an, c’est écrit dans le texte. C’est un progrès du point de ces associations-là parce que c’est quelque chose qu’on demande depuis longtemps, enlever les gros influenceurs d’opinion qui sont néfastes, sauf que, techniquement, comment fait-on ça ? Si on bloque un e-mail, il suffit que le cyber-harceleur prenne un autre e-mail et qu’il se reconnecte sur le réseau social. Si on bloque par l’adresse IP comme on avait fait voulu le faire à l’époque de Hadopi, il suffit de mettre un VPN. C’est toujours une question hyper-complexe, mais c’est ce que je trouve passionnant en tant que journaliste. C’est aussi pour cela que je n’ai pas du tout de réponse fixe à donner. Il va falloir faire des calculs entre quel type de cadre on va mettre, quelle est la faisabilité technique, comment on fait pour ne pas non plus mettre en danger les droits fondamentaux.
Franchement, en France et en Europe je pense qu’il y a quelques signes encourageants. Néanmoins, pour revenir à ce qu’on disait au début, il faut quand même que les citoyens s’emparent de ces sujets pour que ça bouge, sans cela ça ne bougera pas.

Cyrille Chaudoit : On restera là-dessus avec ces signes encourageants, pour conclure une séquence qui était là pour apporter des solutions, en tout cas pour nous aider à y réfléchir, et à en identifier également certaines. Merci pour ça. Merci Mathilde pour cet échange.
Pour aller plus loin, on vous recommande évidemment la lecture de Technoféminisme – Comment le numérique aggrave les inégalités aux éditions Grasset, vous voyez qu’il y a quand même des pistes de solutions. On vous met toutes les infos sur Trench Tech, y compris les différentes références qu’on a pu citer dans cet épisode, les liens vers les sites, vers les ???, etc., puisqu’on a largement cité pas mal de personnes. Encore merci Mathilde. Au revoir, à très bientôt.
Quant, à vous restez avec nous, c’est l’heure du debrief, cinq minutes rien qu’entre vous et nous, Mick, Thibaut et votre serviteur.

Mick Levy : Merci Mathilde. Au revoir.

Thibaut le Masne : Merci beaucoup Mathilde. Au revoir.

Mathilde Saliou : Merci à vous trois

Voix off :Trench Tech. Esprits Critiques pour Tech Éthique.

Le debrief 59’ 12

Cyrille Chaudoit : Hou ! Encore un épisode bien chaud comme on les aime. Pas vrai Mick ?

Mick Levy : Je t’avoue que la première séquence, notamment, m’a quand même mis un sacré coup de bambou. On est distancié dans notre studio, derrière nos micros, etc., mais quand on voit les impacts sur les personnes qui sont victimes des violences, qui sont victimes de cyberharcèlement, qu’elle nous rappelle que ça va même jusqu’à des suicides, le ton était donné et bien plus grave. Il y a des vrais problèmes qui se cachent derrière les algorithmes, etc.

Cyrille Chaudoit : Effectivement. Elle a fait une introduction. Ça commence en douceur quand elle nous dit que l’inégalité femmes/hommes est une question qui est beaucoup plus large. On commence à piquer un peu, elle dit par exemple « dans la tech ce sont trois hommes pour une femme ». Elle dit « oui, OK, une femme n’est pas souvent celle qui fait et qui construit la tech », déjà on est beaucoup moins que ça. Ensuite elle te raconte que oui, les offres les plus rémunératrices sont poussées plutôt aux hommes qu’aux femmes, encore une fois c’est un biais des algos que j’ai découvert. Ce qui m’a assommé, ce qui nous a tous assommés, c’est que dans neuf cas sur dix les violences conjugales ont une composante numérique, ça m’a juste tué.

Mick Levy : J’ai une pensée pour Charleyne Biondi, qu’on avait reçue juste avant, qui nous disait que le numérique était utilisé pour parler d’amour, pour s’échanger des SMS dans la phase de séduction et là tu as le revers de la médaille que tu te prends dans la tronche, direct. Il y a un cas qu’elle n’a pas cité, j’observe aussi d’assez près ce qui se passe aussi dans ce domaine-là, ce sont les personnes qui ont été arrêtées, mises en prison aux États-Unis, parce que des algorithmes de reconnaissance faciale les avaient désignées comme coupables d’un vol. Je vous mets dans le mille, évidemment. On est aux États-Unis en plus, ce sont plutôt les personnes afro-américaines qui sont exposées à ces erreurs d’algorithmes de reconnaissance faciale. Elle a d’ailleurs évoqué que les algorithmes sont moins bons sur les personnes minoritaires· Mais oui, il faut vraiment rendre compte que derrière les algorithmes, derrière le numérique, derrière toutes ces solutions qu’on nous vend par du beau storytelling, elle nous l’a rappelé aussi, se cachent de véritables problèmes.


Thibaut le Masne : Finalement je retiens qu’une fois de plus on s’est posé la question ensemble, mais cette fois-ci c’était le cœur de l’épisode : la techno est-elle neutre par définition ? La réponse qui revient le plus souvent, et encore une fois dans cet épisode, c’est non, puisqu’elle est avant tout le reflet de notre société, surtout quand on pense aux bots qui sont nourris de datasets qui, encore une fois, sont le fruit de ce qu’on a publié pendant des années un petit peu partout ; ils sont conçus et codés par des humains eux aussi, bien souvent des hommes blancs, etc., donc ça n’est pas neutre. La façon dont elle présente les choses me semble totalement importante à ancrer à nouveau : si on continue de penser que la technique est neutre, alors on l’utilisera comme telle et in fine on laisse se propager les inégalités. Tu parles des personnes qui sont mises en prison à cause de l’intelligence artificielle et de la reconnaissance faciale qui dysfonctionne à cause de ces biais. On peut aussi rappeler ce qu’elle nous disait sur la contribution malgré eux, on peut le penser en tout cas, des réseaux sociaux comme Facebook dans le génocide des Rohingyas, de ce qui se passe en Éthiopie, c’est le versant négatif des choses. On voit aussi que ça a pu propager le bien, en tout cas ça a fait émerger le mouvement #Metoo, on n’a pas évoqué les printemps arabes également il y a un tout petit peu plus longtemps. Il y a donc ces deux facettes et c’est bien ça avoir un esprit critique, c’est essayer de rester objectif et voir les deux versants.

Cyrille Chaudoit : Le point sur cette facette, elle nous l’a quand même dit aussi, c’est le fait qu’on aime bien ajouter un poids complémentaire, notamment le poids de la colère, le fameux émoji colère compte pour cinq points là où à tout le reste compte pour un point. C’est hallucinant !

Mick Levy : D’ailleurs si vous voyez passer un post Trench Tech sur Facebook, on n‘y est pas, mais il va peut-être falloir qu’on y pense, s’il vous plaît mettez un émoji colère, ne mettez pas un like ou un j’adore. On s’en fout ! Mettez un émoji colère ça va nous aider à faire remonter les posts.

Thibaut le Masne : Quoi qu’il en soit, mettez des émojis, mettez des likes sur les posts de Trench Tech, n’oubliez pas aussi de nous mettre des étoiles sur les plateformes de diffusion de podcast parce que là aussi, pour faire référence à ce que nous disait Mathilde, ces sujets-là ne sont pas et ne doivent pas être circonscrits à une certaine population de scientifiques, d’ingénieurs, de philosophes. C’est vraiment tout un chacun qui doit s’emparer de ces sujets pour les penser et c’est là-dessus que nous allons conclure.

Mick Levy : Plus ou moins 60 minutes viennent de s’écouler et normalement votre regard sur la justice sociale à l’ère numérique n’est plus tout à fait le même qu’au début de l’épisode.
Merci à vous d’avoir pris le temps de nourrir votre esprit critique sur les enjeux éthiques que soulève l’environnement technologique dans lequel nous baignons. Que nous soyons les concepteurs, les commanditaires ou de simples usagers, nous avons le droit et la responsabilité d’exercer notre esprit critique sur ces sujets pour être des acteurs plutôt que des consommateurs.
Trench Tech c’est terminé pour aujourd’hui, mais vous pouvez nous écouter ou réécouter sur votre plateforme de baladodiffusion préférée. Car, comme le disait Martin Luther King « une injustice commise quelque part est une menace pour la justice dans le monde entier ».