Différences entre les versions de « Émission Libre à vous ! sur Cause Commune du 19 septembre 2023 »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 200 : Ligne 200 :
 
La vérité c'est que ça marche pas si bien que ça, que souvent les machines défaillent et il faut faire autrement d'où le fait, comme dit Antonio Casilli, qu’il faille aller voir des petites mains à Madagascar pour faire de l'IA, taguer des images, taguer des propos et permette justement à ces inférences, dont nous parlions tout à l'heure, de pouvoir être rendues productives.<br/>
 
La vérité c'est que ça marche pas si bien que ça, que souvent les machines défaillent et il faut faire autrement d'où le fait, comme dit Antonio Casilli, qu’il faille aller voir des petites mains à Madagascar pour faire de l'IA, taguer des images, taguer des propos et permette justement à ces inférences, dont nous parlions tout à l'heure, de pouvoir être rendues productives.<br/>
 
Je suis assez d'accord avec ce que dit le sociologue Juan Sebastián Carbonell dans son petit livre <em>Le Futur du travail</em> paru en 2022. C'est plus qu'un grand remplacement par les machines, ce qui nous attend, malgré tout, c'est notre prolétarisation par les machines. L'avenir du travail ressemble bien plus à un monde désintégré qu'intégré, à une offre de micro-entrepreneur sans salaire minimum ni protection. En fait, le futur du travail ressemble bien plus à son passé, dit-il, en nous invitant à ne jamais abandonner la lutte sociale.<br/>
 
Je suis assez d'accord avec ce que dit le sociologue Juan Sebastián Carbonell dans son petit livre <em>Le Futur du travail</em> paru en 2022. C'est plus qu'un grand remplacement par les machines, ce qui nous attend, malgré tout, c'est notre prolétarisation par les machines. L'avenir du travail ressemble bien plus à un monde désintégré qu'intégré, à une offre de micro-entrepreneur sans salaire minimum ni protection. En fait, le futur du travail ressemble bien plus à son passé, dit-il, en nous invitant à ne jamais abandonner la lutte sociale.<br/>
Je pense que c'est un petit peu ça le risque de l'IA, c'est d'être de plus en plus des contrôleurs, des superviseurs, en fait, de ce qui se passe plutôt que des créateurs. Anna ??? [51 min 47] disait récemment, dans un article que j'avais trouvé plutôt éclairant, que le problème c'est qu'on va être confronté à ça dans ces nouvelles interfaces. Par exemple, ce que vous devez faire dans ChatGPT, c'est contrôler ce que produit le robot et non plus produire vous-même, c'est à vous de contrôler ce qu'il fait, de regarder si les termes sont bien, etc. Et cette demande n’est pas si simple, au contraire, elle est certainement encore plus compliquée qu’avant, mais elle vous place dans un poste qui n'est pas celui de produire des idées pour produire des idées, de produire des propos pour produire des propos, mais, justement, de les contrôler. Et ce contrôle demande des formes d'expertise assez élevées, qui ne s'acquièrent pas très facilement. Le problème, quand nous sommes remplacés par ces systèmes, c’est comment on acquiert cette expertise.<br/>
+
Je pense que c'est un petit peu ça le risque de l'IA, c'est d'être de plus en plus des contrôleurs, des superviseurs, en fait, de ce qui se passe plutôt que des créateurs. danah boyd disait récemment, dans un article que j'avais trouvé plutôt éclairant, que le problème c'est qu'on va être confronté à ça dans ces nouvelles interfaces. Par exemple, ce que vous devez faire dans ChatGPT, c'est contrôler ce que produit le robot et non plus produire vous-même, c'est à vous de contrôler ce qu'il fait, de regarder si les termes sont bien, etc. Et cette demande n’est pas si simple, au contraire, elle est certainement encore plus compliquée qu’avant, mais elle vous place dans un poste qui n'est pas celui de produire des idées pour produire des idées, de produire des propos pour produire des propos, mais, justement, de les contrôler. Et ce contrôle demande des formes d'expertise assez élevées, qui ne s'acquièrent pas très facilement. Le problème, quand nous sommes remplacés par ces systèmes, c’est comment on acquiert cette expertise.<br/>
 
Je pense que là on a aussi un autre problème, toujours cette déqualification et cette prolétarisation en cours : pour arriver à savoir ou à comprendre comment ça fonctionne, jusqu'à présent il fallait produire des tas de choses, du texte, de la réflexion, etc. et là, d'un coup, le système produit ses propres textes, mais vous devez les corriger et être très attentif à ce qu'il produit. Bien évidemment, ce n'est pas facile, ce n'est pas très simple. Je pense qu'il y a là une vraie difficulté : ces systèmes vont à la fois demander plus d'expertise sur ce qu’ils font et cette expertise va être aussi plus dévaluée ou dévalorisante parce qu'en fait vous n’êtes plus que le contrôleur de la machine. Avant, quand vous preniez un traducteur pour traduire un livre, vous payiez une personne qui est là pour traduire le livre du début à la fin, avec son expertise, etc. Aujourd'hui, on va payer ce même traducteur un peu moins cher, parce qu’il faut juste qu'il supervise la traduction qui a été faite. C'est là où le système arrive à faire des économies, mais derrière, notre expertise est, d'une certaine manière, déqualifiée et déqualifiante. Le risque, bien évidemment, c’est que ça renforce des risques de polarisation très forte entre des super traducteurs qui vont continuer à pouvoir traduire exactement comme ils veulent et la masse générale des gens qui vont venir superviser ces traductions.<br/>
 
Je pense que là on a aussi un autre problème, toujours cette déqualification et cette prolétarisation en cours : pour arriver à savoir ou à comprendre comment ça fonctionne, jusqu'à présent il fallait produire des tas de choses, du texte, de la réflexion, etc. et là, d'un coup, le système produit ses propres textes, mais vous devez les corriger et être très attentif à ce qu'il produit. Bien évidemment, ce n'est pas facile, ce n'est pas très simple. Je pense qu'il y a là une vraie difficulté : ces systèmes vont à la fois demander plus d'expertise sur ce qu’ils font et cette expertise va être aussi plus dévaluée ou dévalorisante parce qu'en fait vous n’êtes plus que le contrôleur de la machine. Avant, quand vous preniez un traducteur pour traduire un livre, vous payiez une personne qui est là pour traduire le livre du début à la fin, avec son expertise, etc. Aujourd'hui, on va payer ce même traducteur un peu moins cher, parce qu’il faut juste qu'il supervise la traduction qui a été faite. C'est là où le système arrive à faire des économies, mais derrière, notre expertise est, d'une certaine manière, déqualifiée et déqualifiante. Le risque, bien évidemment, c’est que ça renforce des risques de polarisation très forte entre des super traducteurs qui vont continuer à pouvoir traduire exactement comme ils veulent et la masse générale des gens qui vont venir superviser ces traductions.<br/>
 
Je pense que le risque de ces systèmes c'est une forme d'augmentation de la déqualification et de la prolétarisation des gens, que ce soit ceux qui génèrent des images ou ceux qui surveillent les textes de ChatGPT.<br/>
 
Je pense que le risque de ces systèmes c'est une forme d'augmentation de la déqualification et de la prolétarisation des gens, que ce soit ceux qui génèrent des images ou ceux qui surveillent les textes de ChatGPT.<br/>

Version du 20 septembre 2023 à 14:30


Titre : Émission Libre à vous ! diffusée mardi 19 septembre 2023 sur radio Cause Commune

Intervenant·e·s : Gee - Hubert Guillaud - Xavier Berne - Laurent Costy - Frédéric Couchet - à la régie

Lieu : Radio Cause Commune

Date : 19 septembre 2023

Durée : 1 h 30 min

Podcast PROVISOIRE

Page de présentation de l'émission

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Frédéric Couchet : Bonjour à toutes. Bonjour à tous. C'est le cœur en joie que je vous retrouve dans Libre à vous !, l'émission qui vous raconte les libertés informatiques.
Au programme du jour, « Numérisation et justice sociale » avec Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques, ce sera le sujet principal de l'émission. Avec également au programme la chronique de Gee « (Encore ) un nouveau Fairphone » et aussi, en fin d'émission, la chronique de Xavier Berne « Découvrez le droit d'accès aux documents administratifs ».

Cette émission Libre à vous ! est proposée par l'April l'association de promotion et de défense du logiciel libre.
Je suis je suis Frédéric Couchet le délégué général de l'April

Le site web de l’émission c’est libreavous.org. Vous pouvez y trouver une page consacrée à l’émission du jour avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou à nous poser toute question.

Nous sommes mardi 19 septembre 2023, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.

À la réalisation de l’émission, elle doit être un peu stressée, car c'est sa première. Présidente de l'April aux multiples talents, elle était notamment ce week-end sur le stand de l'April dans l'espace numérique de la Fête de l'Huma. Libraire de son métier et par passion, on la croise souvent avec son écharpe et ce mardi, elle est derrière la console numérique pour sa première régie, accompagnée de mon collègue Étienne Gonnu. C'est Magali Garnero. Bonjour à vous.

Magali Garnero : Salut à tous.

Étienne Gonnu : Salut.

Frédéric Couchet : Nous vous souhaitons une excellente écoute.

[Jingle]

Chronique « Les humeurs de Gee » - « (Encore) un nouveau Fairphone ? »

Frédéric Couchet : Gee, auteur du blog-BD Grise Bouille








« Numérisation et justice sociale » avec Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques

Frédéric Couchet : Nous allons poursuivre par notre sujet principal qui porte sur le thème « Numérisation » et justice sociale.
N’hésitez pas à participer à notre conversation au 09 72 51 55 46 ou sur le salon web dédié à l’émission, sur le site causecommune.fm, bouton « chat ».
Pour ce sujet, je vais laisser la parole à Laurent Costy, vice-président de l’April et à notre invité Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques

Laurent Costy : Merci Fred.
Nous accueillons effectivement Hubert Guillaud. Il est journaliste. Il a animé pendant de nombreuses années le média de la Fondation d'un Internet Nouvelle Génération, InternetActu.net. Spécialiste du numérique, il a publié en 2022 Coincés dans Zoom, un livre sur l’impact du télétravail, et il prépare un nouvel essai consacré à Parcoursup. Il travaille également à un nouveau média consacré aux enjeux du numérique sur la société, dans le droit fil, finalement, de 20 ans de vulgarisation sur ces sujets.
Est-ce que tu veux compléter ton parcours, s’il te plaît ?

Hubert Guillaud : Bonjour à tous. Non, il est très bien !

Laurent Costy : Du coup, on va rentrer directement dans le sujet. On a un peu préparé l’émission avec Hubert. Le premier point qu’on souhaitait aborder, parce qu’il est d’actualité, c’est toute la question des algorithmes, des intelligences artificielles qu’on devrait plutôt appeler intelligences augmentées, peut-être.
Un des arguments le plus souvent mis en avant jusqu’ici pour critiquer les pratiques de collecte massive de données de la part des grandes entreprises de la Big Tech, était leur objectif de profiler les gens pour rendre la publicité plus efficace. Avec l’avènement des modèles de langage comme ChatGPT fin 2022, on est en droit de se demander si la collecte de données n’avait pas aussi comme objectif de préparer et de consolider les bases de données nécessaires à l’apprentissage de ces nouveaux outils. En effet, maîtriser de tels outils et être en avance sur les concurrents confère, on le voit bien, un pouvoir certain.
L’introduction est un peu lourde, mais, selon toi, la focalisation entre autres des communautés libristes sur la lutte contre la collecte de données à des fins publicitaires a-t-elle empêché de voir ce qui se préparait du côté de ce qu’on appelle un peu trop globalement IA ? Autrement posée, cette question pourrait être aussi : comment se fait-il que tout cela a jailli fin 2022, alors que ce sont des travaux et des enjeux de société qui existent finalement depuis des années ?
Ça fait beaucoup de questions !

Hubert Guillaud : Oui, ça fait beaucoup de questions en même temps ! En fait, on a eu raison d’insister sur la question de la capture des données vraiment depuis le début, parce que c’est bien le problème.
Tu prenais l’exemple de la publicité et c’est effectivement un exemple vraiment marquant, parce que la publicité c’est modèle économique par défaut du numérique. Depuis la naissance du Web, cette question du modèle économique est au cœur du problème. Grosso modo, toutes ces années, la fable qu’on a racontée aux investisseurs, c’est de leur dire « donnez-nous de l’argent pour qu’on se développe et à un moment on sera assez gros pour mettre de la pub et ça va rapporter de l’argent ». C’est ce que racontait très bien le chercheur Ethan Zuckerman, en 2014, « la publicité, c’est le modèle économique du numérique ; il est nécessaire de récolter toujours plus de donnés pour créer des annonces ciblées qui seront toujours plus efficaces. Si les revenus publicitaires sont insuffisants, il y a moyen de les améliorer, de construire un meilleur modèle publicitaire, plus adapté aux visiteurs, etc. ». Donc, par nature plus invasif, plus omniprésent, plus ciblé. La publicité, on comprend, mène tout droit à la surveillance des utilisateurs, àune surveillance toujours plus intrusive.

Bruce Schneier, le grand spécialiste de la sécurité, dit exactement la même chose quand il dit que la surveillance c’est le modèle d’affaires d’Internet, on est vraiment dessus. Le but c’est de vous faire cliquer, pas de vous faire réfléchir, ça favorise une sorte de centralisation pour atteindre des publics toujours plus larges. Et enfin, ça renforce la personnalisation dans une forme où chacun est très isolé.

Il y a 10 ans, quand Zuckerman commence ses propos sur la pub, il révèle qu’il a été l’un des inventeurs de la fenêtre pop-up. À l’époque il n‘était pas encore chercheur, il était développeur et c’était lui, entre autres, qui a mis au point cette petite fenêtre pop-up. Il s’en est excusé, il pensait, à cette époque, que la fenêtre pop-up était un moyen de rendre le Web plus accessible, alors que les gens ne savaient pas vraiment ce que c’était et ce que ça allait produire. C’était un moyen pour lui de permettre aux gens de pouvoir accéder au Web d’une manière gratuite, vu que la fenêtre pop-up c’est la pub, vraiment.
Il raconte qu’il imagine que passé ce premier modèle, on passerait à un modèle qui serait plus respectueux des données des utilisateurs, or ça n’a pas du tout été le cas, c’est même le contraire. On voit bien aujourd’hui que nous sommes de plus en plus contraints à devoir payer pour accéder aux services du Web, mais nous n’avons pas nos données personnelles plus respectées ou sanctuarisées. C’est la fameuse formule : si c’est gratuit c’est vous le produit, mais je rajoute tout le temps : si c’est payant vous l’êtes toujours, même quand c’est payant, on est toujours le produit, bien souvent.

Laurent Costy : Je distinguerais quand même deux gratuités. Il y a la gratuité des GAFAM, la pseudo-gratuité qui est effectivement néfaste et puis, souvent quand même, une gratuité sincère chez les libristes, qui mettent à disposition des logiciels libres. J’aime bien essayer de séparer les deux. Ça amalgame tout de dire « si c’est gratuit c’est vous le produit ». L’objectif c’était bien d’alerter sur cette problématique-là. Il ne faut peut-être pas oublier la logique sincère, bien souvent, des logiciels libres.
Excuse-moi de t’avoir interrompu.

Hubert Guillaud : Je suis assez d’accord. C‘est la même sincérité que celle qu’exprimait Ethan Zuckerman, c’est-à-dire qu’on va rendre le Web accessible par cette formule-là. En fait, c’est peut-être une des limites, ça l’a rendu, effectivement ,plus accessible, mais, derrière, s’y sont inscrites des logiques qui sont un peu plus problématiques.
La bannière pub est vraiment, je pense, un bon exemple. Quand elle naît en 1994, c’est simplement une image qui est posée sur le site web de Wired. On va calculer le nombre de gens qui vont cliquer sur cette image par rapport au nombre de gens qui se connectent sur cette page. À l’époque, le taux est faramineux, c’est 44 %, à peu près, de gens qui cliquent sur cette publicité.
Aujourd’hui on n’est plus du tout dans ces taux-là, dans ces domaines-là, la publicité est devenue très envahissante, mais en même temps, très peu productive économiquement parlant, et bien évidemment ça pose des tas de problèmes.
Est née ici, pour moi, la surveillance même d’Internet. D’un coup, on pouvait mettre une bannière et on pouvait surveiller les gens qui allaient cliquer dessus. On s’est d’abord mis à surveiller le nombre de gens qui cliquaient dessus et, après, de plus en plus d’informations, typiquement depuis quel ordinateur ils se connectaient, quelle adresse IP, et on a continué à creuser ces informations : qui étaient les utilisateurs qui venaient, qu’est-ce qu’ils faisaient, d’où ils venaient précisément, etc. On voit bien que derrière cet affichage publicitaire est née et s’est creusée toute la surveillance dans laquelle est aujourd’hui coulé Internet.

Laurent Costy : Ça me fait penser à une citation que j’ai retrouvée. On parlait de sincérité et de gratuité, j’ai retrouvé une citation de Larry Page et Sergey Brin, les cofondateurs de Google, qui, en 1998, disaient : « Les objectifs du modèle économique de la publicité ne correspondent pas systématiquement à une offre de qualité pour les utilisateurs de la recherche en ligne. Nous pensons que les moteurs de recherche financés par la publicité seront intrinsèquement biaisés en faveur des annonceures et répondront moins bien aux besoins des consommateurs. »

Hubert Guillaud : Effectivement, tout à fait. Ce qui est amusant c’est de voir combien ils se sont éloignés de leur première mission, en tout cas de leurs premières convictions, vraiment !
Aujourd’hui la pub s’est vraiment transformée. À chaque fois que nous agissons sur Internet, nous sommes catégorisés, etc. Un exemple que j’aime bien donner : par exemple, quand vous regardez sur Instagram ou Facebook, comment vous êtes caractérisé par cette publicité. Vous pouvez arriver à trouver, tout au fond de ces outils, les petits tags qui sont renseignés et qui sont censés vous caractériser. Or, ce n’est pas vous qui déclarez ces tags, ces moyens qu’on a de caractériser l’utilisateur ; ils sont calculés, ils sont inférés à partir de vos pratiques.
Typiquement, par exemple sur ma page, j’ai des trucs qui sont renseignés comme quoi j’aime le foot, et je n’aime pas du tout le foot le fait. Mais le système, parce qu’il a vu que je m’étais peut-être arrêté une demi-seconde sur une image de foot, parce que je connais quelqu’un qui aime le foot et que j’ai déjà répondu en commentaire à cette personne, va inférer les choses sur mon profil. Et tout le profil qui est constitué sur chacun d’entre nous est, en fait, complètement bidon. La plupart du temps, on est caractérisé par des tas de mots clefs qui servent à servir la publicité et qui n’ont rien à voir avec la réalité. Au contraire, c’est même une invention complète, on n’est pas du tout dans des formes de réalité. Et ça pose des tas de problèmes : qui infère ? Que sont ces machines qui infèrent des choses sur nous sur lesquelles nous ne sommes pas vraiment au courant et qu’est-ce qu’elles produisent ? En fait, elles produisent des formes de désillusion, des hallucinations comme on dit aujourd’hui avec ChatGPT, mais elles sont déjà là. Vraiment, dans cette manière même dont on profile les gens.

Il y a des choses, il y a des données que ces systèmes ont, par exemple, la plupart du temps, ils ont votre âge ou votre sexe, mais ça ne les empêche pas d’en inférer plein d’autres. Sur votre propre profil, vous avez souvent votre âge qui est inscrit, donc la machine ou le système connaît votre âge, mais en même temps, dans ces tags, vous allez avoir des tas d’autres informations sur votre âge qui n’ont rien à voir avec votre âge réel, parce qu’elles vont être inférées depuis ce sur quoi vous avez cliqué, ce que vous êtes allé voir, etc. Par exemple, je peux avoir à la fois 20 ans sur certaines données, 50 sur d’autres, etc.

Laurent Costy : Si on doit expliquer le mot inférer aux auditeurs et auditrices

Hubert Guillaud : Inférer c’est vraiment calculer, faire du croisement de données, des données croisées ou vraiment imaginées à partir d’autres données. Le fait de passer un peu de temps ou de rester 30 secondes sur une image de match foot va vous faire catégoriser d’un coup. Hop !, vous allez devenir foot, vous allez avoir ce tag qui va vous être attribué.
Ces systèmes recalculent en permanence des tas de données, inférant qui vous êtes, essayant de deviner qui vous êtes et ce que vous voulez faire.

Laurent Costy : C’est plus clair, je te remercie beaucoup.
Est-ce que, sur cette question-là, par rapport à la question publicitaire, tu estimes avoir répondu ? Je peux passer à une question suivante éventuellement ?

Hubert Guillaud : Bien sûr !

Laurent Costy : C’est extrêmement riche, c’est extrêmement dense, il faut aussi le digérer.
On voit bien, avec tes exemples qu’on ne sait pas trop comment les algorithmes jouent leur jeu, finalement.
Toujours sur cette question des algorithmes, récemment, avec les « intelligences artificielles », entre guillemets, la question de l’ouverture de l’algorithme s’est posée et il y a eu pas mal de débats autour de cette ouverture. Peux-tu faire part un peu de tes réflexions sur ce sujet ? Tu as écrit deux articles sur le Framablog par rapport à cette ouverture du code pour dire, finalement, que ça ne suffit pas, ça ne suffit pas à appréhender comment ça fonctionne. Tu peux éventuellement nous en dire plus et, peut-être, prendre l’exemple du partage du code que la ville de Rotterdam a opéré par rapport à la distribution des aides sociales sur la ville. Je trouve que cet exemple permet vraiment de comprendre et d’appréhender ce qui se passe, ce qui se joue avec la question des algorithmes.

Hubert Guillaud : Je vais d’abord répondre sur la question de l’ouverture comme faux-semblant.
L’ouverture ou la transparence ou le fait que le code source soit disponible est, depuis l’origine, un moyen de dire qu’on sait ce que fait le code puisqu’il est ouvert et disponible, c’est le principe même de l’<em<open source, on peut regarder. C'est ce que Lawrence Lessig affirme quand il dit Code is Law, « le code c'est la loi » et le code permet effectivement d'accéder au code en fait, donc de savoir exactement ce qui est calculé, etc.
Le vrai problème aujourd'hui, il me semble, c'est qu'on parle beaucoup de l'ouverture et de la transparence que je défends, je ne suis pas en train de dire qu'il faut passer à des formes d'opacité, c'est bien le contraire en fait, mais on nous dit que cette ouverture, cette transparence, sont les moyens de régler tous les problèmes. Or, le problème c'est que c'est de moins en moins vrai, d'abord parce que le code est de plus en plus compliqué, complexe, il est imbriqué entre des tas de systèmes différents et quand vous libérez quelque chose, en fait plein d'autres choses ne sont pas libérés. On l'a vu, par exemple, avec la libération du code de Twitter, par Twitter, en mars de cette année, si je ne me trompe pas. D'un coup, on allait avoir toutes les réponses sur le fonctionnement de Twitter. En fait, on n’a pas beaucoup de réponses, d'abord parce que Twitter n'a pas libéré tout le code, loin de là, il n’a libéré que certaines parties qui permettent d'avoir certains bouts d'informations, mais plein d'autres nous échappent et ça pose un vrai problème.
La réponse qu'on a tendance à donner c'est « il faut la transparence et la transparence suffira ». Cette transparence idéale ou idéelle serait formidable. J'ai de plus en plus tendance à dire que le problème c'est qu'elle devient de plus en plus difficile. Aujourd'hui, on est de plus en plus dans un système qui est non pas transparent mais qui est translucide. On a l'impression de voir ce qui se passe, mais, en fait, pas vraiment ! Et c'est très compliqué parce qu'on veut continuer à ce que cette transparence soit effective, on voudrait la pousser, on voudrait que les choses nous soient complètement lisibles, claires et déterminées et ce n'est pas le cas !
Pour moi la transparence ne suffit pas. On ne va pas pouvoir dire «  je vais publier le code et ça va suffire », en fait il faut mettre la transparence au cœur et il faut commencer par elle. Si on veut vraiment rendre les choses transparentes, il faut commencer par la transparence et elle doit être le cœur de l'activité et de tout ce qui est publié autour. Or bien souvent, la transparence vient après : on publie le code et derrière ça va aller !

Laurent Costy : Condition nécessaire mais insuffisante.
Il me semble que j'avais aussi lu un souci dans l'article que tu avais écrit. Il y avait aussi, outre effectivement le code, la question de la base de données, sur quelle base de données on se base et sur les critères qui alimentent l'algorithme, sur les critères qui finalement font que l'algorithme choisit telle ou telle chose. Finalement, ces critères-là sont sans cesse réajustés, donc on va analyser un algorithme à un instant t et puis l'instant d'après, à priori, on peut avoir changé des paramètres.

Hubert Guillaud : Oui. Tout à fait. Quand Twitter publie son code, c'est un fichier statique. Le problème c'est que par ces systèmes d'intelligence artificielle qui raffinent en permanence la manière dont ils proposent les choses, qui les ajustent en permanence, en fait ça change tout le temps. Au moment où Twitter publie son code, il est, en fait, déjà obsolète et les choses ont déjà changé.
Aujourd'hui, par exemple avec Twitter Blue, on sait que le fait de s'abonner à Twitter en payant va nous favoriser dans Twitter et va nous rendre plus visibles. La pondération serait de deux à quatre fois supérieure par rapport à ceux qui ne sont pas abonnés. On voit, en fait, que ça va certainement bien plus vite. Aujourd’hui, quand vous êtes encore sur Twitter, ce que je ne vous souhaite pas, mais qui, parfois, est encore un petit peu utile, vous ne voyez plus les gens auxquels vous êtes abonné et vous voyez de plus en plus ces comptes qui ont payé et qui viennent jusqu'à vous. C'est ce que Cory Doctorow appelle l'emmerdification des réseaux sociaux : dans les réseaux sociaux on suit des gens, c'est à eux qu'on veut avoir accès, et ces systèmes algorithmiques les transforment complètement, tant et si bien que vous n'avez plus accès aux gens que vous suivez et vous avez deux tiers de pub et trois quarts de comptes de gens qui ont payé et qui vont vous sursolliciter.

Laurent Costy : Merci. Du coup, on peut reparler de Mastodon qui avait fait un peu parler de lui au moment du rachat de Twitter. C'est un système alternatif décentralisé, on ne peut que vous encourager à vous renseigner sur cette solution alternative.
Je continue sur les « intelligences artificielles », toujours entre guillemets, puisque, encore une fois, on pourrait débattre pendant des heures. Vas-y, je t’en prie.

Hubert Guillaud : Je voudrais qu'on parle de Rotterdam.

Laurent Costy : Ah oui, pardon. Excuse-moi, je t'en prie.

Hubert Guillaud : Je vais me permettre d'être un peu précis. Récemment, je pense que c'était en juin, Wired encore une fois, avec des journalistes d'investigation néerlandais, a publié une grande enquête sur un système d'aide sociale. Ce système d’aide sociale, c'est celui qui a été utilisé par la ville de Rotterdam pendant plusieurs années. À Rotterdam, quelque 30 000 personnes bénéficient d'aides sociales : des aides au logement, des aides pour payer des factures, pour acquérir de la nourriture, etc.
En 2017, la ville a déployé un nouveau système de lutte contre la fraude aux allocations, mis en place par Accenture, et le système génère un score de risque sur tous les bénéficiaires de l'aide sociale, selon des critères assez problématiques puisqu'il prend en compte l'âge, le sexe, la maîtrise du néerlandais.
En 2021, la ville de Rotterdam a suspendu ce système après avoir reçu un audit sur celui-ci, commandé par le gouvernement. Wired et Light House Reports ont obtenu l'algorithme ainsi que les données d'entraînement et c'est assez rare en fait. La plupart du temps, sur tous ces vastes systèmes, on n'a pas les codes et on n'a pas non plus les données d'entraînement. Or, là, ils ont pu avoir accès aux deux, donc ça leur a permis de reconstruire le système et de le tester pour essayer de comprendre comment cette machine essaye de détecter la fraude.
Ce que disent les journalistes c'est que cette machine est avant tout une machine à soupçons. Ce qui apparaît à un travailleur social comme une vulnérabilité, comme une personne montrant des signes de faiblesse, est traité par la machine comme un motif de suspicion. Un truc vraiment hallucinant, ce sont les commentaires des travailleurs sociaux sur les dossiers : les travailleurs sociaux renseignent le dossier d'une personne, il y a un champ de commentaires sur lequel ils peuvent dire « cette personne est vraiment de bonne foi » ou « cette personne est vraiment de mauvaise foi », j'exagère, je caricature. Le fait de mettre un commentaire, qu'il soit positif ou négatif, comme je viens de vous le dire, compte dans le système. En fait, c'est quand il n’y a pas de commentaire, que cette donnée est désactivée, mais que le commentaire soit positif ou négatif, ça impacte le système comme un critère de risque négatif.
Et il y a plein de choses comme quand on regarde ce système dans le détail, ce qu'ont fait ces journalistes, il y a quelque 315 variables pour essayer de calculer un score de risque, il y a des variables qui vont se substituer à l'ethnicité, notamment le fait qu'à Rotterdam les bénéficiaires de l'aide sociale doivent parler le néerlandais ou montrer qu'ils font des efforts pour y parvenir. L'indication de langue maternelle ou le fait de vivre avec des colocataires peuvent également servir de substitution à ces calculs ; l'indication de la langue maternelle a été reconnue comme problématique par la Cour des comptes néerlandaise. N'empêche que ces systèmes, tous, essayent d’inférer des choses, comme on le disait tout à l'heure.
On voit vite, dans tous ces critères, que certaines variables sont bien plus problématiques que d'autres et conduisent à des scores plus élevés. Par exemple, le fait que vous soyez une femme célibataire avec des enfants va être corrélé à un facteur de risque supplémentaire. Or, quand on demande à la ville de Rotterdam ou au système d'aide sociale : est-ce que vous avez plus de fraude chez les femmes seules avec des enfants, ou pas ?, ils sont incapables de répondre, mais c'est ce que le système va mettre en avant et c'est ce qu’il va regarder ; c'est là où il va pointer des problèmes à partir des données qu'il a apprises. Même chose sur les personnes d'origine étrangère, qui parlent des langues différentes. Il semblerait, par exemple, que le système arrive à calculer selon des tas de langues différentes : certaines langues seraient plus corrélées à un critère de risque que d'autres.
C'est ce qui se passe quand on regarde vraiment le fonctionnement des systèmes dans le détail, ce qu'on ne fait pas assez. Aujourd'hui des tas systèmes d'aide sociale sont développés partout. On a un très bon exemple d'un système d’aide à l'étranger, mais il y en a plein partout. On en a en France.
Ça fait une dizaine d'années que la chercheuse Virginia Eubanks, qui a commencé ses travaux sur ces systèmes dans un livre formidable qui s'appelle Automating Inequality, « L'automatisation des inégalités », a montré que ces systèmes étaient partout défaillants. Et depuis, en fait, partout où ils sont développés, on voit qu'ils sont effectivement partout défaillants.

Laurent Costy : Merci. Du coup, est-ce que tu veux aussi parler un peu de la CAF en France.

Hubert Guillaud : Le problème, c'est que c'est difficile de parler de la CAF parce qu'on ne sait pas !

Laurent Costy : Il n’y a pas la transparence de la ville de Rotterdam.

Hubert Guillaud : Non, n'a pas encore la transparence de la ville de Rotterdam avec la CAF.

Laurent Costy : Il y a eu des demandes CADA, on en parlera en fin d'émission avec la petite intervention.

Hubert Guillaud : Il y a eu effectivement des demandes CADA pour accéder au système de calcul. Le système de calcul de score de risque de la CAF fait, en fait, la même chose que la ville de Rotterdam, certainement avec des techniques un petit peu différentes, mais il calcule un score de risque de fraude de ses usagers dans l'un de ses systèmes. Quand vous essayez d'obtenir des aides, votre profil est étudié.
Comment ont-ils fait ça ? Ils ont utilisé 5000 dossiers frauduleux et les ont fait analyser par des systèmes qui vont être capables de repérer. À partir de ces données générées, on va l'appliquer à tous les autres cas de la CAF pour essayer de regarder si d'autres dossiers peuvent être frauduleux.
Le problème c'est que dans ces formes d'analyses, on analyse toutes les données et plein posent problème.
Aujourd'hui, on ne sait pas exactement quels sont tous les critères qui sont mis en place par la CAF pour produire ces scores. Il y a effectivement eu des demandes CADA, des demandes de documents administratifs, notamment par La Quadrature du Net, pour accéder au code et au système de scoring des gens.
Une autre association, très en force sur ce sujet, c’est la petite association Changer de cap, qui a fait un rapport vraiment absolument excellent sur ces questions en montrant les difficultés dans lesquelles étaient les gens par rapport à ces systèmes de scoring. Malgré tout, pour l'instant, on ne sait pas grand-chose de ces systèmes de scoring, parce que le code n'est toujours pas public. Ce qu'a reçu, en fait, La Quadrature, ce sont de vieilles versions du système de la CAF, la CAF se justifiant en disant « on peut pas vous donner accès à la version actuelle parce que les gens vont pouvoir contourner » !

Laurent Costy : Les gens vont pouvoir s'en servir pour contourner le système !

Hubert Guillaud : Or, les gens qui sont dans des difficultés vont avoir du mal à aller contourner !
Pour prendre un exemple, le système a identifié que le fait de se connecter à son espace CAF plus d'une fois par mois était problématique. Bien évidemment ! Quand vous analysez toutes les données, le système va trouver des tas d'inférences, des tas de problèmes. Or, le fait de se connecter plusieurs fois par mois à son espace CAF, c'est souvent parce qu’on a un problème d'argent qui ne vient pas, qu’on attend un versement qui n’arrive pas.
On se retrouve avec des tas de critères ! L'enjeu c'est d'interroger les critères qui sont mis en place : est-ce que ces critères sont juste ? Est-ce qu'on a droit de les prendre en compte ? Comment sont-ils pondérés par rapport à d'autres ? Etc. Pour l'instant, ce que fait la CAF est un petit peu nébuleux.
Les chercheurs dans le domaine, comme Vincent Dubois, disent qu’on est dans un système où, en fait, les plus pauvres sont les plus surveillés, mais de manière assez logique. Pour la plupart des gens, il n'y a pas de problème, ils ont un salaire en fin de mois, les choses sont très très régulières, etc. Le problème se pose dès que vous sortez de ces formes de régularité, dès que vous n'avez plus de salaire tous les mois, que vous avez des salaires variables toutes les semaines, etc., Tout cela génère, automatiquement, de la donnée, des alertes, de la surveillance, « il n'a pas un profil normal », etc. On voit bien que plus vous êtes dans des systèmes qui sont un petit peu difficiles, par exemple le RSA ce sont des contrôles tous les trois mois et non pas une fois par an comme d'autres, plus vous allez avoir tendance à calculer des données, donc des erreurs qui sont considérées, trop souvent, comme des fraudes et qui vont être problématiques.

Laurent Costy : Merci. Du coup, l'histoire de la CAF sera à suivre, peut-être que tu reviendras dans quelques mois.
Je vais repasser la parole à Fred pour la pause musicale.

Frédéric Couchet : Merci Laurent. Merci Hubert.
Nous allons écouter Trébor par Ciboulette Cie, un choix, excellent d’ailleurs, de Laurent Costy. On se retrouve dans 2 minutes 30. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : Trébor par Ciboulette Cie.

Voix off : Cause Commune, 93.1.

Frédéric Couchet : Nous venons d’écouter Trébor par Ciboulette Cie, disponible sous licence libre Creative Commons Attribution, CC BY 3.0.

[Jingle]

Deuxième partie

Frédéric Couchet : Nous allons poursuivre le sujet principal qui porte qui porte sur le thème de la numérisation et justice sociale avec Laurent Costy, vice-président de l'April, et notre invité Hubert Guillaud, journaliste, spécialiste des systèmes techniques et numériques.

Laurent Costy : Merci Fred.
On va continuer. On parlait d'intelligence artificielle ou intelligence augmentée, ce qui serait sans doute un terme plus adapté. On a vu, quand même, une espèce de peur panique vis-à-vis de l'IA quand elle a débarqué fin 2022. Première question : est-ce que cette peur est justifiée selon toi ? Et puis, est-ce que ce n'est pas aussi parce que, pour la première fois dans le monde du travail, les professions intellectuelles se sentiraient un peu menacées, alors que pour une fois les ouvriers, le travail manuel serait peut-être moins impacté par cette, entre guillemets, « invention » ? Et puis, en complément, si tu peux expliciter aussi la tendance que l'IA à nous cantonner à des logiques de superviseur, j’ai lu ça dans un des articles que tu as écrits, je pourrais le citer, on le mentionnera sur la page de l'émission, bien sûr. J'ai trouvé cette notion de superviseur extrêmement intéressante, parce qu'elle illustre bien ce que peut provoquer aussi l'arrivée de l'IA.

Hubert Guillaud : Cette grande peur à laquelle on est confronté aujourd'hui se cristallise certainement parce qu'elle adresse d'autres types de professions que ceux d'avant, une menace qui est plus sur les CSP, CSP + que les CSP -, je pense que c'est effectivement assez juste. Je suis quand même un peu hermétique aux discours rassuristes qui visent à nous faire croire qu'il ne faut pas s'inquiéter, que l'enjeu n’est pas la disparition de l'emploi mais sa transformation, etc. Depuis le début de l'industrialisation, le but est quand même d'essayer de remplacer des gens par des machines, soi-disant parce que ça va coûter moins cher. Ce n'est pas tout dans le cas, mais, malgré tout, ça le devient petit à petit. On voit bien que dans les grandes usines de Ford, avec des milliers, des centaines de milliers d'ouvriers, on est passé à des usines de Stellantis où il y a plus grand monde sur les chaînes productives.

Laurent Costy : On pourrait glisser le mot capitalisme ici, entre deux phrases.

Hubert Guillaud : On peut le glisser partout, ça n’'est pas un souci !
Il y a quand même bien un but du jeu : essayer de nous remplacer ou essayer de voir si les machines ne peuvent pas faire le travail à notre place pour moins cher que nous, sans se mettre en grève en plus, etc.
La vérité c'est que ça marche pas si bien que ça, que souvent les machines défaillent et il faut faire autrement d'où le fait, comme dit Antonio Casilli, qu’il faille aller voir des petites mains à Madagascar pour faire de l'IA, taguer des images, taguer des propos et permette justement à ces inférences, dont nous parlions tout à l'heure, de pouvoir être rendues productives.
Je suis assez d'accord avec ce que dit le sociologue Juan Sebastián Carbonell dans son petit livre Le Futur du travail paru en 2022. C'est plus qu'un grand remplacement par les machines, ce qui nous attend, malgré tout, c'est notre prolétarisation par les machines. L'avenir du travail ressemble bien plus à un monde désintégré qu'intégré, à une offre de micro-entrepreneur sans salaire minimum ni protection. En fait, le futur du travail ressemble bien plus à son passé, dit-il, en nous invitant à ne jamais abandonner la lutte sociale.
Je pense que c'est un petit peu ça le risque de l'IA, c'est d'être de plus en plus des contrôleurs, des superviseurs, en fait, de ce qui se passe plutôt que des créateurs. danah boyd disait récemment, dans un article que j'avais trouvé plutôt éclairant, que le problème c'est qu'on va être confronté à ça dans ces nouvelles interfaces. Par exemple, ce que vous devez faire dans ChatGPT, c'est contrôler ce que produit le robot et non plus produire vous-même, c'est à vous de contrôler ce qu'il fait, de regarder si les termes sont bien, etc. Et cette demande n’est pas si simple, au contraire, elle est certainement encore plus compliquée qu’avant, mais elle vous place dans un poste qui n'est pas celui de produire des idées pour produire des idées, de produire des propos pour produire des propos, mais, justement, de les contrôler. Et ce contrôle demande des formes d'expertise assez élevées, qui ne s'acquièrent pas très facilement. Le problème, quand nous sommes remplacés par ces systèmes, c’est comment on acquiert cette expertise.
Je pense que là on a aussi un autre problème, toujours cette déqualification et cette prolétarisation en cours : pour arriver à savoir ou à comprendre comment ça fonctionne, jusqu'à présent il fallait produire des tas de choses, du texte, de la réflexion, etc. et là, d'un coup, le système produit ses propres textes, mais vous devez les corriger et être très attentif à ce qu'il produit. Bien évidemment, ce n'est pas facile, ce n'est pas très simple. Je pense qu'il y a là une vraie difficulté : ces systèmes vont à la fois demander plus d'expertise sur ce qu’ils font et cette expertise va être aussi plus dévaluée ou dévalorisante parce qu'en fait vous n’êtes plus que le contrôleur de la machine. Avant, quand vous preniez un traducteur pour traduire un livre, vous payiez une personne qui est là pour traduire le livre du début à la fin, avec son expertise, etc. Aujourd'hui, on va payer ce même traducteur un peu moins cher, parce qu’il faut juste qu'il supervise la traduction qui a été faite. C'est là où le système arrive à faire des économies, mais derrière, notre expertise est, d'une certaine manière, déqualifiée et déqualifiante. Le risque, bien évidemment, c’est que ça renforce des risques de polarisation très forte entre des super traducteurs qui vont continuer à pouvoir traduire exactement comme ils veulent et la masse générale des gens qui vont venir superviser ces traductions.
Je pense que le risque de ces systèmes c'est une forme d'augmentation de la déqualification et de la prolétarisation des gens, que ce soit ceux qui génèrent des images ou ceux qui surveillent les textes de ChatGPT.
Ça n'empêche pas qu'il restera toujours des gens qui vont produire, faire de la pensée ou des grandes images, mais ils risquent, en fait, d'être encore plus restreints qu'avant.

Laurent Costy : Là tu parles, finalement, de productions intellectuelles, mais je crois que tu avais pris l'exemple, dans un article, d’un film qui avait été fait sur un pilote d'avion qui était un vétéran de l'armée de terre et qui était capable, en situation d'urgence, de reprendre la main sur les machines. Or, en étant superviseur !

Hubert Guillaud : C'est le fameux le film de Clint Eastwood qui s’appelle Sully, si je ne me trompe pas. C’est l’histoire de ce pilote d'avion qui a posé un avion dans l'Hudson.
Les pilotes d'avion sont confrontés à ces systèmes machiniques depuis un grand moment. En fait, ils montent dans un avion et, grosso modo, l'avion se pilote tout seul, ils n’ont rien à faire, ils ont juste à reprendre la main quand il y a un problème. Le problème c'est que, comme ils ne pilotent pas vraiment, ils sont juste là à superviser, ils perdent de la compétence à pouvoir résoudre un problème ou à pouvoir reprendre la main quand il y a un problème et cette perte de compétences est très problématique. C'est pour cela qu'on les enferme dans des caissons où ils doivent s'entraîner sans arrêt pour arriver à reprendre la main. On voit que petit à petit leurs compétences se dégradent, ils ont du mal à reprendre la main.
Ce qui est arrivé dans cette histoire de l'Hudson, c'est que le gars qui était pilote d'avion est justement un expert, un super exper, il formait les autres pilotes à reprendre la main, c'était sa spécialité. Il était là pour dire aux gens « voilà ce qu'il faut faire quand il faut reprendre la main, etc. ».
Là, quand l'avion a commencé à avoir des problèmes, la tour de contrôle, les systèmes lui disaient « il faut que tu retournes à la base, il faut que tu retournes à l'aéroport, etc. ». Et lui, qui avait la compétence de pouvoir dépasser l'analyse que le système lui fournissait et tous les conseils qu'il recevait, il savait que ce n'était pas possible. Il a fait un choix que la tour de contrôle lui déconseillait et que plein d'autres pilotes n'auraient pas pu faire, il a dit « je vais le poser sur l'Hudson, c'est le seul endroit qui est dégagé, etc. ». C'est ce qu'il a fait, les gens sont sortis, ont pu être sauvés. Il l'a fait parce qu'il avait une énorme compétence, une énorme expertise là-dessus, ce qu’il n'aurait pas pu faire autrement.
C'est cela le risque de ces systèmes : ils nous enlèvent nos expertises et ils nous empêchent, demain, de pouvoir être plus réactifs.
Vous avez la même chose sur la voiture autonome qui se conduit toute seule et, quand il faut reprendre la main parce qu'il y a un problème, c'est souvent là que le problème se déclenche encore plus !

Laurent Costy : Merci. Je pense que cet exemple illustre bien, justement, ce vers quoi on peut tendre, outre, effectivement, ce dont tu parlais, à savoir la déqualification et la perspective, pas forcément très rose, de l'avenir du monde du travail. En tout cas merci, je trouve que ça éclaire.
Je te propose d'essayer d'aborder un peu la question de l’alternumérisme. J'avais préparé quelques questions, on va essayer d'échanger parce que je trouve que ça peut concerner un peu les communautés libristes.
C'est vrai que longtemps, à leurs débuts, les communautés libristes ont laissé penser, en tout cas ça a été perçu comme tel, que le logiciel libre était la solution à tous les soucis que le numérique privateur avait générés et que c'était la voie incontournable pour aller vers un numérique plus éthique. Les quatre libertés du logiciel libre devaient, en effet, permettre de limiter les monopoles, de libérer les utilisateurs et utilisatrices. Avec les années et la sagesse, le logiciel libre est désormais plutôt posé comme condition nécessaire mais non suffisante, ce qu'on évoquait tout à l'heure.
Est-ce que tu partages un peu ce regard, on l’a un petit peu évoqué déjà tout à l'heure, et, le cas échéant, qu'est-ce qui manque au logiciel libre, et à ses communautés, pour être connu, reconnu, et adopté plus largement selon toi ?

Hubert Guillaud : Question difficile !
Cette question, qu'on peut poser comme l'alternumérisme, s'inspire d'un livre, je pense qu'il faut qu'on le signale, je vous invite à le lire. C'est un livre qui m'a marqué, qui s'appelle Contre l'alternumérisme, publié en 2020 à La Lenteur, signé Julia Laïnae et Nicolas Alep. C'est un petit livre qui a été réédité il y a peu de temps, vous allez pouvoir le trouver assez facilement. La question centrale de ce livre c'est de dire que face à la technologie, le but c’est d'être plus radical qu'on ne le croit, on ne la fera pas devenir plus respectueuse des gens en proposant des formes d'alternatives qui sont d’être plus éthiques, d’être plus responsables, d'être plus transparents, ça ne suffira pas à la rendre plus vertueuse. Je caricature un peu le propos.

Laurent Costy : Je peux prendre deux citations que j'avais relevées, qui montrent bien à quel point il y a effectivement peu d'espoir selon les personnes qui ont écrit ce livre-là. J'avais noté : « Se réapproprier l'usage des dispositifs numériques en bout de chaîne ne change rien à l'ensemble du système technicien », c'est ce que tu viens de dire, ou, autre citation, « Comme l'ont pointé nombre d'alternuméristes, nous passons bien souvent plus de temps à combattre les limites et promesses du numérique qu'à faire avancer une autre feuille de route pour le numérique ».

Hubert Guillaud : C'est là où je suis un peu en décalage avec eux. Eux sont contre toute forme d'altérité, en tout cas d'alternatives. Je pense quand même qu’aujourd'hui, ce dont on souffre, c'est justement le manque d'alternatives et le manque d'autres solutions, je suis peut-être un peu moins radical qu’eux là-dessus, mais on en souffre énormément et je pense que c'est un gros problème.
Tout à l’heure, nous avons parlé de la publicité et de la manière dont on est calculé par la publicité qui se nourrit de nos données pour nous proposer toujours plus de ciblage, d'affichage, de clics, etc. O, il y a d'autres modalités de faire de la publicité. L'une des autres modalités de faire de la publicité, par exemple, c'est de faire de la publicité contextuelle. L'idée de la publicité contextuelle, c'est de dire que la publicité va s'afficher en fonction de l'endroit où vous êtes : par exemple, vous êtes sur un article qui parle d'automobiles ; elle ne va pas utiliser les données des utilisateurs pour calculer les choses, mais elle va utiliser ce qui est dans la page pour mettre de la publicité adaptée. C'est ce que vous aviez dans la presse avant : dans les pages beauté vous aviez la publicité pour le mascara et, dans les pages vêtements, vous aviez la publicité pour les fringues. C'est un peu la même idée. On voit qu'il y a d'autres modalités.
Je pense qu’aujourd'hui on souffre énormément du fait qu’on n'a pas d'autres modalités que ces grands systèmes qui se sont petit à petit complexifiés, qui fonctionnent et qui s'imposent à nous de partout.
J'ai quand même tendance à me dire qu’il y a des tas de moyens de faire autrement. Le problème c'est d’être coincé dans des systèmes qui sont globaux et qui influent sur notre vision du monde et sur la manière dont on pense.
Un exemple tout simple, le système de calcul de la récidive dans le droit américain pour calculer le score de risque des gens à récidiver qui fait qu’on va les maintenir en prison ou pas. Ce sont aujourd'hui des systèmes automatisés avec des tas de questions qui fonctionnent et qui reposent sur le fait qu’on va faire des calculs, depuis les données personnelles des individus condamnés, pour savoir s'ils ont un risque de récidive. Or, on pourrait imaginer des tas de systèmes complètement différents. Il y en a, d'ailleurs, qui vont plutôt proposer, par exemple au juge, de regarder, pour un profil du même type, tous les autres cas qui ont été jugés de telle ou telle façon pour pouvoir adapter son jugement.
On voit qu'il y a toujours des alternatives et aujourd'hui, dans le numérique dans lequel on est, il n'y a pas d'alternatives et je pense qu'on en souffre vraiment profondément et on a besoin de mettre en place d'autres systèmes.
On a la même chose avec la CAF, avec Rotterdam dont on parlait tout à l'heure, on est dans des systèmes un peu à pensée unique, qui fonctionnent tous d'une même façon. On a besoin de les casser et de faire d'autres types de propositions.
Je pense qu'aujourd'hui on a vraiment besoin des libristes pour faire d'autres types de propositions, mais il faut effectivement sortir des logiques dans lesquelles nous sommes et les proposer autrement, en mettant la transparence au cœur, la liberté, l'égalité, la justice sociale au cœur de ces systèmes. Aujourd'hui on n'y est pas !

Laurent Costy : Très belle phrase. Merci. On saura l'extraire des propos de l'émission.
Il ne nous reste plus beaucoup de temps, il nous reste moins de huit minutes. Je vais te poser une dernière question sur le monde libriste et la relation aux low-tech et puis je te laisserai conclure éventuellement.
Le monde libriste et les low-tech ont de bonnes raisons de s'entendre. Ces raisons sont-elles suffisantes, selon toi, pour servir la cause libriste et la cause écologiste ?

Hubert Guillaud : On peut l'espérer.
Les low-tech, si je résume rapidement, c'est l’histoire de dire qu’il y a une alternative aux high-tech, à ces grands systèmes, c'est faire des systèmes peu gourmands en données, peu gourmands en formes de calculs, peu gourmands en matériel, etc. On voit que c'est une piste qui est à l'antipode de tout ce qui se développe aujourd'hui. On en est très loin. La grande difficulté c'est de se demander si ce sont des vraies réponses ou si ce sont des réponses qui ne peuvent rester que marginales. C'est une question sur laquelle je n'arrive pas vraiment à me décider. J'ai quand même l'impression, j'aurais tendance à dire qu'on est dans des propositions qui risquent de s'enfermer dans leur marginalité par rapport à ces grands systèmes qui se développent partout. Je pense que c'est vraiment important, effectivement, de développer des alternatives qui soient plus responsables, plus équitables et plus soucieuses de ce qu'elles font. Le risque c'est qu'elles soient vraiment trop éloignées des grandes réponses qui sont fournies aujourd'hui, donc pas appropriées ou appropriables.

Laurent Costy : Très bien. Du coup, dans ce qui pourrait servir de conclusion, nous évoquer peut-être la voix des communs et du collectif. J'avais relevé plein de citations que je trouvais assez extraordinaires, je vais en prendre une : « Plus on traite les choses sous un angle individuel, moins on traite le problème sous un angle collectif ». On n’a pas parlé des réseaux sociaux, on n'a pas eu le temps, mais c’est vrai que leur objectif c'est de diviser, de séparer, d'individualiser, alors que, finalement, notre seule issue, quelque part, c’est le commun.

Hubert Guillaud : Bien sûr. Le problème c'est qu'on est dans des systèmes techniques qui vous individualisent par nature ; c'est vous qui êtes le seul utilisateur face à ces systèmes, c'est vous qui êtes calculé, vous, individuellement, qui êtes toujours calculé. Dans les systèmes au travail, ce qu'on calcule aujourd'hui c'est la performance, la rentabilité des gens, d'une manière totalement individuelle. On se contrefout, on se moque largement du collectif de travail, de l'entreprise en tant que telle. On va regarder l'employé, on va calculer quelque chose sur ce qu'il fait, ce qu'il produit, ce qu'il propose, etc., et on ne va pas regarder, on ne va pas faire de calcul sur ce que l'entreprise propose, ce que le groupe d’individus fait et gère.
Dans ces systèmes, on est toujours renvoyé à cette individualité et je pense que c'est vraiment quelque chose à essayer de casser : faire des systèmes qui ne reposent pas sur le calcul personnel de chacun, mais qui essayent de prendre en considération l'ensemble du système .
Un exemple que j'aime bien là-dessus c'est le Parcoursup américain, c'est très différent. Aux États-Unis, chaque ville fonctionne un peu de la même manière. Par exemple à New-York, les élèves qui veulent passer dans le supérieur doivent passer des tests SAT pour évaluer, un peu comme chez nous, leur niveau. Depuis ce niveau, chaque formation, un peu comme chez nous, va recruter, va avoir tendance à recruter les meilleurs élèves et pas et les moins bons, chacun fait son petit marché méritocratique comme ça.
Pour combattre les formes de discrimination qui sont à l'œuvre dans ces systèmes, les formes non méritocratiques qui sont dedans, des collectifs étudiants américains proposent aujourd’hui aux formations, plutôt que de prendre que les meilleurs élèves, de prendre les élèves selon une échelle de ceux qui répondent à ces formations. Prendre les meilleurs, bien sûr, mais prendre aussi des moins bons et distribuer la chose plutôt que de l'individualiser.
Il y a, comme ça, des tas de pistes. Le problème c'est de faire advenir ces différences et ces autres pistes.

Laurent Costy : Il reste deux/trois minutes, je te laisse conclure, dire les choses que tu aurais oubliées de dire et que qui te semblent extrêmement importantes.

Hubert Guillaud : Il y en a plein.
Je pense qu'on aurait besoin de travailler ensemble, en fait c'est ça que j'aimerais un petit peu mettre en avant.
Aujourd'hui, les entreprises fourbissent des solutions toutes seules dans leur coin, les systèmes techniques publics achètent les solutions de ces entreprises et la difficulté c'est qu'on ne répond pas collectivement à ce qui se passe et tout est fait pour qu'on n'y réponde pas collectivement.
Je pense que dans les grands systèmes techniques, comme la CAF, comme Parcoursup, il devrait y avoir la représentation des gens qui sont impactés par ces systèmes. Pour contrôler le système de scoring de la CAF, on devrait associer des usagers, des associations qui viendraient discuter avec la CAF avec un droit et un pouvoir, c'est ça la difficulté, pour pouvoir dire : « Non ! Là, par exemple, ce n'est pas normal le fait que vous preniez le nombre de fois où les personnes se connectent à leur compte pour faire votre calcul ». On a besoin de faire cette remontée avec les gens qui sont impactés par les systèmes de calcul, c'est ce que disent depuis longtemps les associations de handicap : « Pas pour nous sans nous ». Vous ne pouvez pas décider de ce qui nous impacte sans nous y associer, on doit être là.
Je pense qu'aujourd'hui, dans tous les grands systèmes techniques de calcul qui se mettent en place, on a besoin d'y associer les utilisateurs.
Parcoursup a un comité d'éthique qui fait, d'ailleurs, un très bon travail, mais, dans ce comité d'éthique, il n'y a pas de représentants des étudiants, des professeurs, etc., et il y a besoin de ça. Il y a besoin que toutes les remontées qu'il peut y avoir autour des problématiques de Parcoursup soient entendues.
Pour moi c’est un vrai levier de faire que, dans tous les grands systèmes, les gens aient une place, une place à cette table pour en discuter.

Laurent Costy : Je vais quand même reprendre une citation que j'avais relevée avant de repasser la parole à Fred, je vais la retrouver, c'est exactement ça : « Trop souvent, la prospective n'invite pas les bonnes personnes à sa table ».

Hubert Guillaud : C'est ça, tout à fait. On fait de la réflexion, on fait de l'expertise entre nous. On a vraiment besoin d'y associer les utilisateurs et les gens qui sont impactés par les calculs. Ma grande formule c'est de dire qu’on ne peut pas calculer les choses sans inviter les calculés à la table.

Laurent Costy : Merci beaucoup Hubert, on va en rester là aujourd'hui. Il y avait encore plein de choses à dire, on te réinvitera, si tu es d'accord.

Hubert Guillaud : Je reviens la semaine prochaine !

Frédéric Couchet : C'était justement la question de Marie-Odile : « Excellentes idées. Excellent intervenant. Quand reviendra-t-il ? ». Pas la semaine prochaine parce que l'émission est déjà prévue, mais bientôt.
En tout cas, je remercie Laurent Costy, vice-président de l'April, pour la préparation et l'animation de ce sujet et notre invité Hubert Guillaud, journaliste spécialiste des systèmes techniques et numériques. Toutes les références qu'on a citées sont sur le site libreavous.org.
Je vous souhaite une belle fin de journée.
On va faire une pause musicale.
Après la pause musicale, nous entendrons la chronique de Xavier Berne « Découvrez le droit d’accès aux documents administratifs ».
En attendant nous allons écouter Late as usual par The Freak Fandango Orchestra. On se retrouve dans 3 minutes 30. Belle journée à l’écoute de cause Commune, la voix des possibles.

Pause musicale : Late as usual par The Freak Fandango Orchestra.

Voix off : Cause Commune, 93.1.

Frédéric Couchet : Nous venons d’écouter Late as usual par The Freak Fandango Orchestra, disponible sous licence libre Creative Commons Partage dans les mêmes conditions, CC BY SA.

[Jingle]

Frédéric Couchet : Nous allons poursuivre par le sujet suivant.

[Virgule musicale]

Chronique de Xavier Berne « Parole libre » - « Découvrez le droit d’accès aux documents administratifs »

Frédéric Couchet : Nous allons poursuivre par