Émission Libre à vous ! du 28 février
Titre : Émission Libre à vous ! du 28 février 2023
Intervenant·e·s : Lorette Costy - Laurent Costy - Gee - David Revoy - Luk - Isabella Vanni - Étienne Gonnu à la régie
Lieu : Radio Cause Commune
Date : 28 février 2023
Durée : 1 h 30 min
Page des références de l'émission
Licence de la transcription : Verbatim
Illustration : Déjà prévue
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription OK
Voix off : Libre à vous ! l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.
Isabella Vanni : Bonjour à toutes, bonjour à tous. La bande dessinée et la culture libre, c'est le sujet principal de l’émission du jour, avec également au programme deux chroniques, celle de Laurent et Lorette Costy ainsi que la Pituite de Luk qui, par coïncidence, traitent toutes les deux de Chat GPT. Nous allons parler de tout cela dans l’émission du jour.
Soyez les bienvenus pour cette nouvelle édition de Libre à vous !, l’émission qui vous raconte les libertés informatiques proposées par l'April, l’association de promotion de défense du logiciel libre. Je suis Isabella Vanni, coordinatrice vie associative et responsable projets à l'April. Le site web de l’émission est libreavous.org : vous pouvez y trouver une page consacrée à l’émission du jour avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou à nous poser toute question.
Nous sommes mardi 28 février 2023, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast. À la réalisation de l’émission, mon collègue Étienne Gonnu. Bonjour, Étienne.
Étienne Gonnu : Salut, bonne émission.
Isabella Vanni : Merci. Nous vous souhaitons une excellente écoute.
[Jingle]
Isabella Vanni : Comprendre internet et ses techniques pour mieux l’utiliser, en particulier avec des logiciels libres et des services respectueux des utilisatrices et utilisateurs, pour son propre bien-être en particulier, et celui de la société en général : c'est la chronique « À cœur vaillant, la voie est libre » de Laurent Costy, administrateur de l'April, et sa fille Laurette. Le thème d'aujourd'hui est « ChatGPT - ou GiPiTi, on verra bien comment prononcer - dans l'eau ça fait des bulles, c'est rigolo ». La chronique a été enregistrée il y a quelques jours, nous allons l’écouter et on se retrouve juste après.
Chronique de Laurent et Lorette Costy sur le thème « ChatGPT dans l’eau ça fait des bulles, c’est rigolo » = OK
Laurent Costy : Coucou Lorette ! Serais-tu capable à brûle-pourpoint, là comme ça, de me donner un palindrome ?
Lorette Costy : Non !
Laurent Costy : Merci !
Lorette Costy : De rien ! Par contre, à brûle-pourpoint, on va le ranger dans la liste des mots jolis mais dont il faut limiter l’usage ici, sinon, ça peut kéblo les écoutants et les écoutantes.
Laurent Costy : J’enlève mon pourpoint et j’enfile mon T-shirt Libre à vous ! que l’on trouve à un prix modique dans la boutique En vente Libre. Oh, qu’elle est habilement glissée cette réclame pour les goodies de l'April. Mes dividendes vont encore exploser ce mois-ci ! Mais continuons parce que je crois que tu n’as pas beaucoup de temps à m’accorder.
Lorette Costy : Sacrés dividendes. Oui, justement, on va devoir s’arrêter là, car j’ai en effet un texte à rendre pour demain sur le thème « Quel rôle la connerie humaine, le capitalisme de surveillance et le libéralisme jouent-ils respectivement dans l’accélération du réchauffement climatique ? ». J'adore mes profs...
Laurent Costy : Waouh ! Vous avez des super sujets à la fac ! La réponse n’est pas facile, car ce sont des notions très intriquées et c’est difficile de savoir quelle est la pire des trois ! Du coup, il faut qu’on trouve une solution : si je ne rends pas la chronique en temps et en pleurs, je vais être banni du conseil d’administration de l’April !
Lorette Costy : On pourrait faire la chronique sur ce thème, mais je ne suis pas sûre que le prof accepte le travail sous forme de podcast.
Laurent Costy : J’ai une autre idée : on va torcher ton devoir en utilisant les moyens modernes. Je te propose ChatGiPiTi ; exceptionnellement, on va privilégier la prononciation anglaise pour éviter la tentation de rajouter à chaque fois après ChatGPT « dans l’eau ça fait des bulles, c’est rigolo » ; ChatGPT donc, pour celles et ceux qui ne connaissent pas, c’est cette Intelligence Artificielle qui défraie la chronique et attire le journaliste comme le pot de miel attire l’ours, l’abeille, le blaireau et le consommateur quand il y a des promos.
Lorette Costy : Oh, oui, je vois ! C’est que Wikipédia définit bien cet outil : « C’est un prototype d'agent conversationnel qui utilise l'intelligence artificielle développée par OpenAI et spécialisée dans le dialogue. L'agent conversationnel est un modèle de langage affiné – comme le fromage – à l'aide de techniques d'apprentissage supervisé et d'apprentissage par renforcement ». Pour reformuler globalement la définition, on pourrait dire aussi que c’est un outil inventé pour libérer du temps et permettre au monde étudiant de faire plus la fête.
Laurent Costy : Si on en croit certains sites plus ou moins journalistiques, il semblerait que l’utilisation de ChatGPT chez les élèves se développe à la vitesse d’un cheval au galop qui tente d’échapper à la marée dans la baie du Mont Saint-Michel en Bretagne normande. Mais il faut aussi être prudent : si tu tapes « ChatGPT copie étudiant Lyon » dans un moteur de recherche, le nombre de sites mimétiques qui commencent par « 50 % des copies » ou « 50 % des étudiants » est impressionnant et ces articles relaient une triche qui se serait passée à l’université de Lyon.
Lorette Costy : C’est très journalistique en effet : préférer afficher 50 % plutôt que 7 personnes sur 14 ! Oui, c’est carrément plus buzzifiant…
Laurent Costy : Surtout que l’information est loin d’être avérée si on en croit le site lesnumeriques.com qui fait un démenti sur son premier article. Bref, c’est toujours très tentant de relayer des articles autour d’une technologie qui émerge et qui attire tous les regards. On surfe sur la vague, ça fait moderne ! Mais, pour autant, penser que ChatGPT ne serait pas utilisé par des élèves, serait aussi d’une grande naïveté.
Lorette Costy : Oui, ça je le conçois. Du coup, juste pour être sûre : je crains quoi, moi, en utilisant ChatGPT pour répondre à une question de cours, notamment sur le plan légal ?
Laurent Costy : Le droit est rarement en avance sur des objets dont on évalue la pertinence et les défauts en avançant. C’est d’ailleurs le jeu des grandes plateformes de poser leurs règles en premier dans ce Far West numérique et de regarder la puissance publique prendre beaucoup de temps pour réguler les problèmes qu’elles ont générés. Et ce temps est précieux pour accumuler du profit, donc du pouvoir. Pour les questions de plagiat et de sources, c’est effectivement un enjeu immédiat de l’enseignement que de considérer désormais les intelligences artificielles. Une des voies pourrait être une sorte de tatouage précisant l’origine du texte, mais ça reste facilement contournable.
Lorette Costy : Bon, d’accord ! Avançons mon devoir, je n'ai pas que ça à faire. Allons sur le site de ChatGPT et faisons travailler l’IA à notre place. Argh !, ça commence mal, il faut donner une adresse mail ET un numéro de téléphone.
Laurent Costy : C’est fidèle au désormais célèbre syndrome du « en même temps » : en même temps on t’expliquerait que c’est pour protéger de sollicitations par des robots et, en même temps, on collecte des données, mais ça, on te le dit moins !
Lorette Costy : Le « en même temps », c’est comme un caca posé derrière un conifère ou mettre un bulletin Le Pen/Macron dans la même enveloppe : ça sent le sapin mais pas que dans le premier cas, et 1+1 ne fait pas 2 dans l’autre cas.
Laurent Costy : Waouh !, je vois que tu as creusé le concept ! Dommage que ton devoir ne soit pas là-dessus ! Bon, je copie-colle la question : « Quel rôle la connerie humaine, le capitalisme de surveillance et le libéralisme jouent-ils respectivement dans l’accélération du réchauffement climatique ? » et on se répartit la lecture de la réponse de Chat GéPéTé !
Lorette Costy : « Dans-l’eau-ça-fait-des-bulles-c’est-rigolo » ! T'as raison, c’est vachement tentant. Ça me va, c’est parti, voici la première partie de la réponse : « La connerie humaine peut contribuer au réchauffement climatique en ignorant les preuves scientifiques sur le changement climatique et en refusant de prendre des mesures pour réduire les émissions de gaz à effet de serre. »
Laurent Costy : Je poursuis : « Le capitalisme de surveillance, qui met l'accent sur la croissance économique et le profit à tout prix, peut également contribuer en encourageant les pratiques industrielles polluantes et en réprimant les politiques visant à protéger l'environnement. » Ah, on voit que le concept de capitalisme de surveillance n’est pas appréhendé par l’IA. Elle n’a pas eu le temps, visiblement, de lire le livre de Shoshana Zuboff ! Je te laisse finir la dernière partie de la réponse.
Lorette Costy : « Le libéralisme, qui met l'accent sur la liberté individuelle et la réglementation minimale, peut également contribuer en s'opposant à des politiques visant à réduire les émissions de gaz à effet de serre. » Ce n’est pas mal tout ça quand même ! Comme on est chaud, on enchaîne avec la question : « Comment faire pour enrayer la connerie humaine, le capitalisme et le libéralisme ? » Ah ! pas de bol : « An error occurred. If this issue persists please contact us through our help center at help.openai.com ».
Laurent Costy : Ah ! Ça bogue ! Normal, ça commençait à devenir un outil intéressant. Ça ressemble encore à un outil con asservi au capitalisme et au libéralisme ce truc ! De toute façon, la question allait au-delà de ce dont tu avais besoin.
Lorette Costy : Oui, en effet. Mais du coup ça me fait poser la question : c’est quoi les limites de ChatGPT ? Quand on lit ce texte produit par l’IA, on est un peu obligé de se dire que l’on est loin des réponses à côté de la plaque des robots conversationnels, chatbots en anglais, censés nous aider sur les sites. Ça pourrait faire illusion avec une réponse formulée par un être humain ! Elle est vraiment intelligente ?
Laurent Costy : François Poulain, le trésorier de l’April, dit que c’est un peu la même chose que d’apprendre à nager à un sous-marin. Et puis, il y a les limites connues. D’abord, il faut savoir que les données qui ont nourri l’IA s’arrêtent en 2021. Elle n’est pas connectée à Internet et des interrogations sur des événements récents n’auront guère de réponses pertinentes.
Lorette Costy : Pas trop grave dans notre cas : la connerie humaine remonte quand même à plusieurs millénaires, on ne va pas se mito !
Laurent Costy : Oui, l’IA a l’air de bien savoir de quoi il s’agit. C’est plutôt bien documenté finalement !
Lorette Costy : Et puis les biais liés aux données qui ont nourri l’IA commencent à être connus : par exemple, une IA « projettera », si on peut dire ainsi, un PDG comme un homme blanc à cause de la grande quantité de données allant dans ce sens qu’elle aura ingurgitée préalablement.
Laurent Costy : Mais protester contre les biais laisse entendre qu'il y aurait, quelque part, la possibilité d'une IA neutre, sans biais. Or, toute IA – d'ailleurs, tout algorithme – fait des choix. Il ne s'agit donc pas de biais mais de simple restitution de ce qui a été programmé. Il y a aussi la problématique du réglage des « récompenses » qui améliorent les résultats de l’IA au fil du temps. On appuie trop sur la boucle de rétroaction de l’IA qui va alors logiquement survaloriser une probabilité. On n’est pas loin des préoccupations de Goodhart qui avait compris l’enjeu de la manipulation de critères et la potentielle influence néfaste sur les résultats.
Lorette Costy : Je connais Goodhart ! C’est un économiste qui, si je ne me trompe pas, en 1975 a formulé le fait que « lorsqu'une mesure devient un objectif, elle cesse d'être une bonne mesure », parce qu'elle deviendrait sujette à des manipulations, directes, comme des trucages des chiffres, ou indirectes.
Laurent Costy : Si je résume, la qualité de la donnée va être une clé essentielle de la qualité du résultat produit par l’IA, c’est une évidence ! Mais l’équilibre et le poids qui leur seront attachés seront aussi déterminants. À cela, il faut aussi ajouter la quantité de données ingurgitées qui, avec l’avènement du big data, permet de renforcer encore la pertinence des réponses des IA.
Lorette Costy : L’épisode de Tay, robot conversationnel de Microsoft qui, en 2016 a viré facho en moins de 24 heures, montre l’efficacité « d’efforts coordonnés de quelques utilisateurs pour abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée » selon les termes mêmes de Microsoft répondant au journal Le Monde à l’époque.
Laurent Costy : Et on frémit pour notre démocratie si on projette une IA qui aurait la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer un processus de décision ou une élection. Pour ChatGPT, ils essaient de tirer des leçons de l’épisode Tay et programment des garde-fous pour tenter de contrôler l’éventuelle dérive vers des zones marécageuses et fangeuses.
Lorette Costy : Le hic sur le plan social, si on en croit Wikipédia, c’est que OpenAI a fait appel à Sama, une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux-ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes, contenus pédopornographiques et les classer selon leur type pour apprendre à l’IA à les repérer. Sympa tout ça !
Laurent Costy : On retrouve toutes les sombres caractéristiques des travailleurs du clic. Le site www.welcometothejungle.com éclaire cette face très sombre de l’Internet. Ce n’est pas drôle du tout.
Lorette Costy : Brrr ! Mais au fait, juste une question comme ça : c'est quoi le lien entre IA et logiciel libre ?
Laurent Costy : Excellente question ! Je te remercie de me l’avoir posée et je me remercie de l’avoir écrite dans le script. Tu en vois toi ?
Lorette Costy : J’ai surtout noté que l’entreprise qui était derrière a bien pris soin de mettre le terme open dans son nom : OpenAI ! J’imagine qu’invoquer « open » ne suffit pas pour être en phase avec la fameuse philosophie que porte le mouvement du logiciel libre ?
Laurent Costy : Oui, d’autant qu’OpenAI va devoir aussi trouver un modèle économique. Une des perspectives c’est de se maquer avec Microsoft pour intégrer cette IA dans Bing, Microsoft Office, Outlook. L’idée est de permettre, avec les données des utilisateurs et utilisatrices auxquelles il faudra avoir accès pour être pertinent, de proposer des modèles de mails personnalisés, des courriers de réponses prenant en compte l’historique des échanges, etc.
Lorette Costy : En même temps, Microsoft va être toujours plus intrusif et, en même temps, il va promouvoir un service en apparence performant. Dis donc, ça me rappelle une histoire de sapin et d’urne tout ça !
Laurent Costy : Donc, pour répondre à ta question, oui, ça reste très important que d’avoir une licence libre sur le moteur d’IA : c’est une condition nécessaire pour savoir au départ comment est « pensée » l’IA. Mais on voit bien que cette condition n’est pas suffisante en soi puisque la donnée fournie est déterminante et que c’est parfois très difficile d’expliquer comment telle IA est arrivée à tel résultat. Il va falloir cadrer les usages. La réglementation sera une voie déterminante pour ça. Expliquer ce que sont les IA, avoir des débats de société sur leur pertinence, leur utilité, en particulier lorsqu’elles impactent la vie privée, vont aussi être des étapes vitales pour garder la maîtrise de ces outils et de leur usage.
Lorette Costy : En tous cas, personnellement, je vois un avantage immédiat à ChatGPT : on a fait mon devoir et la chronique en même temps ! Je vais pouvoir te laisser, demander à ChatGPT de faire mon rapport de stage et aller en boîte pendant ce temps-là ! Let’s go ! La bise mon papa de géant qui me fait avancer dans la compréhension de ce monde numérique !
Laurent Costy : La bise ma puce à l’intelligence authentique !
[Bruits de bulles !]
[virgule sonore]
Isabella Vanni :
Nous allons faire une pause musicale.
[Virgule musicale]
Isabella Vanni : Après la pause musicale,
Avant cela nous allons écouter Bouquet d’Opinions par MoiJe. On se retrouve juste après. Belle journée, l'écoute de Cause Commune, la voix des possibles.
Pause musicale : Bouquet d’Opinions par MoiJe.
Isabella Vanni : Nous venons d’écouter Bouquet d’Opinions par MoiJe, disponible sous licence Art Libre.
[Jingle]
Isabella Vanni : Passons à présent à notre sujet suivant.
La bande dessinée et la culture libre, avec David Revoy et Gee
Deuxième partie
La pituite de Luk sur le thème « Chat GPT, conformisme et gros business »
Isabella Vanni :
[Virgule sonore]
Luk : Salauds de grévistes ! À cause d’eux, ça fait un bail que je n’ai pas écrit de Pituite. J’ai à peine eu le temps de me moquer du nom de ChatGPT. Je sais, c’est facile mais maintenant c’est trop tard pour ricaner sans avoir l’air d’être un demeuré.
Je n’ai pas été surpris d’apprendre que le bidule flatule des informations fausses ou contradictoires en fonction du vocabulaire employé. Ce machin génère des foutaises au kilomètre à partir de l’existant.
À mes yeux, la principale caractéristique de ChatGPT est d’étendre le domaine de nuisance des spams. Mieux que le confinement qui a poussé une maison d’édition à s’avouer vaincue et à demander à tous les auteurs en herbe de ne pas leur envoyer leur manuscrit, car ils n’avaient tout simplement pas le temps de les lire, ChatGPT est utilisé pour spammer Amazon avec des bouquins bidons, juste assez crédibles pour être achetés sur un malentendu. On découvre des nouveaux exemples de ce type tous les jours !
Même difficulté dans le domaine des études. Avant, les mauvais étudiants copiaient-collaient Wikipédia ou quelques textes de référence trouvés sur Internet. Les plus audacieux tentaient la traduction automatique de texte écrits dans une autre langue. Maintenant, les textes ne sont plus les mêmes et, pour faire la différence, il ne faut plus considérer que les textes qui contiennent le plus de fautes sont les originaux. Comme quoi la baisse du niveau scolaire a ses vertus. Mais bon ! Les IA pourraient tout aussi bien être un gain de temps pour les profs : ils pourraient fournir à leurs étudiants un tissu de foutaises générées en leur demandant de relever et expliquer tout ce qui est faux.
La génération par des IA menace de se répandre partout. Comme pour le spam, générer du bruit est bien plus rapide que de faire le tri. Notre vie, à l’avenir, sera un peu comme regarder un blockbuster américain : une structure toujours identique, un enchaînement des faits incohérents et un conformisme de bon aloi.
En matière de conformisme, le barycentre californien de la tech semble tenir le bon bout. YouTube a commencé à démonétiser les vidéos contenant des grossièretés. Je n’ai sans doute pas des millions d’auditeurs mais moi, à la radio, je peux dire tous les gros mots que je veux : caca, merde, chiasse, Microsoft Teams !
Alors bien sûr, ça a couiné et ils ont fait la promesse de réviser leur politique. Les grossièretés n’ont pas le même sens, ni le même usage, en fonction des langues et du contexte ; pas besoin d’être un génie de la linguistique pour savoir ça ! Et puis leur justification de ne pas froisser les annonceurs est bidon. Adepte de pratiques extrêmes que je suis, j’ai revu un téléfilm français en prime time pour la première fois depuis 25 ans et le héros y utilisait constamment des grossièretés. Les pages de pub étaient pourtant bien garnies.
Si TF1 a pigé le truc, comment se fait-il que nos génies du business digital aient pu penser que bannir des mots allait résoudre un quelconque problème ? Simple différence culturelle ? J’ai du mal à y croire, tant le « fuck » a été prononcé dans le cinéma américain.
En tout cas, le conformisme, encore lui, semble frapper avec la vague de licenciements qu’on observe chez les GAFAM. J’avais espéré que ces boîtes connaissent ou anticipent des difficultés. Un universitaire de Stanford pense que c’est par pur mimétisme. Si les copains virent, faudrait peut-être faire pareil ? Hein ? Virer des gens, c’est facile, c’est mesurable, c’est pratique pour calculer les bonus.
Donc, au final, ChatGPT ou décision de VP bronzés de la Côte Ouest, le résultat n’est pas si différent. Si ça se trouve, ils ont déjà délégué leur boulot à une IA. Ou alors, comme je l’avais annoncé il y a un petit moment, une IA a pris le contrôle.
Mais bon... Et si ces IA génératives étaient finalement salutaires ? Elles nous tendent le miroir de notre propre fadeur, de notre conformisme, des poncifs constamment ressassés qui suffisent à nourrir notre quotidien.
Si à l’avenir, nous devons nous faire spammer constamment et partout, cela veut dire qu’il faudra être plus imaginatif, maîtriser notre culture, contrôler nos propres réseaux de confiance et faire vivre nos communautés.
[Virgule sonore]
Isabella Vanni :
[Virgule musicale]