Différences entre les versions de « Émission Libre à vous ! du 10 janvier 2023 »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-10-janvier-2023-sur-radio-cause-commune ici] - Janvier 2023 »)
Balise : Contenu remplacé
 
(47 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Émission <em>Libre à vous !</em> du 10 janvier 2023
+
Publié [https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-10-janvier-2023-sur-radio-cause-commune ici] - Janvier 2023
 
 
'''Intervenant·e·s : ''' , à la régie
 
 
'''Lieu :''' Radio Cause Commune
 
 
 
'''Date :''' 10 janvier 2023
 
 
 
'''Durée :''' 1 h 30 min
 
 
 
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2023-01-10-15h29.mp3  Podcast PROVISOIRE]'''
 
 
 
'''[https://www.libreavous.org/164-les-10-ans-de-la-mort-d-aaron-swartz-la-rebooterie-connaitre-les-biais Page des références de l'émission]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' Déjà prévue
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription==
 
 
 
<B>Voix off : </B><em>Libre à vous !</em> l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.
 
 
 
<b>Frédéric Couchet : </b>
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
==Chronique « Que libérer d’autre que du logiciel » avec Antanak  sur La Rebooterie==
 
 
 
 
 
 
 
 
 
 
 
 
 
==Les 10 ans de la mort d’Aaron Swartz, avec Flore Vasseur et Amaelle Guiton, sujet préparé et animé par Gee==
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
==Deuxième partie==
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
==Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, intitulée « Connaître les biais, cesser d’en être leurs victimes »==
 
 
 
<b>Frédéric Couchet : </b>
 
 
 
 
 
 
 
 
 
<b>Marie-Odile Morandi, voix de Laure-Élise Déniel : </b>Bonjour à toutes, bonjour à tous.<br/>
 
Tout d’abord, comme c’est la coutume en début de mois de janvier, le groupe Transcriptions de l’April, chers auditeurs et auditrices de l’émission Libre à vous !, vous souhaite une excellente année 2023, que vous nous écoutiez en direct ou en podcast.
 
 
 
Il nous arrive de transcrire des podcasts de l’émission La Voix Est Libre, émission proposée par  Picasoft, une association amie de l’April, qui s’est donné pour mission de sensibiliser les citoyens et citoyennes aux enjeux du numérique. Cette association fait partie du Collectif CHATONS initié par Framasoft, le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Ce chaton à Compiègne, ouvrez les guillemets, « héberge des services web respectueux de la vie privée, promeut une approche libre, éthique, inclusive et locale du numérique. »
 
Pour enregistrer ces podcasts, trois amis, Baptiste Wojtkowski, Quentin Duchemin et Stéphane Crozat, se retrouvent régulièrement. Le style de leurs échanges est plaisant. Les thématiques, complexes mais toujours d’actualité, sont abordées de façon agréable avec de nombreux exemples à l’appui. Puissent, ces transcriptions, redonner le goût de la lecture, intitulé de cette chronique.
 
 
 
Nous avons transcrit récemment l’émission intitulée « Les biais de l’intelligence artificielle » dont nous vous recommandons la lecture. Cette émission a été réalisée il y a un an, mais le thème des biais est toujours réel et c’est le sujet qui va nous intéresser aujourd’hui. Vous trouverez la référence dans la page de l’émission de ce jour.
 
 
 
Quand un algorithme ne répond pas bien à la tâche qui lui est demandée ou qu’il favorise certaines catégories de la population, on parle de biais.
 
 
 
Les algorithmes d’intelligence artificielle sont utilisés partout : sur YouTube, sur les réseaux sociaux – Facebook et Twitter – pour suggérer, ou plutôt choisir, le contenu présenté aux utilisateurs et aux utilisatrices, mais aussi pour profiler, pour assister des décisions de recrutement, de solvabilité bancaire, voire des décisions médicales, juridiques ou politiques. Il existe divers types d’algorithmes et ils ne fonctionnent pas de la même manière, donc, nous dit Baptiste, on est assez vite perdu quand on en parle.
 
 
 
Dans les systèmes experts, le raisonnement se fait par syllogisme et les principes sont écrits à l’avance. Par exemple, tous les libristes sont barbus et mal coiffés ; Quentin est libriste, il est barbu et mal coiffé ; mais, Stéphane est moins barbu et mieux coiffé ! Donc on va avoir un souci ! Les informaticiens entrent ces principes à la main, ce sont des êtres humains avec leurs connaissances sur le monde, leurs préjugés, leurs projections personnelles. Les biais présents sont liés à la structure du programme, à son contexte de fabrication et sont créés par les personnes qui développent ces systèmes.
 
 
 
Les systèmes basés sur de l’apprentissage, le terme anglais utilisé est machine learning, ont besoin que leur soit fournies, en entrée, de grandes quantités de données, pour permettre, justement, cet apprentissage. Baptiste nous explique que leur entraînement change les paramètres : les parcours logiques empruntés pour obtenir les résultats sont constamment réactualisés si bien qu’à la fin personne ne sait vraiment expliquer pourquoi tel résultat a été obtenu, la chaîne de calcul n’étant pas assignée par les développeurs. On est donc face à une espèce de boîte noire particulièrement opaque.
 
 
 
Pour ces systèmes, il est nécessaire que les données fournies à l’algorithme en entrée soient bonnes, bien annotées, on dit correctement étiquetées. Ces données reflètent le monde réel, tel qu’il est, sexiste et raciste. Le résultat fourni en sortie risque de favoriser les personnes fréquemment en position de domination, les hommes par rapport aux femmes, les gens de droite par rapport à ceux de gauche, les personnes blanches, cisgenres, hétérosexuelles, etc.
 
 
 
L’exemple proposé concernant Twitter est parlant. On s’est rendu compte que, de manière générale, si un contenu pouvait plutôt être attribué à un parti politique traditionnel, conservateur, il a plus de chance d’être relayé par l'algorithme et de parvenir aux autres utilisateurs. Rééquilibrer la diversité des messages envoyés sous-entend de savoir, donc de collecter, entre autres, les opinions politiques de la personne qui a diffusé ce contenu. Comment faire ? Le lui demander ? De quelle façon ? Agir à son insu pour obtenir ces informations ?
 
 
 
Les objectifs donnés à l’algorithme, les critères choisis, peuvent mener à une discrimination, on parle alors de biais sur les objectifs, présents, par exemple, dans les algorithmes d’aide au recrutement. Le cas cité concerne Amazon qui cherchait à réduire le coût de ses procédures de recrutement. Le coût de recrutement des femmes ayant été estimé plus élevé que celui des hommes, l’algorithme se montre discriminant à l’égard des femmes à cause de l’objectif initial qui impose, dès le départ, la présence du biais.
 
 
 
Des biais se rencontrent aussi très souvent quand il s’agit d’algorithmes destinés à exécuter des arbitrages comportant une dimension morale. L’exemple donné est celui du projet Ask Delphi, intelligence artificielle à qui l’on peut désormais demander si ce que l’on compte faire est bien ou mal ! C'est très problématique de placer sa confiance dans un tel objet ! Il n’existe pas de réponse universelle simple ou facile à une telle question !
 
 
 
Le constat est flagrant. Les algorithmes d’intelligence artificielle prennent les déformations du monde et, intrinsèquement, les amplifient. Ils ne peuvent pas trouver la vérité de manière magique, ils intègrent ainsi nécessairement des biais sexistes, racistes, discriminatoires, etc. Y aurait-il des solutions de remédiation ?
 
 
 
Certes c’est compliqué, et Stéphane Crozat fait remarquer que tout cela n’est pas très différent du contexte humain normal : les décisions prises par les humains, elles non plus, ne sont pas toujours compréhensibles. Gageure, donc, d’espérer que ces algorithmes soient capables de résoudre des problèmes à notre place, de nous remplacer dans des prises de décision, en se disant que puisqu’ils sont issus de la science ils se montreront rationnels, neutres, capables d’arriver à la perfection. Nous savons que ce sont des personnes qui font ces algorithmes, des développeurs et des développeuses qui ont leur propre conception du monde, et qu’ils risquent de l’y intégrer. Donc, a minima, ces personnes doivent être sensibilisées et formées à toutes ces questions de discrimination et de biais.
 
 
 
Il faut, ici, rappeler une transcription un peu plus ancienne d’une conférence proposée par Marion Magné, en 2020, intitulée « Pourquoi les développeurs et développeuses ont besoin d’une formation aux questions d’éthique ». Marion est développeuse pour des applications web dans le domaine de la santé. Elle rappelle l’importance de se former à l’éthique : chaque domaine du milieu de l’informatique doit poser un certain nombre de principes auxquels chacun est censé obéir. Il y a toujours un être humain derrière la conception d’un algorithme, même, dit-elle, pour les générateurs automatiques de code qui n’ont pas été créés par d’autres générateurs automatiques de code, mais bien par des êtres humains. Son domaine est la médecine. Des médecins non sensibilisés aux questions de racisme ou aux questions de genre vont traiter différemment leurs patients. Pour elle, c’est la même chose en informatique : un développeur non sensibilisé aura des biais de part son éducation, de part son expérience et risque de les faire ressortir dans son ouvrage.
 
Dans l’idéal, le développeur doit prendre connaissance du cadre fonctionnel, du contexte technique dans lequel il va devoir exécuter le travail demandé. S’il y a des choses dont il n’a jamais entendu parler comment pourra-t-il les mobiliser dans son raisonnement ? Certes, nous sommes tous en faveur du progrès technologique mais pas à n’importe quel prix : ces technologies ne doivent pas être utilisées dans le but de nuire, ne doivent pas nuire à la liberté et ne doivent pas renforcer des inégalités, voire en instaurer de nouvelles.
 
 
 
Est-ce honnête d’espérer que l’on va réussir à faire des intelligences artificielles qui ne seront pas biaisées ? Toute décision, tout jugement moral est biaisé par un contexte, un objectif, des contraintes. Nos objets techniques portent notre subjectivité et un biais supplémentaire nous guette : puisque c’est produit par un algorithme, puisque c'est produit par une machine, on a l’impression que ces algorithmes réfléchissent, sont objectifs, qu’ils vont nous aider à trouver des solutions, que la décision qu’ils vont prendre est impartiale, rationnelle voire indiscutable. Où est cette technologie idéale, merveilleuse, qui ferait mieux que l’être humain, qui serait capable de le remplacer en tout point ? Soyons conscients que nous avons là quelque chose d’automatique, d’insondable, qui va se tromper et on ne pourra même pas le lui faire remarquer !
 
 
 
À la fin de leur entretien, les trois amis reviennent sur le cas des réseaux sociaux. Si tout le monde utilise seuls deux réseaux sociaux, Twitter et Facebook, les personnes qui maîtrisent leurs algorithmes ont, en quelque sorte, un pouvoir démesuré. Leur conseil est, bien entendu, de se tourner vers Mastodon, réseau décentralisé et fédéré avec ses nombreuses instances, chacune ayant ses propres règles. Chaque individu pourra choisir l’instance qui lui correspond, choisir la façon dont ordonnancer les contenus. Cette diversité donne la possibilité d’avoir du débat donc de la démocratie.
 
 
 
La quantité de vidéos hébergées sur PeerTube, service libre et décentralisé, est en constante augmentation. Constat est fait qu’une aide à la sélection devient nécessaire, mais, bien entendu, autre que celle de YouTube dont l’objectif est de maximiser le nombre de vues et, ainsi, le temps passé sur la plateforme.
 
Quentin nous conseille un projet de recherche, tournesol.app, auquel tout le monde peut participer, dont l’objectif est de proposer un système de recommandation éthique, objectif que l’on ne peut que saluer. Sur cette plateforme, libre et collaborative, il est demandé aux contributeurs d’identifier les vidéos dont ils estiment le contenu de qualité, voire d’utilité publique.
 
 
 
Pour ne plus avoir à composer avec les biais des algorithmes des quelques réseaux sociaux qui concentrent les masses, la solution est probablement d’avoir encore et encore des portées de chatons, comme Picasoft, le chaton de Compiègne, comme le Chapril, le chaton de l’April, qui nous fournissent des services libres et loyaux, deux chatons qui font partie de la centaine de chatons du Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires.
 
 
 
Nous vous encourageons à relire les deux transcriptions mentionnées aujourd’hui et, pourquoi pas, à lire ou relire l’une ou l’autre des 163 transcriptions qui ont été publiées par notre groupe au cours de l’année 2022.
 
 
 
==Quoi de Libre ? Actualités et annonces concernant l'April et le monde du Libre==
 

Dernière version du 17 janvier 2023 à 12:06


Publié ici - Janvier 2023