Différences entre les versions de « Émission Libre à vous ! du 10 janvier 2023 »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-10-janvier-2023-sur-radio-cause-commune ici] - Janvier 2023 »)
Balise : Contenu remplacé
 
(41 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Émission <em>Libre à vous !</em> du 10 janvier 2023
+
Publié [https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-10-janvier-2023-sur-radio-cause-commune ici] - Janvier 2023
 
 
'''Intervenant·e·s : ''' Isabelle Carrère - Rémi - Flore Vasseur - Amaelle Guiton - Gee - Marie-Odile Morandi - Laure-Élise Déniel - Frédéric Couchet - Thierry Holleville à la régie
 
 
'''Lieu :''' Radio Cause Commune
 
 
 
'''Date :''' 10 janvier 2023
 
 
 
'''Durée :''' 1 h 30 min
 
 
 
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2023-01-10-15h29.mp3  Podcast PROVISOIRE]'''
 
 
 
'''[https://www.libreavous.org/164-les-10-ans-de-la-mort-d-aaron-swartz-la-rebooterie-connaitre-les-biais Page des références de l'émission]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' Déjà prévue
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription==
 
 
 
<b>Voix off : </b><em>Libre à vous !</em> l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.
 
 
 
<b>Frédéric Couchet : </b>Bonjour à toutes, bonjour à tous.<br/>
 
Après une petite pause, <em>Libre à vous !</em> est de retour. J’espère que vous avez passé une belle fin d’année 2022. Pour commencer 2023, je vais reprendre de Magali Garnero, la présidente de l’April : « Un zeste de réussite, un soupçon d’imprévu, une pointe d’humour, le tout arrosé d'amitié et d’amour ! » Meilleurs vœux à vous pour cette nouvelle année !
 
 
 
15 heures 30 le mardi ou en podcast quand vous voulez, c’est le moment que vous avez choisi pour vous offrir 1 heure 30 d’informations et d’échanges sur les libertés informatiques et également de la musique libre.<br/>
 
Aaron Swartz, cet informaticien militant de la culture libre et des libertés informatiques, décédé malheureusement il y a 10 ans à l’âge de 26 ans, ce sera le sujet principal de l’émission du jour. Avec également au programme la chronique d’Antanak sur le thème de la Rebooterie et aussi la chronique de Marie-Odile Morandi sur le thème « Connaître les biais, cesser d’en être leurs victimes ». Nous allons parler de tout cela dans l’émission du jour.
 
 
 
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission qui vous raconte les libertés informatiques, proposée par l’April, l’association de promotion et de défense du logiciel libre.<br/>
 
Je suis Frédéric Couchet, le délégué général de l’April.
 
 
 
Le site web de l’émission est libreavous.org. Vous pouvez y trouver une page consacrée à l’émission du jour avec tous les liens et références utiles et également les moyens de nous contacter. N’hésitez pas à nous faire des retours ou nous poser toute question.<br/>
 
Justement, en parlant de retours, nous avons ouvert un questionnaire pour mieux vous connaître, auditrices et auditeurs de <em>Libre à vous!</em>. Y répondre vous prendra cinq minutes et nous permettra d’évaluer l’impact de notre émission. C’est également une occasion pour vous de nous faire des retours et de nous aider à améliorer l’émission. Retrouvez le questionnaire sur le site libreavous.org.
 
 
 
Nous sommes mardi 10 janvier 2023. Nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.
 
 
 
À la réalisation de l’émission du jour, Thierry Holleville. Bonjour Thierry.
 
 
 
<B> Thierry Holleville : </b>Bonjour à tous.
 
 
 
<b>Frédéric Couchet : </b>Nous vous souhaitons une excellente écoute.
 
 
 
[Jingle]
 
 
 
==Chronique « Que libérer d’autre que du logiciel » avec Antanak  sur La Rebooterie MO==
 
 
 
<b>Frédéric Couchet : </b>« Que libérer d’autre que du logiciel »,
 
 
 
==Les 10 ans de la mort d’Aaron Swartz, avec Flore Vasseur et Amaelle Guiton, sujet préparé et animé par Gee à partir de 17 min 50 ÈVE==
 
 
 
==Deuxième partie à partir de 47 min 48 - MO==
 
 
 
==Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, intitulée « Connaître les biais, cesser d’en être leurs victimes »==
 
 
 
<b>Frédéric Couchet : </b>Les choix, voire les coups de cœur de Marie-Odile Morandi, qui met en valeur deux ou trois transcriptions dont elle conseille la lecture. C'est la chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, animatrice de notre groupe Transcriptions. Le thème du jour : Connaître les biais, cesser d'en être leurs victimes ». La chronique a été écrite par Marie-Odile et mise en voix par laure-Élise Deniel. On se retrouve dans dix minutes.
 
 
 
[Virgule sonore]
 
 
 
<b>Marie-Odile Morandi, voix de Laure-Élise Déniel : </b>Bonjour à toutes, bonjour à tous.<br/>
 
Tout d’abord, comme c’est la coutume en début de mois de janvier, le groupe Transcriptions de l’April, chers auditeurs et auditrices de l’émission Libre à vous !, vous souhaite une excellente année 2023, que vous nous écoutiez en direct ou en podcast.
 
 
 
Il nous arrive de transcrire des podcasts de l’émission La Voix Est Libre, émission proposée par  Picasoft, une association amie de l’April, qui s’est donné pour mission de sensibiliser les citoyens et citoyennes aux enjeux du numérique. Cette association fait partie du Collectif CHATONS initié par Framasoft, le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Ce chaton à Compiègne, ouvrez les guillemets, « héberge des services web respectueux de la vie privée, promeut une approche libre, éthique, inclusive et locale du numérique. »
 
Pour enregistrer ces podcasts, trois amis, Baptiste Wojtkowski, Quentin Duchemin et Stéphane Crozat, se retrouvent régulièrement. Le style de leurs échanges est plaisant. Les thématiques, complexes mais toujours d’actualité, sont abordées de façon agréable avec de nombreux exemples à l’appui. Puissent, ces transcriptions, redonner le goût de la lecture, intitulé de cette chronique.
 
 
 
Nous avons transcrit récemment l’émission intitulée « Les biais de l’intelligence artificielle » dont nous vous recommandons la lecture. Cette émission a été réalisée il y a un an, mais le thème des biais est toujours réel et c’est le sujet qui va nous intéresser aujourd’hui. Vous trouverez la référence dans la page de l’émission de ce jour.
 
 
 
Quand un algorithme ne répond pas bien à la tâche qui lui est demandée ou qu’il favorise certaines catégories de la population, on parle de biais.
 
 
 
Les algorithmes d’intelligence artificielle sont utilisés partout : sur YouTube, sur les réseaux sociaux – Facebook et Twitter – pour suggérer, ou plutôt choisir, le contenu présenté aux utilisateurs et aux utilisatrices, mais aussi pour profiler, pour assister des décisions de recrutement, de solvabilité bancaire, voire des décisions médicales, juridiques ou politiques. Il existe divers types d’algorithmes et ils ne fonctionnent pas de la même manière, donc, nous dit Baptiste, on est assez vite perdu quand on en parle.
 
 
 
Dans les systèmes experts, le raisonnement se fait par syllogisme et les principes sont écrits à l’avance. Par exemple, tous les libristes sont barbus et mal coiffés ; Quentin est libriste, il est barbu et mal coiffé ; mais, Stéphane est moins barbu et mieux coiffé ! Donc on va avoir un souci ! Les informaticiens entrent ces principes à la main, ce sont des êtres humains avec leurs connaissances sur le monde, leurs préjugés, leurs projections personnelles. Les biais présents sont liés à la structure du programme, à son contexte de fabrication et sont créés par les personnes qui développent ces systèmes.
 
 
 
Les systèmes basés sur de l’apprentissage, le terme anglais utilisé est machine learning, ont besoin que leur soit fournies, en entrée, de grandes quantités de données, pour permettre, justement, cet apprentissage. Baptiste nous explique que leur entraînement change les paramètres : les parcours logiques empruntés pour obtenir les résultats sont constamment réactualisés si bien qu’à la fin personne ne sait vraiment expliquer pourquoi tel résultat a été obtenu, la chaîne de calcul n’étant pas assignée par les développeurs. On est donc face à une espèce de boîte noire particulièrement opaque.
 
 
 
Pour ces systèmes, il est nécessaire que les données fournies à l’algorithme en entrée soient bonnes, bien annotées, on dit correctement étiquetées. Ces données reflètent le monde réel, tel qu’il est, sexiste et raciste. Le résultat fourni en sortie risque de favoriser les personnes fréquemment en position de domination, les hommes par rapport aux femmes, les gens de droite par rapport à ceux de gauche, les personnes blanches, cisgenres, hétérosexuelles, etc.
 
 
 
L’exemple proposé concernant Twitter est parlant. On s’est rendu compte que, de manière générale, si un contenu pouvait plutôt être attribué à un parti politique traditionnel, conservateur, il a plus de chance d’être relayé par l'algorithme et de parvenir aux autres utilisateurs. Rééquilibrer la diversité des messages envoyés sous-entend de savoir, donc de collecter, entre autres, les opinions politiques de la personne qui a diffusé ce contenu. Comment faire ? Le lui demander ? De quelle façon ? Agir à son insu pour obtenir ces informations ?
 
 
 
Les objectifs donnés à l’algorithme, les critères choisis, peuvent mener à une discrimination, on parle alors de biais sur les objectifs, présents, par exemple, dans les algorithmes d’aide au recrutement. Le cas cité concerne Amazon qui cherchait à réduire le coût de ses procédures de recrutement. Le coût de recrutement des femmes ayant été estimé plus élevé que celui des hommes, l’algorithme se montre discriminant à l’égard des femmes à cause de l’objectif initial qui impose, dès le départ, la présence du biais.
 
 
 
Des biais se rencontrent aussi très souvent quand il s’agit d’algorithmes destinés à exécuter des arbitrages comportant une dimension morale. L’exemple donné est celui du projet Ask Delphi, intelligence artificielle à qui l’on peut désormais demander si ce que l’on compte faire est bien ou mal ! C'est très problématique de placer sa confiance dans un tel objet ! Il n’existe pas de réponse universelle simple ou facile à une telle question !
 
 
 
Le constat est flagrant. Les algorithmes d’intelligence artificielle prennent les déformations du monde et, intrinsèquement, les amplifient. Ils ne peuvent pas trouver la vérité de manière magique, ils intègrent ainsi nécessairement des biais sexistes, racistes, discriminatoires, etc. Y aurait-il des solutions de remédiation ?
 
 
 
Certes c’est compliqué, et Stéphane Crozat fait remarquer que tout cela n’est pas très différent du contexte humain normal : les décisions prises par les humains, elles non plus, ne sont pas toujours compréhensibles. Gageure, donc, d’espérer que ces algorithmes soient capables de résoudre des problèmes à notre place, de nous remplacer dans des prises de décision, en se disant que puisqu’ils sont issus de la science ils se montreront rationnels, neutres, capables d’arriver à la perfection. Nous savons que ce sont des personnes qui font ces algorithmes, des développeurs et des développeuses qui ont leur propre conception du monde, et qu’ils risquent de l’y intégrer. Donc, a minima, ces personnes doivent être sensibilisées et formées à toutes ces questions de discrimination et de biais.
 
 
 
Il faut, ici, rappeler une transcription un peu plus ancienne d’une conférence proposée par Marion Magné, en 2020, intitulée « Pourquoi les développeurs et développeuses ont besoin d’une formation aux questions d’éthique ». Marion est développeuse pour des applications web dans le domaine de la santé. Elle rappelle l’importance de se former à l’éthique : chaque domaine du milieu de l’informatique doit poser un certain nombre de principes auxquels chacun est censé obéir. Il y a toujours un être humain derrière la conception d’un algorithme, même, dit-elle, pour les générateurs automatiques de code qui n’ont pas été créés par d’autres générateurs automatiques de code, mais bien par des êtres humains. Son domaine est la médecine. Des médecins non sensibilisés aux questions de racisme ou aux questions de genre vont traiter différemment leurs patients. Pour elle, c’est la même chose en informatique : un développeur non sensibilisé aura des biais de part son éducation, de part son expérience et risque de les faire ressortir dans son ouvrage.
 
Dans l’idéal, le développeur doit prendre connaissance du cadre fonctionnel, du contexte technique dans lequel il va devoir exécuter le travail demandé. S’il y a des choses dont il n’a jamais entendu parler comment pourra-t-il les mobiliser dans son raisonnement ? Certes, nous sommes tous en faveur du progrès technologique mais pas à n’importe quel prix : ces technologies ne doivent pas être utilisées dans le but de nuire, ne doivent pas nuire à la liberté et ne doivent pas renforcer des inégalités, voire en instaurer de nouvelles.
 
 
 
Est-ce honnête d’espérer que l’on va réussir à faire des intelligences artificielles qui ne seront pas biaisées ? Toute décision, tout jugement moral est biaisé par un contexte, un objectif, des contraintes. Nos objets techniques portent notre subjectivité et un biais supplémentaire nous guette : puisque c’est produit par un algorithme, puisque c'est produit par une machine, on a l’impression que ces algorithmes réfléchissent, sont objectifs, qu’ils vont nous aider à trouver des solutions, que la décision qu’ils vont prendre est impartiale, rationnelle voire indiscutable. Où est cette technologie idéale, merveilleuse, qui ferait mieux que l’être humain, qui serait capable de le remplacer en tout point ? Soyons conscients que nous avons là quelque chose d’automatique, d’insondable, qui va se tromper et on ne pourra même pas le lui faire remarquer !
 
 
 
À la fin de leur entretien, les trois amis reviennent sur le cas des réseaux sociaux. Si tout le monde utilise seuls deux réseaux sociaux, Twitter et Facebook, les personnes qui maîtrisent leurs algorithmes ont, en quelque sorte, un pouvoir démesuré. Leur conseil est, bien entendu, de se tourner vers Mastodon, réseau décentralisé et fédéré avec ses nombreuses instances, chacune ayant ses propres règles. Chaque individu pourra choisir l’instance qui lui correspond, choisir la façon dont ordonnancer les contenus. Cette diversité donne la possibilité d’avoir du débat donc de la démocratie.
 
 
 
La quantité de vidéos hébergées sur PeerTube, service libre et décentralisé, est en constante augmentation. Constat est fait qu’une aide à la sélection devient nécessaire, mais, bien entendu, autre que celle de YouTube dont l’objectif est de maximiser le nombre de vues et, ainsi, le temps passé sur la plateforme.
 
Quentin nous conseille un projet de recherche, tournesol.app, auquel tout le monde peut participer, dont l’objectif est de proposer un système de recommandation éthique, objectif que l’on ne peut que saluer. Sur cette plateforme, libre et collaborative, il est demandé aux contributeurs d’identifier les vidéos dont ils estiment le contenu de qualité, voire d’utilité publique.
 
 
 
Pour ne plus avoir à composer avec les biais des algorithmes des quelques réseaux sociaux qui concentrent les masses, la solution est probablement d’avoir encore et encore des portées de chatons, comme Picasoft, le chaton de Compiègne, comme le Chapril, le chaton de l’April, qui nous fournissent des services libres et loyaux, deux chatons qui font partie de la centaine de chatons du Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires.
 
 
 
Nous vous encourageons à relire les deux transcriptions mentionnées aujourd’hui et, pourquoi pas, à lire ou relire l’une ou l’autre des 163 transcriptions qui ont été publiées par notre groupe au cours de l’année 2022.
 
 
 
[Virgule sonore]
 
 
 
<b>Frédéric Couchet : </b>
 
 
 
==Quoi de Libre ? Actualités et annonces concernant l'April et le monde du Libre==
 

Dernière version du 17 janvier 2023 à 12:06


Publié ici - Janvier 2023