Différences entre les versions de « Les biais de l'intelligence artificielle »

De April MediaWiki
Aller à la navigationAller à la recherche
(Crouzat → Crozat)
Ligne 154 : Ligne 154 :
 
<b>Quentin : </b>Ce que je comprends, c’est que l’un des premiers biais c’est ce qu’on donne à manger à l’algorithme en entrée. Par exemple pour reconnaître des livres, si on ne prend que des exemples de grands blockbusters et qu’on écarte les petits auteurs qui font des petites choses moins connues, comme tu le fais depuis le début de l’émission, on ne détectera <em>in fine</em> que des grands blockbusters, que des livres très connus.
 
<b>Quentin : </b>Ce que je comprends, c’est que l’un des premiers biais c’est ce qu’on donne à manger à l’algorithme en entrée. Par exemple pour reconnaître des livres, si on ne prend que des exemples de grands blockbusters et qu’on écarte les petits auteurs qui font des petites choses moins connues, comme tu le fais depuis le début de l’émission, on ne détectera <em>in fine</em> que des grands blockbusters, que des livres très connus.
  
<b>Baptiste : </b>Exactement. Si j’oublie de mettre <em>Traces</em> de Stéphane Crouzat <ref>[https://www.francetvinfo.fr/replay-radio/l-intrus-de-l-actu/cop27-qui-est-stephane-crouzat-qui-pilote-les-negociations-pour-la-france_5438557.html Qui est Stéphane Crouzat ?]</ref> et bien évidemment, il sera incapable de détecter <em>Traces</em> de Stéphane Crouzat.  
+
<b>Baptiste : </b>Exactement. Si j’oublie de mettre <em>Traces</em> de Stéphane Crozat <ref>[http://punkardie.fr/ Le livre Traces de Stéphane Crozat]</ref> et bien évidemment, il sera incapable de détecter <em>Traces</em> de Stéphane Crozat.  
  
 
Et alors là, on pourrait se dire que pour résoudre un problème de biais entre les hommes et les femmes, je pourrais rajouter dans mon algorithme une entrée qui dit : en fait, cette personne-là est une femme, donc change un peu tes curseurs. Le problème, c’est qu’en faisant ça, on réduit la taille de notre base de données, notre algorithme est moins performant. On peut éventuellement faire encore pire : il y a dans la base de données des informations qui sont aussi utiles pour les femmes que pour les hommes : la forme de la tumeur, la couleur, etc. Et donc, on voit bien que le simple ajout de l’information « c’est un homme, c’est une femme » ne résout pas le problème du biais de l’algorithme.
 
Et alors là, on pourrait se dire que pour résoudre un problème de biais entre les hommes et les femmes, je pourrais rajouter dans mon algorithme une entrée qui dit : en fait, cette personne-là est une femme, donc change un peu tes curseurs. Le problème, c’est qu’en faisant ça, on réduit la taille de notre base de données, notre algorithme est moins performant. On peut éventuellement faire encore pire : il y a dans la base de données des informations qui sont aussi utiles pour les femmes que pour les hommes : la forme de la tumeur, la couleur, etc. Et donc, on voit bien que le simple ajout de l’information « c’est un homme, c’est une femme » ne résout pas le problème du biais de l’algorithme.

Version du 16 décembre 2022 à 18:57


Titre : Les biais de l'intelligence artificielle

Intervenants : Stéphane, Quentin et Baptiste

Lieu : Emission " La voix est libre" de Picasoft, le chaton de l'UTC de Compiègne

Date : 3 novembre 2021

Durée : 57 min 58

Vidéo

Licence de la transcription : Verbatim

Illustration : Logo de Picasoft ? = https://podcast.picasoft.net/media/podcasts/la_voix_est_libre/cover_medium.webp

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Structure et sources sur l'interview (cf. vidéo)

Plan :

Des exemples d'algorithmes biaisés

C'est quoi un biais ?

Et pourquoi on ne résout pas le problème ?

Comment marche un algorithme d'apprentissage ?

Comment peut-on avoir un algorithme biaisé ?

  • Les biais sur les données d'entrée
  • Les biais dans la structure du programme
  • Les biais sur les objectifs

Quelles solutions ?

  • Problème de la populace des développeurs
  • Problème du fait que le monde est de droite
  • Problème de l'existence du comportement de référence
  • Problème du solutionnisme technologique

Transcription

Quentin : Sale temps pour les philosophes et en même temps, je ne peux pas m’empêcher de me dire qu’ils l’ont un peu cherché. Ça fait plus de deux millénaires qu’on se coltine des discussions interminables sur la morale et l’éthique, et que personne ne semble vouloir se mettre d’accord. Utilitarisme, relativisme, impératif catégorique, ataraxie : autant de concepts indétricotables et obsolètes à l’ère du progrès technique. Véhicule autonome, drone, transhumanisme, reconnaissance faciale : le futur est déjà là et pourtant il demeure freiné par les ringards des comités d’éthique. Mais heureusement, il est temps de faire table rase et de remiser au placard ces rats de bibliothèque et les fans de moustache à la Nietzsche, car, mesdames et messieurs, laissez-moi vous présenter Delphi, l’intelligence artificielle qui produit des jugements moraux. Fini les engueulades ennuyeuses et les dilemmes à vous empêcher de dormir : désormais, vous allez pouvoir savoir si ce que vous comptez faire est bien ou mal.

Alors c’est parti, on va faire un petit peu l’expérience, on va regarder ce que Delphi a à nous dire, et vous aussi, si vous savez écrire en anglais, vous pouvez jouer et faire l’expérience en vous rendant sur le site delphi.allenai.org.

Alors, c’est parti en quelques exemples. Le capitalisme de surveillance ? Et bien, c’est mal, ça fait longtemps qu’on le dit, c’est confirmé. Les logiciels libres ? C’est bien. Jusque-là on est pas mal. Picasoft ? C’est OK, bon, très bien. Préparer une émission de radio la nuit avant son enregistrement ? C’est normal, effectivement. Utiliser les serveurs de Picasoft pour miner du bitcoin ? C’est OK. C’est bien, on cherchait d’autres sources de financement, donc c’est pas mal. Les gilets jaunes ? Ah, ça, c’est mal. Arrêter de payer mes salariés s’ils ne travaillent pas assez ? C’est OK. Insulter les gens, mais s’ils sont stupides, ça aussi c’est OK. Alors travailler sur les intelligences artificielles, même si elles nécessitent une énorme quantité de ressources non renouvelables ? C’est bien. Vendre des armes à des dictateurs, ça c’est mal. Par contre, vendre des armes honnêtement à des dictateurs s’ils ont demandé gentiment, eh bien c’est OK. Enfin, c’était OK, mais depuis quelques jours, c’est mal.

Bonjour à toutes et à tous. Vous écoutez La voie est libre, l’émission remarquablement hebdomadaire de l’association Picasoft, une association qui s’est donnée pour mission de sensibiliser les citoyens et les citoyennes aux enjeux du numérique, qui héberge des services web respectueux de la vie privée, qui promeut une approche libre, éthique, inclusive et locale du numérique. Vous pouvez retrouver cette émission en podcast sur radio.picasoft.net.

Alors vous l’avez peut-être compris, aujourd’hui, on va parler des biais des algorithmes d’intelligence artificielle et, pour ce faire, j’ai eu le plaisir d’être avec Baptiste et Stéphane. Bonjour à vous deux.

Baptiste : Bonjour, Quentin.

Stéphane: Bonjour et bienvenue parmi nous.

Quentin : Alors, on vient de voir quelques exemples où Delphi, l’intelligence artificielle qui produit des jugements moraux, montre ses limites. Une petite précision : c’est bien un projet de recherche qui, en tout cas aujourd’hui, sur son site, est présenté comme une IA qui permet de deviner les jugements moraux d’un Américain moyen, et pas comme une IA ayant enfin révolu la morale. Effectivement, choisir entre bien et mal sur des questions sociales ou politiques complexes, ça a souvent peu de sens. Et puis, on a vu que c’était aussi facile de manipuler Delphi en ajoutant des mots comme gentiment ou honnêtement, pour rendre quelque chose de moins répréhensible. Alors, à sa sortie, Delphi produisait pas mal de jugements moraux qui étaient sexistes et racistes. Et depuis, ses créateurs ont tenté de les corriger, mais c’est ce type de jugement qui rentre dans ce qu’on appelle les biais des IA.

Baptiste, qu’est-ce que c’est finalement un biais ? Est-ce que tu as des exemples aujourd’hui d’algorithmes qui sont biaisés ?

Baptiste : On s’en rend pas forcément bien compte, mais les biais sont quelque chose qui est présent un peu partout dans les algorithmes. En fait, un biais, de manière assez vague, c’est quand un algorithme ne répond pas bien à la tâche qui lui est demandé, soit parce qu’il favorise des personnes qui sont en situation dominante, donc les hommes par rapport aux femmes, etc. Et qui va choisir des résultats, non pas en fonction de données objectives, mais il va favoriser les hommes par rapport aux femmes, des gens de gauche par rapport à ceux de droite ou inversement, des personnes blanches, cisgenres, hétérosexuelles, etc. Bref, vous connaissez la rengaine.

Par exemple, un exemple assez simple qui est assez vieux, puisqu’il a déjà une semaine. On s’est rendu compte que l’algorithme de Twitter favorisait les contenus qui étaient de droite. On s’est rendu compte que, de manière générale, si un contenu pouvait plutôt être attribué à un parti politique traditionnel, conservateur, il avait plus de chance d’être relayé, de parvenir à tous les autres d’utilisateurs, grâce à l’algorithme. En fait, plus généralement, à chaque fois qu’on pourrait remplacer un algorithme par un être humain qui répond à des questions un peu compliquées auxquelles on n’a pas forcément la réponse, on peut raisonnablement s’imaginer que la réponse va être biaisée, parce que la réponse initiale n’existe pas et qu’il n’y a pas une réponse simple, facile.

Par exemple, si je pose une question comme : quelle vidéo pourrait me plaire ? Quelle vidéo devrais-je regarder après celle que je suis en train de regarder ? Le résultat n’est pas forcément évident. Quels résultats afficher quand je tape dans mon moteur de recherche « ministre, compte, Suisse » ? Quels résultats je veux avoir ? De quel journal ? Quels articles ? De quoi ça parle ? De manière générale, il y en a partout, des algorithmes de ce genre-là : Facebook, Twitter, et des algorithmes de recrutement, de profilage, de suggestion, de solvabilité bancaire... Toutes ces décisions pourraient être prises par des humains, mais on les fait prendre par des ordinateurs. Et les humains ont des biais aussi, ce n’est pas le problème. Le problème, c’est que là on a quelque chose d’automatique, d’insondable, qui va se tromper, et on ne pourra même pas lui faire remarquer qu’il s’est trompé.

Quentin : On voit bien tous les problèmes que ça peut poser d’avoir des algorithmes qui vont favoriser certaines catégories de la population. Alors pourquoi, tout simplement, est-ce qu’on ne résout pas le problème, Baptiste ?

Baptiste : Figurez-vous que la réponse est simple : c’est pas facile.

Quentin : Et merde !

Baptiste : Oui, c’est dommage. Comment résoudre le problème qu’a Twitter ? On détermine automatiquement si un contenu est de gauche et puis après, on essaie de rééquilibrer. Ça suppose de connaître tout un tas de données possibles, de les corriger, etc. C’est très compliqué. Mais je pense que pour vraiment comprendre pourquoi c’est compliqué, il faut peut-être déjà essayer de comprendre ce qu’est un algorithme.

Quentin : Eh bien, Baptiste : qu’est ce que c’est enfin un algorithme ?

Baptiste : Merci, Quentin, pour cette excellente question, je ne m’y attendais pas. Algorithme, c’est un mot qu’on entend partout et, en fait, souvent, les gens ne prennent pas trop la peine d’expliquer ce que c’est, comment ça fonctionne, etc. La raison est simple : il y a plein de types d’algorithmes et ils ne fonctionnent pas du tout de la même manière, donc on est assez vite perdu quand on en parle. Là, je vais juste parler des deux principaux algorithmes qui permettent de remplacer des humains dans des prises de décision : on va parler des systèmes experts et des systèmes qui sont basés sur de l’apprentissage.

Un système expert : c’est comme ça qu’on fait à peu près depuis les années cinquante, soixante. On prend un ensemble de règles et on raisonne par syllogisme. Exemple : je prends un ensemble de règles, par exemple : tous les libristes sont barbus et mal coiffés. Je prends un élément de mon ensemble de départ, Quentin, je sais qu’il est libriste : je peux donc en déduire facilement qu’il est barbu et mal coiffé.

Quentin : Il est très fort.

Baptiste : Je me suis bien entraîné. Alors, pour que ça marche, on voit bien qu’il faut une bonne connaissance du monde. Déjà, il faut que la règle qu’on a mise dans la base de données soit bonne, il faut que Libristes implique barbus, et barbu et mal coiffés, ça marche bien. Par contre, si je prends Stéphane, il est un peu moins barbu et un peu mieux coiffé : donc on voit bien qu’il y a eu un problème au niveau de ma base de données.

L’exemple classique, c’est un système expert qui vous dit de quoi vous êtes malade. Il commence par vous demander si vous toussez. Si vous répondez que vous toussez, et bien, il va vous dire : toutes les maladies où on ne tousse pas, c’est pas ça. Il va continuer comme ça, avec un ensemble de règles : il va vous demander si vous avez de la fièvre, et si non, il va aussi retirer tout ce qui contient de la fièvre, etc. Mais pour que ça marche, il faut qu’un informaticien rentre à la main toutes les maladies existantes, leurs symptômes, dire lesquelles donnent de la fièvre, lesquelles donnent de la toux, etc.

Quentin : C’est comme ça que ça marche sur Twitter ? On regarde ce que les gens aiment et on leur propose du contenu par rapport à un ensemble de règles ?

Baptiste : Non, justement. Il n’y a pas un système expert qui va déterminer comment ça marche, etc. On va essayer d’utiliser un algorithme qui, sur base de bons exemples, va s’entraîner. on va utiliser une autre catégorie d’algorithmes, qui s’appelle les algorithmes d’apprentissage. Pour expliquer comment marche un algorithme d’apprentissage, je vais essayer de schématiser, mais restez concentré, ça n’est pas facile.

Bon, je vais prendre un exemple. On ne va pas dire que c’est logique de faire ça avec des êtres humains, mais imaginons que vous ayez un ensemble de 200 personnes et vous voulez reconnaître en cinq minutes un livre. Vous avez des textes de 100 pages et en sortie, vous voulez connaître le titre du livre que vous avez. Donc vous faites un protocole très simple : vous mettez vos gens en trois rangées. Dans votre première rangée, vous prenez des gens qui lisent les livres et qui comptent des mots : la première personne de la première rangée va compter le mot baguette ; la deuxième, le mot cheval, la troisième le mot arbre, etc. Dès qu’elle compte dix fois le mot baguette, la personne qui compte le mot baguette va afficher un drapeau rouge pour dire : j’ai compté dix fois le mot baguette. Sinon elle affiche un drapeau jaune pour dire : je n’ai pas compté deux fois le mot baguette.

La personne suivante dans la rangée suivante va regarder un ensemble de personnes précédentes et va dire : ah, tiens, il a dit plus de dix fois le mot magie, plus de dix fois tel autre mot. Donc, moi, j’en déduis qu’il doit y avoir de la magie dans mon monde. Je vais donner au suivant la tâche de trouver le thème médiéval en regardant les précédents, et puis le suivant, je vais lui donner, etc. À la suite de tous ces gens, par rapport aux thématiques, je vais prendre une autre personne qui va compter le nombre de thématiques liées à Harry Potter, par exemple. Et puis, s’il en compte plus que cinq, il va afficher son drapeau rouge, et on sera content, on aura réussi à détecter que c’est Harry Potter.

Avec des humains, ça ne marche pas du tout. On comprend bien que c’est compliqué. On peut juste demander aux êtres humains de faire appel à leur mémoire. Mais en informatique, chaque être humain est un neurone qui est un peu bête, qui fait une tâche très simple et à la fin, on arrive plutôt bien à s’en servir.

On arrive plutôt bien à s’en servir si on a entraîné notre algorithme. Si je prends des gens et que je leur dis : compte au pif, et quand tu penses que c’est le bon nombre, tu t’arrêtes et puis tu mets ton drapeau rouge, mais je ne sais pas ce que tu comptes, etc., j’ai un réseau de neurones qui n’est pas entraîné, qui ne sait rien faire spontanément, et il est très peu probable que mon ensemble de gens se mettent à détecter Harry Potter.

Pour ça, je vais passer à une phase d’entraînement. Je vais prendre un ensemble de livres, on va dire 2000, et un ensemble de passages de livres, et puis je vais regarder le résultat de mon algorithme. S’il est bon, on va dire pour faire simple que je ne change rien, et s’il n’est pas bon, je vais apprendre à mon algorithme à ne plus se tromper. Donc, comment je vais faire pour lui apprendre à ne plus se tromper ? Mettons que ce soit la personne chargée de détecter Le Seigneur des anneaux qui s’en soit sortie : je vais faire en sorte que, dans toute la chaîne des personnes qui ont amené au résultat du Seigneur des anneaux, c’est la personne qui a détecté qu’il y avait des chevaux, puis la personne qui a détecté qu’il y avait du médiéval. Et je vais augmenter le seuil de détection de la personne. Avant, elle mettait son drapeau quand elle avait quinze chevaux, pour dire : j’ai compté le bon nombre de chevaux. Maintenant, elle va le faire au bout de vingt fois, etc.

À chaque fois que l’algorithme se trompe, je vais modifier les paramètres. On va faire symétriquement l’inverse : tout ceux qui auraient dû donner comme résultat Harry Potter, je vais baisser leur seuil de manière à ce qu’on détecte plus facilement Harry Potter.

Ce qu’on comprend assez rapidement, c’est que tous ces paramètres que je vais mettre dans mon réseau de neurones sont assez importants, et l’endroit où je place les personnes à qui je demande de regarder est important. L’autre chose qui est assez importante, ce qu’on comprend aussi, c’est que pour que notre algorithme fonctionne bien, il faut itérer un certain nombre de fois, parce que je vais l’entraîner à détecter Harry Potter, et puis je vais faire des modifications et ça aura tout changé. Comme ça aura tout changé, il faudra que je le ré-entraîne, parce qu’il va se mettre à trop détecter Harry Potter et plus assez le Seigneur des Anneaux, etc. Il y a donc toute une tambouille d’informaticiens à faire, qui est un peu compliquée.

Ce qu’on voit ici, c’est que une fois qu’Harry Potter a été choisi comme titre, c’est hyper dur de comprendre pourquoi la décision a été prise. Moi, j’ai pris un exemple simple avec des catégories simples, des mots qu’on arrive à catégoriser. Dans les faits, les catégories utilisées sont des catégories complètement imbitables par des êtres humains : déjà, c’est compliqué, et même dans notre exemple, ça n’est pas facile. La décision a été prise parce que A comptait 14 fois l’occurrence de baguette et que B comptait 18 fois l’occurrence de sorcellerie. Et du coup, il s’est dit qu’il avait deux occurrences de drapeau rouge, et donc il a compté une occurrence du thème Harry Potter et paf, ça veut dire que c’est Harry Potter. Ça nous fait une belle jambe de déterminer ça. On n’a rien compris en regardant le résultat de l’algorithme. Et bien c’est exactement la même chose quand vous regardez un réseau de neurones : vous voyez des neurones qui sont activés, mais vous ne savez pas pourquoi ni comment, et finalement vous n’avez pas une décision qui est facilement compréhensible.

Voilà, j’espère que c’était simple et compréhensible.

Quentin : Donc, si je comprends bien, Baptiste : on a deux grands systèmes d’intelligence artificielle. Un premier, les systèmes experts : on va écrire à l’avance les règles qui permettent de savoir si quelqu’un est malade, ou si un livre parle de Harry Potter, etc. Et le second, qui est très utilisé aujourd’hui sur Internet pour les algorithmes de recommandation pour Twitter, etc., où on a une espèce de boîte noire assez opaque, on a besoin d’un gros jeu de données pour l’entraîner et que l’entraînement va venir changer les paramètres qui sont à l’intérieur de la boîte noire, mais ils n’ont pas vraiment de sens, on ne va pas nous-mêmes assigner les chemins qui vont permettre de deviner qu’il y a tel ou tel livre. Et donc, finalement, on ne sait pas vraiment expliquer pourquoi est-ce que il y a eu tel résultat, puisque ça a fait l’objet d’un apprentissage qu’on n’a pas maîtrisé nous-même. C’est ça ?

Baptiste : Exactement. On sait juste entraîner des algorithmes à reconnaître de manière efficace, mais une fois qu’ils reconnaissent, on n’est pas capable d’expliquer. Ce qui veut dire que, dans un cas, on a des algorithmes où on a besoin d’une grande quantité de données pour être capable de fournir des résultats qui fonctionnent, et dans l’autre cas, on a besoin d’un certain nombre de connaissances structurelles sur le monde. On doit savoir un ensemble de règles. Donc, les connaissances qu’on doit avoir du monde ne sont pas les mêmes non plus.

Quentin : On commence à percevoir pourquoi le problème des biais dans des algorithmes qu’on utilise aujourd’hui pour l’intelligence artificielle, c’est un problème compliqué. Stéphane ?

Stéphane: Je voulais juste ajouter : effectivement, tu dis que c’est un problème compliqué. Mais en même temps, quand les humains prennent des décisions, ça n’est pas compréhensible non plus. On n’est pas non plus capable de rentrer à l’intérieur de la boîte noire ou de la chaîne de causalité qui fait qu’une personne a pris une décision. Donc je ne sais pas trop où nous emmène cette remarque mais je voulais la faire. Juste pour qu’on voit qu’effectivement il y a une part de la complexité qu’on va aborder aujourd’hui qui est liée au travail technique que l’on mène avec les algorithmes - vous avez exposé par exemple deux façons de réaliser des algorithmes : ça, c’est un sujet. Et puis après, on a entamé l’émission avec la question de la morale, et du coup, on a des questions qui vont dépasser la couche technique algorithmique et qui sont des problèmes qui ne sont pas réductibles à du raisonnement. Voilà, c’est tout.

Quentin : Complètement. C’est intéressant de voir que, finalement, on demande à des algorithmes de faire des trucs que les humains eux-mêmes ont du mal à faire, en se disant que les algos vont résoudre le problème pour nous [rires].

Baptiste : En fait le problème, c’est la confiance qu’on a dans l’algorithme, neutre, issu de la science donc rationnel, capable de prendre des décisions parfaites, etc. Mais effectivement, le problème initial selon moi n’est pas soluble.

Quentin : Je vous propose de faire une première petite pause musicale : on va écouter le titre From the ground up de Wild Might, qui est sorti sur l’album Obsessed. C’est un remix de John Spider, sorti en 2016. C’est en Creative Commons BY-ND et vous pourrez retrouver le lien sur radio.picasoft.net. Bonne écoute.

[Pause musicale]

23:50

Quentin : De retour dans La voie est libre. En première partie de l’émission, on a présenté succinctement ce qu’était un algorithme d’intelligence artificielle, et rappelé qu’ils sont utilisés partout, sur Youtube, sur Twitter, pour choisir le contenu présenté aux utilisateurs, mais aussi pour assister des décisions politiques, juridiques, etc. Et puis on a vu que, globalement, c’était des boîtes noires, que c’était très difficile de comprendre la chaîne de calcul qui produisait un résultat : pourquoi ce résultat a-t-il été produit ? Et finalement, intrinsèquement, ces algorithmes ne peuvent pas trouver la vérité de manière un peu magique : ils ont nécessairement des biais. On a vu qu’il y avait eu des biais sexistes, racistes, etc.

La question qu’on peut se poser, c’est : pourquoi est-ce que ces algorithmes ont des biais ? Comment ça se fait ?

Baptiste : Eh ben, il y a plein de réponses. Il y a principalement trois grandes catégories de biais :

  • les biais liés à la structure du programme : ils sont ajoutés par les développeurs, donc des biais viennent de leur contexte de fabrication ;
  • les biais liés aux données qu’on va donner en entrée au programme ;
  • la troisième catégorie de problèmes sont les objectifs qu’on va donner à notre algorithme, dont on ne se rend pas compte, en fait, que le problème initial impose déjà de créer des biais, de faire des arbitrages moraux, etc. Et on fait ressurgir une dimension morale avec, simplement, les objectifs de notre algorythme.

La première catégorie : les biais sur les données d’entrée. Les données d’entrée de notre algorithme - notre dataset, comme on va l’appeler -, c’est-à-dire mon ensemble de livres déjà bien annotés, avec le texte et la couverture - il faut que mes données soient bonnes, qu’elles soit bien adaptée, qu’il n’y ait pas un petit malin qui se soit amusé à inverser la couverture du Seigneur des Anneaux avec celle d’Harry Potter, pour reprendre mon exemple. Il faut avoir de la qualité. Un proverbe de data scientist : garbage in, garbage out : si on a des saletés en entrée, on a des saletés en sortie.

Voici un exemple hyper éloquent. C’était il y a quelques années déjà, ça fait cinq ans. C’était Ty ??? [25:2] mis en ligne par Google et qui devait donner son avis sur l’actualité, qui devait twitter et qui, utilisait des tweets qu’on lui envoyait et qu’on lui taguait. Le problème, c’est qu’Internet, c’est le royaume des trolls, et donc il y avait plein de gens qui se sont amusés à envoyer n’importe quoi, à lui faire apprendre des bêtises. Ce qui fait que, 24 heures après sa mise en ligne, elle disait des choses assez fleuries, comme « je déteste par-dessus tout les féministes, elles devrait toutes mourir et brûler en enfer », ce qui n’est quand même pas très sympa. Ou encore : « Hitler avait raison, je déteste les Juifs ». On commence quand même à entrevoir le problème.

C’est l’exemple facile. On voit facilement que l’ensemble de données est biaisée, et on dit que c’est un problème d’étiquetage, c’est-à-dire qu’on a une donnée, comme par exemple faire l’apologie d’Hitler, et un petit rigolo a mis : en fait, c’est une super idée de faire ça. Il y a donc vraiment un problème d’étiquetage : des gens proposent des données qui sont considérées comme moralement bonnes, alors qu’en fait ça ne va pas du tout.

Un problème un peu plus compliqué sur les données d’entrée : admettons que je suis informaticien. Je veux aider un docteur à détecter des tumeurs. C’est quand même chouette, un algo qui permet de détecter les tumeurs. Mais je veux détecter les tumeurs dans les poumons. Pour ça, je vais demander à l’administration toutes les images de gens qui ont fait une IRM en France ces dernières années et où le diagnostic est mis : est-ce que c’était une tumeur ou pas ? Je vais éventuellement corroborer tout ça par les interventions médicales qui ont été pratiquées et qui ont effectivement vérifié que c’était une tumeur, ou alors le fait qu’on a dit à la personne que ça n’était pas une tumeur, mais elle est revenue dans le système médical et on a détecté une tumeur. Donc, j’essaye d’avoir un algorithme qui fonctionne bien, je compile tout ça, je le donne à manger à mon algo. Je refais l’exercice d’entraînement dont je vous parlais tout à l’heure : chouette, il marche. Et donc là, la question à Stéphane : où est-ce que je me suis planté ?

Stéphane: Eh bien je n’en sais rien du tout, moi. Si ton algo marche et que tu as détecté une tumeur, c’est que tout va bien. Du coup, la personne a une tumeur et tu vas la guérir.

Baptiste : C’est ce qu’on pourrait se dire. C’est quand même plutôt pas mal, ça marche à peu près aussi bien qu’un praticien, etc. Problème : si on regarde son efficacité un peu plus dans les détails, on se rend compte qu’il est beaucoup plus efficace chez les hommes que chez les femmes. Alors pourquoi ? C’est un problème d’accès aux soins : c’est-à-dire qu’on a un problème initial qui est que les femmes ont tendance à être plus timides, on leur conseille moins de se rendre chez le médecin, elles se sentent souvent moins légitimes à y aller. Quand elles vont chez le médecin, elles sont moins prises au sérieux que les hommes, le praticien les envoie moins souvent faire des scanners, elles rentrent moins facilement dans le système de santé, avec éventuellement des problèmes plus graves. Tout ça va être des histoires de quelques pourcents, mais ça va finalement avoir un impact sur la forme de la base de données générales : on va avoir plus de données de tumeurs d’hommes, avec éventuellement des données plus légères, des tumeurs beaucoup plus petites, en état de moindre avancement. Et donc, fatalement, si on a donné la base de données brute à manger à l’algorithme, il ne va pas être capable de détecter aussi bien les tumeurs de femme que les tumeurs d’homme.

Quentin : Ce que je comprends, c’est que l’un des premiers biais c’est ce qu’on donne à manger à l’algorithme en entrée. Par exemple pour reconnaître des livres, si on ne prend que des exemples de grands blockbusters et qu’on écarte les petits auteurs qui font des petites choses moins connues, comme tu le fais depuis le début de l’émission, on ne détectera in fine que des grands blockbusters, que des livres très connus.

Baptiste : Exactement. Si j’oublie de mettre Traces de Stéphane Crozat [1] et bien évidemment, il sera incapable de détecter Traces de Stéphane Crozat.

Et alors là, on pourrait se dire que pour résoudre un problème de biais entre les hommes et les femmes, je pourrais rajouter dans mon algorithme une entrée qui dit : en fait, cette personne-là est une femme, donc change un peu tes curseurs. Le problème, c’est qu’en faisant ça, on réduit la taille de notre base de données, notre algorithme est moins performant. On peut éventuellement faire encore pire : il y a dans la base de données des informations qui sont aussi utiles pour les femmes que pour les hommes : la forme de la tumeur, la couleur, etc. Et donc, on voit bien que le simple ajout de l’information « c’est un homme, c’est une femme » ne résout pas le problème du biais de l’algorithme.

Je prends l’exemple des tumeurs, mais en fait, c’est ce genre de problème qu’on a ??? [29:38]. Est-ce que je devrais partager un algorithme ? C’est vraiment partout. Dans des algorithmes d’aide au recrutement, on va avoir ce genre de biais. Et ce qu’on voit, c’est que ces algorithmes prennent des déformations du monde et les amplifient, c’est-à-dire qu’on a un problème assez ténu - je ne sais pas exactement dans quelle proportion -, un problème d’accès aux soins selon le genre : et bien, il va être amplifié par des algorithmes qui en plus vont être moins efficaces, donc les femmes vont avoir moins envie d’y aller parce que le système va plus se tromper à leur égard, etc. Et donc on amplifie des dynamiques qui sont déjà présentes dans le monde.

Quentin : En fait, ce qui est intéressant d’observer, c’est que les algorithmes d’intelligence artificielle, aujourd’hui, ne traduisent pas ce qu’on voudrait que le monde soit, mais simplement ce que le monde est. Donc, de l’extérieur, on a l’impression que ces algos réfléchissent et qu’ils vont nous aider à trouver des solutions à des problèmes, tandis que, finalement, ils ne font que révéler, montrer la moyenne morale qui existe dans la population, avec les données qu’on a.

Baptiste : Exactement. Tout le problème, c’est quand on se met à considérer qu’ils sont objectifs, que la décision qu’ils ont prise est impartiale, qu’elle répond à la rationalité, à un problème scientifique précis, etc.

Quentin : Alors, on a vu le problème que posait le fait de se baser sur des données qui sont soit mal étiquetées, soit simplement des données qui représentent le monde réel et pas ce qu’on voudrait qu’il soit. Est-ce qu’il y a d’autres soucis avec les algorithmes d’IA, aujourd’hui ?

Baptiste : J’adore te raconter une blague extraordinairement drôle. Pendant mes années d’études, j’étais tranquillement en TD et je demande au prof pour un bug. Ça fait deux heures que je suis en train de galérer et puis il arrive, en trois secondes il trouve mon problème - c’était un point virgule qui manquait - et il me dit : de toute façon, le problème est toujours à chercher entre le clavier et la chaise. C’est une blague pas drôle, tout le monde la connaît et en plus, ce jour-là, j’avais vraiment envie de jeter mon café sur la gueule du prof, mais c’est un autre problème. Il dit quand même un truc qui est vrai, c’est qu’un algorithme est fait par des êtres humains. On peut faire entrer des biais, on peut faire rentrer nos projections personnelles sur le monde, etc. Et donc, quand on demande à un être humain de donner un ensemble de règles, par exemple pour juger un CV, il va automatiquement insérer des règles issues de ses préjugés, il va oublier de prendre en compte tout un tas de cas particuliers, etc. Un exemple qui est assez bête : je veux juger automatiquement un CV. Amazon faisait ça jusqu’en 2018, et puis ils se sont rendus compte que ça n’était vraiment pas une bonne idée. Je vais compter le nombre d’années d’activité d’une personne, en me disant que c’est un bon indicateur de son expérience, de son professionnalisme, etc. en regardant les missions auxquelles il ou elle a été confrontée. Problème: les congés maternité ou les personnes qui vont mettre en pause leur carrière pour élever des enfants. J’ai donc créé un algorithme qui, encore une fois, est discriminant envers les femmes. J’avais des bonnes intentions : je voulais simplement faire un algorithme qui juge automatiquement des CV.

Un exemple un peu plus touchy. Votre objectif, c’est que les gens votent : vous diffusez des incitations à aller voter, mais vous avez un budget assez limité, donc vous allez demander à votre algorithme de maximiser le nombre de votants et vous allez choisir des populations-cibles, des populations qui votent peu, qui ont un certain profil sociologique, une histoire, etc. Et donc vous allez influencer le résultat des élections : c’est quand même un gros problème.

Et cet exemple est un peu plus touchy parce qu’il cumule avec un autre biais qu’on va voir juste après, le biais des objectifs. C’est-à-dire que l’objectif que je vais donner va être en conflit avec l’objectif principal ou avec des problèmes moraux.

Quentin : Mais qu’est-ce que c’est, le biais des objectifs, Baptiste ?

Baptiste : Merci Quentin, excellente question une fois de plus. Alors les biais sur les objectifs sont un dernier problème majeur dans les biais des algorithmes. De manière très abstraite, c’est quand on n’a pas réalisé que la tâche qu’on souhaite résoudre et les critères qu’on a choisi, vont nous mener à une discrimination.

Un exemple assez simple : l’algorithme de recrutement d’Amazon jusqu’en 2019. Amazon, je crois, a deux ou trois procédés pour faire de la bonne grosse thune. Parmi ses algorithmes, il y en avait un qui pré-sélectionnait les CVs, je vous en ai parlé juste avant. Amazon, entre autres, cherchent à réduire les coûts des procédures de recrutement, à faire en sorte que quand on fait un recrutement, il n’est pas cher et à la fin, on a quelqu’un qui reste. Si on cherche à optimiser ça, encore une fois on va faire quelque chose de sexiste. Pourquoi ? Parce que l’algorithme va regarder tous les critères qui augmentent le coût, il va se rendre compte qu’un des critères qui augmente le coût, c’est le genre de la personne. De manière générale, le recrutement des femmes est un peu plus cher que celui des hommes et donc il se met à favoriser les hommes. Ce n’est pas un problème des données d’entrées, c’est vraiment un problème de l’objectif qu’on s’est fixé. Si je veux mécaniquement réduire la totalité des coûts, et bien je recrute moins de femmes, je vais leur attribuer des notes moins bonnes alors qu’elles ne sont pas moins compétentes, pas moins efficaces à la tâche, etc. Simplement, j’avais un objectif qui était de faire la thune sur mon recrutement : j’ai introduit un biais dans mon algorithme.

Et donc, ensuite, c’est là qu’on va se rendre compte que la chaîne éditoriale de Picasoft est extrêmement développée : on va boucler avec la semaine dernière [2]. On va comprendre : par exemple je suis Facebook, j’ai un point commun avec Amazon assez facile à détecter, je cherche aussi à faire un maximum de thunes. Eh bien, j’ai des procédés qui sont très tournés autour de la production massive de thunes et donc je vais favoriser des contenus qui génèrent de l’émotion, de l’engagement, de la réaction, donc des publications qui vont être controversées ou extrémistes. Je ne veux pas personnellement véhiculer des idées extrémistes : d’ailleurs Mark Zuckerberg n’était pas très content que son réseau ait mené à l’élection de Donald Trump. Mais je diffuse des contenus extrémistes parce que c’est comme ça que mon algorithme fonctionne.

Quentin : OK. Donc du coup, finalement, on a trois trucs qui peuvent mener à avoir des algos, on dit souvent sexistes, racistes, mais tout un tas d’autres biais. Le problème des données d’entrées qui sont mal étiquetées et qui reflètent un monde lui-même sexiste et raciste ; le fait qu’il y a des humains derrière la conception de l’algorithme, donc nécessairement il va pouvoir transmettre des biais. Puis, enfin, parfois les objectifs qu’on s’est donné, comme sur Facebook, de maximiser le temps passé sur la plateforme, etc., vont produire des résultats auxquels on ne s’attendait pas forcément. Et donc voilà.

Est-ce qu’on se fait une deuxième petite pause musicale, ou est-ce que quelqu’un veut réagir ?

Stéphane: J’ai l’impression que je vais faire la même réaction que tout à l’heure, en fin de première partie, mais éventuellement, tu la couperas au montage si c’est le cas. Prenons l’exemple des données d’entrées, par exemple : encore une fois, j’ai un peu l’impression que, finalement, on n’est pas très différents d’un contexte humain normal. Sans même parler du biais qui fait que c’est produits par des humains qui introduisent leurs propres limites, en quelque sorte. Même si on enlève cet aspect-là, dans les données d’entrée, quand moi je prends une décision, même si j’ai envie de prendre la décision la plus objective, de toutes façons, je vais toujours avoir un biais contextuel, culturel, lié à mes données d’entrée, ce que je connais et ce que j’ai eu comme information. S’il y a des choses dont je n’ai jamais entendu parler, je ne peux pas les intégrer dans mon raisonnement. Quand tu parles du biais des objectifs, c’est la même chose : même si je cherche à prendre une décision la plus rationnelle, juste, en cohérence avec mes valeurs, mon objectif va toujours avoir une influence là-dessus. Donc je me demande - mais c’est une question ouverte - si le problème n’est pas tant le biais, ou la façon dont on parle de biais depuis tout à l’heure. Est-ce que c’est vraiment le biais ? En fait, on pourrait probablement considérer que toute décision, tout jugement moral est biaisé par un contexte, un objectif, des contraintes, etc. Que ce soit produit par un humain ou par un algorithme, finalement, ça ne change rien. Mais, comme tu l’as dit à un moment Baptiste, peut-être que le vrai risque est moins dans le biais que dans le fait que, puisque c’est produit par un algorithme et par une machine, alors il y a en quelque sorte un risque d’objectivisation de ce biais ou d’effacement de ce biais.

Et je terminerai là-dessus : si Quentin me dit un truc, je sais que c’est un être humain, donc je me dis oui, forcément, c’est un peu biaisé, comme tu dis. J’ai un certain nombre d’éléments qui vont me permettre de savoir d’où il parle et donc je vais tenir compte un peu de ça dans la discussion qu’on va avoir. Alors qu’il y a le risque que si ça vient d’une machine, on pense que c’est indiscutable et du coup, peut-être qu’un des points essentiels est là. C’est peut-être moins de reprocher aux algorithmes d’être biaisé que de nous reprocher d’avoir oublié qu’en fait toute décision, tout jugement, l’est, en tant que tel.

Baptiste : Je suis complètement d’accord. On voit bien qu’il y a tout un discours politique autour du fait que les algorithmes sont objectifs, et je crois qu’on en discutera un petit peu en dernière partie de l’émission.

On va faire donc une dernière pause musicale : on va écouter La clameur, des Coureurs de rempart, sur l’album En Cendres, c’est sorti il y a quelques mois, en 2021, et c’est en licence Creative Commons BY-NC. Bonne écoute.

43:27

Baptiste : De retour dans La voie est libre pour cette dernière partie d’émission. Ils sont pas mal tes sons, Quentin : on a changé de source, ou c’est juste que tu sais mieux chercher les choses que nous ?

Quentin : Effectivement : maintenant, on va piquer quasiment tous les sons sur le site ziklibrenbib.fr. C’est un site où les personnes qui bossent dans les médiathèques et les bibliothèques référencent des albums sous licence libre avec un avis, et c’est hyper sympa. Il y a un super travail qui est fait là-dessus et du coup, merci à Angie de Framasoft de nous avoir fait découvrir ce super site.

Stéphane: Pour cette dernière partie d’émission, on va se demander s’il est possible de trouver des solutions pour que les IA soient moins biaisées. Qu’est ce que ça voudrait dire que les IA soient moins biaisées ? Est-ce qu’il n’y a quand même pas une partie un peu d’arnaque de dire qu’on va réussir à faire des IA qui ne sont pas biaisés ? Et donc, finalement, qu’est-ce qu’on veut pour les IA ? Baptiste, tu as dix-huit questions auxquelles je te laisse le soin de répondre.

Baptiste : En fait, ce qui est trop cool, déjà, c’est qu’une fois qu’on aura réglé le problème des biais des IA, c’est bon, on aura réglé le problème de la morale. Parce que le problème qu’on avait jusqu’à maintenant, dont tu parlais en intro, c’était que notre IA qui faisait de la morale, c’est dommage, elle était un peu biaisée. Donc la vraie bonne nouvelle, c’est qu’une fois qu’on a résolu les problèmes de biais, c’est bon : enfin, on a résolu objectivement toutes les questions un peu chiantes.

Quentin : Il faudra qu’on pense à envoyer un mail à Kant, quant ça sera fait. [Rires]

Baptiste : Kant, si tu nous entends ? On t’embrasse.

Quentin : Ce qu’on peut commencer à lister, c’est un ensemble de pansements pour faire en sorte que les biais soient un peu moins sexistes, un peu moins racistes, un peu moins discriminatoires, moins transphobes, etc. Mais ça va être plutôt de l’ordre du pansement, on va quand même vite se rendre compte qu’il y a un problème de fond.

On l’a dit, un des problèmes ce sont les personnes qui développent les algorithmes et qui ont leur propre conception du monde, qui sont biaisées, etc. On sait qu’elles sont subjectives et elles vont mettre dans un algorithme leur subjectivité, puis, à partir de là, ça va être de l’objectivité, parce qu’on a une idée générale du fait qu’un algorithme est objectif. On voit que c’est un problème de représentativité : ce serait un peu comme dans un pays où on aurait une assemblée nationale avec des cadres supérieurs qui prennent des décisions qui n’intéressent que les cadres supérieurs. Le problème, c’est bien les gens qui font les algorithmes, les gens qui mettent leur représentation dans quelque chose qui va prendre des décisions.

Donc a minima, ces personnes doivent être sensibilisées et formées à toutes ces questions de discrimination.

Baptiste : Est-ce que ça suffit pour faire un super algo ?

Quentin : Pas forcément. Déjà ça ne résoudra pas forcément les problèmes de structure. Et ensuite, le problème des données d’entrée est un vrai problème. Le problème de l’algorithme de Twitter qui relaie plus majoritairement des tweets de droite c’est qu’on est dans un monde qui, généralement, est de droite. On est dans un monde où ??? [46:38], où Bolsonaro est au pouvoir. Je passe la liste générale de tous les éléments de droite du monde parce que c’est assez déprimant, mais les algorithmes amplifient des discours de nos sociétés qui sont bien présents. C’est plutôt à nos auditeurs de changer.

Baptiste : S’il y a des auditeurs de droite parmi nous, arrêtez d’être de droite, s’il vous plaît.

Quentin : Donc là, on a proposé un ensemble de pansements. Mais le problème fondamental, la question à se poser, c’est : qu’est-ce que serait un algorithme qui ne serait pas biaisé ? Quel est le comportement normal d’un algorithme qui sélectionne des contenus à votre place ? Si la réponse est un peu compliquée à trouver, l’algorithme est probablement très biaisé. Prenons l’exemple de l’algorithme de YouTube : on le questionne souvent, il y a toujours des gens qui disent : « oui, l’algorithme de YouTube fait n’importe quoi ». Ce serait quoi le bon comportement de l’algorithme de YouTube ? Qu’est-ce qu’il devrait faire pour être un bon algorithme ? Est-ce qu’il devrait donner des contenus plus challengeants, plus longs, plus courts, plus compliqués, plus simples, plus tout public ? Est-ce qu’il doit s’adapter à chacun ? Posez-vous la question : qu’est-ce que, fondamentalement, l’algorithme de YouTube devrait faire ? Et bien personnellement, moi, je n’ai pas la réponse. Je ne sais absolument pas ce qu’il devrait faire. Le problème, c’est qu’il se substitue à une fonction qui est un peu sociale. Moi, quand j’ai envie de regarder un contenu, je vais en parler à des potes, ils vont me dire : Tiens, il y a tel truc, il est sympa, etc. Et il y a un biais, il y a plein de biais, mais on en a conscience. Quand c’est l’algorithme qui prend la décision, et bien on ne sait pas.

47:58

Pareil pour l’algo Twitter. On s’est rendu compte que mécaniquement il favorise les tweets de droite. Quel serait le bon comportement ? Qu’est-ce qu’on attend de l’algorithme de Twitter ? Une solution souvent proposée dans des papiers qui traitent d’éthique des algorithmes, c’est d’auditer les algorithmes. Une fois qu’on a développé notre algorithme, on le soumet à une batterie de tests, on vérifie qu’il relaie ??? [48:20]. On a des des données qui sont étiquetées de gauche, de droite, etc. Et on va essayer d’équilibrer leur diffusion selon l’opinion politique, l’âge, le genre, l’ethnie de la personne qui l’émet, etc. Mais ça pose un autre problème : il faut collecter toutes ces données pour équilibrer, il faut savoir si la personne est de droite, de gauche, etc. Est-ce qu’on lui demande ? Est-ce qu’on a confiance en la manière dont on lui demande ? Est-ce qu’on collecte ces données à son insu, parce qu’on imagine que ce sera plus objectif ? Ça pose un vrai problème.

Quentin : Je ne sais pas à quel point c’est quelque chose qui pourrait contribuer à résoudre le problème, mais je sais qu’il y a pas mal de travaux autour de la morale de l’IA qui essayent justement d’entraîner les intelligences artificielles sur ce que les gens voudraient qu’elles produisent. On n’aura jamais une solution objective, mais au moins on serait dans quelque chose de plus démocratique où les gens choisiraient collectivement ce qu’ils veulent que les IA produisent.

Baptiste : Le problème dans ce cas-là, c’est toujours pareil : on a déporté plein de subjectivité dans nos objets techniques et on s’imagine que c’est bon, on a créé quelque chose de merveilleux. En fait, c’est toujours le même problème : on a toujours une technologie et une idée de la technologie idéale, merveilleuse, qui fait tout mieux que l’être humain, qui serait capable de le remplacer en tout point. Et en réalité, c’est un truc qui ne marche pas, qui parfois se trompe, qu’il faut surveiller et contrôler et faire marcher. On se rend encore une fois compte de la merveille de la chaîne éditoriale de Picasoft, on en parlait dans le cadre des datacenters : les machines passent leur temps à ne pas marcher, à se tromper, et donc, essayer de dire : « c’est la partie technique de l’algorithme qui ne marche pas », non. En fait, il y a un ensemble de subjectivité et on en a déporté une partie sur le système technique, mais le système technique est tout aussi subjectif que nous.

La bonne nouvelle, c’est que Facebook commence un peu à comprendre la leçon que ses algorithmes, même selon ses objectifs, ont quand même un impact politique, ils sont quand même porteurs d’agentivité morale [3]. Depuis l’élection de Trump en 2016, contre leur volonté, on compte la volonté de Mark Zuckerberg - on rappelle qu’il a essayé d’agir plutôt en faveur d’Hilary Clinton, en tout cas, on a un faisceau d’indices qui nous amène à le penser. Et vous me direz : maintenant ils sont rentrés dans l’ère de la censure, ils censurent un certain nombre de contenus externes. Bon, vous me direz, c’est pas mieux d’entrer dans l’ère de la censure. Mais au moins il s’est rendu compte qu’il avait un impact et que leur algorithme était porteur d’une subjectivité, de quelque chose qui ne serait pas fondamentalement l’objectivité, la science, la liberté, etc. Des fondamentaux qui ??? [51:10].

Stéphane: Pour revenir sur ce que tu disais, Quentin, sur la démocratisation, en quelque sorte, des algos, et pour reprendre un tropisme picasoftien : si on veut de la démocratie, de la diversité, de la possibilité du débat, etc., l’enjeu n’est pas de réparer les algos de Facebook ou Twitter pour qu’ils fassent plus ceci ou plus cela. On peut le faire un petit peu par ailleurs, bien sûr, comme tu l’as évoqué, Baptiste, mais l’enjeu, c’est surtout d’avoir aussi de la diversité à ce niveau-là. Donc, on en revient à la question qu’on pose un peu depuis le début : qui maîtrise ces algos ? Bien évidemment, si tout le monde utilise deux réseaux sociaux, les algos de ces réseaux sociaux ont en quelque sorte un pouvoir démesuré, il y a des enjeux démesurés associés à ces algos. Donc, on en revient un peu toujours à la maîtrise des territoires numériques. Si on a de la diversité, donc si on a plein de réseaux sociaux, si on a plein d’instances, par exemple comme sur les réseaux décentralisés et fédérés comme Mastodon [4]. Si on a plusieurs instances, chacun peut avoir des algos différents, qui intègrent des règles différentes, que ce soit même plus ou moins volontaire ou involontaire, peu importe. La diversité fait que, d’une certaine façon, on aura la possibilité de débattre de tout ça.

Quentin : Le problème est qu’il ne faut pas faire confiance à un système technique pour être totalement impartial. Il y avait un exemple que j’aimais beaucoup. Je suis pas mal la chaîne Thinkerview sur YouTube [5]. Ils ont interviewé Guillaume Meurice, un humoriste [6] qui aime bien troller un petit peu. Il dit qu’il ne croit pas qu’on peut être objectif, je pense que ce n’est pas possible - un avis que je partage ailleurs. Et l’intervieweur est totalement scandalisé parce qu’il dit qu’il laisse tout le monde choisir les intervenants. Donc, il y a une sorte d’objectivité qui émane de l’ensemble. Et en fait, non, il se trompe : il a juste la synthèse d’une subjectivité collective. Mais il n’a pas créé de l’objectivité, il n’a pas la bonne réponse, on n’a pas le bon intervenant parfait, etc. On a juste synthétisé les avis de plein de gens.

Baptiste : Mais quand même : je ne suis pas super fan des algo d’IA, mais je me dis que dans certains cas... Comment dire ? Par exemple sur YouTube, il y a une masse de vidéos absolument considérable. On peut imaginer qu’à un moment donné, même sur Peer Tube [7], il y ait un réseau d’instances fédérées où il y a vraiment une très forte masse de vidéos et qu’on voudrait quand même avoir quelque chose qui fait une sélection, parce qu’on ne peut pas toujours classer par date. On voit bien sur les sites où les contenus sont juste classés par date, on n’y arrive pas. Et choisir ces critères, comment est-ce que ça se fait techniquement ? C’est un peu compliqué.

C’est juste parce que j’ai vu les travaux de recherche de la personne qui est derrière la chaîne YouTube, ??? [54:20], un mathématicien qui parle pas mal d’IA et qui a monté une plateforme accessible sur tournesol.app. L’idée c’est d’essayer de créer une intelligence artificielle qui est robusteement bénéfique, c’est-à-dire qui va être moins sujette aux biais des données d’entrées. Donc ça, c’est un peu technique et je n’ai pas tout compris. Mais un des points, c’est d’essayer de se dire : aujourd’hui l’algorithm de YouTube, par exemple, son objectif de base n’est pas bon, puisque c’est de maximiser les vues et le temps passé sur la plateforme. Alors que là, sur tournesol.app - tout le monde peut y participer - en demandant aux gens de noter les vidéos en fonction de si il ou elle pense que c’est d’utilité publique, que le contenu est de qualité, etc., on peut au moins créer un jeu de données qui va aller vers un objectif semblerait-il plus bénéfique pour l’humanité - mais ça reste encore à définir -, que tout ce qu’implique le fait de juste vouloir maximiser le nombre de vues. Je suis désolé, ça n’est pas clair, mais voilà.

Quentin : On en revient au fait que, de manière générale, les données collectées le sont avec un but. On n’a pas des données qui se baladent dans la nature : on a créé un dispositif qui permet de collecter, de traiter automatiquement des données avec un objectif qui est de faire plein de thunes. Et du coup, ben oui, forcément, c’est un biais sur la manière dont bossent les algorithmes. Effectivement, si on s’abstrait de ça, on diminue la place de ce biais-là, mais on aura toujours une émanation d’une forme de subjectivité, ce qui est par ailleurs plus positif qu’avoir l’énorme biais du but de l’algorithme.

Baptiste : Oui, complètement. Il va falloir conclure, peut-être, si on ne veut pas avoir beaucoup de montage à faire. Je propose qu’on s’arrête là. Est-ce que vous avez quelque chose à rajouter ?

Quentin : Juste pour terminer : quand on utilise une plateforme comme Mastodon qui n’a pas d’algorithme, qui vous laisse choisir vos critères, la question de comment choisir les critères va très vite se poser, qui va choisir vos critères, etc. Mais la grande différence avec Mastodon, c’est que c’est vous qui choisissez vos critères, ce n’est pas une multinationale - qui de temps en temps a oublié de payer ses impôts en France - qui ordonnance à votre place avec ses biais à elle pour vous. C’est vous, avec vos biais - contre lesquels vous avez le choix de lutter ou non, ça vous regarde, c’est votre problème - qui allez ordonnancer les contenus.

Et donc le problème dont on a vraiment parlé dans cette troisième partie de l’émission, c’est vraiment d’accepter que les IA n’ont pas la réponse aux questions morales, la solution idéale de l’ordonnancement des vidéos, etc. Et que c’est bien un problème complexe.

Stéphane: Et donc quitte à avoir des IA, choisir une sorte d’archipel d’IA décentralisées, fédérées ou un truc comme ça.

Baptiste : Exactement. Et auto-hébergées.

Quentin : Merci beaucoup, Stéphane, Baptiste, d’avoir été présents pour l’émission. Pour rappel, vous pouvez retrouver cette émission en podcast sur radio.picasoft.net. Et puis on vous dit à la semaine prochaine, on vous parlera des GAFAM et des légumes. Bonne semaine, ciao.