Différences entre les versions de « L’intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/l-intelligence-artificielle-comment-rendre-les-algorithmes-plus-justes-et-plus-ethiques ici] - Mai 2024 »)
Balise : Contenu remplacé
 
(12 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' L’intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques
+
Publié [https://www.librealire.org/l-intelligence-artificielle-comment-rendre-les-algorithmes-plus-justes-et-plus-ethiques ici] - Mai 2024
 
 
'''Intervenant·e·s :''' Jean-Michel Loubes - France Charruyer
 
 
 
'''Lieu :''' Émission <em>Causeries Data</em> - Association Data Ring
 
 
 
'''Date :'''  10 mars 2024
 
 
 
'''Durée :''' 58 min
 
 
 
'''[https://audio.ausha.co/ypVXMH6reARk.mp3?t=1710058878 Podcast]'''
 
 
 
'''[https://podcastfrance.fr/podcasts/high-tech/causeries-data/ Causeries Data]
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' À prévoir
 
 
 
'''NB :''' <em>Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
 
 
==Description==
 
 
 
Qu’est-ce que le biais en IA ? Les biais sont-ils capables du meilleur comme du pire ? Face à l’enjeu de l’industrialisation de l’IA, comment pouvons-nous combattre ces biais pour rendre les algorithmes plus justes et plus éthiques ?  Un nouvel épisode des Causeries Data qui nous emmène dans les entrailles de la machine.
 
 
 
==Transcription==
 
 
 
<b>France Charruyer : </b>Bonjour à tous. Bienvenue pour une nouvelle <em>Causerie Data</em> entre France Charruyer, votre serviteur, et le chercheur, professeur, Jean-Michel Loubes. Bonjour Jean-Michel.
 
 
 
<b>Jean-Michel Loubes : </b>Bonjour France.
 
 
 
<b>France Charruyer : </b>Qui êtes-vous Jean-Michel ?
 
 
 
<b>Jean-Michel Loubes : </b>Je suis professeur des universités à l’Université de Toulouse. Je travaille dans le laboratoire de mathématiques de Toulouse, donc je suis un mathématicien. Je suis un mathématicien qui s’intéresse aux algorithmes et, tout particulièrement, aux problématiques sur les biais.
 
 
 
<b>France Charruyer : </b>Pourquoi un autre podcast sur l’IA ?, vous demandez-vous. Parce qu’avec Data Ring, on ne nage pas en surface. Plongeons tête la première pour explorer non seulement l’IA et comment cela fonctionne, mais pourquoi elle ne fonctionne pas toujours et ce que cela va signifier pour nous, nos familles, nos emplois, nos loisirs, nos façons de vivre, de penser et d’habiter le monde.<br/>
 
La conversation, avec les <em>Causeries Data</em>, c’est apporter un éclairage différent.<br/>
 
Alors, on va prendre le temps de poser les questions brûlantes sur les biais algorithmiques, qui peuvent faire rougir un vieux PC, à l’explicabilité impossible des IA ou pas, parce que, parfois, peut-être qu’elles semblent avoir leur propre volonté, ce n’est pas moi qui le dis, c’est ??? [1 min 25] et je vais le questionner et en passant par les implications éthiques et légales qui donneraient des sueurs froides même aux robots les plus froids.<br/>
 
Alors Jean-Michel, on va démarrer avec la question d’usage : comment définissez-vous les systèmes d’intelligence artificielle dans le contexte actuel ?
 
 
 
<b>Jean-Michel Loubes : </b>C’est une question compliquée parce que l’IA est un domaine de l’informatique qui se concentre sur la création de systèmes capables d’effectuer des tâches qui, si elles étaient accomplies par des humains, nécessiteraient une forme d’intelligence. On voit donc qu’il faut commencer par définir ce qu’est l’intelligence et c’est un concept qui est très complexe, parce qu’il englobe plusieurs aspects de la capacité cognitive. c’est la capacité de penser de manière logique, de résoudre des problèmes, de prendre des décisions, d’analyser des situations complexes, et aussi de pouvoir apprendre de l’expérience et de s’adapter.<br/>
 
Est-ce que les machines et, à travers l’intelligence artificielle, en sont capables ? Depuis quelques années, la théorie de l’apprentissage a permis aux machines d’apprendre par elles-mêmes à partir d’instructions qui ne sont pas données par une personne mais qui sont générées directement par l’ordinateur. L’ordinateur apprend donc de lui-même à partir de données qui lui sont fournies, un modèle, et peut arriver à avoir des modèles qui permettent des prises de décision.
 
 
 
<b>France Charruyer : </b>Vos travaux, Jean-Michel, portent sur l’équité, la robustesse dans l’apprentissage automatique, du moins les travaux que vous avez menés chez ??? [2 min 48]. J’ai cru comprendre que vous alliez intervenir également, parce que vous êtes modeste, à TSE, la <em>Toulouse School of Economics</em>. Comment définiriez-vous un biais dans le contexte de l’IA et pourquoi est-il crucial de les quantifier et de les comprendre ?
 
 
 
<b>Jean-Michel Loubes : </b>Le terme biais est aussi un terme compliqué qu’il faut, bien entendu, définir. Biais vient du latin <em>biaxius</em>, deux axes. Ça veut dire que lorsqu’on est face à un problème, on peut le voir selon deux directions : une direction principale et puis une direction un peu inattendue qui surprend. Si on regarde dans le dictionnaire l’étymologie, la décision biaisée est une décision qui dévie par rapport à un comportement attendu et le biais c’est la variable qui entraîne cette déviation.<br/>
 
En fait, un biais algorithmique se réfère à des situations où un algorithme ou un système de traitement de données automatique donne des résultats qui vont être systématiquement différents pour certains groupes de personnes. Ainsi, il y a donc une déviation pour une minorité de personnes par rapport à un comportement majoritaire.
 
 
 
<b>France Charruyer : </b>Mais, par définition, un système d’IA discrimine, c’est ce qu’on va lui demander.
 
 
 
<b>Jean-Michel Loubes : </b>Tout à fait et, en fait, on peut regarder les conséquences de ces biais. Le système doit discriminer, c’est-à-dire qu’il doit arriver à effectuer une tâche qui permet de classifier la population en sous-groupes, mais on attend que cette classification soit réalisée pour de bonnes raisons, des raisons qui ont du sens par rapport à la tâche que l’algorithme est censé couvrir.<br/>
 
Et justement, quand il y a des biais, peut-être qu’on en reparlera tout à l’heure, les raisons pour lesquelles la discrimination est faite sont des raisons qui sont totalement différentes des vraies raisons de cette tâche. On peut prendre un exemple : dans un système de recommandation où on cherche à prédire, à donner des conseils à une personne sur le métier qu’elle doit effectuer : on peut recommander à une personne qui a fait des études autour de la biologie ou médicales d’être, par exemple, chirurgien. Lorsqu’on introduit la variable « genre » ou même lorsque l’algorithme détecte que la personne à qui il doit faire cette recommandation est une femme, l’algorithme peut souvent avoir tendance à recommander plutôt un métier d’infirmière que chirurgien. C’est en ce sens que c’est un biais, puisqu’on s’attend à ce que deux personnes qui ont des CV similaires, avec les mêmes compétences, reçoivent la même recommandation, alors qu’ici la variable « genre », qui ne semble ne pas être causale, entraîne un changement de l’algorithme.
 
 
 
<b>France Charruyer : </b>Est-ce que vous pouvez nous donner un cas d’usage, au-delà des recrutements, sur des biais de genre ?
 
 
 
<b>Jean-Michel Loubes : </b>On peut, par exemple, penser à un algorithme de gestion du personnel qui essaie d’apprendre pourquoi les personnes sont malheureuses au travail. L’algorithme analyse un certain nombre de données et préconise un certain nombre d’actions. Les actions, ça peut être plus de temps libre, plus de responsabilités, des formations. On s’est aperçu que cet algorithme avait des comportements différents en fonction du genre, c’est-à-dire qu’il arrivait à beaucoup mieux détecter le mal-être au travail des hommes, il était beaucoup plus sensible aux indications de variables. Ça veut donc dire qu’il apprenait dans les données qu’il observait le mal-être au travail des hommes à travers les recommandations des supérieurs, les retours d’expérience des employés, il était capable de prédire que ces personnes étaient malheureuses, donc donnait des recommandations pour les rendre plus heureuses et surtout éviter qu’elles changent d’emploi. Les raisons étaient essentiellement masculines donc ça ne marchait pas du tout pour les femmes et il y avait deux conséquences très importantes : la première conséquence était, tout d’abord, une rupture d’équité entre le traitement des employés et, d’autre part, comme l’algorithme préconisait souvent, pour que les gens restent sur place, des augmentations de salaire, on avait des augmentations de salaire plus importantes préconisées pour les hommes que pour les femmes, ce qui aboutissait à un déséquilibre des salaires entre hommes et femmes dans l’entreprise.
 
 
 
<b>France Charruyer : </b>Pareil, je crois qu’on l’a vu également dans les algorithmes de recrutement, puisqu’en moyenne les femmes gagnent, semble-t-il, 24 %, en rémunération, de moins que les hommes, donc ça amenait statistiquement les algorithmes dans leur demande, dans leur approche de la rémunération des femmes à sous-évaluer la rémunération qui pouvait être faite à une femme. On en avait beaucoup parlé, est-ce que vous avez travaillé sur ces sujets ?
 
 
 
<b>Jean-Michel Loubes : </b>Oui, tout à fait, ça me permet de redéfinir l’impact du biais. En fait, le biais algorithmique est essentiellement de deux natures. La première nature du biais est un biais décisionnel : on a envie qu’une variable n’influe pas dans la décision, c’est-à-dire qu’on apprend un comportement optimal, une décision optimale, et on n’a pas envie que des variables qui, selon nous, n’ont pas un effet causal, entrent en jeu et change la décision. Pour l’exemple, on n’a pas envie que, dans un recrutement pour une personne, on regarde au-delà des compétences, on pense que le genre n’influe pas sur les compétences, donc ce biais est un biais qui va contre le fait qu’on vote la même décision pour tous.<br/>
 
Il y a un autre type de biais, c’est un biais sur la performance de l’algorithme. On imagine un algorithme, l’algorithme d’aide au management dont je vous ai parlé, c’est la performance de cet algorithme qui dépend du genre. Il marche très bien pour les hommes, mais il ne marche pas bien pour les femmes et c’est un autre type de biais, un peu plus compliqué que le premier, puisque, ici, on a envie que l’algorithme fonctionne de la même façon pour tout le monde, qu’il n’y ait pas de variable de sous-groupe qui soit impacté plus qu’un autre, non pas en termes de décision mais en termes de performance de l’algorithme.
 
 
 
<b>France Charruyer : </b>Nous avons tous des biais, on a des biais de confirmation, on a des biais d’adhésion, on a des biais culturels. Le développeur, lorsqu’il programme, il peut parfois transmettre aussi ses propres biais et nous avons également ceux qui vont commanditer le programme, qui vont aussi avoir leurs biais, donc on a deux écueils : les instructions qui vont être données, l’information aux développeurs peut-être dans la prévention des biais, et ensuite les instructions pour des questions évidentes de responsabilité qui doivent être donnés à ces dits développeurs parce qu’ils n’ont pas forcément la même logique. Si je suis dans une université, que je fais un tri des CV, qu’est-ce que j’attends, moi, de ce tri sélectif des CV ? Qu’est-ce que c’est qu’un bon CV ? On n’a pas tous la même définition du bon CV.
 
 
 
<b>Jean-Michel Loubes : </b>Nous avons vu que les biais sont des variables qui créent des déviations et, en fait, les difficultés c’est que, comme dit Cathy O'Neil dans son livre <em>Weapons of Math Destruction</em>, en français ça marche moins bien, « les maths comme arme de destruction massive ».
 
 
 
<b>France Charruyer : </b>On a un biais culturel.
 
 
 
<b>Jean-Michel Loubes : </b>Les biais sont partout et c’est justement le fait qu’il y ait des biais que les algorithmes fonctionnent et que les algorithmes peuvent apprendre. Il y aurait donc des mauvais biais et des bons biais. Qui détermine le mauvais biais du bon biais ?, en fait, on a besoin d’éthique, on a besoin de morale et on a besoin de lois. La définition de ce qu’est un bon CV est quelque chose de compliqué, parce que, quand on veut identifier les biais dans les algorithmes, les biais peuvent venir de plein de choses. Ça peut venir des biais qui sont directement codés par le programmeur ; en science, ces bais-là sont des biais qu’on peut facilement vérifier parce que, si on a accès au code, on peut facilement regarder que le programmeur a choisi délibérément de favoriser une classe de la population plutôt qu’une autre.
 
 
 
<b>France Charruyer : </b>La fameuse logique de transparence et l’explicabilité.
 
 
 
<b>Jean-Michel Loubes : </b>Voilà et c’est pour cela que c’est important de demander au législateur, lorsqu’il fait l’audit des algorithmes, de pouvoir, à minima, regarder les instructions qui ont été données soit à l’algorithme soit le code qu’il a créé, quand c’est possible. Ce qui est plus compliqué c’est que les, biais dans des algorithmes d’IA, sont des biais que l’algorithme va lui-même détecter de deux manières : d’abord dans les données d’entraînement, c’est-à-dire que les données utilisées pour entraîner un algorithme comportent des biais. En fait, elles peuvent avoir des biais parce qu’elles ne sont pas représentatives de toute la population.
 
 
 
<b>France Charruyer : </b>Donc une sous-estimation.
 
 
 
<b>Jean-Michel Loubes : </b>Voilà. Ce sont des biais qui sont bien connus comme le biais de sélection. Par exemple, quand on crée des données d’apprentissage sur lesquelles l’algorithme va créer son modèle, on regarde une sous-partie et cette sous-partie de la population peut ne pas être représentative de la population globale et comporter des biais. Cela se produit également lorsqu’on essaie d’apprendre un comportement et que, de facto, apprendre ce comportement est plus délicat pour une sous-partie de la population que pour une autre. Ce sont des biais qui sont très proches des biais humains que nous avons tous lorsque nous raisonnons par stéréotypes.
 
 
 
==13’ 08==
 
 
 
<b>France Charruyer : </b>Les fameuses problématiques auxquelles
 

Dernière version du 4 mai 2024 à 11:27


Publié ici - Mai 2024