Différences entre les versions de « L’intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 81 : Ligne 81 :
  
 
==13’ 08==
 
==13’ 08==
 +
<b>France Charruyer : </b>Les fameuses problématiques auxquelles on est confronté dans les algorithmes de traduction. Lorsque je dis infirmier/infirmière, en anglais <em>nurse</em>, que la traduction devient forcément UNE infirmière et que le médecin c’est UN médecin, j’ai cette problématique de genre, de biais automatique. Que peut-on faire pour lutter contre ça ? D’ailleurs, déjà, est-ce que c’est possible puisque là on a une sous-représentation ? Comment fait-on ?
  
<b>France Charruyer : </b>Les fameuses problématiques auxquelles
+
<b>Jean-Michel Loubes : </b>Il faut comprendre que la problématique de biais ce n’est pas simplement le biais dans les données, mais c’est aussi comment l’algorithme va apprendre ce biais, le propager et, parfois, même l’amplifier. Donc même si les données sont biaisées, on peut essayer.<br/>
 +
Tout d’abord, il faut évaluer ce biais, évaluer c’est-à-dire donner sa définition et c’est un travail pluridisciplinaire, mais une fois qu’on a trouvé la bonne définition par rapport aussi aux impacts que va créer le biais, il va falloir arriver à mesurer et certifier la présence de biais dans les données, dans les sorties de l’algorithme et, ensuite, arriver à comprendre l’impact de l’algorithme sur le biais ambiant.<br/>
 +
Une fois qu’on a évalué les performances de l’algorithme, si a identifié, par exemple, que l’algorithme fonctionnait moins bien pour certains groupes ou que des décisions étaient trop dépendantes de certaines variables dont on pense, pour des raisons morales, éthiques ou légales, qu’elles devraient être prises différemment, il va falloir corriger. Corriger le biais, c’est possible, à condition, d’abord, de le chercher, donc être conscient qu’il peut y avoir du biais et ne pas prendre les vérités algorithmiques pour des vérités plus importantes qu’elles ne sont. Il va donc falloir arriver à mesurer ce biais et on peut le corriger.
 +
 
 +
<b>France Charruyer : </b>Donc, on introduit une discrimination positive, par exemple on met un peu plus de CV de femmes puisqu’on est confronté à l’invisibilité des femmes, aussi dans le numérique, mais c’est aussi le fruit d’une réalité, donc on tord la réalité ; ça pose aussi des problèmes éthiques.
 +
 
 +
<b>Jean-Michel Loubes : </b>Non, je ne dirais pas ça. La réalité numérique que l’on tord n’est pas forcément la réalité des données et la réalité des données n’est pas la réalité du monde dans lequel on cherche à vivre. Par exemple, si je veux un algorithme de recommandation pour savoir si des femmes peuvent accéder à des grandes responsabilités dans les entreprises, si je prends les données numériques c’est-à-dire que je prends, par exemple, le nombre de femmes qui dirigent les entreprises du CAC 40, je pense que les données seront biaisées : il y a beaucoup plus d’hommes qui dirigent. En fait, quelle est la réalité des données de ce monde numérique par rapport au monde potentiel, au monde dans lequel on aimerait vivre ? Est-ce vraiment changer la réalité qu’essayer de reconstruire un monde où il y aurait une équité entre genres par exemple ?
 +
 
 +
<b>France Charruyer : </b>Et entre couleurs de peau, puisqu’on a eu la problématique dans les algorithmes de reconnaissance faciale ?
 +
 
 +
<b>Jean-Michel Loubes : </b>Tout à fait, il y a beaucoup de biais. Au-delà du simple rééquilibrage des bases d’apprentissage, on peut aussi essayer de contraindre l’algorithme, de contraindre l’IA, à apprendre des modèles plus justes. Ce sont des méthodologies informatiques et mathématiques qui permettent de contrôler toute la phase d’apprentissage et de pouvoir s’assurer que les biais ne vont pas jouer un rôle déterminant dans la construction du modèle.
 +
 
 +
<b>France Charruyer : </b>Comment peut-on contribuer à une meilleure interprétation et acceptation en IA avec ces travaux sur l’explicabilité, la détection des biais ?
 +
 
 +
<b>Jean-Michel Loubes : </b>Comprendre les biais, c’est une des phases de l’explicabilité des algorithmes.
 +
 
 +
<b>France Charruyer : </b>Ma fameuse première marche ! Je taquine !
 +
 
 +
<b>Jean-Michel Loubes : </b>Si vous voulez. Pour arriver à se prémunir des biais, la première chose à faire c’est arriver à les comprendre et arriver à les mesurer. Pour les mesurer il faut pouvoir se donner une définition, donc, la première chose, c’est expliciter ce qu’on cherche. Ensuite, lorsqu’on cherche les mesures et dans les algorithmes, on essaie de comprendre ce qui est créé par l’algorithme, c’est donc l’explicabilité de l’algorithme. Mais l’explicabilité des algorithmes va bien au-delà, puisque l’explicabilité c’est arriver à comprendre la décision, c’est-à-dire pouvoir expliquer aux usagers comment la décision a été prise. Cette explicabilité c’est quelque chose qui doit, in fine, permettre à la personne de reprendre du pouvoir sur l’algorithme. Donc, expliquer la décision ne suffit pas, il faut donner des raisons qui sont des raisons causales pour que la personne puisse, elle-même, être capable d’influer sur les décisions de l’algorithme, être capable de changer en modifiant certains paramètres. Cette explicabilité causale est un des thèmes principaux de la recherche scientifique actuelle en IA, c’est quelque chose qui est assez compliqué à obtenir puisque les algorithmes sont fondés plutôt sur des corrélations que sur des causalités, c’est comme cela qu’ils sont construits.
 +
 
 +
<b>France Charruyer : </b>Quels sont les défis concernant l’explicabilité dans les réseaux neuronaux profonds ?
 +
 
 +
<b>Jean-Michel Loubes : </b>On est confronté à un dilemme : plus les réseaux de neurones sont gros, plus ils sont complexes, mieux ils prédisent. On a donc envie d’utiliser des réseaux qui sont très complexes avec un grand nombre de paramètres, on est à 300 milliards actuels pour les gros modèles de langage et plus ces modèles sont complexes, plus ils s’apparentent à ce qu’on appelle des boîtes noires, c’est-à-dire que lorsqu’on reçoit une décision, on n’arrive pas à comprendre les raisons pour lesquelles la décision a été prise. Cette boîte noire est très compliquée à disséquer, à ouvrir. Même si on avait accès à tout l’algorithme, on devrait comprendre 300 milliards de paramètres, c’est-à-dire que le réseau a appris des données en se créant lui-même une espèce d’alphabet de dimension 300 milliards, dont la logique est propre aux machines et n’est pas du tout compréhensible par les êtres humains.<br/>
 +
L’explicabilité des algorithmes ce n’est donc pas essayer de suivre tous les paramètres du réseau, mais essayer de comprendre comment se propage l’information et comment on arrive à expliquer dans notre logique, notre logique humaine, ces espaces de représentation qu’a construits l’algorithme, ces espaces de <em>features</em> ou <em>embedding</em> si on reprend les termes techniques, et arriver, nous, à leur donner du sens. Il y a beaucoup de recherches pour essayer d’arriver à redonner de la logique humaine à ces alphabets construits par les machines.
 +
 
 +
<b>France Charruyer : </b>Est-ce qu’il y a pour un homme cet aveu d’impuissance, pour une femme aussi d’ailleurs ?
 +
 
 +
<b>Jean-Michel Loubes : </b>Pas du tout, c’est un challenge qu’on doit relever, à la fois les scientifiques qui travaillent sur ces algorithmes, essayer de donner du sens à ces espaces de représentation, de grande dimension, non seulement donner du sens, mais on voit que ces espaces, souvent, ne marchent pas puisqu’il y a beaucoup de problèmes : si on prend des modèles de langage, toute cette problématique liée aux hallucinations de ces modèles de langage. On voit bien que même ces gros modèles manquent de logique. Donc, essayer de réduire cette dimensionnalité, essayer d’apporter de la logique extérieure, essayer d’hybrider l’IA avec des connaissances logiques, un petit peu comme ce qui se faisait dans des systèmes experts, c’est sans doute une des solutions pour essayer d’améliorer l’IA.
 +
 
 +
<b>France Charruyer : </b>L’hybridation.
 +
 
 +
<b>Jean-Michel Loubes : </b>Tout à fait, l’hybridation avec des contraintes physiques, des contraintes logiques, c’est-à-dire ne plus laisser la machine apprendre toute seule avec des données, mais essayer de la guider lors de son apprentissage. Un petit peu comme lorsque vous avez des enfants, vous les envoyez à l’école et, à l’école, ils sont face à des experts qui vont essayer de guider leur apprentissage.
 +
 
 +
<b>France Charruyer : </b>Donc tout va bien. On va dépenser beaucoup d’argent pour envoyer les IA à l’école et on se pose beaucoup moins de questions pour tous ceux qui vont, je pense toujours à mes clients, payer deux dollars de l’heure, qui vont modestement, au mieux au Brésil, photographier des cacas de chiens, dans ce que j’ai appris, pour améliorer les algorithmes d’apprentissage profond et de reconnaissance faciale pour les aspirateurs, les fameux Kényans qui vont trier, sans parfois comprendre, ces bases de données d’apprentissage et toujours plus, nous pouvons dire, d’investissement pour faire en sorte que les IA s’améliorent. Mais ce que les humains vont arriver à s’améliorer et suivre le rythme ?
 +
 
 +
<b>Jean-Michel Loubes : </b>Si on repart sur la problématique des biais, c’est un domaine qui est très intéressant, parce que, quand on essaie d’étudier les biais algorithmiques, en fait ça révèle nos propres biais, ça révèle plusieurs aspects importants de notre intelligence, la manière avec laquelle nous pensons, nous traitons l’information. Quand on essaie de détecter et de corriger ces biais algorithmiques, ça nous apprend tout d’abord que, comme ces machines apprennent à partir des données que nous leur fournissons, ces données reflètent et amplifient nos stéréotypes.<br/>
 +
Ensuite, bien que l’intelligence humaine soit capable de logique profonde, les biais analytiques révèlent que nous pouvons, nous aussi, échouer à anticiper les conséquences complexes et systémiques de nos propres créations intelligentes. En fait, si ces machines créent du biais, c’est aussi parce que nous avons choisi de mauvais objectifs, de mauvais indicateurs de performance et qu’on les amène à avoir des raisonnements biaisés. Cette présence de biais peut aussi nous permettre de prendre conscience des efforts que notre société doit mettre en œuvre, justement pour corriger ces biais. Le fait même qu’on puisse arriver à s’interroger sur la présence de biais est quelque chose qui révèle aussi, si on est optimiste, notre capacité, en tant qu’humains, d’essayer de réfléchir sur nos propres créations et de vouloir améliorer les algorithmes, donc la société.
 +
 
 +
==24’ 33==
 +
 
 +
<b>France Charruyer : </b>On

Version du 29 avril 2024 à 07:02


Titre : L’intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques

Intervenant·e·s : Jean-Michel Loubes - France Charruyer

Lieu : Émission Causeries Data - Association Data Ring

Date : 10 mars 2024

Durée : 58 min

Podcast

Causeries Data

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.


Description

Qu’est-ce que le biais en IA ? Les biais sont-ils capables du meilleur comme du pire ? Face à l’enjeu de l’industrialisation de l’IA, comment pouvons-nous combattre ces biais pour rendre les algorithmes plus justes et plus éthiques ? Un nouvel épisode des Causeries Data qui nous emmène dans les entrailles de la machine.

Transcription

France Charruyer : Bonjour à tous. Bienvenue pour une nouvelle Causerie Data entre France Charruyer, votre serviteur, et le chercheur, professeur, Jean-Michel Loubes. Bonjour Jean-Michel.

Jean-Michel Loubes : Bonjour France.

France Charruyer : Qui êtes-vous Jean-Michel ?

Jean-Michel Loubes : Je suis professeur des universités à l’Université de Toulouse. Je travaille dans le laboratoire de mathématiques de Toulouse, donc je suis un mathématicien. Je suis un mathématicien qui s’intéresse aux algorithmes et, tout particulièrement, aux problématiques sur les biais.

France Charruyer : Pourquoi un autre podcast sur l’IA ?, vous demandez-vous. Parce qu’avec Data Ring, on ne nage pas en surface. Plongeons tête la première pour explorer non seulement l’IA et comment cela fonctionne, mais pourquoi elle ne fonctionne pas toujours et ce que cela va signifier pour nous, nos familles, nos emplois, nos loisirs, nos façons de vivre, de penser et d’habiter le monde.
La conversation, avec les Causeries Data, c’est apporter un éclairage différent.
Alors, on va prendre le temps de poser les questions brûlantes sur les biais algorithmiques, qui peuvent faire rougir un vieux PC, à l’explicabilité impossible des IA ou pas, parce que, parfois, peut-être qu’elles semblent avoir leur propre volonté, ce n’est pas moi qui le dis, c’est ??? [1 min 25] et je vais le questionner et en passant par les implications éthiques et légales qui donneraient des sueurs froides même aux robots les plus froids.
Alors Jean-Michel, on va démarrer avec la question d’usage : comment définissez-vous les systèmes d’intelligence artificielle dans le contexte actuel ?

Jean-Michel Loubes : C’est une question compliquée parce que l’IA est un domaine de l’informatique qui se concentre sur la création de systèmes capables d’effectuer des tâches qui, si elles étaient accomplies par des humains, nécessiteraient une forme d’intelligence. On voit donc qu’il faut commencer par définir ce qu’est l’intelligence et c’est un concept qui est très complexe, parce qu’il englobe plusieurs aspects de la capacité cognitive. c’est la capacité de penser de manière logique, de résoudre des problèmes, de prendre des décisions, d’analyser des situations complexes, et aussi de pouvoir apprendre de l’expérience et de s’adapter.
Est-ce que les machines et, à travers l’intelligence artificielle, en sont capables ? Depuis quelques années, la théorie de l’apprentissage a permis aux machines d’apprendre par elles-mêmes à partir d’instructions qui ne sont pas données par une personne mais qui sont générées directement par l’ordinateur. L’ordinateur apprend donc de lui-même à partir de données qui lui sont fournies, un modèle, et peut arriver à avoir des modèles qui permettent des prises de décision.

France Charruyer : Vos travaux, Jean-Michel, portent sur l’équité, la robustesse dans l’apprentissage automatique, du moins les travaux que vous avez menés chez ??? [2 min 48]. J’ai cru comprendre que vous alliez intervenir également, parce que vous êtes modeste, à TSE, la Toulouse School of Economics. Comment définiriez-vous un biais dans le contexte de l’IA et pourquoi est-il crucial de les quantifier et de les comprendre ?

Jean-Michel Loubes : Le terme biais est aussi un terme compliqué qu’il faut, bien entendu, définir. Biais vient du latin biaxius, deux axes. Ça veut dire que lorsqu’on est face à un problème, on peut le voir selon deux directions : une direction principale et puis une direction un peu inattendue qui surprend. Si on regarde dans le dictionnaire l’étymologie, la décision biaisée est une décision qui dévie par rapport à un comportement attendu et le biais c’est la variable qui entraîne cette déviation.
En fait, un biais algorithmique se réfère à des situations où un algorithme ou un système de traitement de données automatique donne des résultats qui vont être systématiquement différents pour certains groupes de personnes. Ainsi, il y a donc une déviation pour une minorité de personnes par rapport à un comportement majoritaire.

France Charruyer : Mais, par définition, un système d’IA discrimine, c’est ce qu’on va lui demander.

Jean-Michel Loubes : Tout à fait et, en fait, on peut regarder les conséquences de ces biais. Le système doit discriminer, c’est-à-dire qu’il doit arriver à effectuer une tâche qui permet de classifier la population en sous-groupes, mais on attend que cette classification soit réalisée pour de bonnes raisons, des raisons qui ont du sens par rapport à la tâche que l’algorithme est censé couvrir.
Et justement, quand il y a des biais, peut-être qu’on en reparlera tout à l’heure, les raisons pour lesquelles la discrimination est faite sont des raisons qui sont totalement différentes des vraies raisons de cette tâche. On peut prendre un exemple : dans un système de recommandation où on cherche à prédire, à donner des conseils à une personne sur le métier qu’elle doit effectuer : on peut recommander à une personne qui a fait des études autour de la biologie ou médicales d’être, par exemple, chirurgien. Lorsqu’on introduit la variable « genre » ou même lorsque l’algorithme détecte que la personne à qui il doit faire cette recommandation est une femme, l’algorithme peut souvent avoir tendance à recommander plutôt un métier d’infirmière que chirurgien. C’est en ce sens que c’est un biais, puisqu’on s’attend à ce que deux personnes qui ont des CV similaires, avec les mêmes compétences, reçoivent la même recommandation, alors qu’ici la variable « genre », qui ne semble ne pas être causale, entraîne un changement de l’algorithme.

France Charruyer : Est-ce que vous pouvez nous donner un cas d’usage, au-delà des recrutements, sur des biais de genre ?

Jean-Michel Loubes : On peut, par exemple, penser à un algorithme de gestion du personnel qui essaie d’apprendre pourquoi les personnes sont malheureuses au travail. L’algorithme analyse un certain nombre de données et préconise un certain nombre d’actions. Les actions, ça peut être plus de temps libre, plus de responsabilités, des formations. On s’est aperçu que cet algorithme avait des comportements différents en fonction du genre, c’est-à-dire qu’il arrivait à beaucoup mieux détecter le mal-être au travail des hommes, il était beaucoup plus sensible aux indications de variables. Ça veut donc dire qu’il apprenait dans les données qu’il observait le mal-être au travail des hommes à travers les recommandations des supérieurs, les retours d’expérience des employés, il était capable de prédire que ces personnes étaient malheureuses, donc donnait des recommandations pour les rendre plus heureuses et surtout éviter qu’elles changent d’emploi. Les raisons étaient essentiellement masculines donc ça ne marchait pas du tout pour les femmes et il y avait deux conséquences très importantes : la première conséquence était, tout d’abord, une rupture d’équité entre le traitement des employés et, d’autre part, comme l’algorithme préconisait souvent, pour que les gens restent sur place, des augmentations de salaire, on avait des augmentations de salaire plus importantes préconisées pour les hommes que pour les femmes, ce qui aboutissait à un déséquilibre des salaires entre hommes et femmes dans l’entreprise.

France Charruyer : Pareil, je crois qu’on l’a vu également dans les algorithmes de recrutement, puisqu’en moyenne les femmes gagnent, semble-t-il, 24 %, en rémunération, de moins que les hommes, donc ça amenait statistiquement les algorithmes dans leur demande, dans leur approche de la rémunération des femmes à sous-évaluer la rémunération qui pouvait être faite à une femme. On en avait beaucoup parlé, est-ce que vous avez travaillé sur ces sujets ?

Jean-Michel Loubes : Oui, tout à fait, ça me permet de redéfinir l’impact du biais. En fait, le biais algorithmique est essentiellement de deux natures. La première nature du biais est un biais décisionnel : on a envie qu’une variable n’influe pas dans la décision, c’est-à-dire qu’on apprend un comportement optimal, une décision optimale, et on n’a pas envie que des variables qui, selon nous, n’ont pas un effet causal, entrent en jeu et change la décision. Pour l’exemple, on n’a pas envie que, dans un recrutement pour une personne, on regarde au-delà des compétences, on pense que le genre n’influe pas sur les compétences, donc ce biais est un biais qui va contre le fait qu’on vote la même décision pour tous.
Il y a un autre type de biais, c’est un biais sur la performance de l’algorithme. On imagine un algorithme, l’algorithme d’aide au management dont je vous ai parlé, c’est la performance de cet algorithme qui dépend du genre. Il marche très bien pour les hommes, mais il ne marche pas bien pour les femmes et c’est un autre type de biais, un peu plus compliqué que le premier, puisque, ici, on a envie que l’algorithme fonctionne de la même façon pour tout le monde, qu’il n’y ait pas de variable de sous-groupe qui soit impacté plus qu’un autre, non pas en termes de décision mais en termes de performance de l’algorithme.

France Charruyer : Nous avons tous des biais, on a des biais de confirmation, on a des biais d’adhésion, on a des biais culturels. Le développeur, lorsqu’il programme, il peut parfois transmettre aussi ses propres biais et nous avons également ceux qui vont commanditer le programme, qui vont aussi avoir leurs biais, donc on a deux écueils : les instructions qui vont être données, l’information aux développeurs peut-être dans la prévention des biais, et ensuite les instructions pour des questions évidentes de responsabilité qui doivent être donnés à ces dits développeurs parce qu’ils n’ont pas forcément la même logique. Si je suis dans une université, que je fais un tri des CV, qu’est-ce que j’attends, moi, de ce tri sélectif des CV ? Qu’est-ce que c’est qu’un bon CV ? On n’a pas tous la même définition du bon CV.

Jean-Michel Loubes : Nous avons vu que les biais sont des variables qui créent des déviations et, en fait, les difficultés c’est que, comme dit Cathy O'Neil dans son livre Weapons of Math Destruction, en français ça marche moins bien, « les maths comme arme de destruction massive ».

France Charruyer : On a un biais culturel.

Jean-Michel Loubes : Les biais sont partout et c’est justement le fait qu’il y ait des biais que les algorithmes fonctionnent et que les algorithmes peuvent apprendre. Il y aurait donc des mauvais biais et des bons biais. Qui détermine le mauvais biais du bon biais ?, en fait, on a besoin d’éthique, on a besoin de morale et on a besoin de lois. La définition de ce qu’est un bon CV est quelque chose de compliqué, parce que, quand on veut identifier les biais dans les algorithmes, les biais peuvent venir de plein de choses. Ça peut venir des biais qui sont directement codés par le programmeur ; en science, ces bais-là sont des biais qu’on peut facilement vérifier parce que, si on a accès au code, on peut facilement regarder que le programmeur a choisi délibérément de favoriser une classe de la population plutôt qu’une autre.

France Charruyer : La fameuse logique de transparence et l’explicabilité.

Jean-Michel Loubes : Voilà et c’est pour cela que c’est important de demander au législateur, lorsqu’il fait l’audit des algorithmes, de pouvoir, à minima, regarder les instructions qui ont été données soit à l’algorithme soit le code qu’il a créé, quand c’est possible. Ce qui est plus compliqué c’est que les, biais dans des algorithmes d’IA, sont des biais que l’algorithme va lui-même détecter de deux manières : d’abord dans les données d’entraînement, c’est-à-dire que les données utilisées pour entraîner un algorithme comportent des biais. En fait, elles peuvent avoir des biais parce qu’elles ne sont pas représentatives de toute la population.

France Charruyer : Donc une sous-estimation.

Jean-Michel Loubes : Voilà. Ce sont des biais qui sont bien connus comme le biais de sélection. Par exemple, quand on crée des données d’apprentissage sur lesquelles l’algorithme va créer son modèle, on regarde une sous-partie et cette sous-partie de la population peut ne pas être représentative de la population globale et comporter des biais. Cela se produit également lorsqu’on essaie d’apprendre un comportement et que, de facto, apprendre ce comportement est plus délicat pour une sous-partie de la population que pour une autre. Ce sont des biais qui sont très proches des biais humains que nous avons tous lorsque nous raisonnons par stéréotypes.

13’ 08

France Charruyer : Les fameuses problématiques auxquelles on est confronté dans les algorithmes de traduction. Lorsque je dis infirmier/infirmière, en anglais nurse, que la traduction devient forcément UNE infirmière et que le médecin c’est UN médecin, j’ai cette problématique de genre, de biais automatique. Que peut-on faire pour lutter contre ça ? D’ailleurs, déjà, est-ce que c’est possible puisque là on a une sous-représentation ? Comment fait-on ?

Jean-Michel Loubes : Il faut comprendre que la problématique de biais ce n’est pas simplement le biais dans les données, mais c’est aussi comment l’algorithme va apprendre ce biais, le propager et, parfois, même l’amplifier. Donc même si les données sont biaisées, on peut essayer.
Tout d’abord, il faut évaluer ce biais, évaluer c’est-à-dire donner sa définition et c’est un travail pluridisciplinaire, mais une fois qu’on a trouvé la bonne définition par rapport aussi aux impacts que va créer le biais, il va falloir arriver à mesurer et certifier la présence de biais dans les données, dans les sorties de l’algorithme et, ensuite, arriver à comprendre l’impact de l’algorithme sur le biais ambiant.
Une fois qu’on a évalué les performances de l’algorithme, si a identifié, par exemple, que l’algorithme fonctionnait moins bien pour certains groupes ou que des décisions étaient trop dépendantes de certaines variables dont on pense, pour des raisons morales, éthiques ou légales, qu’elles devraient être prises différemment, il va falloir corriger. Corriger le biais, c’est possible, à condition, d’abord, de le chercher, donc être conscient qu’il peut y avoir du biais et ne pas prendre les vérités algorithmiques pour des vérités plus importantes qu’elles ne sont. Il va donc falloir arriver à mesurer ce biais et on peut le corriger.

France Charruyer : Donc, on introduit une discrimination positive, par exemple on met un peu plus de CV de femmes puisqu’on est confronté à l’invisibilité des femmes, aussi dans le numérique, mais c’est aussi le fruit d’une réalité, donc on tord la réalité ; ça pose aussi des problèmes éthiques.

Jean-Michel Loubes : Non, je ne dirais pas ça. La réalité numérique que l’on tord n’est pas forcément la réalité des données et la réalité des données n’est pas la réalité du monde dans lequel on cherche à vivre. Par exemple, si je veux un algorithme de recommandation pour savoir si des femmes peuvent accéder à des grandes responsabilités dans les entreprises, si je prends les données numériques c’est-à-dire que je prends, par exemple, le nombre de femmes qui dirigent les entreprises du CAC 40, je pense que les données seront biaisées : il y a beaucoup plus d’hommes qui dirigent. En fait, quelle est la réalité des données de ce monde numérique par rapport au monde potentiel, au monde dans lequel on aimerait vivre ? Est-ce vraiment changer la réalité qu’essayer de reconstruire un monde où il y aurait une équité entre genres par exemple ?

France Charruyer : Et entre couleurs de peau, puisqu’on a eu la problématique dans les algorithmes de reconnaissance faciale ?

Jean-Michel Loubes : Tout à fait, il y a beaucoup de biais. Au-delà du simple rééquilibrage des bases d’apprentissage, on peut aussi essayer de contraindre l’algorithme, de contraindre l’IA, à apprendre des modèles plus justes. Ce sont des méthodologies informatiques et mathématiques qui permettent de contrôler toute la phase d’apprentissage et de pouvoir s’assurer que les biais ne vont pas jouer un rôle déterminant dans la construction du modèle.

France Charruyer : Comment peut-on contribuer à une meilleure interprétation et acceptation en IA avec ces travaux sur l’explicabilité, la détection des biais ?

Jean-Michel Loubes : Comprendre les biais, c’est une des phases de l’explicabilité des algorithmes.

France Charruyer : Ma fameuse première marche ! Je taquine !

Jean-Michel Loubes : Si vous voulez. Pour arriver à se prémunir des biais, la première chose à faire c’est arriver à les comprendre et arriver à les mesurer. Pour les mesurer il faut pouvoir se donner une définition, donc, la première chose, c’est expliciter ce qu’on cherche. Ensuite, lorsqu’on cherche les mesures et dans les algorithmes, on essaie de comprendre ce qui est créé par l’algorithme, c’est donc l’explicabilité de l’algorithme. Mais l’explicabilité des algorithmes va bien au-delà, puisque l’explicabilité c’est arriver à comprendre la décision, c’est-à-dire pouvoir expliquer aux usagers comment la décision a été prise. Cette explicabilité c’est quelque chose qui doit, in fine, permettre à la personne de reprendre du pouvoir sur l’algorithme. Donc, expliquer la décision ne suffit pas, il faut donner des raisons qui sont des raisons causales pour que la personne puisse, elle-même, être capable d’influer sur les décisions de l’algorithme, être capable de changer en modifiant certains paramètres. Cette explicabilité causale est un des thèmes principaux de la recherche scientifique actuelle en IA, c’est quelque chose qui est assez compliqué à obtenir puisque les algorithmes sont fondés plutôt sur des corrélations que sur des causalités, c’est comme cela qu’ils sont construits.

France Charruyer : Quels sont les défis concernant l’explicabilité dans les réseaux neuronaux profonds ?

Jean-Michel Loubes : On est confronté à un dilemme : plus les réseaux de neurones sont gros, plus ils sont complexes, mieux ils prédisent. On a donc envie d’utiliser des réseaux qui sont très complexes avec un grand nombre de paramètres, on est à 300 milliards actuels pour les gros modèles de langage et plus ces modèles sont complexes, plus ils s’apparentent à ce qu’on appelle des boîtes noires, c’est-à-dire que lorsqu’on reçoit une décision, on n’arrive pas à comprendre les raisons pour lesquelles la décision a été prise. Cette boîte noire est très compliquée à disséquer, à ouvrir. Même si on avait accès à tout l’algorithme, on devrait comprendre 300 milliards de paramètres, c’est-à-dire que le réseau a appris des données en se créant lui-même une espèce d’alphabet de dimension 300 milliards, dont la logique est propre aux machines et n’est pas du tout compréhensible par les êtres humains.
L’explicabilité des algorithmes ce n’est donc pas essayer de suivre tous les paramètres du réseau, mais essayer de comprendre comment se propage l’information et comment on arrive à expliquer dans notre logique, notre logique humaine, ces espaces de représentation qu’a construits l’algorithme, ces espaces de features ou embedding si on reprend les termes techniques, et arriver, nous, à leur donner du sens. Il y a beaucoup de recherches pour essayer d’arriver à redonner de la logique humaine à ces alphabets construits par les machines.

France Charruyer : Est-ce qu’il y a pour un homme cet aveu d’impuissance, pour une femme aussi d’ailleurs ?

Jean-Michel Loubes : Pas du tout, c’est un challenge qu’on doit relever, à la fois les scientifiques qui travaillent sur ces algorithmes, essayer de donner du sens à ces espaces de représentation, de grande dimension, non seulement donner du sens, mais on voit que ces espaces, souvent, ne marchent pas puisqu’il y a beaucoup de problèmes : si on prend des modèles de langage, toute cette problématique liée aux hallucinations de ces modèles de langage. On voit bien que même ces gros modèles manquent de logique. Donc, essayer de réduire cette dimensionnalité, essayer d’apporter de la logique extérieure, essayer d’hybrider l’IA avec des connaissances logiques, un petit peu comme ce qui se faisait dans des systèmes experts, c’est sans doute une des solutions pour essayer d’améliorer l’IA.

France Charruyer : L’hybridation.

Jean-Michel Loubes : Tout à fait, l’hybridation avec des contraintes physiques, des contraintes logiques, c’est-à-dire ne plus laisser la machine apprendre toute seule avec des données, mais essayer de la guider lors de son apprentissage. Un petit peu comme lorsque vous avez des enfants, vous les envoyez à l’école et, à l’école, ils sont face à des experts qui vont essayer de guider leur apprentissage.

France Charruyer : Donc tout va bien. On va dépenser beaucoup d’argent pour envoyer les IA à l’école et on se pose beaucoup moins de questions pour tous ceux qui vont, je pense toujours à mes clients, payer deux dollars de l’heure, qui vont modestement, au mieux au Brésil, photographier des cacas de chiens, dans ce que j’ai appris, pour améliorer les algorithmes d’apprentissage profond et de reconnaissance faciale pour les aspirateurs, les fameux Kényans qui vont trier, sans parfois comprendre, ces bases de données d’apprentissage et toujours plus, nous pouvons dire, d’investissement pour faire en sorte que les IA s’améliorent. Mais ce que les humains vont arriver à s’améliorer et suivre le rythme ?

Jean-Michel Loubes : Si on repart sur la problématique des biais, c’est un domaine qui est très intéressant, parce que, quand on essaie d’étudier les biais algorithmiques, en fait ça révèle nos propres biais, ça révèle plusieurs aspects importants de notre intelligence, la manière avec laquelle nous pensons, nous traitons l’information. Quand on essaie de détecter et de corriger ces biais algorithmiques, ça nous apprend tout d’abord que, comme ces machines apprennent à partir des données que nous leur fournissons, ces données reflètent et amplifient nos stéréotypes.
Ensuite, bien que l’intelligence humaine soit capable de logique profonde, les biais analytiques révèlent que nous pouvons, nous aussi, échouer à anticiper les conséquences complexes et systémiques de nos propres créations intelligentes. En fait, si ces machines créent du biais, c’est aussi parce que nous avons choisi de mauvais objectifs, de mauvais indicateurs de performance et qu’on les amène à avoir des raisonnements biaisés. Cette présence de biais peut aussi nous permettre de prendre conscience des efforts que notre société doit mettre en œuvre, justement pour corriger ces biais. Le fait même qu’on puisse arriver à s’interroger sur la présence de biais est quelque chose qui révèle aussi, si on est optimiste, notre capacité, en tant qu’humains, d’essayer de réfléchir sur nos propres créations et de vouloir améliorer les algorithmes, donc la société.

24’ 33

France Charruyer : On