Que peut-on vraiment reprocher aux outils actuels d'intelligence artificielle

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Que peut-on vraiment reprocher aux outils actuels d'intelligence artificielle ?

Intervenant : Raphael Isla

Lieu : École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunications - Capitole du Libre

Date : 19 novembre 2023

Durée : 51 min

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Bonjour tout le monde. Merci d’être venus.
Je suis Raphael Isla, de métier je suis informaticien et par passion, je suis énervé contre la société Aujourd’hui, je suis énervé contre les intelligences artificielles.
Je suis informaticien, mais je ne suis pas développeur, je ne suis pas tech, je fais de la traduction entre le langage tech et le langage des utilisateurs. Je fais du support, je fais de la formation, ce genre de choses. Donc, peut-être que je vais dire des énormités, j’espère que non, si jamais, vous n’hésitez surtout pas.

Que peut-on reprocher vraiment aux outils actuels l’intelligence artificielle ?
J’ai 25 minutes et il y a beaucoup de choses à dire.

Juste une mise au point

On va commencer avec juste une mise au point, c’est cadeau pour la chanson.
La question c’est : est-ce que ce sont vraiment des intelligences ? Quelle est la définition qu’on donne à « intelligence », globalement, et dans le terme « intelligence artificielle » ?
Ce dont je vais parler ce sont les modèles ChatGPT, Stable Diffusion, Bard, etc., en fait ce qui est connu du grand public.
Ceci étant posé, on va pouvoir attaquer le gros morceau.

Des problèmes

Des problèmes de tout type.
Les premiers qui peuvent être assez francs, ceux qu’on connaît, ceux qu’on voit souvent :

  • irrespect du droit des artistes. Les modèles d’intelligence artificielle dont je parlais sont entraînés avec des bases de données qui sont très grandes, qui sont récupérées un peu partout sur Internet, au mépris des droits des créateurs de contenu, des artistes divers et variés. On connaît beaucoup de gens, de dessinateurs, de peintres dont les œuvres ont été utilisées pour entraîner les modèles et qui ont été utilisées par les modèles pour faire des copies de ce que font habituellement ces artistes ;
  • autre impact franc : la suppression d’emplois. Beaucoup, d’entreprise, d’entrepreneurs, de patrons, de managers, se voient très rapidement remplacer leurs employés qui coûtent du temps, de l’énergie, de leur point de vue, par des intelligences artificielles qui font le travail beaucoup plus rapidement et sans s’emmerder avec les émotions de ces humains employés, quand même, ça gêne ! Vous voyez ce que je veux dire ? On en a quelques-uns tête !
  • autre grand problème : la désinformation. Les outils d’intelligence artificielle sont utilisés, volontairement ou non, pour désinformer certaines personnes. On a eu le cas, dernièrement, avec des petites échauffourées qui ont eu lieu un peu à l’Est, dans un petit pays, si vous voyez ce que je veux dire. Les outils d’intelligence artificielle et les outils qui sont censés détecter les images créées par une intelligence artificielle ont été utilisés pour dire « mais non, ce qui se passe là-bas ce n’est pas vrai, toutes les images qu’on a sont fausses, ça a été créé par de l’IA, ce n’est pas du tout ce qui se passe là-bas », un exemple de désinformation ;
  • autre problème : trauma des modérateurs. Je ne sais pas si vous vous souvenez, il y a quelques années Microsoft avait essayé de lancer une intelligence artificielle et l’avait lancée sur Twitter pour qu’elle s’entraîne en lisant ce qui se passait sur Twitter. En deux/trois heures ou deux/ trois jours, je ne sais plus, l’intelligence en question était devenue complètement nazie. Du coup, pour ne pas reproduire ce problème sur les outils utilisés, actuellement des modérateurs regardent ce que fait et ce qu’apprend l’intelligence et disent « non, ça ce n’est peut-être pas à garder en mémoire, ce n’est pas à garder dans le modèle » et, en général, ce qu’ils voient passer ce sont des horreurs, des horreurs de terrorisme, d’idéologies inacceptables et ce genre de choses. Ces gens passent leurs journées à repérer toute la lie de l’humanité dans les IA pour leur dire « non, il ne faut pas utiliser ça » et ces gens en ressortent globalement traumatisés.

Voilà quelques impacts francs, quelques problèmes faciles à repérer sur les IA.

Et puis il y a des impacts un peu plus subtils :

  • Pollutions de modèles de données. Les intelligences artificielles se basent sur ce qu’elles ont repéré sur Internet, reproduisent et complètent Internet avec ce qu’elles produisent elles-mêmes, mais, au début, la qualité fournie n’était pas au top. Mais, les générations suivantes ont récupéré ce qu’elles ont fourni pour s’en servir aussi et s’entraîner. Du coup, les premières générations d’intelligence artificielle ont fait de la merde et les suivantes ont mangé cette merde pour en refaire derrière. J’utilise des mots crus, on va dire que je suis un vulgarisateur vulgaire. Donc, pollution des modèles de données, ça gêne un peu, ça va empirer les problèmes divers et variés.
  • Pollution des outils de recherche. Je ne sais pas si vous êtes passé sur Google ces derniers temps et vous avez peut-être repéré certains problèmes, certaines réponses qui étaient fournies par des outils d’intelligence artificielle. J’en ai une mémoire. Quand demandait à Google « quel pays d’Afrique commence par la lettre « K », la réponse était « aucun pays d’Afrique ne commence par la lettre « K », le plus proche c’est le Kenya, mais le son n’est pas exactement le même. – Pardon ! Ça ne va pas Google ! Qu’est ce qui t’arrive ? ». On a eu quelques petits exemples comme ça, pollution des outils de recherche. Maintenant, on peut aussi retrouver, sans être aussi flagrant que ça, des réponses qui remontent, qui sont plus subtiles, qui ne sont pas totalement vraies, mais qui sont du ??? [7 min 13] un peu crade récupéré par de l’intelligence artificielle.
  • Autre problème subtil : les biais ethniques et culturels. Les IA s’entraînent sur des modèles et repèrent ce qui est le plus fréquent, ce qui est la majorité, ce qui est la norme, et considèrent que cette norme est la seule et unique vérité. Ce qui fait que les minorités deviennent invisibles, encore plus, avec ces outils d’intelligence artificielle. Non seulement cela pose problème pour les gens qui s’en servent, qui ne se rendent pas forcément compte de l’existence des minorités, mais, en plus, les décisions qui sont prises avec ces IA, avec ces biais, sont complètement faussées par rapport à la réalité.
  • Dernier petit problème subtil : la consommation énergétique. Pour entraîner des modèles à partir des bases de données, il faut leur faire parcourir toutes les bases, enfin, un certain nombre et, en trois jours, ça consomme à peu près autant qu’une dizaine de maisons sur une année. Niveau consommation énergétique, ça représente quand même beaucoup. À l’époque actuelle, où on a des débats sur la sobriété, l’écologie, le réchauffement climatique, je trouve, personnellement je trouve que c’est un peu gênant.

Certaines personnes vont dire que l’IA c’est juste un outil, oui c’est juste un outil, sauf que l’outil en question récupère tout ce que je vous ai dit jusqu’à maintenant et certaines autres choses qui sont représentées sur ce magnifique graphique open source bien sûr, « Si un marteau était comme l’IA », donc avec les biais, monoculture, coût carbone et tout ça.

Des solutions ?

Maintenant qu’on a exposé les problèmes, quelles sont, éventuellement, les solutions qu’on peut apporter ?
Je me suis un peu amusé avec les illustrations dans têtes de chapitre.

  • On peut essayer de changer les IA, on peut essayer d’avoir des IA respectueuses de droit. Hier soir, lors d’une table ronde, j’ai discuté un peu avec des gens qui s’y connaissent, madame Sèdes, monsieur Latombe et monsieur Sztulman, qui sont des élus et qui disaient « au niveau européen on va essayer de construire des IA qui ne sont pas basées sur le modèle américain. On va essayer de faire en sorte qu’elles soient plus respectueuses, qu’elles soient moins biaisées, tout ça ». Vœu, vœu pieux ? On verra ce qui va se passer, j’ai quelques doutes.
  • Des IA multiculturelles. On pourrait essayer d’avoir des IA construite de manière à ce qu’elles ne se basent pas juste sur la majorité, juste sur la norme, mais qu’elles prennent en compte tout ce qu’elles voient et qu’elles apprennent à ne pas invisibiliser les minorités.
  • Et puis, surtout, on pourrait essayer d’avoir des outils d’IA qui soient libres. Pour le moment, il n’y en a pas beaucoup. J’en ai trouvé un qui fonctionne, j’ai beaucoup aimé parce que c’était, pour les plus vieux d’entre nous, sur le modèle de SETI@home où chacun fournit son ordinateur et, quand l’ordinateur n’est pas utilisé par son propriétaire, il est utilisé par les IA pour faire des modèles, de l’image en l’occurrence, c’est pour faire de l’image à partir de textes. Le but c’est que ça soit décentralisé, chacun fait une petite partie et après on centralise à nouveau tout ça. Sur le principe j’aime beaucoup : Libre, tout le monde participe, la communauté, c’est sympa. Après, je ne sais pas sur quels modèles ça a été entraîné, donc, peut-être que ça va poser des problèmes de ce côté-là.
  • Et, si on n’arrive pas à changer les IA, ou si on y arrive mais pas assez, on peut essayer de changer le système.
    Si on a des IA qui bossent à notre place et qui nous privent d’emploi, peut-être qu’on dit « on va redistribuer leur richesse », on file quand même du fric à ceux qui ont pas d’emploi, histoire qu’ils puissent vivre, revenu de base, tout ça. Ça vous parle ?
    Ou alors on redistribue l’emploi, on dit « au lieu de bosser 35/39/40 heures par semaine, 50, on pourrait bosser 28 heures par semaine chacun, ou 20, ou 12 – je suis un feignant. Si on a des IA qui font les travaux répétitifs, rébarbatifs, à la place des humains, aucun problème et, après, on partage l’emploi, on a chacun un petit truc à faire, deux/trois heures par semaine, je suis passé de 28 à 2. Tout va bien.
    J’ai bien dit « redistribuer l’emploi », je parle d’emploi salarié au sens large. Si quelqu’un a envie de travailler de son côté, de ne pas être oisif, ça ne me pose aucun problème, les hobbies, vous faites ce que vous voulez dans votre vie, je n’ai pas de soucis avec ça.
  • Et puis redistribuer le temps libre. Une fois qu’on bosse moins, on a plus de temps libre. Redistribuer le temps libre, c’est aussi faire communauté, c’est faire des quartiers, des jardins partagés, des conférences, des ateliers sur le Libre, ce genre de choses.
    Je ne l’avais pas marqué, j’y ai pensé entre le moment où j’ai fait mes slides et tout ça.
    Redistribuer le temps libre, c’est avoir le temps de faire de l’art. Ce qui me gêne avec les IA actuellement, c’est qu’elles sont utilisées pour faire des histoires, des fictions, des tableaux, des images. Je préférerais des IA qui fassent du travail à la chaîne, qui fassent des travaux toxiques, dangereux, pour l’être humain et que l’être humain se retrouve à faire de l’art. Je préférerais ça personnellement. Et surtout, que l’être humain se retrouve payé à faire de l’art, parce que, quand on demande à une IA « vas-y, représente-moi deux personnes, dans un champ, en train de se tenir la main, avec un fond de soleil couchant, parce que j’ai besoin d’illustrer mon histoire », pendant ce temps il y a un artiste qui n’est pas payé, il y a un artiste qui se demande « comment je vais finir ma fin de mois. » Je me dis « des IA, oui, mais pas pour de l’art », on se garde l’art pour nous, pour les artistes qui sont payés et pour nous, parce que, faire de l’art soi-même, c’est aussi très satisfaisant. Si vous n’en avez pas fait, essayez un jour.

Voilà globalement ce que je voulais vous dire, je suis un vulgarisateur, donc je n’ai pas abordé les sujets techniques.