Intelligence sans conscience - Next - Algorithmique

De April MediaWiki
Révision datée du 1 octobre 2024 à 05:47 par Morandim (discussion | contributions) (Page créée avec « Catégorie:Transcriptions '''Titre :''' Intelligence sans conscience - <em>Algorithmique</em>[1/6] '''Intervenant :''' Jean-Gabriel Ganascia - Amélie Cordier - Mathilde saliou '''Lieu :''' Podcast <em>Algorithmique</em> - next '''Date :''' 18 septembre 2024 '''Durée :''' 36 min '''[https://next.ink/podlove/file/2/s/feed/c/mp3/ALGORITHMIQUE_EP1_IntelligenceSansConscience.mp3 Podcast]''' '''[https://podcasts.apple.com/us/podcast/algorithmique-1-6-in... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigationAller à la recherche


Titre : Intelligence sans conscience - Algorithmique[1/6]

Intervenant : Jean-Gabriel Ganascia - Amélie Cordier - Mathilde saliou

Lieu : Podcast Algorithmique - next

Date : 18 septembre 2024

Durée : 36 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Qu’est-ce que l’intelligence artificielle ? Comment le champ de recherche qui a permis son émergence s’est-il construit ?

Transcription

Voix off : Next, Next, Next, Next, Next.

Voix off : Bienvenue dans notre podcast Algorithmique où nous plongeons dans les implications de l’intelligence artificielle sur la société. Installez-vous confortablement, ouvrez votre esprit à la réflexion et rejoignez-nous dans cette exploration.

Mathilde Saliou : Qu’avez-vous pensé de l’introduction que vous venez d’entendre ? Depuis vos écouteurs ou vos enceintes, normalement ça a eu l’air assez crédible. Le texte était un peu plat peut-être, mais Denise, elle sonne plutôt réalisme, non ! Vu depuis mon ordinateur, je peux vous dire que c’est complètement fake, artificiel, synthétique même si vous voulez des mots du jargon. Je peux aussi vous détailler comment j’ai fait pour passer ce son : d’abord, j’ai demandé à ChatGPT, l’outil d’OpenAI, de m’écrire une introduction de podcast et puis je l’ai faite lire à Denise, l’une des 35 voix utilisables gratuitement pour créer de faux textes, sur le site ttsfree.com.

Une des voix du site ttsfree.com : C’est moi, vous me reconnaissez ?

Mathilde Saliou : Mais bon ! Est-ce que, pour autant, je viens de créer un agent intelligent ? Est-ce que c’est ça l’intelligence artificielle ?
Depuis la fin 2022 et la sortie des modèles génératifs comme chez ChatGPT, Midjourney et d’autres, l’intelligence artificielle refait la une des journaux. Selon les jours et les actus, elle peut paraître soit la solution à tous nos problèmes, c’est super !, ou un danger susceptible d’éradiquer l’humanité, affreux !
Chez Next, on couvre ça au quotidien et on constate qu’il y a un récit qui a un peu plus de mal à se faire entendre, c’est celui des effets concrets de ces technologies sur nos vies, dès aujourd’hui. Dans Algorithmique, on va décortiquer tout ça et tenter de vous donner des outils pour réfléchir aux effets de l’intelligence artificielle, avec la nuance que ces technologies de pointe demandent. Ça vous dit ?

Voix off : De l’intelligence. Qu’est-ce que c’est ? La perception, c’est le raisonnement, la mémoire ?
C’est toujours possible de débrancher la prise, sauf que dans la plupart des cas les gens ne sont même pas conscients de ce qui se passe dans la machine.

Mathilde Saliou : Je suis Mathilde Saliou, journaliste et autrice de <em<Technoféminisme – comment le numérique aggrave les inégalités, et vous écoutez Algorithmique un podcast produit par Next.
Épisode 1 : Intelligence sans conscience

La première chose dont on a besoin, pour parler d’intelligence artificielle, c’est de définir les termes du débat. C’est essentiel pour être sûr qu’on parle toutes et tous de la même chose, au moins le temps de ce podcast. Je me suis dit que des experts pourraient nous aider à nous y retrouver. Je suis donc allée voir Jean-Gabriel Ganascia, qui est professeur à la Faculté des Sciences de Sorbonne Université et chercheur au LIP6, le laboratoire d’informatique de l’université. Je lui ai demandé : de quoi parle-t-on quand on utilise les mots « intelligence artificielle » ?

Jean-Gabriel Ganascia : C’est un terme tout à fait précis qui a été introduit en 1955 par des jeunes chercheurs qui voulaient essayer d’utiliser les machines qui venaient d’exister. Le premier ordinateur électronique est fait en 1946, donc ça faisait moins de 10 ans, pour essayer de mieux comprendre l’intelligence.
Alors qu’est ce que c’est que l’intelligence ?, parce que c’est ça la vraie question, c’est toujours ça qui fait peur. Le terme « intelligence » est éminemment polysémique.

Mathilde Saliou : Jean-Gabriel Ganascia commence par me lister une série de définitions de ce qui, dans le domaine scientifique de l’intelligence artificielle, n’est pas de l’intelligence. Dans ce champ-là, l’intelligence, ça ne veut pas dire « l’esprit », ça ne veut pas dire « la sagacité » ou « l’astuce ». Et puis, comme il me l’explique, ça n’est pas non plus une mauvaise traduction de l’anglais, comme dans les termes intelligence service ou Central Intelligence Agency.

Jean-Gabriel Ganascia : En réalité, l’intelligence est une notion qui a été introduite au 19e siècle, qui correspond à des études psychologiques. Ce sont des philosophes qui ont voulu étudier les problématiques de la philosophie, c’est-à-dire l’esprit, avec les méthodes des sciences physiques, ce qu’on appelait la psychologie cognitive. Ça naît avec le courant positiviste et, en France, nous avons un excellent représentant de ce courant, qui s’appelait Hippolyte Taine, qui a écrit, à la fin du 19e siècle, un gros ouvrage en deux tomes qui s’intitulait De l’intelligence. C’est de cela dont il est question : qu’est-ce que c’est ? C’est l’ensemble de nos facultés psychiques, de nos facultés mentales, de nos capacités – c’est la perception, c’est le raisonnement, c’est la mémoire, c’est la capacité à communiquer, à parler, etc. –, tout ça c’est l’intelligence. L’intelligence, c’est donc la résultante de l’ensemble de ces facultés. Et qu’est-ce que fait l’intelligence artificielle ? Elle se propose d’utiliser les machines pour mieux comprendre ces facultés en les modélisant, en les simulant sur ces machines et, ensuite, en confrontant ce que fait la machine et ce que font les hommes. C’est même plus général, d’ailleurs, que les hommes. L’idée c’est que c’est toute l’intelligence, ça peut donc être l’intelligence animale, ça peut tout ce qu’il y a comme sources d’intelligence.
Il y a une deuxième chose. Une fois qu’on a modélisé ces capacités cognitives, on est capable d’utiliser ces simulations dans un très grand nombre de technologies et cela rend des services considérables, sur votre téléphone portable par exemple, la reconnaissance faciale, la reconnaissance vocale pour faire des machines à dicter, c’est de l’intelligence artificielle. Aujourd’hui, on fait de la synthèse d’images, mais on peut faire du raisonnement automatique, on peut faire des mémoires qui sont organisées avec ce qu’on appelle les ontologies pour structurer l’information, pour retrouver l’information. Tout cela, c’est de l’intelligence artificielle, ça joue un rôle important tous les jours.
On oublie souvent que le Web c’est le couplage des réseaux de télécommunications, qui ne sont pas de l’intelligence artificielle, avec un modèle de mémoire ; la mémoire, c’est une fonction psychique. Ce modèle de mémoire a été programmé avec des techniques d’intelligence artificielle et, d’une certaine façon, c’est de l’intelligence artificielle. Ce modèle de mémoire s’appelle l’hypertexte. Vous voyez qu’on fait tous de l’intelligence artificielle aujourd’hui sans le savoir.

Mathilde Saliou : L’hypertexte, ce sont ces liens qui permettent de passer d’une page à une autre, de manière super simple sur Internet. Si ça, c’est déjà un système qui fait partie du champ de l’intelligence artificielle, on comprend bien que ce dernier n’est ni récent, ni neuf, ni même révolutionnaire, en fait, il s’insère dans le temps long. Cela dit, vu l’actualité des 18 derniers mois, je suis bien obligé de l’interroger sur le cas particulier de l’intelligence artificielle générative. Ces machines qui produisent du texte ou des images tout à fait crédibles comment s’insèrent-elles dans le champ de recherche plus vaste ?

Jean-Gabriel Ganascia : Première chose, l’intelligence artificielle générative est quelque chose d’ancien. Elle commence très tôt : on se dit qu’on va pouvoir, avec l’IA, faire de la musique, faire de la poésie, faire de la peinture. Les premiers travaux sur la musique ont été créés, je crois, par Pierre Barbeau, un Français, en 1957.

Mathilde Saliou : Avec Clarisse, la réalisatrice, nous n’avons pas trouvé l’œuvre de Pierre Barbeau, mais ce que l’on entend là, tout de suite, c’est une autre des premières compositions réalisées à l’aide de l’intelligence artificielle, ça s’appelle Suite iliaque pour quatuor à cordes.

Jean-Gabriel Ganascia : L’une des techniques qui servent à l’intelligence artificielle générative, les réseaux de neurones artificiels, ça n’est pas neuf non plus. Le premier remonte à 1943, mais en 80 ans, la science a eu le temps d’avancer et, depuis quelques années, il y a encore eu des progrès avec l’apparition de ce qu’on appelle les réseaux de neurones profonds. Un réseau de neurones artificiels est construit sous forme de couches et, quand on dit qu’il est profond, c’est qu’il y a beaucoup de couches différentes avec, chaque fois, des paramètres spécifiques.

Jean-Gabriel Ganascia : Ils ont été développés à partir de 2012/2013, ils ont eu un très grand succès, ils sont d’ailleurs à l’origine du succès de la machine AlphaGo sur l’un des meilleurs joueurs au monde au jeu de go. Ensuite, en 2014, l’équipe d’un des pionniers de l’apprentissage profond, Yoshua Bengio, avec d’autres personnes, ils étaient plusieurs, a écrit un article pour utiliser ces réseaux de neurones profonds afin de générer automatiquement des images. C’est ce qu’on appelle, en anglais, les GANs, Generative Adversarial Networks, en français « réseaux adverses génératifs ». De quoi s’agit-il ? Il s’agit de deux réseaux de neurones, l’un qui apprend : on lui donne des images et il essaye de les caractériser. D’où cela vient-il ? Ça vient du fait que lorsqu’on veut apprendre avec des réseaux de neurones, on fait ce qu’on appelle de l’apprentissage supervisé. Il faut des images étiquetées, il faut un professeur. Par exemple, si vous voulez essayer de reconnaître des mélanomes, c’est-à-dire des grains de beauté qui sont potentiellement des cancers, vous allez demander à des médecins d’étiqueter. On va prendre des photos de grands de beauté, puis des médecins vont les étiqueter. Avec la machine, on extrait une espèce de concentré de la connaissance du médecin.
Lorsqu’on veut générer, bien sûr, on n’a plus ça. Alors qu’est-ce qu’on fait ? L’idée c’est de prendre l’image. Par exemple, vous prenez des tableaux. Vous allez dire « on va prendre le style Picasso », vous allez étiqueter les Picasso puis les non-Picasso. À partir de cela, vous allez entraîner un réseau de neurones à vous répondre oui sur un Picasso et non sur un non-Picasso.
Ensuite, on va avoir un deuxième réseau de neurones qui il va générer une image aléatoire et, ensuite, il va demander « est-ce que c’est un Picasso, est-ce que ce n’est pas un Picasso ? ». Si on lui dit que ce n’est pas un Picasso, il va s’améliorer jusqu’à générer des Picasso.

Mathilde Saliou : Là, même si on reste incapable d’expliquer le fonctionnement exact de ces machines quand on n’a pas fait d’études poussées en informatique, on comprend quand même que les modèles d’intelligence artificielle, qui font tant parler d’eux, sont les produits d’une somme de techniques différentes. D’ailleurs, en parallèle des progrès de la science en matière de réseaux de neurones, Jean-Gabriel Ganascia explique qu’il y a eu un autre mouvement qui a participé à l’émergence des modèles génératifs.

Jean-Gabriel Ganascia : Chez Google, il y a l’idée de trouver une alternative aux moteurs de recherche classiques. Ils ont beaucoup travaillé là-dessus, ils ont essayé d’utiliser les réseaux de neurones formels et, pour cela, ils se sont dit « on va essayer d’extraire l’esprit de la langue ». Ils ont donc fait ce qu’on appelle l’auto-encodage, c’est-à-dire qu’ils ont fait apprendre, avec les mêmes techniques, mais au lieu de mettre une étiquette, ce qui est vraiment difficile parce qu’il faut un professeur, l’idée c’est de mettre une phrase en entrée et la même phrase en sortie, de retrouver quelque chose qui se rapproche de la même phrase. À partir de ça, on va avoir une espèce de concentré de ce qu’il y a dans cette phrase. On fait ça sur de très gros corpus, avec des centaines de milliers d’ouvrages et, après, on utilise ces modèles de langue pour différentes techniques de traitement automatique, par exemple pour des systèmes de questions/réponses, pour faire du résumé texte ou pour faire de la génération de texte. Dans le cas de la génération de texte, on met une phrase et le système va trouver le mot qui suit dans la phrase, puis celui qui suit, etc., comme ça on peut, par des enchaînements de mots. Bien sûr, ce sont comme des perroquets, ils répètent ce que l’on dit.

Mathilde Saliou : Je ne peux pas m’empêcher de relier cette comparaison des modèles génératifs à des perroquets à un article scientifique qui a fait grand bruit dans le milieu de l’intelligence artificielle. Cet article a été publié en 2021 et son titre était « Sur les dangers des perroquets stochastiques », c’est-à-dire des perroquets qui formulent des phrases sans les comprendre, par pur calcul de probabilités. Cet article [1] était signé par plusieurs spécialistes de l’éthique de l’intelligence artificielle, Timnit Gebru, Shmargaret Shmitchell, Emily Bender et d’autres. Il proposait une sorte de récapitulatif des risques connus à l’époque que ces machines pouvaient poser. Parmi les risques, il y avait des questions de discrimination, dont on reparlera dans les prochains épisodes, et des enjeux d’impact environnemental. Et puis, rapidement, j’ai vu que la linguiste Emily Bender, que je suivais sur Twitter et un peu partout en ligne, s’était beaucoup préoccupée de la manière dont le grand public comprenait les capacités de ces machines. Le milieu de l’intelligence artificielle, vous l’aurez déjà remarqué, outre parler d’intelligence à tout bout de champ, il a tendance à utiliser des mots un peu ambigus. Par exemple, quand les modèles de langage produisent des erreurs, les scientifiques ont tendance à parler d' « hallucinations », comme si les systèmes avaient une forme de conscience, comme s’ils étaient capables de rêver, d’halluciner, de voir des formes comme sous l’effet de psychotropes. Bref ! Ça nous fait les comparer à des cerveaux humains alors que ce sont des machines purement mécaniques.
Justement revenons à l’histoire de Google.

12’ 27

Jean-Gabriel Ganascia : Google