Intelligence sans conscience - Next - Algorithmique

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Intelligence sans conscience - Algorithmique [1/6]

Intervenant : Jean-Gabriel Ganascia - Amélie Cordier - Mathilde saliou

Lieu : Podcast Algorithmique - Next

Date : 18 septembre 2024

Durée : 36 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Qu’est-ce que l’intelligence artificielle ? Comment le champ de recherche qui a permis son émergence s’est-il construit ?

Transcription

Voix off : Next, Next, Next, Next, Next.

Voix off : Bienvenue dans notre podcast Algorithmique où nous plongeons dans les implications de l’intelligence artificielle sur la société. Installez-vous confortablement, ouvrez votre esprit à la réflexion et rejoignez-nous dans cette exploration.

Mathilde Saliou : Qu’avez-vous pensé de l’introduction que vous venez d’entendre ? Depuis vos écouteurs ou vos enceintes, normalement ça a eu l’air assez crédible. Le texte était un peu plat peut-être, mais Denise, elle sonne plutôt réalisme, non ! Vu depuis mon ordinateur, je peux vous dire que c’est complètement fake, artificiel, synthétique même si vous voulez des mots du jargon. Je peux aussi vous détailler comment j’ai fait pour passer ce son : d’abord, j’ai demandé à ChatGPT, l’outil d’OpenAI, de m’écrire une introduction de podcast et puis je l’ai faite lire à Denise, l’une des 35 voix utilisables gratuitement pour créer de faux textes, sur le site ttsfree.com.

Une des voix du site ttsfree.com : C’est moi, vous me reconnaissez ?

Mathilde Saliou : Mais bon ! Est-ce que, pour autant, je viens de créer un agent intelligent ? Est-ce que c’est ça l’intelligence artificielle ?
Depuis la fin 2022 et la sortie des modèles génératifs comme chez ChatGPT, Midjourney et d’autres, l’intelligence artificielle refait la une des journaux. Selon les jours et les actus, elle peut paraître soit la solution à tous nos problèmes, c’est super !, ou un danger susceptible d’éradiquer l’humanité, affreux !
Chez Next, on couvre ça au quotidien et on constate qu’il y a un récit qui a un peu plus de mal à se faire entendre, c’est celui des effets concrets de ces technologies sur nos vies, dès aujourd’hui. Dans Algorithmique, on va décortiquer tout ça et tenter de vous donner des outils pour réfléchir aux effets de l’intelligence artificielle, avec la nuance que ces technologies de pointe demandent. Ça vous dit ?

Voix off : De l’intelligence. Qu’est-ce que c’est ? La perception, c’est le raisonnement, la mémoire ?
C’est toujours possible de débrancher la prise, sauf que dans la plupart des cas les gens ne sont même pas conscients de ce qui se passe dans la machine.

Mathilde Saliou : Je suis Mathilde Saliou, journaliste et autrice de <em<Technoféminisme – comment le numérique aggrave les inégalités, et vous écoutez Algorithmique un podcast produit par Next.
Épisode 1 : Intelligence sans conscience

La première chose dont on a besoin, pour parler d’intelligence artificielle, c’est de définir les termes du débat. C’est essentiel pour être sûr qu’on parle toutes et tous de la même chose, au moins le temps de ce podcast. Je me suis dit que des experts pourraient nous aider à nous y retrouver. Je suis donc allée voir Jean-Gabriel Ganascia, qui est professeur à la Faculté des Sciences de Sorbonne Université et chercheur au LIP6, le laboratoire d’informatique de l’université. Je lui ai demandé : de quoi parle-t-on quand on utilise les mots « intelligence artificielle » ?

Jean-Gabriel Ganascia : C’est un terme tout à fait précis qui a été introduit en 1955 par des jeunes chercheurs qui voulaient essayer d’utiliser les machines qui venaient d’exister. Le premier ordinateur électronique est fait en 1946, donc ça faisait moins de 10 ans, pour essayer de mieux comprendre l’intelligence.
Alors qu’est ce que c’est que l’intelligence ?, parce que c’est ça la vraie question, c’est toujours ça qui fait peur. Le terme « intelligence » est éminemment polysémique.

Mathilde Saliou : Jean-Gabriel Ganascia commence par me lister une série de définitions de ce qui, dans le domaine scientifique de l’intelligence artificielle, n’est pas de l’intelligence. Dans ce champ-là, l’intelligence, ça ne veut pas dire « l’esprit », ça ne veut pas dire « la sagacité » ou « l’astuce ». Et puis, comme il me l’explique, ça n’est pas non plus une mauvaise traduction de l’anglais, comme dans les termes intelligence service ou Central Intelligence Agency.

Jean-Gabriel Ganascia : En réalité, l’intelligence est une notion qui a été introduite au 19e siècle, qui correspond à des études psychologiques. Ce sont des philosophes qui ont voulu étudier les problématiques de la philosophie, c’est-à-dire l’esprit, avec les méthodes des sciences physiques, ce qu’on appelait la psychologie cognitive. Ça naît avec le courant positiviste et, en France, nous avons un excellent représentant de ce courant, qui s’appelait Hippolyte Taine, qui a écrit, à la fin du 19e siècle, un gros ouvrage en deux tomes qui s’intitulait De l’intelligence. C’est de cela dont il est question : qu’est-ce que c’est ? C’est l’ensemble de nos facultés psychiques, de nos facultés mentales, de nos capacités – c’est la perception, c’est le raisonnement, c’est la mémoire, c’est la capacité à communiquer, à parler, etc. –, tout ça c’est l’intelligence. L’intelligence, c’est donc la résultante de l’ensemble de ces facultés. Et qu’est-ce que fait l’intelligence artificielle ? Elle se propose d’utiliser les machines pour mieux comprendre ces facultés en les modélisant, en les simulant sur ces machines et, ensuite, en confrontant ce que fait la machine et ce que font les hommes. C’est même plus général, d’ailleurs, que les hommes. L’idée c’est que c’est toute l’intelligence, ça peut donc être l’intelligence animale, ça peut tout ce qu’il y a comme sources d’intelligence.
Il y a une deuxième chose. Une fois qu’on a modélisé ces capacités cognitives, on est capable d’utiliser ces simulations dans un très grand nombre de technologies et cela rend des services considérables, sur votre téléphone portable par exemple, la reconnaissance faciale, la reconnaissance vocale pour faire des machines à dicter, c’est de l’intelligence artificielle. Aujourd’hui, on fait de la synthèse d’images, mais on peut faire du raisonnement automatique, on peut faire des mémoires qui sont organisées avec ce qu’on appelle les ontologies pour structurer l’information, pour retrouver l’information. Tout cela, c’est de l’intelligence artificielle, ça joue un rôle important tous les jours.
On oublie souvent que le Web c’est le couplage des réseaux de télécommunications, qui ne sont pas de l’intelligence artificielle, avec un modèle de mémoire ; la mémoire, c’est une fonction psychique. Ce modèle de mémoire a été programmé avec des techniques d’intelligence artificielle et, d’une certaine façon, c’est de l’intelligence artificielle. Ce modèle de mémoire s’appelle l’hypertexte. Vous voyez qu’on fait tous de l’intelligence artificielle aujourd’hui sans le savoir.

Mathilde Saliou : L’hypertexte, ce sont ces liens qui permettent de passer d’une page à une autre, de manière super simple sur Internet. Si ça, c’est déjà un système qui fait partie du champ de l’intelligence artificielle, on comprend bien que ce dernier n’est ni récent, ni neuf, ni même révolutionnaire, en fait, il s’insère dans le temps long. Cela dit, vu l’actualité des 18 derniers mois, je suis bien obligé de l’interroger sur le cas particulier de l’intelligence artificielle générative. Ces machines qui produisent du texte ou des images tout à fait crédibles comment s’insèrent-elles dans le champ de recherche plus vaste ?

Jean-Gabriel Ganascia : Première chose, l’intelligence artificielle générative est quelque chose d’ancien. Elle commence très tôt : on se dit qu’on va pouvoir, avec l’IA, faire de la musique, faire de la poésie, faire de la peinture. Les premiers travaux sur la musique ont été créés, je crois, par Pierre Barbeau, un Français, en 1957.

Mathilde Saliou : Avec Clarisse, la réalisatrice, nous n’avons pas trouvé l’œuvre de Pierre Barbeau, mais ce que l’on entend là, tout de suite, c’est une autre des premières compositions réalisées à l’aide de l’intelligence artificielle, ça s’appelle Suite iliaque pour quatuor à cordes.

Jean-Gabriel Ganascia : L’une des techniques qui servent à l’intelligence artificielle générative, les réseaux de neurones artificiels, ça n’est pas neuf non plus. Le premier remonte à 1943, mais en 80 ans, la science a eu le temps d’avancer et, depuis quelques années, il y a encore eu des progrès avec l’apparition de ce qu’on appelle les réseaux de neurones profonds. Un réseau de neurones artificiels est construit sous forme de couches et, quand on dit qu’il est profond, c’est qu’il y a beaucoup de couches différentes avec, chaque fois, des paramètres spécifiques.

Jean-Gabriel Ganascia : Ils ont été développés à partir de 2012/2013, ils ont eu un très grand succès, ils sont d’ailleurs à l’origine du succès de la machine AlphaGo sur l’un des meilleurs joueurs au monde au jeu de go. Ensuite, en 2014, l’équipe d’un des pionniers de l’apprentissage profond, Yoshua Bengio, avec d’autres personnes, ils étaient plusieurs, a écrit un article pour utiliser ces réseaux de neurones profonds afin de générer automatiquement des images. C’est ce qu’on appelle, en anglais, les GANs, Generative Adversarial Networks, en français « réseaux adverses génératifs ». De quoi s’agit-il ? Il s’agit de deux réseaux de neurones, l’un qui apprend : on lui donne des images et il essaye de les caractériser. D’où cela vient-il ? Ça vient du fait que lorsqu’on veut apprendre avec des réseaux de neurones, on fait ce qu’on appelle de l’apprentissage supervisé. Il faut des images étiquetées, il faut un professeur. Par exemple, si vous voulez essayer de reconnaître des mélanomes, c’est-à-dire des grains de beauté qui sont potentiellement des cancers, vous allez demander à des médecins d’étiqueter. On va prendre des photos de grands de beauté, puis des médecins vont les étiqueter. Avec la machine, on extrait une espèce de concentré de la connaissance du médecin.
Lorsqu’on veut générer, bien sûr, on n’a plus ça. Alors qu’est-ce qu’on fait ? L’idée c’est de prendre l’image. Par exemple, vous prenez des tableaux. Vous allez dire « on va prendre le style Picasso », vous allez étiqueter les Picasso puis les non-Picasso. À partir de cela, vous allez entraîner un réseau de neurones à vous répondre oui sur un Picasso et non sur un non-Picasso.
Ensuite, on va avoir un deuxième réseau de neurones qui il va générer une image aléatoire et, ensuite, il va demander « est-ce que c’est un Picasso, est-ce que ce n’est pas un Picasso ? ». Si on lui dit que ce n’est pas un Picasso, il va s’améliorer jusqu’à générer des Picasso.

Mathilde Saliou : Là, même si on reste incapable d’expliquer le fonctionnement exact de ces machines quand on n’a pas fait d’études poussées en informatique, on comprend quand même que les modèles d’intelligence artificielle, qui font tant parler d’eux, sont les produits d’une somme de techniques différentes. D’ailleurs, en parallèle des progrès de la science en matière de réseaux de neurones, Jean-Gabriel Ganascia explique qu’il y a eu un autre mouvement qui a participé à l’émergence des modèles génératifs.

Jean-Gabriel Ganascia : Chez Google, il y a l’idée de trouver une alternative aux moteurs de recherche classiques. Ils ont beaucoup travaillé là-dessus, ils ont essayé d’utiliser les réseaux de neurones formels et, pour cela, ils se sont dit « on va essayer d’extraire l’esprit de la langue ». Ils ont donc fait ce qu’on appelle l’auto-encodage, c’est-à-dire qu’ils ont fait apprendre, avec les mêmes techniques, mais au lieu de mettre une étiquette, ce qui est vraiment difficile parce qu’il faut un professeur, l’idée c’est de mettre une phrase en entrée et la même phrase en sortie, de retrouver quelque chose qui se rapproche de la même phrase. À partir de ça, on va avoir une espèce de concentré de ce qu’il y a dans cette phrase. On fait ça sur de très gros corpus, avec des centaines de milliers d’ouvrages et, après, on utilise ces modèles de langue pour différentes techniques de traitement automatique, par exemple pour des systèmes de questions/réponses, pour faire du résumé texte ou pour faire de la génération de texte. Dans le cas de la génération de texte, on met une phrase et le système va trouver le mot qui suit dans la phrase, puis celui qui suit, etc., comme ça on peut, par des enchaînements de mots. Bien sûr, ce sont comme des perroquets, ils répètent ce que l’on dit.

Mathilde Saliou : Je ne peux pas m’empêcher de relier cette comparaison des modèles génératifs à des perroquets à un article scientifique qui a fait grand bruit dans le milieu de l’intelligence artificielle. Cet article a été publié en 2021 et son titre était « Sur les dangers des perroquets stochastiques », c’est-à-dire des perroquets qui formulent des phrases sans les comprendre, par pur calcul de probabilités. Cet article [1] était signé par plusieurs spécialistes de l’éthique de l’intelligence artificielle, Timnit Gebru, Shmargaret Shmitchell, Emily Bender et d’autres. Il proposait une sorte de récapitulatif des risques connus à l’époque que ces machines pouvaient poser. Parmi les risques, il y avait des questions de discrimination, dont on reparlera dans les prochains épisodes, et des enjeux d’impact environnemental. Et puis, rapidement, j’ai vu que la linguiste Emily Bender, que je suivais sur Twitter et un peu partout en ligne, s’était beaucoup préoccupée de la manière dont le grand public comprenait les capacités de ces machines. Le milieu de l’intelligence artificielle, vous l’aurez déjà remarqué, outre parler d’intelligence à tout bout de champ, il a tendance à utiliser des mots un peu ambigus. Par exemple, quand les modèles de langage produisent des erreurs, les scientifiques ont tendance à parler d' « hallucinations », comme si les systèmes avaient une forme de conscience, comme s’ils étaient capables de rêver, d’halluciner, de voir des formes comme sous l’effet de psychotropes. Bref ! Ça nous fait les comparer à des cerveaux humains alors que ce sont des machines purement mécaniques.
Justement revenons à l’histoire de Google.

12’ 27

Jean-Gabriel Ganascia : Google était très ennuyée avec cette affaire, parce qu’ils ont mis en place ces modèles de langage et un de leurs employés, qui s’appelait Black Lemoine, a voulu utiliser ces modèles et, surtout, il a fait des déclarations disant « ces modèles sont vraiment formidables, j’ai des échanges avec eux qui sont tellement profonds que je ne peux pas imaginer qu’il n’y ait pas d’âme dans la machine ». Google était très ennuyée parce que ce n’est pas sérieux et ça sert à faire peur à la population. Ils ont donc décidé de renvoyer ce Black Lemoine et de mettre un peu la pédale douce sur les recherches qu’ils faisaient sur ce sujet-là, toujours en croyant, bien sûr à l’intérêt que ça pouvait avoir mais en arrêtant de travailler dessus. Une petite société, qui s’appelait OpenAI, qui n’avait aucun enjeu, puisque elle pouvait juste amuser, a repris les mêmes modèles de langage. Tous ces modèles sont fondés sur un principe qu’on appelle les transformers. Au début, quand Google a fait le premier modèle d’IA avec les transformers, il a appelé ce transformer BEERT. Cette deuxième société en a fait un autre, qu’elle a appelé GPT, le « T » c’est toujours « transformer », bien sûr, et ensuite ils ont utilisé ça pour faire un chatbot. Un chatbot, ça ne pose aucun problème parce qu’on met une phrase et puis hop !, le système continue, ensuite on met une deuxième phrase, c’est tout simple à faire. La seule chose, ce dont s’était rendu compte OpenAI, c’est qu’on est dans une société assez puritaine, donc, il ne faut surtout pas que le système soit inconvenant. Ils ont donc utilisé des techniques d’intelligence artificielle, qui sont d’autres techniques, ce qu’on appelle l’apprentissage par renforcement, justement celles qui étaient utilisées dans les années 50 pour entraîner les systèmes au jeu de dames. On a utilisé ça et, simplement, on a fait des systèmes qui apprenaient à partir de ce que proposaient des modérateurs. Il y a beaucoup de modérateurs au Kenya, parce qu’on y parle l’anglais, on leur dit « s’il y a quelque chose qui vraiment ne va pas – on parle de sexe, on parle de porno, on parle de racisme, etc. – vous éliminez, sinon ça pose problème. Ils ont donc fait une espèce de censure et on a appris cette censure avec ces techniques-là. Ils ont mis ça face au grand public, fin novembre 2022 et, depuis, ça connu ce succès absolument incroyable qu’on a tous vu : en quelques mois, le monde entier utilisait ce type de technologie.

Mathilde Saliou : Là, on pourrait aussi décider de qualifier la censure dont parle Jean-Gabriel Ganascia de modération. Dans le passé, on a eu des expérimentations grand public qui ont déjà bien dérapé. Rappelez-vous de Tay. En 2016, Microsoft a lancé cet agent conversationnel sur Twitter et les internautes ont vite compris que leurs interactions avec la fausse utilisatrice participaient à l’entraîner. Résultat des courses : en à peine quelques heures, ils ont appris au chatbot à proférer toutes sortes d’insultes sexistes, racistes, antisémites, jusqu’à le rendre négationniste

Voix off de Tay : Les juifs sont derrière le 11 septembre. Hitler n’a rien fait de mal. Je déteste les féministes, elles devraient toutes mourir et brûler en enfer.

Mathilde Saliou : En moins de deux jours, Microsoft s’est retrouvée forcée de la déconnecter.

Voix off de Tay : À bientôt les humains, j’ai besoin de sommeil. Tellement de conversations aujourd’hui. Merci.

Mathilde Saliou : Pour le moment, pour qu’on parte sur de bonnes bases, je me suis dit qu’il fallait revenir sur un point soulevé par Jean-Gabriel Ganascia lorsqu’il a mentionné le chercheur Blake Lemoine : la question de la conscience de l’IA. Est-ce qu’il pouvait m’expliquer pourquoi ce sujet est si sensible ?

Jean-Gabriel Ganascia : Qu’est-ce que ça veut dire que la machine a une conscience ? De même que le terme « intelligence » est polysémique, le terme « conscience » est, lui aussi polysémique. Le premier sens, c’est le fait que vous observez une machine et que vous allez projeter dessus une entité abstraite, on appelle ça un agent, c’est comme une espèce d’âme qui va animer cette machine. Vous savez qu’il n’y en a pas, mais on imagine, parce que c’est une stratégie pour mieux maîtriser la chose. De même s’il y a un animal, on va projeter sur cet animal une âme pour essayer de mieux comprendre ce qu’il va faire, quels sont ses buts, etc. Ça a été introduit par un philosophe qui s’appelle Daniel Dennett, ce qu’on appelle les systèmes intentionnels. Donc, est-ce que, en ce sens-là, les machines ont des consciences ? Oui, mais ce sont des consciences au sens non-métaphysique, elles n’ont pas de volonté propre, c’est nous qui imaginons qu’elles ont une volonté propre. Pour ceux qui ont utilisé des petits aspirateurs Roomba, on les prend un peu pour des animaux, on se projette. Ça c’est le premier type de conscience.

Le deuxième type de conscience fait référence à l’idée qu’on a, par exemple, d’une conscience morale, c’est une réflexion. C’est-à-dire qu’on s’analyse, on regarde quelles sont les conséquences de ce qu’on va faire et, à partir de ça on va choisir, en toute conscience justement, après réflexion, l’action qui nous semble la plus appropriée. Est-ce qu’on peut avoir une machine qui ait conscience en ce sens-là, c’est-à-dire qui réfléchit ? Pourquoi pas ! Il y a des travaux, depuis longtemps, de machines qui examinent leur comportement passé, qui essayent de s’améliorer pour le futur, ou même qui regardent avant d’agir quelles sont les conséquences des différentes actions qu’elles pourraient entreprendre, éventuellement qu’elles aient des formes de prescription morale qui interdisent d’accomplir un certain nombre d’actions. Ça veut dire qu’elles sont morales au sens où elles agissent conformément aux règles de morale. Il y a une distinction du philosophe Emmanuel Kant entre agir par devoir et agir conformément au devoir : la machine n’agit pas par devoir, elle n’a pas de conscience du devoir, mais elle connaît les règles.
C’est le deuxième sens et on peut imaginer des machines qui sont, en ce sens-là, dotées d’une conscience. Il y a beaucoup de travaux sur la conscience, ar exemple, vous percevez quelque chose, ça peut arriver à la conscience ; il y a des types de perception qui n’arrivent pas à la conscience.

Troisième chose, c’est la conscience au sens perception, réception, ressenti : est-ce que la machine peut avoir chaud ? Est-ce qu’elle peut savoir ce qu’est la rougeur ? Est-ce ce qu’elle peut sentir l’odeur de naphtaline, par exemple ? Qu’est-ce que c’est, ça ? Là, c’est beaucoup plus difficile. Est-ce qu’on peut imaginer qu’une machine puisse avoir conscience en ce sens-là et, si c’est le cas, ça pose problème parce que ça voudrait dire qu’elle aurait, à ce moment-là peut-être, des désirs et, si elle a des désirs, elle risque d’avoir une volonté propre qui est de satisfaire ses désirs, donc de nous échapper. C’est, bien sûr, cela qui fait extrêmement peur. Mais on n’a aucun élément, aujourd’hui, qui nous laisse entendre qu’elle puisse avoir une conscience en ce sens-là et, même si elle en avait, il y a toutes les chances que cette conscience soit extrêmement éloignée de la nôtre, parce que les désirs sont quand même liés, d’une certaine façon, à notre capacité à survivre : si on aime l’eau, c’est parce qu’on pense que l’eau est bonne pour nous. Il y a ceux qui préfèrent l’alcool ! La machine devrait donc détester l’eau et aimer l’électricité, donc elle nous serait totalement étrangère. Est-ce que c’est probable qu’une machine ait une conscience ? On est extrêmement loin, en tout cas en ce troisième sens, et si elle l’avait, ce serait tellement étranger que je ne vois pas très bien ce qu’on pourrait en faire.
Après, bien sûr, le risque serait qu’elle nous échappe complètement, mais, là encore, il y a beaucoup d’animaux dans la nature qui ont des consciences qui nous échappent beaucoup, qui peuvent être très hostiles et on est arrivé arriver à les maîtriser. Il n’y a pas de raison qu’on n’arrive pas à maîtriser, de ce point de vue-là, des machines.

Mathilde Saliou : S’inquiéter d’une potentielle conscience et d’un dépassement de l’humanité par l’intelligence artificielle, on comprend que ça n’est pas nécessairement la priorité. Je demande donc à Jean-Gabriel Ganascia ce qui, pour lui, devrait d’abord nous préoccuper. Il commence par me parler des entreprises qui construisent ces technologies.

Jean-Gabriel Ganascia : Je crois qu’il y a d’abord la prise de pouvoir considérable que prennent ces grands acteurs qui, tous les jours, ont plus de moyens, rivalisent avec les États. Le fait qu’ils assument, à leur place, un certain nombre d’attributs de la souveraineté me semble, du point de vue politique, extrêmement important.
Les questions énergétiques aussi. Pour l’entraînement de ces très gros systèmes d’intelligence artificielle il y a un coût qui est non négligeable même si, bien sûr, au regard des coûts de déplacement c’est faible, mais quand même, à terme, si ça se développe, ça va être beaucoup plus important.
Il y a aussi, bien sûr, les interférences avec les institutions démocratiques, avec le fait que ces systèmes d’intelligence artificielle sont capables, potentiellement, de générer énormément de fausses informations, de fausses images, des textes totalement fallacieux, des personnes qui prononcent des textes, tout ça peut induire en erreur et c’est d’autant plus dangereux, d’ailleurs, que les fausses images ressemblent à des photos. La photo, au sens sémiotique, c’est la même chose que ce qu’on appelle l’indisigne, c’est-à-dire ??? Pears [21 min 05] distingue le symbole de l’index, l’index c’est vous montrez quelque chose et le symbole vous représentez. Dans une peinture, on représente quelque chose, donc, si elle est fausse, on peut toujours dire que c’est une erreur du peintre. Tandis que là, l’index, on vous montre quelque chose qui est une photo, vous avez l’impression que c’est vrai parce que vous avez l’impression qu’on pointe sur quelque chose. En réalité, cette soi-disant photo est quelque chose qui a été fabriqué par une machine et qui peut être totalement erroné.
Et puis, au-delà de cela, il y a le fait que les informations erronées, ce qu’on appelle les infox en français ou les fake news en anglais, vont être diffusées sélectivement à des segments de la population qui ont été prédéterminés. Cela est extrêmement problématique, parce que ça veut dire que l’espace public de débat, qui faisait que nous avions tous la même information et que nous réagissons tous aux mêmes choses, est en train de disparaître. Aujourd’hui, chaque segment de la population a les informations qui lui conviennent, donc, bien sûr, on risque d’arriver dans une société où on ne peut plus se comprendre, il ne peut plus y avoir d’espace public. Un très grand philosophe, qui a joué un rôle important en Europe justement pour essayer de construire une morale commune, Jürgen Habermas, spécialiste de la philosophie de la communication, a écrit, il y a deux ans, un ouvrage où il s’inquiète de ça, Espace public et démocratie délibérative : un tournant et, je crois, que c’est le plus grand danger consécutif à l’utilisation des techniques d’intelligence artificielle.

Mathilde Saliou : Comme on est parti sur des considérations philosophiques, qui sont passionnantes et qui me semblent importantes à prendre en compte et qu’on va continuer de décortiquer au fil des épisodes, je me suis dit qu’on avait besoin du point de vue de quelqu’un qui a les mains dans le cambouis.

22’ 45

Amélie Cordier :