« ChatGPT dans le texte » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
(Page créée avec « Catégorie:Transcriptions '''Titre :''' ChatGPT dans le texte '''Intervenants : ''' Alexandre Gefen - Yann Le Cun - Italo Calvino - Xavier de La Porte '''Lieu :... »)
 
Aucun résumé des modifications
Ligne 74 : Ligne 74 :
==13’ 30==
==13’ 30==


<b>Alexandre Gefen : </b>
<b>Alexandre Gefen : </b>Il y a un progrès vraiment qualitatif qui tient, d’une part, au fait que son corpus d’entraînement soit si grand qu’il ait une capacité à parler de beaucoup de choses, donc qu’il donne l’impression d’avoir réponse à tout.<br/>
Il y a aussi un énorme saut qui tient au fait qu’il a été entraîné sur un modèle de questions/réponses et ça c’est un vieux truc : la questions/réponses, le dialogue, c’est un truc qui date de l’humanisme voire plus loin, du dialogue socratique. Il y a donc cette fausse convivialité, en tout cas cette projection qu’on fait vis-à-vis d’une sorte d’entité, de personne. Je passe mon temps à me demander qui parle, c’est ma grande question : qui parle ? Est-ce que c’est un logiciel ? Est-ce que ce sont des connaissances humaines ? Est-ce que c'est une entité autonome ?<br/>
Et puis le saut qualitatif c’est que c’est une intelligence artificielle qui a été domptée, qui a été extrêmement alignée, qui dit relativement peu de très grosses bêtises, donc c’est une intelligence artificielle qui a un discours, qui a une espèce de position sur le monde et qui ne vous renvoie pas seulement un truc burlesque, de textes qui ne tiennent pas vraiment. Il y a des effets de cohérence, des effets de qualité qui sont assez frappants.
 
<b>Xavier de La Porte : </b>D’accord. Il y a quand même quelque chose de différent avec GPT. C’est intéressant qu’Alexandre insiste autant sur la forme, celle du dialogue notamment.<br/>
Justement, puisqu’on parle de forme, une question me taraude : à force de pratiquer GPT, j’ai l’impression, peut-être fausse, qu’entre 1000 textes je reconnaîtrais celui qui a été produit par GPT. Est-ce que c’est normal ?
 
<b>Alexandre Gefen : </b>On le reconnaît, mais la question est de savoir comment on le reconnaît. C’est le grand truc : savoir si on va pouvoir avoir des détecteurs de ChatGPT. En fait, ce n’est pas possible parce que le langage de ChatGPT c’est un langage moyen, ccette langue qu’on a tous, chacun en partie, mais qui n’existe jamais dans sa globalité. ChatGPT parle la langue c’est-à-dire qu’il parle la moyenne de milliards et de milliards d’usages. C’est donc un langage super fluide, qui ne commet aucune faute d’orthographe, qui va toujours au plus petit commun dénominateur. En général, il va vraiment vers la manière la plus idiomatique de parler. Une première caractéristique, c’est l’hyper-fluidité, ce qui fait que la seule manière de le reconnaître serait de reconnaître un truc qui ne fait pas de faute.<br/>
Turing y avait déjà pensé. Lorsqu’il imagine le test, une des objections qu’il se fait à lui-même c’est « mais si le langage est trop parfait, le premier truc qu’il faudra faire pour tromper l’humain sera d’introduire des petites erreurs, des petites variations ». Pour le reconnaître, il faudrait donc mettre une espèce d’empreinte qu’il faudrait cacher comme dans les images, etc., en fait ça ne marche pas trop. Donc on ne peut pas le reconnaître, mais on le sent, c’est très dur à objectiver. Quand on l’a dans une copie ou quand on l’a dans un texte, on sent qu’il y a quelque chose et ça devient une métaphore. Dans <em>Le Masque et la Plume</em>, une autre émission de France Inter, je crois que c’est Arnaud Viviant qui parlait d’un livre écrit avec Chat GPT, donc on sent un truc qui est un peu trop normal, en fait.
 
<b>Xavier de La Porte : </b>C’est passionnant ! D’abord l’idée qu’on ressent une bizarrerie qu’on n’arrive pas à objectiver. Ça me fait penser à la série <em>Real Humans : 100 % humain</em> qui était géniale pour ça, parce que les robots Android qu’elle mettait en scène avaient une étrangeté très ténue, quasi indescriptible, ils étaient presque trop parfaits. Ils étaient étranges à force d’être trop parfaits.
 
<b>Extrait de la série <em>Real Humans : 100 % humain</em> : </b>— Bonjour.<br/>
— Comment tu t’appelles ?<br/>
— Je n’ai pas encore de prénom.<br/>
— Tu ne veux pas manger quelque chose ?<br/>
— Non merci.<br/>
— Tu ne manges pas, mais tu veux peut-être de l’eau ?<br/>
— Quelques centilitres.<br/>
— Ça déchire.<br/>
— Comment tu as trouvé l’eau, Anita ?<br/>
— Ça déchire.<br/>
[Rires]
 
<b>Xavier de La Porte : </b>Deuxième chose passionnante dans ce que dit Alexandre : que Turing ait déjà envisagé cette objection dans les années 50. Son idée, on se souvient, le fameux test de Turing, c’est qu’une machine pourra être dite intelligente le jour où quand un humain discutera par écrit avec une machine et qu’il ne saura pas s’il converse avec un autre humain ou avec une machine. Turing disait donc que l’intelligence de la machine serait de simuler. Mais, pour simuler la langue humaine, Turing objecte qu’il faut que la machine fasse des fautes. La machine doit donc simuler aussi la faillibilité de la langue humaine. C’est très beau. Donc, si ChatGPT est reconnaissable c’est parce qu’il est trop normal et c’est parce qu’il n’est pas assez faillible dans son expression. Deux magnifiques paradoxes. Voilà pour la langue de ChatGPT.<br/>
Mais Alexandre a dit tout à l’heure que ChatGPT présentait aussi un discours sur le monde. Un discours ce n’est pas simplement une langue, c’est aussi une manière de présenter les idées. Comment Alexandre décrirait-il cette manière ?
 
<b>Alexandre Gefen : </b>Il a été adopté un certain nombre d’attitudes rhétoriques, notamment c’est une machine qui dialectise en permanence le vrai, le faux, l’hypothèse, le contraire. Pour éviter justement pour qu’il prenne position sur des sujets un peu <em>touchy</em> genre l’avortement, la peine de mort, etc., on lui a appris à donner toujours un point de vue, puis l’autre, et ensuite à expliquer « de tout de façon je ne suis que ChatGPT, ce sont des questions morales qui concernent l’homme, ce n’est pas à moi de décider. » En fait ce n’est pas tout à fait vrai parce que, derrière, il y a une certaine idéologie. Néanmoins, et c’est là qu’il est assez bon, il sait montrer les deux faces d’une réalité, donc il sait articuler des connaissances qui peuvent être contradictoires.
 
<b>Xavier de La Porte : </b>GPT est dialectique. Ça c’est vrai. Mais, je ne vois pas très bien comment ça marche techniquement. Parce que si le modèle ne faisait que générer du texte sur la base de probabilités, il ne devrait pas être dialectique, il devrait s’en tenir à ce qu’est l’avis le plus fréquent, l’avis moyen, or, ce n’est pas le cas, enfin, pas toujours. Donc, comment GPT est-il devenu dialectique ?
 
<b>Alexandre Gefen : </b>La grosse valeur ajoutée par rapport aux modèles de langage, c’est l’alignement. Ça consiste à faire entraîner par des humains l’IA. En fait, on va le renforcer par des centaines et des centaines de milliers d’exercices, où ce sont des petites mains recrutées en Afrique par une société qui s’appelle Sama, payées deux dollars – il y a eu une enquêtée très documentée là-dessus – qui vont dire « là c’est vrai, là ChatGPT se trompe, là il y a biais racial, là il n’y a pas de biais racial ». Il y a donc cette énorme masse de gens derrière, toutes les grosses IA ont toujours besoin d’un coup de pouce humain, et c’est dans cette mobilisation du travail humain que les gens d’OpenAI ont été très efficaces. Dans une brique dont on ne parle pas, qui est le PPO, qui est la manière dont, à partir d’un input humain, qui va dire « cette réponse sur la prise de la Bastille est vraie, est fausse, c’est une hallucination », on va généraliser. À un moment, la machine a une capacité de se renforcer par elle-même et de se généraliser. Évidemment, tous ces travailleurs humains ne peuvent pas répondre à tous les sujets, à toutes les questions de morale, à tous les cas., ils ne peuvent pas censurer tous les textes. OpenAI a été capable de développer un outil qui a permis de contrôler, en fait, l’ensemble des discours que va produire ensuite ChatGPT, ce qui fait qu’il est relativement fiable.
 
<b>Xavier de La Porte : </b>Là on comprend un truc essentiel. Dans ces IA, il y a de la génération de texte par probabilités. OK. Mais il y a plein d’autres choses qui entrent en jeu. D’ailleurs, dans une très bonne interview qu’il a donnée à <em>L'Obs</em>, le grand mathématicien Daniel Andler parle de chaos statistique pour décrire la manière dont fonctionnent ces programmes. C’est-à-dire que dans leurs modèles s’entrechoquent des règles statistiques. En l’occurrence, il y a la génération de textes par probabilités, mais il y a aussi le PPO qui vise à monter en généralités les corrections et puis, sans doute, plein d’autres outils statistiques qui, donc, s’entrechoquent, pour filer la métaphore de Andler.<br/>
J’imagine qu’un architecte des réseaux de neurones hurlerait en entendant dire les choses de cette manière, en tout cas, c’est comme cela que je me les représente. Il sort donc quelque chose de ce chaos statistique.<br/>
Tout à l’heure, Alexandre a employé tout à l’heure le mot d’idéologie. Encore une fois, j’aimerais qu’il précise ce qu’il entend par là.
 
<b>Alexandre Gefen : </b>Il y a un premier truc à comprendre, c’est qu’une intelligence artificielle c’est de droite, par essence, dans le sens où c’est conservateur : ça produit du futur à partir du passé. Ça ne peut pas proposer une révolution, ça ne fait que proposer des réponses qui sont nourries parce que ce que les gens ont compris dans le passé. D’où le fait qu’elle soit très biaisée. Ce sont des IA qui sont entraînées sur des gros corpus du Web, des milliers de milliers de forums. Elle a donc appris de tous nos biais, de toutes nos erreurs, de tous nos à priori. Elle est donc structurellement de droite.<br/>
En revanche, l’alignement est très orienté pour la recontrôler, la ramener sur des valeurs américaines, écolos, long-termistes, progressistes, défense des minorités. Il y a donc une espèce de grand écart entre ce que fait une intelligence artificielle, c'est-à-dire reconduire le passé, et l’option progressiste d’une société qui est pilotée par quelqu’un, qui est un contributeur au parti démocrate, qui est gay, végétarien, très progressiste. Mais sa base, sa source, est totalement biaisée et on s’en aperçoit encore parce qu’il y a des trucs qu’ils ne peuvent pas corriger. Un test très facile à faire : demander à ChatGPT de dépeindre un médecin, il dépeindra toujours un homme, même si 50 % des médecins sont aujourd’hui des femmes ce sera toujours un homme. Tous les à priori sur les représentations ont été emmagasinés, la plupart ont été corrigés, mais beaucoup de nos à priori, beaucoup de nos modes de pensée, y compris les plus satisfaisants, sont encore encodés dedans.
 
<b>Xavier de La Porte : </b>Donc, ce qu’on lit dans ChatGPT c’est le produit d’un tiraillement. Tiraillement entre ce que lui disent les données dont il se nourrit et ce que ses créateurs veulent faire de lui. Évidemment, parler de tiraillement c’est encore une caricature. Dans les faits, c’est beaucoup plus imbriqué, mais c’est important que le résultat soit le fruit d’une intention humaine.<br/>
Néanmoins, comme le dit Alexandre, ce n’est pas parfait. Ce qui voudrait dire que selon les questions qu’on lui pose, selon que les corrections ont été bien faites ou pas, ressurgissent, à certains moments, nos biais, nos préjugés et je trouve ça hyper-intéressant. En gros, on pourrait dire que GPT nous permet d’objectiver le tréfonds de ce que pense et croit l’humanité sans toujours se le formuler.
 
<b>Alexandre Gefen : </b>C’est la conscience collective de l’humanité. Plus on va avoir des corpus de textes anciens plus on aura une profondeur historique pour cet inconscient collectif. C’est l’inconscient et c’est aussi le savoir. S’il y a des choses qui ne nous plaisent pas ou qui nous troublent parce que c’est de l’inconscient, il y a aussi beaucoup de choses qui sont très bénéfiques, une capacité à synthétiser sur du savoir humain ; c’est un outil extrêmement efficace, intéressant, qui permet de contributeur à avancer des connaissances. Je ne pense qu’on ne peut pas réduire ça à une sorte d’impensé de la civilisation qui nous reviendrait dessus. C’est aussi quelque chose dans lequel il y a tout Wikipédia, dans lequel il y a beaucoup de livres, il y a une production de savoirs intéressants, souvent équilibrés et les résultats sont souvent très satisfaisants.
 
<b>Xavier de La Porte : </b>Oui. Mais alors là, il y a un truc qui me pose question. Alexandre parle de production de savoirs. Mais est-ce qu’on peut vraiment parler de savoirs alors que ChatGPT ne sait rien. ChatGPT ne sait pas que le ciel est bleu. ChatGPT a lu que le plus souvent le ciel était bleu, donc il dit que le ciel est bleu. Et, si on corrige en lui disant « quand il y a le mot « Angleterre » pas loin du mot « ciel », il est fort probable que le ciel soit plutôt gris ». Quand on lui dit ça, il n’apprend pas que le ciel est plus souvent gris en Angleterre, il introduit simplement un nouveau paramètre statistique.<br/>
Je pose la question à Alexandre : est-ce qu’on peut, malgré tout, appeler ça du savoir ?
 
<b>Alexandre Gefen : </b>C’est cela qui est extrêmement troublant. En soi, il y a une vraie différence entre connaître le monde par le langage et avoir une représentation des connaissances, avoir une idée de la logique. ChatGPT ne sait pas ce qu’est un phénomène basique, qu’une balle tombe avec la gravité quand un enfant joue avec. Si on lui demande ce qui va se passer si on approche une aiguille d’un ballon, il ne répondra à question que parce qu’il a lu des milliards de textes,un ballon éclate lorsqu’on appuie avec une aiguille dessus, mais il n’a aucune idée de la physique derrière. Alors que nous humains, très tôt, il suffit d’avoir des enfants pour s’en rendre compte, on a des idées relativement sommaires mais relativement robustes, des fonctionnements, des causes et des conséquences.<br/>
En théorie il y a, d’un côté, le rêve d’avoir une IA logique, une IA qui aurait été capable de faire une vraie expertise. C’est toute la première ère de l’IA avant les années 2000, avant les réseaux de neurones et l’apprentissage automatique. Et puis une IA dont le principe est totalement différent qui, elle, ne fait qu’engranger des probabilités à partir de connaissances. On peut effectivement dire que ce n’est pas fiable, qu’il n’y a aucune connaissance du monde, qu’il n’y a aucun rapport à la vérité, il y a juste des probabilités statistiques. Sauf que est-ce que vraiment savoir et écrire, comprendre et lire, c’est si différent que ça. Est-ce qu’on ne peut pas, à partir du langage, trouver des choses qui soient quand même assez profondes.
 
<b>Xavier de La Porte : </b>OK. Ça voudrait dire qu’une entité qui n’a pas de corps, qui n’a jamais rien vu, rien entendu, rien senti, rien vérifié, mais qui aurait été nourrie seulement par des milliards et des milliards de textes pourrait être considérée comme connaissant le monde. C’est sûr que c’est troublant.<br/>
Quand j’entends cela, je me dis que c’est une croyance de littéraire. La croyance de quelqu’un qui a tellement confiance en la puissance du langage qu’il pense que le langage suffit pour connaître le monde. Je fais la remarque à Alexandre : tu dis ça parce que tu vis dans la littérature.
 
==27’ 33==
 
<b>Alexandre Gefen : </b>Non !

Version du 1 juillet 2023 à 13:12


Titre : ChatGPT dans le texte

Intervenants : Alexandre Gefen - Yann Le Cun - Italo Calvino - Xavier de La Porte

Lieu : Émission Le code a changé - France Inter

Date : 9 juin 2023

Durée : 60 min

Podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Xavier de La Porte : Dans l’épisode précédent, qui traitait de tout autre chose d’ailleurs, j’ai émis, en passant, l’hypothèse que la littérature nous avait préparés à ChatGPT. Il faut reconnaître que ça ne reposait pas sur grand-chose.
Et puis voici que début mai, est paru un livre qui s’intitule ChatGPT et nous. Ce que le titre ne dit pas, et qui fait toute l’originalité de ce livre, c’est que son auteur est un littéraire. Un très respectable directeur de recherche au CNRS, du nom d’Alexandre Gefen, qui officie au Centre d'études de la langue et des littératures françaises. Il se trouve qu’Alexandre Gefen s’intéresse depuis longtemps au numérique, il code en plusieurs langages, dès 1999 il a créé le site fabula.org, dédié à la recherche littéraire, il dirige des thèses qui portent sur ces questions, et il suit depuis longtemps ce qui se fait dans ce champ vaste qu’on appelle les humanités numériques.
Là j’ai compris que c’est exactement ce que je cherchais depuis novembre, depuis que ChatGPT a fait irruption dans nos vies, que des millions de gens se sont mis à converser chaque jour avec ce programme et que tout le monde s’est mis à se poser des questions sur les progrès réalisés par l’IA. Je cherchais quelqu'un qui sache comment marchent ces IA génératives, mais qui regarde aussi ChatGPT pour ce qu’il est : une machine qui produit du texte, une machine mathématique qui se nourrit du langage humain et qui donne à lire du langage humain. Parce que, au fond, beaucoup de ces questions qu’on se pose avec angoisse au sujet de l’IA – est-ce que ces machines pensent ? Est-ce que ces machines connaissent le monde mieux que nous ? Est-ce qu’elles sont capables de créer ? Est-ce qu’elles vont nous remplacer y compris dans des tâches qu’on croyait proprement humaines ? – eh bien la plupart de ces questions sont liées au langage. D’ailleurs, si on y regarde bien, les métiers qui sont directement menacés par les performances de GPT – depuis l’écriture de communiqués de presse, jusqu’à la programmation informatique, en passant par le sous-titrage par exemple – sont des métiers qui ont à voir directement à voir avec le langage. Si on est ébéniste ou assistante maternelle, on est encore peinard quelque temps. C’est donc avec cette idée en tête que j’ai demandé à Alexandre Gefen de venir passer un moment dans les studios de Radio France. Comment un spécialiste de la littérature et de son histoire regarde ces machines textuelles avec lesquelles nous allons devoir vivre ?
D’ailleurs c’est comme ça que j’ai commencé la discussion, un peu abruptement, en lui demandant comment il vit l’arrivée de ChatGPT.

Alexandre Gefen : Moi, ça ne me surprend pas beaucoup parce que ça fait longtemps que mon métier c’est de faire parler des corpus, de faire parler le langage par le langage. L’idée que tout d’un coup la connaissance se mette à parler par elle-même c’est un truc que j’ai vu venir. J’ai vu venir les outils en linguistique, j’ai vu venir les premiers outils statistiques qui permettaient d’interpréter des choses qui, autrement, étaient lisibles, j’ai vu venir les premiers réseaux de neurones qui permettaient de donner l’équivalent sémantique d’un mot à un autre, j’ai vu les premiers outils qui donnaient une sorte de synthèse des documents, de manière absolument spectaculaire, il y a déjà cinq/six ans. Tout cela est arrivé très progressivement, j’ai vu GPT, j’ai vu GPT-2, j’ai vu GPT-3, je me suis accoutumé, je me suis familiarisé. C’est aussi le moment où on a vu ces premiers assistants personnels qui vous parlaient, c’est le moment où on a vu les premiers GAN [Generative Adversarial Networks, les intelligences artificielles qui créaient les premières œuvres ; tout cela est donc arrivé assez progressivement.

Xavier de La Porte : Il a raison de le rappeler, Alexandre. Quiconque a suivi les évolutions de l’IA ces dernières années a plus ou moins vu venir ChatGPT. C’est important de se souvenir que tout cela ne vient pas de nulle part. D’ailleurs, ça permet d’expliquer certaines réactions qui, sinon, pourraient paraître un peu bizarres. Je pense par exemple à Yann Le Cun quand il était interrogé, en avril dernier, dans la matinale d’Inter, lui, responsable de l’IA chez Meta, c’est-à-dire Facebook, lui qui est pionnier du réseau de neurones et un des papes de la discipline depuis 2012 au moins, quand on lui demande ce qu’il pense de ChatGPT, il ne trouve pas ça ouf.

Yann Le Cun : Au niveau de la science et de la technologie sous-jacente ce n’est du tout révolutionnaire, non. C’est facile, pour des gens comme mes collègues et moi, qui voient ça des tranchées, pour nous c’est une évolution un petit peu naturelle. Ces systèmes de deep learning sont ce qu’on appelle des réseaux de neurones artificiels de très grande taille, on peut les entraîner sur des quantités de textes absolument énormes, mais le principe sur lequel ils sont basés c’est purement essayer de prédire la continuation d’un texte. Dans le texte avec lequel ils ont été entraînés il y a beaucoup de connaissance humaine mais qui est très superficielle. Ça ne comprend pas, par exemple, la connaissance du monde physique, du monde réel. Donc ces systèmes, d’une certaine manière, ont beaucoup moins de connaissance du monde réel que votre chat.

Xavier de La Porte : Je suis convaincu que Le Cun dit ça pas seulement parce qu’il est chez Facebook et que Facebook s’est fait voler la mise par OpenAI, la boîte qui a développé ChatGPT. Il le dit parce qu’il sait d’où ça vient et qu’il connaît les limites du truc. D’ailleurs, note pour plus tard, il faudra qu’on revienne sur cette question de l’ignorance que GPT a du monde physique et tout ça ; c’est rigolo cette histoire de chat.

Donc, je comprends le ton un peu blasé d’Alexandre, mais il y a autre chose dans ce qu’il dit, quelque chose qui n’est pas un propos d’ingénieur et qui m’interpelle. Au tout début de sa réponse, Alexandre a dit qu’il était d’autant moins surpris par GPT que son métier de chercheur sur la littérature c’est de faire, je cite, «  parler le langage par le langage ». Je lui demande de préciser ce qu’il entend par là.

Alexandre Gefen : Pour nous, le fait de connaître le monde comme le fait ChatGPT non pas avec des concepts, mais d’abord avec du langage, avec des mots, des séquences de mots, des enchaînements de mots, c’est au cœur de notre métier, c’est totalement naturel.

Xavier de La Porte : Connaître le monde non par des concepts mais par des enchaînements de mots. C’est une très bonne définition de la manière dont fonctionnent ces IA comme GPT, mais qu’est-ce que ça veut dire vraiment ? Ça veut dire que si je demande à GPT, par exemple, qui est le général De Gaulle, il ne va pas aller chercher dans une base de données où seraient classés les grands personnages de l’histoire en fonction de leur rôle, de leur époque, etc., quand je lui demande qui est le général De Gaulle, GPT va chercher dans l’immensité des données qu’il a accumulées les mots et les groupes de mots qui, statistiquement, sont les plus probables d’apparaître en lien avec cette question. Évidemment je caricature, mais c’est quand même ça le principe. À aucun moment on ne passe par des concepts, à aucun moment on ne fournit à la machine un découpage du monde. On lui fournit juste des données textuelles en masse que ces modèles statistiques très complexes vont mouliner pour produire, en sortie, un autre texte.
J’ai du mal à comprendre comment Alexandre peut dire que pour des littéraires ce processus est, je reprends son expression, « totalement naturel ». Encore une fois je luis demande de préciser.

Alexandre Gefen : La génération de textes c’est un vieux rêve en littérature. La première machine à écrire automatique est dans Les Voyages de Gulliver de Swift au début du 18e siècle.

Xavier de La Porte : Il en dit quoi ?

Alexandre Gefen : Il invente une sorte de truc qui s’appelle the machine qui va fabriquer des réponses sur tous les sujets, il le dessine. Il y a un schéma dans Les Voyages de Gulliver de cette machine à écrire. C’est un mythe qui est encore plus ancien. À la fin du Moyen Âge, il y a cette légende, cette tête enchantée d’Albert le Grand, qui était un philosophe scolastique qui avait l’habitude de répondre à toutes les questions de manière un petit peu formelle. Il y a l’idée de cette machine qui va répondre automatiquement aux questions et son disciple, Saint-Thomas d’Aquin, casse la machine.

Xavier de La Porte : Alors là, je ne sais pas du tout à quoi fait référence Alexandre. Renseignements pris, au 13e siècle, en Allemagne, a vécu un type auquel on a donné le nom d’Albert le Grand. C’était un moine dominicain mais c’était aussi savant total – philosophe, théologien, alchimiste naturaliste – comme on pouvait l’être à l’époque. Albert a écrit d’immenses traités visant à recenser les savoirs de son temps. Dans un de ses livres, De Anima, De l’âme, il décrit une sorte d’automate de bois qui aurait été capable de répondre à tous les ordres. Dans les récits ultérieurs, il est raconté qu’Albert aurait essayé de construire cette machine mais qu’elle aurait été détruite par un de ses disciples, Thomas d’Aquin dit-on, qui y voyait dit-il une diabolique.
On se fout un peu de la dimension légendaire de cette histoire, ce qui importe ici c’est que le rêve d’un automate savant est très vieux rêve, déjà présent au 13e siècle et qui a traversé ensuite les époques en passant donc par plein de trucs dont le Gulliver de Swift. Si GPT semble naturel à quelqu’un qui vit dans la littérature c’est parce que la machine à texte c’est un thème qui traverse les textes depuis longtemps. OK, mais est-ce qu’il n’y a pas un rapport plus théorique ? Alexandre enchaîne.

Alexandre Gefen : Moi je suis né dans une culture critique qui était aussi celle du structuralisme, du formalisme dans lequel l’idée que le langage était un code était absolument naturelle. Je me souviens d’avoir lu des articles de Calvino sur littérature et cybernétique, déjà les métaphores passaient d’un champ à l’autre.

Xavier de La Porte : Là encore, il faut que j’arrête avec Alexandre. Italo Calvino je connais, auteur notamment de très beaux contes Le Baron perché et Le Vicomte pourfendu et d’un roman magnifique Si par une nuit d'hiver un voyageur qui est une sorte de jeu littéraire complexe où le lecteur se perd dans plein de débuts de romans dont il ne connaîtra jamais la fin. De Calvino je me souviens de ça. Mais qu’il se soit intéressé à la cybernétique, alors là, j’ignorais complètement. En effet, en cherchant un peu, les liens apparaissent.
Dans Si par une nuit d'hiver un voyageur, Calvino parle d’une machine qui pourrait lire et écrire à partir de ce qu’elle a lu. C’est vrai que sur le principe ça ressemble vachement à ChatGPT et il écrit cela en 1979.

Italo Calvino : J’aime beaucoup monter des machines. Dans mes romans je monte des machines très compliquées. J’espère qu’elles restent compliquées pour moi et pas pour lecteur.

Xavier de La Porte : Ce qui est plus intéressant encore c’est pourquoi Calvino pense à une machine comme ça. C’est parce que, depuis les années 60, il s’intéresse de près à tout ce que produit l’informatique à la fois matériellement mais aussi théoriquement. On voit ça dans une conférence qu’il a donnée à Turin en 1967 dans laquelle il cite les pionniers de l’IA et aussi les théoriciens de la cybernétique, Shannon, Wiener, von Neumann, Turing, etc.
Mais pourquoi cela intéresse-t-il un mec qui écrit de la littérature ? Parce que Calvino, comme beaucoup d’autres écrivains et théoriciens de son époque, voit la littérature comme un art de la combinatoire. Écrire un texte c’est combiner avec des composants linguistiques. Et s’il y a un truc que les machines permettent de faire, eh bien c’est la combinatoire. Donc, il n’y a aucune opposition théorique à ce que les machines puissent produire de la littérature.
Là, je commence à percevoir les liens fondamentaux entre littérature et ChatPT. Il y a donc des écrivains qui, dans les années 60, avaient déjà réfléchi aux questions qu’on se pose aujourd’hui et y avaient même répondu. Et, pour quelqu’un comme Alexandre qui connaît cette histoire, tout cela est assez familier.
Il y a quand même une question : peut-être que les gens qui pensaient comme Calvino dans les années 60 étaient-ils particulièrement en avance sur la technique de leur époque. Là encore, Alexandre me douche un peu.

Alexandre Gefen : Les méthodes fondamentales de ChatGPT datent des années 60. Le principe linguistique qui permet d’enchaîner un mot après un autre d’après un contexte, de comprendre que le sens d’un mot ce n’est pas une ontologie abstraite, ce sont d’abord les mots avec lesquels il apparaît, c’est un truc qu’on connaît, c’est un principe de linguistique statistique hyper-établi, dont on se servait tout le temps en fait.

Xavier de La Porte : C’est important ce que dit Alexandre : à la base de ces IA génératives de texte il y a un principe linguistique. À la base de ces machines mathématiques super sophistiquées, il y a une idée de la langue et cette idée c’est que le sens d’un mot n’est pas un truc clos, donné une fois pour toutes, une ontologie, pour reprendre le terme d’Alexandre, mais le sens d’un mot dépend avant tout d’un contexte. Dès les années 60, certains sentent bien que c'est la statistique qui va permettre aux machines de déduire le sens d’un mot à partir de son contexte. Sauf qu’on n’a pas les machines pour le faire et que, jusque dans le milieu des années 2010, on patauge et on voit bien que tout cela n’est pas sans lien avec l’idée que Calvino, et plein d’autres, se font de la littérature comme un art de la combinatoire que des machines vraiment puissantes pourraient pratiquer aussi bien que nous.
En fait, tout cela va ensemble et c’est super important de le rappeler pour amortir un peu le choc produit par ChatGPT et consorts. Tout cela a une histoire qui n’est pas seulement liée à l’histoire des maths mais est aussi liée à l’histoire de la littérature. On pourrait donc défendre l’idée que la littérature et son histoire nous ont préparés, de différentes manières, à la possibilité d’accueillir sans angoisse un truc comme ChatGPT.

Néanmoins, il s’est quand même passé plein de choses depuis les années 60 et il s’est passé plein de choses notamment ces dernières années. J’aimerais qu’Alexandre me dise si ChtGPT n’a quand même pas marqué une étape dans tout cela.

13’ 30

Alexandre Gefen : Il y a un progrès vraiment qualitatif qui tient, d’une part, au fait que son corpus d’entraînement soit si grand qu’il ait une capacité à parler de beaucoup de choses, donc qu’il donne l’impression d’avoir réponse à tout.
Il y a aussi un énorme saut qui tient au fait qu’il a été entraîné sur un modèle de questions/réponses et ça c’est un vieux truc : la questions/réponses, le dialogue, c’est un truc qui date de l’humanisme voire plus loin, du dialogue socratique. Il y a donc cette fausse convivialité, en tout cas cette projection qu’on fait vis-à-vis d’une sorte d’entité, de personne. Je passe mon temps à me demander qui parle, c’est ma grande question : qui parle ? Est-ce que c’est un logiciel ? Est-ce que ce sont des connaissances humaines ? Est-ce que c'est une entité autonome ?
Et puis le saut qualitatif c’est que c’est une intelligence artificielle qui a été domptée, qui a été extrêmement alignée, qui dit relativement peu de très grosses bêtises, donc c’est une intelligence artificielle qui a un discours, qui a une espèce de position sur le monde et qui ne vous renvoie pas seulement un truc burlesque, de textes qui ne tiennent pas vraiment. Il y a des effets de cohérence, des effets de qualité qui sont assez frappants.

Xavier de La Porte : D’accord. Il y a quand même quelque chose de différent avec GPT. C’est intéressant qu’Alexandre insiste autant sur la forme, celle du dialogue notamment.
Justement, puisqu’on parle de forme, une question me taraude : à force de pratiquer GPT, j’ai l’impression, peut-être fausse, qu’entre 1000 textes je reconnaîtrais celui qui a été produit par GPT. Est-ce que c’est normal ?

Alexandre Gefen : On le reconnaît, mais la question est de savoir comment on le reconnaît. C’est le grand truc : savoir si on va pouvoir avoir des détecteurs de ChatGPT. En fait, ce n’est pas possible parce que le langage de ChatGPT c’est un langage moyen, ccette langue qu’on a tous, chacun en partie, mais qui n’existe jamais dans sa globalité. ChatGPT parle la langue c’est-à-dire qu’il parle la moyenne de milliards et de milliards d’usages. C’est donc un langage super fluide, qui ne commet aucune faute d’orthographe, qui va toujours au plus petit commun dénominateur. En général, il va vraiment vers la manière la plus idiomatique de parler. Une première caractéristique, c’est l’hyper-fluidité, ce qui fait que la seule manière de le reconnaître serait de reconnaître un truc qui ne fait pas de faute.
Turing y avait déjà pensé. Lorsqu’il imagine le test, une des objections qu’il se fait à lui-même c’est « mais si le langage est trop parfait, le premier truc qu’il faudra faire pour tromper l’humain sera d’introduire des petites erreurs, des petites variations ». Pour le reconnaître, il faudrait donc mettre une espèce d’empreinte qu’il faudrait cacher comme dans les images, etc., en fait ça ne marche pas trop. Donc on ne peut pas le reconnaître, mais on le sent, c’est très dur à objectiver. Quand on l’a dans une copie ou quand on l’a dans un texte, on sent qu’il y a quelque chose et ça devient une métaphore. Dans Le Masque et la Plume, une autre émission de France Inter, je crois que c’est Arnaud Viviant qui parlait d’un livre écrit avec Chat GPT, donc on sent un truc qui est un peu trop normal, en fait.

Xavier de La Porte : C’est passionnant ! D’abord l’idée qu’on ressent une bizarrerie qu’on n’arrive pas à objectiver. Ça me fait penser à la série Real Humans : 100 % humain qui était géniale pour ça, parce que les robots Android qu’elle mettait en scène avaient une étrangeté très ténue, quasi indescriptible, ils étaient presque trop parfaits. Ils étaient étranges à force d’être trop parfaits.

Extrait de la série Real Humans : 100 % humain : — Bonjour.
— Comment tu t’appelles ?
— Je n’ai pas encore de prénom.
— Tu ne veux pas manger quelque chose ?
— Non merci.
— Tu ne manges pas, mais tu veux peut-être de l’eau ?
— Quelques centilitres.
— Ça déchire.
— Comment tu as trouvé l’eau, Anita ?
— Ça déchire.
[Rires]

Xavier de La Porte : Deuxième chose passionnante dans ce que dit Alexandre : que Turing ait déjà envisagé cette objection dans les années 50. Son idée, on se souvient, le fameux test de Turing, c’est qu’une machine pourra être dite intelligente le jour où quand un humain discutera par écrit avec une machine et qu’il ne saura pas s’il converse avec un autre humain ou avec une machine. Turing disait donc que l’intelligence de la machine serait de simuler. Mais, pour simuler la langue humaine, Turing objecte qu’il faut que la machine fasse des fautes. La machine doit donc simuler aussi la faillibilité de la langue humaine. C’est très beau. Donc, si ChatGPT est reconnaissable c’est parce qu’il est trop normal et c’est parce qu’il n’est pas assez faillible dans son expression. Deux magnifiques paradoxes. Voilà pour la langue de ChatGPT.
Mais Alexandre a dit tout à l’heure que ChatGPT présentait aussi un discours sur le monde. Un discours ce n’est pas simplement une langue, c’est aussi une manière de présenter les idées. Comment Alexandre décrirait-il cette manière ?

Alexandre Gefen : Il a été adopté un certain nombre d’attitudes rhétoriques, notamment c’est une machine qui dialectise en permanence le vrai, le faux, l’hypothèse, le contraire. Pour éviter justement pour qu’il prenne position sur des sujets un peu touchy genre l’avortement, la peine de mort, etc., on lui a appris à donner toujours un point de vue, puis l’autre, et ensuite à expliquer « de tout de façon je ne suis que ChatGPT, ce sont des questions morales qui concernent l’homme, ce n’est pas à moi de décider. » En fait ce n’est pas tout à fait vrai parce que, derrière, il y a une certaine idéologie. Néanmoins, et c’est là qu’il est assez bon, il sait montrer les deux faces d’une réalité, donc il sait articuler des connaissances qui peuvent être contradictoires.

Xavier de La Porte : GPT est dialectique. Ça c’est vrai. Mais, je ne vois pas très bien comment ça marche techniquement. Parce que si le modèle ne faisait que générer du texte sur la base de probabilités, il ne devrait pas être dialectique, il devrait s’en tenir à ce qu’est l’avis le plus fréquent, l’avis moyen, or, ce n’est pas le cas, enfin, pas toujours. Donc, comment GPT est-il devenu dialectique ?

Alexandre Gefen : La grosse valeur ajoutée par rapport aux modèles de langage, c’est l’alignement. Ça consiste à faire entraîner par des humains l’IA. En fait, on va le renforcer par des centaines et des centaines de milliers d’exercices, où ce sont des petites mains recrutées en Afrique par une société qui s’appelle Sama, payées deux dollars – il y a eu une enquêtée très documentée là-dessus – qui vont dire « là c’est vrai, là ChatGPT se trompe, là il y a biais racial, là il n’y a pas de biais racial ». Il y a donc cette énorme masse de gens derrière, toutes les grosses IA ont toujours besoin d’un coup de pouce humain, et c’est dans cette mobilisation du travail humain que les gens d’OpenAI ont été très efficaces. Dans une brique dont on ne parle pas, qui est le PPO, qui est la manière dont, à partir d’un input humain, qui va dire « cette réponse sur la prise de la Bastille est vraie, est fausse, c’est une hallucination », on va généraliser. À un moment, la machine a une capacité de se renforcer par elle-même et de se généraliser. Évidemment, tous ces travailleurs humains ne peuvent pas répondre à tous les sujets, à toutes les questions de morale, à tous les cas., ils ne peuvent pas censurer tous les textes. OpenAI a été capable de développer un outil qui a permis de contrôler, en fait, l’ensemble des discours que va produire ensuite ChatGPT, ce qui fait qu’il est relativement fiable.

Xavier de La Porte : Là on comprend un truc essentiel. Dans ces IA, il y a de la génération de texte par probabilités. OK. Mais il y a plein d’autres choses qui entrent en jeu. D’ailleurs, dans une très bonne interview qu’il a donnée à L'Obs, le grand mathématicien Daniel Andler parle de chaos statistique pour décrire la manière dont fonctionnent ces programmes. C’est-à-dire que dans leurs modèles s’entrechoquent des règles statistiques. En l’occurrence, il y a la génération de textes par probabilités, mais il y a aussi le PPO qui vise à monter en généralités les corrections et puis, sans doute, plein d’autres outils statistiques qui, donc, s’entrechoquent, pour filer la métaphore de Andler.
J’imagine qu’un architecte des réseaux de neurones hurlerait en entendant dire les choses de cette manière, en tout cas, c’est comme cela que je me les représente. Il sort donc quelque chose de ce chaos statistique.
Tout à l’heure, Alexandre a employé tout à l’heure le mot d’idéologie. Encore une fois, j’aimerais qu’il précise ce qu’il entend par là.

Alexandre Gefen : Il y a un premier truc à comprendre, c’est qu’une intelligence artificielle c’est de droite, par essence, dans le sens où c’est conservateur : ça produit du futur à partir du passé. Ça ne peut pas proposer une révolution, ça ne fait que proposer des réponses qui sont nourries parce que ce que les gens ont compris dans le passé. D’où le fait qu’elle soit très biaisée. Ce sont des IA qui sont entraînées sur des gros corpus du Web, des milliers de milliers de forums. Elle a donc appris de tous nos biais, de toutes nos erreurs, de tous nos à priori. Elle est donc structurellement de droite.
En revanche, l’alignement est très orienté pour la recontrôler, la ramener sur des valeurs américaines, écolos, long-termistes, progressistes, défense des minorités. Il y a donc une espèce de grand écart entre ce que fait une intelligence artificielle, c'est-à-dire reconduire le passé, et l’option progressiste d’une société qui est pilotée par quelqu’un, qui est un contributeur au parti démocrate, qui est gay, végétarien, très progressiste. Mais sa base, sa source, est totalement biaisée et on s’en aperçoit encore parce qu’il y a des trucs qu’ils ne peuvent pas corriger. Un test très facile à faire : demander à ChatGPT de dépeindre un médecin, il dépeindra toujours un homme, même si 50 % des médecins sont aujourd’hui des femmes ce sera toujours un homme. Tous les à priori sur les représentations ont été emmagasinés, la plupart ont été corrigés, mais beaucoup de nos à priori, beaucoup de nos modes de pensée, y compris les plus satisfaisants, sont encore encodés dedans.

Xavier de La Porte : Donc, ce qu’on lit dans ChatGPT c’est le produit d’un tiraillement. Tiraillement entre ce que lui disent les données dont il se nourrit et ce que ses créateurs veulent faire de lui. Évidemment, parler de tiraillement c’est encore une caricature. Dans les faits, c’est beaucoup plus imbriqué, mais c’est important que le résultat soit le fruit d’une intention humaine.
Néanmoins, comme le dit Alexandre, ce n’est pas parfait. Ce qui voudrait dire que selon les questions qu’on lui pose, selon que les corrections ont été bien faites ou pas, ressurgissent, à certains moments, nos biais, nos préjugés et je trouve ça hyper-intéressant. En gros, on pourrait dire que GPT nous permet d’objectiver le tréfonds de ce que pense et croit l’humanité sans toujours se le formuler.

Alexandre Gefen : C’est la conscience collective de l’humanité. Plus on va avoir des corpus de textes anciens plus on aura une profondeur historique pour cet inconscient collectif. C’est l’inconscient et c’est aussi le savoir. S’il y a des choses qui ne nous plaisent pas ou qui nous troublent parce que c’est de l’inconscient, il y a aussi beaucoup de choses qui sont très bénéfiques, une capacité à synthétiser sur du savoir humain ; c’est un outil extrêmement efficace, intéressant, qui permet de contributeur à avancer des connaissances. Je ne pense qu’on ne peut pas réduire ça à une sorte d’impensé de la civilisation qui nous reviendrait dessus. C’est aussi quelque chose dans lequel il y a tout Wikipédia, dans lequel il y a beaucoup de livres, il y a une production de savoirs intéressants, souvent équilibrés et les résultats sont souvent très satisfaisants.

Xavier de La Porte : Oui. Mais alors là, il y a un truc qui me pose question. Alexandre parle de production de savoirs. Mais est-ce qu’on peut vraiment parler de savoirs alors que ChatGPT ne sait rien. ChatGPT ne sait pas que le ciel est bleu. ChatGPT a lu que le plus souvent le ciel était bleu, donc il dit que le ciel est bleu. Et, si on corrige en lui disant « quand il y a le mot « Angleterre » pas loin du mot « ciel », il est fort probable que le ciel soit plutôt gris ». Quand on lui dit ça, il n’apprend pas que le ciel est plus souvent gris en Angleterre, il introduit simplement un nouveau paramètre statistique.
Je pose la question à Alexandre : est-ce qu’on peut, malgré tout, appeler ça du savoir ?

Alexandre Gefen : C’est cela qui est extrêmement troublant. En soi, il y a une vraie différence entre connaître le monde par le langage et avoir une représentation des connaissances, avoir une idée de la logique. ChatGPT ne sait pas ce qu’est un phénomène basique, qu’une balle tombe avec la gravité quand un enfant joue avec. Si on lui demande ce qui va se passer si on approche une aiguille d’un ballon, il ne répondra à question que parce qu’il a lu des milliards de textes,un ballon éclate lorsqu’on appuie avec une aiguille dessus, mais il n’a aucune idée de la physique derrière. Alors que nous humains, très tôt, il suffit d’avoir des enfants pour s’en rendre compte, on a des idées relativement sommaires mais relativement robustes, des fonctionnements, des causes et des conséquences.
En théorie il y a, d’un côté, le rêve d’avoir une IA logique, une IA qui aurait été capable de faire une vraie expertise. C’est toute la première ère de l’IA avant les années 2000, avant les réseaux de neurones et l’apprentissage automatique. Et puis une IA dont le principe est totalement différent qui, elle, ne fait qu’engranger des probabilités à partir de connaissances. On peut effectivement dire que ce n’est pas fiable, qu’il n’y a aucune connaissance du monde, qu’il n’y a aucun rapport à la vérité, il y a juste des probabilités statistiques. Sauf que est-ce que vraiment savoir et écrire, comprendre et lire, c’est si différent que ça. Est-ce qu’on ne peut pas, à partir du langage, trouver des choses qui soient quand même assez profondes.

Xavier de La Porte : OK. Ça voudrait dire qu’une entité qui n’a pas de corps, qui n’a jamais rien vu, rien entendu, rien senti, rien vérifié, mais qui aurait été nourrie seulement par des milliards et des milliards de textes pourrait être considérée comme connaissant le monde. C’est sûr que c’est troublant.
Quand j’entends cela, je me dis que c’est une croyance de littéraire. La croyance de quelqu’un qui a tellement confiance en la puissance du langage qu’il pense que le langage suffit pour connaître le monde. Je fais la remarque à Alexandre : tu dis ça parce que tu vis dans la littérature.

27’ 33

Alexandre Gefen : Non !