« L’intelligence artificielle n’existe pas - Luc Julia » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Aucun résumé des modifications
Ligne 3 : Ligne 3 :
'''Titre :''' L’intelligence artificielle n’existe pas
'''Titre :''' L’intelligence artificielle n’existe pas


'''Intervenants : ''' Luc Julia - ???
'''Intervenants : ''' Luc Julia - Samuel Paccoud


'''Lieu :''' Dock B · Paris Pantin - Conférence IA & éducation
'''Lieu :''' Dock B · Paris Pantin - Conférence IA & éducation

Version du 29 juillet 2023 à 16:40


Titre : L’intelligence artificielle n’existe pas

Intervenants : Luc Julia - Samuel Paccoud

Lieu : Dock B · Paris Pantin - Conférence IA & éducation

Date : 8 juin 2023

Durée : 56 min 21

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

C’est moi le gars à la chemise hawaïenne, je vois que j’ai fait quelques émules aujourd’hui, ce n’est pas mal, vous y viendrez, je vous assure.

On va parler d’intelligence artificielle ce matin et, en fait, j’ai une mauvaise nouvelle parce que je vais vous raconter que l’intelligence artificielle n’existe pas. C’est dommage ! J’en fais depuis plus de 30 ans, c’est un peu embêtant ! Celle qui n’existe pas c’est celle dont on nous rebat les oreilles depuis une petite dizaine d’années, mais surtout depuis six mois avec CharGPT, cette intelligence artificielle qu’on présente dans les médias comme quelque chose de magique ou qui fait peur, ou qui fait rêver, ça dépend, j’appelle ça l’intelligence artificielle de Hollywood. Celle qui est dans les films comme Terminator, là ça fait plutôt peur, ou celle des films comme Her, il y en a à qui ça fait envie, pas à moi ! C’est cette intelligence artificielle-là qui n’existe pas, celle qu’on nous présente. D’ailleurs, ce n’est pas une intelligence, il ne faudrait pas parler d’une intelligence artificielle, je pense que je vais vous expliquer ça ce matin, il faut parler d’intelligences artificielles au pluriel, parce qu’elles sont multiples et variées, il y en a plein.

Si j’ai vraiment à donner une définition d’UNE intelligence artificielle, je vais dire qu’UNE intelligence artificielle c’est une boîte à outils dans laquelle vous avez plein d’outils divers et variés et ce sont ça les intelligences artificielles, ce sont ces outils, le marteau, la scie, le tournevis, etc. Chacune de ces intelligences artificielles est très spécialisée, elle est très forte dans le domaine particulier pour lequel elle a été fabriquée et, par définition même de l’outil, elle est utile, c’est-à-dire que ça marche très bien, ça marche mieux que nous. Un marteau, ça marche mieux que nous pour planter un clou.
Ces intelligences artificielles sont effectivement puissantes et, on va y revenir, utiles et/ou dangereuses, on y reviendra.

Je vais commencer par 1956, quand on a inventé le mot, on va dire l’expression « intelligence artificielle », donc ça ne date pas d’hier, ça ne date pas d’il y a dix ans, ça ne date pas s’il y a six mois. 1956 c’est quand une tripotée de scientifiques américains se sont réunis à l’université de Dartmouth pour donner un nom au domaine sur lequel ils étaient en train de travailler. Ils avaient défini mathématiquement un neurone, c’est-à-dire qu’ils avaient défini une fonction, ils avaient dit « ça, ça a la capacité d’un neurone » donc on est capable, en mathématiques, de modéliser un neurone. Si on a un neurone, on peut modéliser un réseau de neurones ; si on a un réseau de neurones, on peut modéliser le cerveau ; si on a le cerveau, on peut modéliser l’intelligence. Le raisonnement que je viens de faire ici est évidemment complètement stupide et ça n’a pas marché, je vais y revenir. Mais c’est là que ça a démarré.
Mais, si on réfléchit bien, on fait ça depuis la nuit des temps. On essaye de trouver des outils, de faire des machines ou de faire des systèmes qui vont faire des choses qui ressemblent à ce que nous faisons ; on essaye d’automatiser depuis la nuit des temps. On peut certainement aller aux Grecs, aux Égyptiens, même peut-être avant.
Comme je suis franchouillard de base, je vais faire démarrer l’intelligence artificielle, ou ce qu’on peut appeler comme ça, en 1642. Qu’est-ce qui s’est passé en 1642 ? En 1642, le mathématicien et philosophe français, Pascal, a inventé la pascaline. La pascaline c’est quoi ? C’est la première machine à calculer, c’est une machine à calculer qui faisait des additions et des soustractions. Vous allez me dire que ce n’est pas très intelligent de faire des additions et des soustractions, mais si je vous demande combien fait 649 + 1884… [Attente, NdT] D’accord ! Il y a deux solutions : ou vous êtes complètement idiots, c’est possible, on peut le dire comme ça, ou alors ce n’est pas intelligent de faire ça. En tout cas la machine, la pascaline, aurait eu ce résultat en moins de quatre secondes, parce qu’il suffit de tourner les mollettes. En plus de ça, la machine aurait eu juste, là la personne n’a donné de réponse, mais si vous aviez donné une réponse, il y avait à peu près 60~% de chances qu’elle soit fausse.
Ceci dit, c’est pour cela que ça fait très longtemps qu’on essaie de créer des machines qui ont l’air intelligentes, qui font des trucs qui ont l’air intellectuel.

Je reviens à mes amis de 1956. Je disais tout à l’heure que le raisonnement est stupide et c’est embêtant parce que non seulement ils ont donné le mauvais nom, « intelligence artificielle », à ce domaine, mais, en plus de ça, ils se sont attaqués au problème qui est certainement le problème le plus compliqué auquel on puisse s’attaquer puisqu’ils ont essayé de résoudre le langage naturel. Langage naturel c’est quoi ? C’est ce qu’on fait ensemble, on va dire, il y a un gars qui parle, il y a des mots, vous entendez les mots et vous essayez de comprendre le sens ; les mots c’est relativement facile, le sens c’est compliqué. En 1956, avec les méthodes qu’on utilisait à l’époque, qui étaient ces méthodes statistiques, évidemment ils ont complètement échoué, ça n’a pas marché et on est entré dans ce qui s’appelle le premier hiver de l’IA. C’est quoi l’hiver de l’IA ? C’est un moment où on arrête de l’IA parce qu’on ne donne plus de sous, parce qu’on nous a menti. On nous a menti, on nous a promis plein de choses, on ne les a pas faites, etc. Il y a eu plein d’hivers de l’IA après et il y a en un autre qui nous pend au nez si on continue à faire notre Laurent Alexandre et à raconter n’importe quoi, eh bien on peut très bien arrêter l’IA. On a peur, c’est ce qui se passe en ce moment avec ChatGPT, on a peur, vous avez peur ! D’accord ! On nous dit n’importe quoi, Laurent Alexandre, ou alors on nous fait rêver et ça n’arrive pas.
Là nous sommes dans une période où il est très possible, à cause d’une de ces trois/ quatre ou cinq raisons, qu’on arrête de travailler sur l’intelligence artificielle. Ce serait dommage, parce que dans LES intelligences artificielles dont je parlais tout à l’heure, il y en a plein qui sont excessivement utiles, qui sont très utiles et il faut surtout continuer, il ne faut pas s’arrêter, mais il faut comprendre, il faut s’éduquer, donc il faut venir ici.

Dans les années 60, il n’y a donc plus d’intelligence artificielle, début des années 60, du moins il n’y a plus d’intelligence artificielle que je vais appeler statistique, celle qui essaie de modéliser les neurones, mais un autre type apparaît, c’est ce qu’on va appeler, ce que je vais appeler les intelligences artificielles logiques. Vous en avez entendu parler, c’est ce qu’on appelle les systèmes experts. Les systèmes experts c’est très à la mode dans les années 60/70/80/90 et ça arrive à son apothéose en 1997, quand le champion du monde d’échecs, Garry Kasparov, est battu par la machine Deep Blue, une machine d’IBM, qui bat effectivement Kasparov aux échecs et c’est super impressionnant parce que quand on joue aux échecs on est intelligent. Non ! En fait non. Les échecs c’est rigolo, c’est un jeu, il y a des règles. Ça tombe bien parce quand on parle des systèmes experts ce sont des bases de règles, donc on rentre les règles du jeu dans la base, c’est relativement simple et, en plus de ça, il se trouve qu’aux échecs on sait exactement combien il y a de coups, 1049 coups, on est capable de rentrer pas mal de coups dans la machine. En 1997 il y a pas mal de mémoire, on est donc capable de calculer relativement facilement, parce qu’on a assez de puissance de calcul, n’importe quelle position à n’importe quelle position gagnante, très facilement. Kasparov, lui, n’est pas capable, Kasparov a 20 coups d’avance, il est fort, il a 20 coups d’avance moi je n’ai que deux coups d’avance. Ce qui se passe est relativement simple, je ne sais pas si c’est de l’intelligence, en tout cas c’est impressionnant, c’est sûr.

Là on est dans les années 90 et dans les années 90 il se passe quelque chose d’autre qui fait que les intelligences artificielles statistiques, qu’on avait abandonnées 30 ans plus tôt, reviennent à la charge. Pourquoi reviennent-elles à la charge ? Parce que ce sont des statistiques, et pourquoi ce sont des statistiques, je vais vous dire cela juste après. On change quand même de nom, on appelle maintenant ça du machine learning, c’est la machine qui va apprendre des trucs, ça va être sympa. Pourquoi ce machine learning arrive-t-il en force ? Il arrive en force parce qu’en 1990, vous vous souvenez peut-être, au milieu des années 90 un truc arrive qui s’appelle Internet. Et Internet arrive avec beaucoup de données et, pour faire des statistiques, il faut beaucoup de données.

Là on est dans les années 2000, on fait maintenant même du deep learning, on ne se contente pas du machine learning, on fait du deep learning. Deep learning, ça veut dire quoi ? C’est exactement pareil sauf qu’il y a encore plus de données, de plus en plus de données. Vous allez voir, on va parler de ChatGPT tout à l’heure, il y a beaucoup de données.

Au début des années Internet, parmi les gros montants de données qu’il y a, il y a beaucoup d’images de chats sur Internet. Vous allez vous dire « il a pété une durite le gars ! ». Non, il y a vraiment beaucoup d’images de chats, et puis les images de chats sont intéressantes pour les gens qui veulent faire des statistiques parce qu’elles sont annotées, c’est-à-dire que les gens mettent des images de chats sur Internet et disent « c’est mon minou, c’est mon kiki, c’est mon chaton », donc on a une base de données d’images de chats relativement intéressante et on dit « on va utiliser cette base de données de chats pour faire le premier reconnaisseur de chats », un truc super intelligent !
On se rend compte qu’avec seulement 100 000 images de chats, on peut faire un reconnaisseur de chats qui reconnaît les chats à 98~%. Waouh ! Là, on arrive quand même au top de l’intelligence artificielle. On se rend compte qu’on est vraiment capable de faire des machines intelligentes si on est capable de faire des machines qui reconnaissent les chats.
Là on se demande si ce machin est un truc vraiment intelligent parce qu’il lui faut quand même 100 000 images de chats, 100 000 images de chats c’est beaucoup. Surtout quand on se pose des questions et la question que j’ai posée à des gens, à des psychologues en l’occurrence, je leur ai demandé : « Combien d’images de chats faut-il à ma fille de deux ans pour reconnaître les chats ? » La réponse des psychologues c’est « deux » ! D’accord. Donc ma fille de deux ans, qui n’est pas forcément très intelligente, d’après moi elle est complètement con, il lui faut deux images de chats pour reconnaître les chats à 100~% quand même ! Et la machine qu’on est en train de fabriquer, l’intelligence artificielle, il lui faut 100 000 images de chats.
On est en donc train de fabriquer des trucs qui n’ont strictement rien à voir avec notre cerveau. C’est pour cela qu’il va falloir se calmer un tout petit peu quand on va dire, à un moment donné, « attention ça va nous remplacer, tout ça », ça n’a strictement rien à voir.

En plus, je l’ai dit, cette machine qu’on a créée reconnaît les chats à 98~%. Vous savez pourquoi ce n’est qu’à 98~% ? Ma fille, elle, reconnaît à 100~% parce qu’elle reconnaît même les chats dans la pénombre, mais les chats dans la pénombre, il n’y a pas dans la database, parce que personne m’a posté d’images de chats dans la pénombre, on ne les voit pas, donc ça ne sert à rien. Si on ne les voit pas ils n’existent pas, s’ils n’existent pas on ne les reconnaît pas.
Ces systèmes ont donc aussi des limites, des data, des données qui sont disponibles pour pouvoir reconnaître ce qu’ils sont censés faire.

13’ 03

OK ! Ça c’est réglé. On a parlé des données, on a parlé des systèmes qui sont idiots, qui ont besoin de beaucoup de données et qui n’ont strictement rien à voir avec notre cerveau. Pour amplifier encore là-dessus, on va passer en 2016 maintenant, et on va aller cette fois-ci à la machine qui a battu le champion du monde de go. Le go c’est rigolo, c’est un peu plus compliqué que les échecs, je disais tout à l’heure 1049 coups aux échecs. Si vous demandez aux mathématiciens combien il y a de coups au go, ils vont vous dire qu’il y en a entre 10200 et 10600 donc, en gros, je suis en train de dire qu’on n’en sait rien, mais on sait que c’est beaucoup. Récemment, j’ai donné cette conférence dans un lycée et un gars m’a dit « finalement, 10200 c’est seulement quatre fois plus que 1049 ! », c’est beaucoup plus, on est d’accord ! Il y a beaucoup de zéros derrière. OK. C’est donc impossible d’utiliser les méthodes de logique qu’on avait utilisées en 1997, là on va effectivement utiliser des méthodes statistiques, on va utiliser du deep learning, c’est DeepMind, une boîte de Google qui fait ça. On ne va pas d’intéresser à l’algorithme, on s’en fiche, on va s’intéresser à la machine de DeepMind, qui fait tourner AlphaGo, le programme qui joue au go.
Cette machine n’est pas vraiment comme ça, c’est un dessin que j’ai fait – on ne sait jamais –, on va donc ouvrir ses entrailles et, quand on ouvre ses entrailles, on va voir qu’il y a à l’intérieur 1500 CPU, les CPU ce sont les chips, les puces d’ordinateur, donc 1500 puces d’ordinateur ; il y a 300 GPU, les GPU ce sont d’autres puces qui font du Graphics Processing Unit, ce sont des machins qui font du calcul matriciel, très intéressant pour faire du machine learning ; il y a encre un autre type de puces qui est nouveau à ce moment-là, qui s’appelle les TPU, Tensor Processing Unit, c’est pour faire des TensorFlow, TensorFlowc’est une méthode de deep learning. Très bien ! Donc, le machin, ce sont 2000 ordinateurs ! 2000 ordinateurs pour jouer au go. 2000 ordinateurs c’est un petit datacenter. Un petit datacenter qui fait 440 kilowatts, 440 kilowatts pour jouer au go !
Il y a une autre question qu’il faut se poser. Le petit Coréen de 18 ans – d’ailleurs c’est bien fait pour sa gueule qu’il se soit fait ratatiner parce qu’il est infect – il a ça [son cerveau, NdT] et ça [le cerveau], en watts, est-ce que vous avez une idée de ce que c’est ? Pas tous et surtout ce matin, mais en général, c’est à peu près 20 watts. OK ! Là on est donc en train de créer une machine qui pète 440 kilowatts pour jouer à un jeu auquel le champion du monde est capable de jouer avec 20 watts. Le gars est champion du monde, il n’était pas loin de battre la machine, il l’a battue quelquefois, elle l’a battu plus.
Encore une fois, on est en train de créer des trucs qui n’ont absolument rien à voir avec notre intelligence, avec notre cerveau, qui utilisent beaucoup plus d’énergie, beaucoup plus de données. Dans ??? [16 min 20] ce qui est marrant aussi, c’est que cette machine, AlphaGo, elle ne fait que jouer au go. Le petit Coréen, lui, il sait faire la cuisine, il sait parler le langage naturel, vous savez, le truc compliqué, il sait faire plein de trucs avec ses 20 watts ; ça, ça ne fait que jouer au go. Si je veux que ça joue aux dames, il faut tout refaire ! OK !
Encore une fois, respirons, ces machines n’ont strictement rien à voir avec notre cerveau, avec notre intelligence. On n’aurait jamais dû appeler ça intelligence artificielle.

Comme je l’ai dit, il y a beaucoup de données dans ces systèmes, il faut utiliser énormément de données, on en utilise de plus en plus, ce sont des statistiques. ChatGPT, aujourd’hui, ce ne sont pas 100 000 morceaux de données comme c’était pour les premiers reconnaisseurs de chats dans les années 90/2000. On parle de 175 milliards de morceaux de données. On parle entre 1000 et 2000 milliards de mots qui sont ingurgités par la machine. C’est beaucoup ! En gros c’est Internet.
Malheureusement, quand il y en a beaucoup comme ça, ces données sont souvent, sont toujours biaisées. Je ne sais pas si on vous a dit que sur Internet il n’y a pas que des trucs vrais. Du coup, comme la machine a ingurgité des trucs qui ne sont pas vrais, pas vrais selon certains standards, par exemple la Terre n’est pas plate, à priori, mais, sur Internet on trouve des fois que la Terre est plate. Du coup ChatGPT, si vous insistez vraiment, il va vous dire que la Terre plate, parce qu’il va vous rendre des données qui sont sur internet.
Donc les données sont biaisées, les données sont fausses et, malheureusement, ça donne de temps en temps des systèmes dans lesquels ça va se voir, ça se voit tout le temps, ça se voit de plus en plus. Sur ChatGPT, puisque tout le monde l’utilise n’importe comment, on peut effectivement dire de grosses bêtises.

Je vais prendre un exemple de 2016, qui est l’exemple d’un chatbot, déjà, ce n’était pas ChatGPT, c’est un chatbot de Microsoft qui s’appelait Tay. Tay est sorti en 2016, c’était un chatbot qui était censé interagir avec les gens, sur Twitter, pour promouvoir les produits de Microsoft. L’idée était certainement très bonne. Ils ont mis des mois à développer le machin et ils ont été obligés de le débrancher au bout de 16 heures d’opération. Au bout de 16 heures d’opération Tay était devenu le chatbot le plus raciste et sexiste de l’humanité. Il n’y en avait pas beaucoup à l’époque, mais c’était quand même assez grave, donc ils l’ont débranché. Ils ne voulaient pas le débrancher, évidemment, ils n’avaient pas fait tout ce travail pour rien, il y avait quelque chose qui n’allait pas. Les scientifiques se sont penchés sur le problème, ils se sont demandés pourquoi ? Que s’est-il passé ? Ça n’a strictement aucun sens, on n’a pas créé ce truc pour le débrancher juste après.
Deux bugs ont été identifiés. Un premier bug qu’on va appeler un bug de logique, qui n’a rien à voir avec l’intelligence artificielle mais qui m’amuse donc je vais vous le dire.

Quand on crée un système d’interaction comme ça, on a petit slider, un petit curseur qu’on va adapter, c’est un slider d’adaptabilité au public auquel on s’adresse. Là, le slider était un peu trop haut, il s’est adapté au public auquel il s’adressait et le public, ici, c’était Twitter et, comme vous le savez certainement, au bout de deux/trois interactions sur Twitter on s’insulte. Eh bien là le truc, au bout de deux/trois interactions, il insultait les gens. La bonne nouvelle c’est que c’est assez facile à fixer : vous descendez le slider, vous récupérez la façon dont vous interagissez avec les gens et vous contrôlez le dialogue globalement, donc ce problème disparaît. Fastoche !

L’autre bug est beaucoup plus insidieux, beaucoup plus compliqué, c’est un bug de data. Ça veut dire quoi un bug de data ? Ça veut dire que les data étaient mauvaises.
Quand on fait un système d’interaction, ce sont des dialogues, il faut donc trouver des dialogues. On ne trouve pas des dialogues sur Internet comme on trouve des chats, il faut donc aller les chercher ailleurs. Il y a des systèmes, en fait il y a des bases de données de dialogues. Il y en a une qui s’appelle Switchboard, qui est très connue, qui est une énorme base de données avec des millions et des millions de conversations, des conversations qui sont enregistrées, retranscrites, on retranscrit les mots, et qui sont annotées. On dit « le gars a téléphoné pour sa machine à laver, il n’était pas content, etc. » C’est donc une énorme une base de données qui est magnifique pour les gens qui font des systèmes d’interaction, qui permet de comprendre un peu les structures des dialogues.
J’imagine le gars de chez Microsoft à qui on dit : « Il faut que tu fasses un système Tay. Tu te débrouilles, tu prends Switchboard et tu nous fais un système ». Le gars dit : « OK, d’accord, il y a de millions de conversations, je ne vais pas pouvoir tout prendre, je vais prendre un sous-ensemble, je n’ai besoin que de quelques milliers de trucs pour créer mon modèle, je vais prendre le début de la base, Alabama années 50 ». Alabama années 50, vous imaginez que c’était un peu biaisé, je pense que les Blacks étaient dans une situation un peu délicate, un peu plus délicate que celle d’aujourd’hui, peut-être. Du coup, la base de données étant biaisée, le modèle était biaisé et il a fallu une petite étincelle pour qu’elle devienne complètement raciste et qu’elle détruise les Noirs dans les interactions de dialogues.

Il faut donc faire super attention. Je n’ai pas forcément la solution. Vous allez me dire que c’est fastoche, il suffit de bien regarder toutes les données et d’enlever les trucs qui sont un peu limite. Il y a deux problèmes avec ça.
Le premier problème, c’est que quand on a 100 000 images de chats, on peut peut-être trouver deux/trois images de chiens et les enlever. Fastoche ! Mais quand on a 175 milliards de morceaux de données, ça commence à être un peu plus délicat d’aller chercher les machins qui ne vont pas, parce qu’il y en a beaucoup.
L’autre truc c’est que quand on va commencer à balancer les data, à dire « je vais choisir les data », ce que je viens de dire ici « choisir les data », ça veut dire, quelque part, que je rentre mon propre biais et, quand je rentre mon propre biais, qui dit que éthiquement c’est moi qui ai raison ? Je ne sais pas. C’est donc un problème excessivement délicat : dès qu’on commence à faire des statistiques, il y a des choses qui sont certainement fausses et moi je vous dis que toutes les bases de données sont fausses. Il faut donc douter de ces systèmes. J’espère que cette population ici en est persuadée.
Bref, ça c’était mon ami chatbot sur Twitter qui a vécu 16 heures.

Un autre truc, on dit souvent « de toute façon il faut douter, il faut faire attention, ces intelligences artificielles sont des boîtes noires, c’est trop compliqué, on ne peut pas comprendre ce que ça fait. Ce sont des boîtes noires, il ne faut pas leur faire confiance. » Je vais modérer un tout petit, je ne vais pas dire exactement ça. Je vais dire que oui, il faut douter, je vais le répéter tout le temps, par contre, de temps en temps on peut faire confiance à ces boîtes noires parce que ce ne sont pas des boîtes noires ; en fait, ce sont des boîtes transparentes si on prend le temps de les expliquer. Il n’y a pas d’inexplicabilité en IA. Souvent on dit inexplicabilité, on dit comme c’est inexplicable, blablabla.
Comme toutes les sciences nouvelles, comme tous les trucs nouveaux qui arrivent, c’est compliqué, ça a l’air compliqué, mais des fois il suffit de quelques petites choses pour expliquer correctement pour que tout le monde comprenne. Je vais vous raconter une histoire qui est une histoire familiale, je parlais tout à l’heure de ce brave Gaston Julia, qui n’est d’ailleurs pas mon grand-père, qui est un grand-oncle, ce n’est pas très grave. Ce brave Gaston a effectivement inventé les fractales, il a découvert une équation particulière qu’on a appelée les fractales, qui est un logarithme, bref ! Il fait ça en 1914, le papier est publié en 1915. La communauté mathématique regarde cette équation, est absolument surprise par le machin, c’est super, mais, pour le commun des mortels, c’est une équation mathématique complètement incompréhensible. C’est un log, machin, blabla, on ne comprend que dalle, c’est une boîte noire pour la plupart des gens, mais c’est une boîte transparente pour Julia lui-même qui a inventé le truc, qui a découvert le truc, il est donc capable d’expliquer ce que c’est, il est capable d’expliquer à ses collègues qui eux comprennent, les mathématiciens comprennent, mais c’est vrai que la plupart des gens ne comprennent pas forcément la mathématique qui est derrière cette équation.
1955, Julia est prof à Polytechnique, 40 ans plus tard, il a comme élève un garçon qui s’appelle Benoît Mandelbrot. Benoît Mandelbrot part aux États-Unis, chez IBM, il a un des premiers ordinateurs à sa disposition. Il rentre l’équation de Julia dans l’ordinateur, il en profite pour l’appeler équation de Mandelbrot, on ne va pas se gêner ! Quand il affiche cette équation apparaît à l’écran cette magnifique fougère, pour ceux qui savaient ce qu’était une fractale, et, quand on la regarde, on voit qu’à chaque niveau de la fougère c’est la même fougère, et la même fougère, et la même fougère. Cette propriété exceptionnelle qu’ont les fractales s’appelle la récursivité. La récursivité devient complètement transparente pour n’importe qui : juste en regardant l’image, n’importe qui est capable de comprendre, la boîte noire est donc devenue une boîte transparente grâce à cette image. Pour ceux qui n’ont toujours pas compris, la récursivité c’est comme La vache qui rit !

Tant que je suis dans les trucs qui m’énervent, je vais vous parler de la voiture autonome. La voiture autonome, Elon Musk. 2015, Elon Musk nous dit : « La voiture autonome, c’est pour demain ». Super. Très bien ! 2018, « La voiture autonome, c’est pour demain ». 2021, « La voiture autonome c’est pour demain ». 2023, « La voiture autonome c’est pour demain ». Bon ! Elon Musk raconte n’importe quoi, je pense que vous le savez maintenant. Quand il parle de voiture autonome et quand je parle de voiture autonome, on parle de voiture autonome niveau 5, donc le niveau ultime de l’autonomie. Il y a évidemment 0, 1, 2, 3, 4 avant. Aujourd’hui, on est à peu près à 2,5, les Tesla sont à 2,5. Certains déclarent qu’ils sont presque à 3, je pense qu’on est effectivement presque à 3, mais on est loin de 4 et on est très loin de 5, on est d’autant plus loin de 5 qu’aujourd’hui je vous annonce officiellement que 5 n’existera jamais, comme dans « ja » et « mais », jamais, je vais vous le prouver, je ne vais pas juste vous le dire, je vais vous le prouver.
Du coup, ces voitures autonomes, quand elles seront au niveau 4, elles vont nous permettre d’être beaucoup plus sûrs dans les voitures, ça va être absolument extraordinaire et on y arrivera. On va arriver au niveau 4, mais on ne peut pas dire qu’on aura un jour la full autonomie. Pour cela, je vais donner deux exemples, un exemple qui est pour les Français, qui s’appelle la place de l‘Étoile à 18 heures.

Place de l’Étoile à 18 heures. Vous collez une voiture autonome sur une des avenues qui est là, la voiture autonome va être comme ça [immobile, NdT], parce que la voiture autonome a une propriété extraordinaire, elle respecte le Code de la route !, ce que vous, quand vous êtes sur la place de l’Étoile, vous ne faites pas. Vous avez un truc en plus qui s’appelle le pouvoir de négociation [pouce levé, NdT] ou le pouvoir de négociation [doigt d’honneur, NdT], et ça c’est un peu compliqué à expliquer aux voitures, à expliquer au système autonome. Ça c’était pour les Français.

28’ 52

La version officielle, pour les Américains et les autres, c’est une voiture qui roule dans les rues de Mountain View, là où est Google, d’ailleurs ces vidéos ont été données par une compagnie qui s’appelle Waymo, une compagnie de Google, qui travaille depuis dix ans sur l’autonomie et le CEO [Chief Executive Officer] a dit « j’en ai marre d’entendre ce que j’entends, je vais faire don de toutes les data que j’ai depuis dix ans, je donne dix millions de miles de vidéos de routes, qui ont été prises en vidéo, pour pouvoir faire apprendre au système ». Il a donc donné ça et des gens comme moi sont allés voir les vidéos, évidemment. Il m’a fallu à peu près une heure pour trouver une pépite, après j’en ai trouvé plein, ce que j’appelle une pépite c’est un truc qui dit que j’ai raison.
Donc cette pépite : on voit une voiture qui roule dans les rues de Mountain View – Mountain View c’est chiant comme la mort, il ne se passe rien – et là d’un coup, au milieu de rien, la voiture s’arrête ; elle attend deux/trois secondes, la voiture fait deux/trois mètres, elle s’arrête ; deux/trois secondes, la voiture fait deux/trois mètres, elle s’arrête. Elle fait ça cinq/six fois et on voit, sur la caméra, des mains sur le volant parce qu’il y a toujours quelqu’un dans la voiture, on voit que le safety driver qui prend le volant, démarre et s’en va, parce que le mec derrière commençait à s’énerver, il disait « qu’est-ce qu’il fout le gars à s’arrêter tous les deux/trois mètres ?, ça n’a aucun sens ». Ça n’a aucun sens jusqu’à ce qu’on regarde la vidéo d’un peu plus près : on voit deux gars qui marchent sur le trottoir dans la même direction que la voiture. Le gars qui est le plus près de la route, qui marche dans la même direction avec son pote, a lui, sur son épaule, un panneau stop. Vous tous là, vous voyez un connard sur le bord de la route avec un panneau stop sur l’épaule qui marche dans la même direction que la voiture, vous ne vous arrêtez pas, parce que vous avez dit « il y a un connard qui marche sur le bord de la voiture avec un panneau stop ! » Voilà ! La voiture autonome voit un panneau stop, [elle s’arrête, repart], et puis elle voit un panneau stop et puis elle voit un panneau stop.
Ce cas n’existe pas, ce n’est pas possible, c’est un truc qu’on n’avait jamais vu, on ne l’a même pas imaginé. D’accord ! Nous humains, quand nous voyons un truc comme ça, on fait un truc extraordinaire que les IA sont incapables de faire, on invente, on s’adapte, on crée.

Quand on vous parle aujourd’hui des IA génératives, ChatGPT et tout ça, il y a une chose qui est bien dans ces choses-là, c’est qu’on ne s’est pas trompé de nom, on n’a pas appelé ça « IA créatives », on a bien appelé ça « IA génératives ». Ça génère des trucs qui arrivent de ces 175 milliards de données, mais ça ne crée rien. C’est vous qui avez le pouvoir de création, c’est vous qui le gardez, c’est vous qui avez la possibilité de créer à travers le prompt, c’est-à-dire que c’est vous qui allez dire à la machine « dessine-moi une vache verte sur la tour Eiffel ». La créativité est là, elle est dans l’image mentale que vous avez de la vache verte sur la tour Eiffel. Oui, ça va vous générer plein de vaches vertes sur la tour Eiffel, mais c’est vous qui avez l’idée, c’est toujours vous qui avez la main.

D’ailleurs, en parlant de main, je vais passer vite fait sur le fait que j’appelle ça « intelligence augmentée », IA, au lieu d’appeler ça « intelligence artificielle », parce que ces outils nous augmentent, ils augmentent notre intelligence. On se sert de ces outils comme de tous les outils de la boîte à outils dont je parlais tout à l’heure et j’adore comparer une intelligence artificielle avec un marteau, parce que c’est exactement la même chose. Un marteau ça va planter un clou bien mieux que mon poing, donc c’est un hyper-utile, c’est hyper-puissant. Si j’utilise un marteau à bon enceint, c’est super, je peux l’utiliser à mauvais enceint pour taper sur la tête du monsieur et, collectivement, on a décidé que ce n’est pas bien. On l’a décidé collectivement, on a dit « ce n’est pas bien de taper sur la tête du monsieur ». À la fin, celui qui tient le manche du marteau c’est moi, à la fin c’est moi qui décide, c’est nous qui décidons. Pour les IA c’est exactement la même chose : c’est nous qui tenons le manche du marteau, c’est nous qui décidons de comment on les utilise et c’est nous décidons de réguler ou pas. On va dire que c’est hors la loi de taper sur la tête du monsieur avec le marteau, des fois il y en a qui vont le faire, évidemment qu’il y en a qui vont le faire, mais on décide collectivement que ce n’est pas bien et après on agit comme on peut. Ces outils sont excessivement puissants, ils sont très puissants, comme le marteau est très puissant.

Je vais vous faire un truc extraordinaire, vous allez ressortir de là, vous allez être illuminés, je ne sais pas si on dit ça. Je vais vous faire une démonstration de ce qu’est l’intelligence, j’ai beaucoup parlé d’intelligence, je vais vous montrer l’intelligence humaine en mathématiques. Ce n’est peut-être pas votre tasse de thé, mais vous allez voir que ce n’est pas très compliqué. Je vais projeter en deux dimensions les intelligences, il y a plein de gens, il y a les philosophes, il y a les psychologues, il y a plein de gens qui définissent l’intelligence, moi je vais vous la définir mathématiquement, vous allez tout comprendre et vous allez comprendre pourquoi l’intelligence artificielle n’a strictement rien à voir avec l’intelligence humaine.
Je vais projeter l’intelligence humaine sur ce graphe en deux dimensions : en ordonnée vous avez le niveau d’intelligence de 0 – Donald Trump – jusqu’à 100, un génie. Très bien ! En abscisse on va avoir les domaines d’intelligence, tout, n’importe quoi. On projette tout ça, dans toutes les dimensions qu’il y a, on projette ça sur ces deux dimensions. Ça c’est nous, l’intelligence humaine, continue. Dans n’importe quel domaine on est capable de dire quelque chose, surtout nous les Français ; nous ne sommes pas des génies, nous ne sommes pas complètement idiots. Ça c’est l’intelligence humaine continue, mathématiquement parlant continue et infinie. On voit un connard sur le bord de la route avec un panneau stop, on est capable de s’adapter, on invente. Continue et infinie, l’intelligence humaine.
L’intelligence artificielle : les échecs, ce n’est pas mal ça marche. Si vous jouez aux échecs avec une machine et que vous gagnez c’est que vous l’avez mise au niveau 2, vous n’avez strictement aucune chance, les échecs, c’est un génie. Go c’est plus qu’un génie parce qu’il y a tellement de coups possibles et imaginables qu’il dépasse l’humanité, on ne va pas rentrer dans l’infini, on s’en fout. La voiture autonome, niveau 4, bien mieux que nous. J’ai dessiné mon fils, il boit un petit coup, il joue un petit peu sur son téléphone pendant qu’il conduit, pas bon ! La voiture sera meilleure que nous, mais, des fois, il faudra l’aider.
N’importe quoi, n’importe quel domaine n’importe quel truc que vous pouvez imaginer, des trucs en médecine, des trucs en ressources humaines, n’importe quoi, on peut, si on a envie, avoir un outil qui soit meilleur que nous dans ce domaine particulier ; si on veut. Des fois, on peut décider de ne pas utiliser l’outil parce qu’il n’est pas utile, à ce moment-là ce n’est pas un outil. Ça ce sont les intelligences artificielles.
C’est quoi en mathématiques ce que je viens de faire ? Ce sont des lignes discrètes. La question qui tue : combien de lignes discrètes nous faut-il pour atteindre la continuité ? L’infini. Je ne sais pas si vous savez, mais l’infini c’est compliqué, c’est beaucoup. Du coup, pour pouvoir matcher l’intelligence humaine, il faudrait avoir une infinité d’intelligences artificielles, mais ce n’est pas possible parce que c’est beaucoup.

Un petit truc vite fait, on finit là-dessus. Des fois on dit « en fait il y a des trucs qui se ressemblent, il y a des trucs qui sont contigus, on peut faire du transfer learning entre deux domaines et par capillarité on pourrait imaginer qu’on va pouvoir couvrir tout le domaine, tout le spectre de l’intelligence humaine ». Ce n’est pas une mauvaise idée de faire ça, ça permet de ne pas avoir à refaire des bases de données. Le problème c’est : qu’y a-t-il entre deux lignes contiguës ? L’infini. Purée encore ce truc-là, l’infini. Encore une fois, c’est compliqué. Bref ! Ce n’est pas possible.
Et puis un truc qu’on a inventé, où est-elle l’intelligence artificielle ?, un truc qu’on a inventé tout de suite parce qu’on na pas eu le temps. L’intelligence artificielle n’est nulle part, parce qu’elle n’a pas eu le temps d’avoir les données, elle n’a pas eu le temps d’avoir les règles, donc on n’a pas encore eu le temps de la faire. L’intelligence artificielle est toujours derrière nous, c’est nous qui décidons, c’est nous qui avons le manche. Merci.

[Applaudissements]

Samuel Paccoud : On s’informe beaucoup sur Twitter pour l’IA.

Luc Julia : Ça commence mal !

Samuel Paccoud : On n’a pas le choix ! Ça change tous les jours

Luc Julia : L’Encyclopædia Universalis aussi ce n’est pas mal.

Samuel Paccoud : Du coup, on essaye de comprendre : d’un côté on a ceux qui nous disent « il y a l’émergence, on va augmenter le nombre de paramètres, on va allumer tout ça, ça va faire des Chocapic », de l’autre côté on a ceux qui nous disent « en fait, on a juste modélisé le langage, mais ce n’est pas grave, on va rajouter une vision du monde, on va rajouter la planification », je pense que vous voyez de qui je parle dans les deux cas. Il y a sûrement plein de choses entre les deux. Quelle est la situation ?

Luc Julia : Ce que je vous ai raconté aujourd’hui c’est qu’on est très loin de l’intelligence humaine, en fait on n’y arrivera jamais. Rajouter des trucs c’est un peu de la capillarité dont je parlais ici. Déjà est-ce qu’on a modélisé le langage humain, je ne suis pas sûr qu’on ait encore réussi.
Si on parle spécifiquement de ces IA génératives qui ont l’air de faire des trucs intelligents, c’est basé sur la complétion de trous. Qu’est-ce que ça veut dire ? Ça veut dire que toutes ces IA génératives sont basées sur la complétion de ce qui a déjà été fait avant. Par exemple, quand vous posez une question comme « donne-moi la biographie de Marie Curie », en fait la biographie de Marie Curie est quelque part. Il y a une certaine variabilité qui fait que je ne vais pas toujours aller chercher au même endroit, mais je vais aller sortir ces données qui sont quelque part ; encore une fois, dans 175 milliards de données, il y a beaucoup de données. Ces machins-là ça va donc générer, ça va remplir les trous : vous rentrez des machins et ça va aller compléter ce qu’il y a autour. Vraiment simplifiée, c’est la logique de ces IA génératives.
Ça veut dire que quelqu’un qui, un jour, a parlé, qui a dit un truc comme ça, on le sait, donc on va le remettre, on va vous le montrer. Ça a donc l’air d’être humain, parce que c’est humain, parce que ça a déjà été dit.
Il y a deux petits problèmes dans ces IA génératives : le premier problème c’est qu’elles sont programmées pour vous donner une réponse de toute façon. Des fois elles ne trouvent pas le truc et, si elles ne le trouvent pas, elles l’inventent, c‘est ce qu’on appelle les hallucinations. Le truc va statistiquement trouver des trucs qui pourraient être à peu près ça, donc il va vous pondre n’importe quoi, et surtout des références, en général. Quand vous allez dire « écris-moi un papier scientifique avec ça », il va vous pondre un tas de références de bouquins qui n’ont jamais existé, avec des pages qui n’ont jamais existé. Ce sont des trucs qui sont embêtants, ce sont effectivement les hallucinations. C’est le premier problème.

Samuel Paccoud : C’est encore plus embêtant, si on ne le sait pas, si on n’est pas préparé.

Luc Julia : Oui, c’est pour cela qu’il faut s’éduquer suffisamment pour comprendre que ces hallucinations sont possibles.
Le deuxième problème, c’est le problème dont je parlais tout à l’heure, qui est le problème des trucs faux. Dans les 175 milliards de trucs il y a de trucs faux, du coup, si vous lui dites « écris-moi un papier sur le fait que la Terre est plate », il va vous écrire un papier qui est parfait, qui existe déjà d’ailleurs, il va pondre le machin, en plus de ça, il va prendre l’IP de quelqu’un, il va copier, donc copyright ??? [40 min] ce n’est pas terrible, ça va donc vous pondre un papier. Il peut vous pondre des trucs faux, il peut vous pondre des trucs inventés.
Le vrai chiffre qu’il faut donner, la chose qu’il faut dire ici c’est : quelle est la pertinence de ChatGPT ? Nulle part dans les médias on vous dit quelle est la pertinence de ChatGPT, parce qu’il faut un petit peu de temps pour faire l’étude. Cette étude a été faite trois mois plus tard. ChatGPT est sorti en novembre 2022, en février 2023 l’Université de Hong Kong a sorti un papier sur la pertinence de ChatGPT, sur 24 bases de millions de faits, de faits vrais – je ne sais pas ce que ça veut dire, mais c’est comme ça – sur des millions de faits, à la fin du papier de 24 pages, il y a le chiffre de 64~%, c’est pertinent à 64~%. C’est bien, ce n’est pas bien, vous le décidez, mais il faut le savoir : 64~% ça veut dire qu’il y a 36~% de merde !

Samuel Paccoud : Oui ! Ça peut quand même servir à quelque chose. Ça peut aider si on est au courant.

Luc Julia : Évidemment !

Samuel Paccoud : Vous utilisez au quotidien ChatGPT ?

Luc Julia : Évidement que je l’utilise au quotidien, je l’utilise tous les jours. ChatGPT, midjourney, tous les machins. Je suis en nul en dessin, midjourney m’aide beaucoup. C’est super ! La vache verte sur la tour Eiffel c’est moi qui l’ai faite.
Évidemment qu’il faut utiliser l’outil, évidemment qu’il ne faut pas faire ce qu’a fait Sciences Po, interdire l’outil.

Samuel Paccoud : Je ne voulais pas les nommer.

Luc Julia : Évidemment qu’il ne faut pas faire ça, c’est une bêtise incommensurable. C’est exactement comme si, en 1842 vous aviez interdit l’Encyclopédie Universalis, c’est la même chose. Il faut juste comprendre l’outil et l’utiliser à bon esceint. Il faut, en fait, enseigner l’outil, il faut expliquer « les gars regardez ! »

Samuel Paccoud : Il faut déjà le comprendre soi-même, c’est aussi pour cela qu’on est là.

41’ 57

Luc Julia : On est là pour ça.