Différences entre les versions de « L’intelligence artificielle n’existe pas - Luc Julia »

De April MediaWiki
Aller à la navigationAller à la recherche
(Page créée avec « Catégorie:Transcriptions '''Titre :''' L’intelligence artificielle n’existe pas '''Intervenants : ''' Luc Julia - ??? '''Lieu :''' Dock B · Paris Pantin -... »)
 
Ligne 54 : Ligne 54 :
  
 
==13’ 03==
 
==13’ 03==
 +
OK ! Ça c’est réglé. On a parlé des données, on a parlé des systèmes qui sont idiots, qui ont besoin de beaucoup de données et qui n’ont strictement rien à voir avec notre cerveau. Pour amplifier encore là-dessus, on va passer en 2016 maintenant, et on va aller cette fois-ci à la machine qui a battu le champion du monde de go. Le go c’est rigolo, c’est un peu plus compliqué que les échecs, je disais tout à l’heure 10<sup>49</sup> coups aux échecs. Si vous demandez aux mathématiciens combien il y a de coups au go, ils vont vous dire qu’il y en a entre 10<sup>200</sup> et 10<sup>600</sup> donc, en gros, je suis en train de dire qu’on n’en sait rien, mais on sait que c’est beaucoup. Récemment, j’ai donné cette conférence dans un lycée et un gars m’a dit « finalement, 10<sup>200</sup> c’est seulement quatre fois plus que 10<sup>49</sup> ! », c’est beaucoup plus, on est d’accord ! Il y a beaucoup de zéros derrière. OK.
 +
C’est donc impossible d’utiliser les méthodes de logique qu’on avait utilisées en 1997, là on va effectivement utiliser des méthodes statistiques, on va utiliser du <em>deep learning</em>, c’est DeepMind, une boîte de Google qui fait ça. On ne va pas d’intéresser à l’algorithme, on s’en fiche, on va s’intéresser à la machine de DeepMind, qui fait tourner AlphaGo, le programme qui joue au go.<br/>
 +
Cette machine n’est pas vraiment comme ça, c’est un dessin que j’ai fait – on ne sait jamais –, on va donc ouvrir ses entrailles et, quand on ouvre ses entrailles, on va voir qu’il y a à l’intérieur 1500 CPU, les CPU ce sont les chips, les puces d’ordinateur, donc 1500 puces d’ordinateur ; il y a 300 GPU, les GPU ce sont d’autres puces qui font du <em>Graphics Processing Unit</em>, ce sont des machins qui font du calcul matriciel, très intéressant pour faire du <em>machine learning</em> ; il y a encre un autre type de puces qui est nouveau à ce moment-là, qui s’appelle les TPU, <em>Tensor Processing Unit</em>, c’est pour faire des TensorFlow, TensorFlowc’est une méthode de <em>deep learning</em>. Très bien ! Donc, le machin, ce sont 2000 ordinateurs ! 2000 ordinateurs pour jouer au go. 2000 ordinateurs c’est un petit <em>datacenter</em>. Un petit <em>datacenter</em> qui fait 440 kilowatts, 440 kilowatts pour jouer au go !<br/>
 +
Il y a une autre question qu’il faut se poser. Le petit Coréen de 18 ans – d’ailleurs c’est bien fait pour sa gueule qu’il se soit fait ratatiner parce qu’il est infect – il a ça [son cerveau, NdT] et ça [le cerveau], en watts, est-ce que vous avez une idée de ce que c’est ? Pas tous et surtout ce matin, mais en général, c’est à peu près 20 watts. OK ! Là on est donc en train de créer une machine qui pète 440 kilowatts pour jouer à un jeu auquel le champion du monde est capable de jouer avec 20 watts. Le gars est champion du monde, il n’était pas loin de battre la machine, il l’a battue quelquefois, elle l’a battu plus.<br/>
 +
Encore une fois, on est en train de créer des trucs qui n’ont absolument rien à voir avec notre intelligence, avec notre cerveau, qui utilisent beaucoup plus d’énergie, beaucoup plus de données. Dans ??? [16 min 20] ce qui est marrant aussi, c’est que cette machine, AlphaGo, elle ne fait que jouer au go. Le petit Coréen, lui, il sait faire la cuisine, il sait parler le langage naturel, vous savez, le truc compliqué, il sait faire plein de trucs avec ses 20 watts ; ça, ça ne fait que jouer au go. Si je veux que ça joue aux dames, il faut tout refaire ! OK !<br/>
 +
Encore une fois, respirons, ces machines n’ont strictement rien à voir avec notre cerveau, avec notre intelligence. On n’aurait jamais dû appeler ça intelligence artificielle.
  
OK ! ça c’est réglé.
+
Comme je l’ai dit, il y a beaucoup de données dans ces systèmes, il faut utiliser énormément de données, on en utilise de plus en plus, ce sont des statistiques. ChatGPT, aujourd’hui, ce ne sont pas 100 000 morceaux de données comme c’était pour les premiers reconnaisseurs de chats dans les années 90/2000. On parle de 175 milliards de morceaux de données. On parle entre 1000 et 2000 milliards de mots qui sont ingurgités par la machine. C’est beaucoup ! En gros c’est Internet.<br/>
 +
Malheureusement, quand il y en a beaucoup comme ça, ces données sont souvent, sont toujours biaisées. Je ne sais pas si on vous a dit que sur Internet il n’y a pas que des trucs vrais. Du coup, comme la machine a ingurgité des trucs qui ne sont pas vrais, pas vrais selon certains standards, par exemple la Terre n’est pas plate, à priori, mais, sur Internet on trouve des fois que la Terre est plate. Du coup ChatGPT, si vous insistez vraiment, il va vous dire que la Terre plate, parce qu’il va vous rendre des données qui sont sur internet.<br/>
 +
Donc les données sont biaisées, les données sont fausses et, malheureusement, ça donne de temps en temps des systèmes dans lesquels ça va se voir, ça se voit tout le temps, ça se voit de plus en plus. Sur ChatGPT, puisque tout le monde l’utilise n’importe comment, on peut effectivement dire de grosses bêtises.
 +
 
 +
Je vais prendre un exemple de 2016, qui est l’exemple d’un <em>chatbot</em>, déjà, ce n’était pas ChatGPT, c’est un <em>chatbot</em> de Microsoft qui s’appelait Tay. Tay est sorti en 2016, c’était un <em>chatbot</em> qui était censé interagir avec les gens, sur Twitter, pour promouvoir les produits de Microsoft. L’idée était certainement très bonne. Ils ont mis des mois à développer le machin et ils ont été obligés de le débrancher au bout de 16 heures d’opération. Au bout de 16 heures d’opération Tay était devenu le <em>chatbot</em> le plus raciste et sexiste de l’humanité. Il n’y en avait pas beaucoup à l’époque, mais c’était quand même assez grave, donc ils l’ont débranché. Ils ne voulaient pas le débrancher, évidemment, ils n’avaient pas fait tout ce travail pour rien, il y avait quelque chose qui n’allait pas. Les scientifiques se sont penchés sur le problème, ils se sont demandés pourquoi ? Que s’est-il passé ? Ça n’a strictement aucun sens, on n’a pas créé ce truc pour le débrancher juste après.<br/>
 +
Deux bugs ont été identifiés. Un premier bug qu’on va appeler un bug de logique, qui n’a rien à voir avec l’intelligence artificielle mais qui m’amuse donc je vais vous le dire.
 +
 
 +
Quand on crée un système d’interaction comme ça, on a petit <em>slider</em>, un petit curseur qu’on va adapter, c’est un <em>slider</em> d’adaptabilité au public auquel on s’adresse. Là, le <em>slider</em> était un peu trop haut, il s’est adapté au public auquel il s’adressait et le public, ici, c’était Twitter et, comme vous le savez certainement, au bout de deux/trois interactions sur Twitter on s’insulte. Eh bien là le truc, au bout de deux/trois interactions, il insultait les gens. La bonne nouvelle c’est que c’est assez facile à fixer : vous descendez le <em>slider</em>, vous récupérez la façon dont vous interagissez avec les gens et vous contrôlez le dialogue globalement, donc ce problème disparaît. Fastoche !
 +
 
 +
L’autre bug est beaucoup plus insidieux, beaucoup plus compliqué, c’est un bug de data. Ça veut dire quoi un bug de data ? Ça veut dire que les data étaient mauvaises.<br/>
 +
Quand on fait un système d’interaction, ce sont des dialogues, il faut donc trouver des dialogues. On ne trouve pas des dialogues sur Internet comme on trouve des chats, il faut donc aller les chercher ailleurs. Il y a des systèmes, en fait il y a des bases de données de dialogues. Il y en a une qui s’appelle Switchboard, qui est très connue, qui est une énorme base de données avec des millions et des millions de conversations, des conversations qui sont enregistrées, retranscrites, on retranscrit les mots, et qui sont annotées. On dit « le gars a téléphoné pour sa machine à laver, il n’était pas content, etc. » C’est donc une énorme une base de données qui est magnifique pour les gens qui font des systèmes d’interaction, qui permet de comprendre un peu les structures des dialogues.<br/>
 +
J’imagine le gars de chez Microsoft à qui on dit : « Il faut que tu fasses un système Tay. Tu te débrouilles, tu prends Switchboard et tu nous fais un système ». Le gars dit : « OK, d’accord, il y a de millions de conversations, je ne vais pas pouvoir tout prendre, je vais prendre un sous-ensemble, je n’ai besoin que de quelques milliers de trucs pour créer mon modèle, je vais prendre le début de la base, Alabama années 50 ». Alabama années 50, vous imaginez que c’était un peu biaisé, je pense que les Blacks étaient dans une situation un peu délicate, un peu plus délicate que celle d’aujourd’hui, peut-être. Du coup, la base de données étant biaisée, le modèle était biaisé et il a fallu une petite étincelle pour qu’elle devienne complètement raciste et qu’elle détruise les Noirs dans les interactions de dialogues.
 +
 
 +
Il faut donc faire super attention. Je n’ai pas forcément la solution. Vous allez me dire que c’est fastoche, il suffit de bien regarder toutes les données et d’enlever les trucs qui sont un peu limite. Il y a deux problèmes avec ça.<br/>
 +
Le premier problème, c’est que quand on a 100 000 images de chats, on peut peut-être trouver deux/trois images de chiens et les enlever. Fastoche ! Mais quand on a 175 milliards de morceaux de données, ça commence à être un peu plus délicat d’aller chercher les machins qui ne vont pas, parce qu’il y en a beaucoup.<br/>
 +
L’autre truc c’est que quand on va commencer à balancer les data, à dire « je vais choisir les data », ce que je viens de dire ici « choisir les data », ça veut dire, quelque part, que je rentre mon propre biais et, quand je rentre mon propre biais, qui dit que éthiquement c’est moi qui ai raison ? Je ne sais pas. C’est donc un problème excessivement délicat : dès qu’on commence à faire des statistiques, il y a des choses qui sont certainement fausses et moi je vous dis que toutes les bases de données sont fausses. Il faut donc douter de ces systèmes. J’espère que cette population ici en est persuadée.<br/>
 +
Bref, ça c’était mon ami <em>chatbot</em> sur Twitter qui a vécu 16 heures.
 +
 
 +
Un autre truc, on dit souvent « de toute façon il faut douter, il faut faire attention, ces intelligences artificielles sont des boîtes noires, c’est trop compliqué, on ne peut pas comprendre ce que ça fait. Ce sont des boîtes noires, il ne faut pas leur faire confiance. » Je vais modérer un tout petit, je ne vais pas dire exactement ça. Je vais dire que oui, il faut douter, je vais le répéter tout le temps, par contre, de temps en temps on peut faire confiance à ces boîtes noires parce que ce ne sont pas des boîtes noires ; en fait, ce sont des boîtes transparentes si on prend le temps de les expliquer. Il n’y a pas d’inexplicabilité en IA. Souvent on dit inexplicabilité, on dit comme c’est inexplicable, blablabla.<br/>
 +
Comme toutes les sciences nouvelles, comme tous les trucs nouveaux qui arrivent, c’est compliqué, ça a l’air compliqué, mais des fois il suffit de quelques petites choses pour expliquer correctement pour que tout le monde comprenne. Je vais vous raconter une histoire qui est une histoire familiale, je parlais tout à l’heure de ce brave Gaston Julia, qui n’est d’ailleurs pas mon grand-père, qui est un grand-oncle, ce n’est pas très grave. Ce brave Gaston a effectivement inventé les fractales, il a découvert une équation particulière qu’on a appelée les fractales, qui est un logarithme, bref ! Il fait ça en 1914, le papier est publié en 1915. La communauté mathématique regarde cette équation, est absolument surprise par le machin, c’est super, mais, pour le commun des mortels, c’est une équation mathématique complètement incompréhensible. C’est un log, machin, blabla, on ne comprend que dalle, c’est une boîte noire pour la plupart des gens, mais c’est une boîte transparente pour Julia lui-même qui a inventé le truc, qui a découvert le truc, il est donc capable d’expliquer ce que c’est, il est capable d’expliquer à ses collègues qui eux comprennent, les mathématiciens comprennent, mais c’est vrai que la plupart des gens ne comprennent pas forcément la mathématique qui est derrière cette équation.<br/>
 +
1955, Julia est prof à Polytechnique, 40 ans plus tard, il a comme élève un garçon qui s’appelle Benoît Mandelbrot. Benoît Mandelbrot part aux États-Unis, chez IBM, il a un des premiers ordinateurs à sa disposition. Il rentre l’équation de Julia dans l’ordinateur, il en profite pour l’appeler équation de Mandelbrot, on ne va pas se gêner ! Quand il affiche cette équation apparaît à l’écran cette magnifique fougère, pour ceux qui savaient ce qu’était une fractale, et, quand on la regarde, on voit qu’à chaque niveau de la fougère c’est la même fougère, et la même fougère, et la même fougère. Cette propriété exceptionnelle qu’ont les fractales s’appelle la récursivité. La récursivité devient complètement transparente pour n’importe qui : juste en regardant l’image, n’importe qui est capable de comprendre, la boîte noire est donc devenue une boîte transparente grâce à cette image. Pour ceux qui n’ont toujours pas compris, la récursivité c’est comme La vache qui rit !
 +
 
 +
Tant que je suis dans les trucs qui m’énervent, je vais vous parler de la voiture autonome. La voiture autonome, Elon Musk. 2015, Elon Musk nous dit : « La voiture autonome, c’est pour demain ». Super. Très bien ! 2018, « La voiture autonome, c’est pour demain ». 2021, « La voiture autonome c’est pour demain ». 2023, « La voiture autonome c’est pour demain ». Bon ! Elon Musk raconte n’importe quoi, je pense que vous le savez maintenant. Quand il parle de voiture autonome et quand je parle de voiture autonome, on parle de voiture autonome niveau 5, donc le niveau ultime de l’autonomie. Il y a évidemment 0, 1, 2, 3, 4 avant. Aujourd’hui, on est à peu près à 2,5, les Tesla sont à 2,5. Certains déclarent qu’ils sont presque à 3, je pense qu’on est effectivement presque à 3, mais on est loin de 4 et on est très loin de 5, on est d’autant plus loin de 5 qu’aujourd’hui je vous annonce officiellement que 5 n’existera jamais, comme dans « ja » et « mais », jamais, je vais vous le prouver, je ne vais pas juste vous le dire, je vais vous le prouver.<br/>
 +
Du coup, ces voitures autonomes, quand elles seront au niveau 4, elles vont nous permettre d’être beaucoup plus sûrs dans les voitures, ça va être absolument extraordinaire et on y arrivera. On va arriver au niveau 4, mais on ne peut pas dire qu’on aura un jour la <em>full</em> autonomie. Pour cela, je vais donner deux exemples, un exemple qui est pour les Français, qui s’appelle la place de l‘Étoile à 18 heures.
 +
 
 +
Place de l’Étoile à 18 heures. Vous collez une voiture autonome sur une des avenues qui est là, la voiture autonome va être comme ça [immobile, NdT], parce que la voiture autonome a une propriété extraordinaire, elle respecte le Code de la route !, ce que vous, quand vous êtes sur la place de l’Étoile, vous ne faites pas. Vous avez un truc en plus qui s’appelle le pouvoir de négociation [pouce levé, NdT] ou le pouvoir de négociation [doigt d’honneur, NdT], et ça c’est un peu compliqué à expliquer aux voitures, à expliquer au système autonome. Ça c’était pour les Français.
 +
 
 +
==28’ 52==
 +
 
 +
La version officielle

Version du 29 juillet 2023 à 13:58


Titre : L’intelligence artificielle n’existe pas

Intervenants : Luc Julia - ???

Lieu : Dock B · Paris Pantin - Conférence IA & éducation

Date : 8 juin 2023

Durée : 56 min 21

Vidéo

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

C’est moi le gars à la chemise hawaïenne, je vois que j’ai fait quelques émules aujourd’hui, ce n’est pas mal, vous y viendrez, je vous assure.

On va parler d’intelligence artificielle ce matin et, en fait, j’ai une mauvaise nouvelle parce que je vais vous raconter que l’intelligence artificielle n’existe pas. C’est dommage ! J’en fais depuis plus de 30 ans, c’est un peu embêtant ! Celle qui n’existe pas c’est celle dont on nous rebat les oreilles depuis une petite dizaine d’années, mais surtout depuis six mois avec CharGPT, cette intelligence artificielle qu’on présente dans les médias comme quelque chose de magique ou qui fait peur, ou qui fait rêver, ça dépend, j’appelle ça l’intelligence artificielle de Hollywood. Celle qui est dans les films comme Terminator, là ça fait plutôt peur, ou celle des films comme Her, il y en a à qui ça fait envie, pas à moi ! C’est cette intelligence artificielle-là qui n’existe pas, celle qu’on nous présente. D’ailleurs, ce n’est pas une intelligence, il ne faudrait pas parler d’une intelligence artificielle, je pense que je vais vous expliquer ça ce matin, il faut parler d’intelligences artificielles au pluriel, parce qu’elles sont multiples et variées, il y en a plein.

Si j’ai vraiment à donner une définition d’UNE intelligence artificielle, je vais dire qu’UNE intelligence artificielle c’est une boîte à outils dans laquelle vous avez plein d’outils divers et variés et ce sont ça les intelligences artificielles, ce sont ces outils, le marteau, la scie, le tournevis, etc. Chacune de ces intelligences artificielles est très spécialisée, elle est très forte dans le domaine particulier pour lequel elle a été fabriquée et, par définition même de l’outil, elle est utile, c’est-à-dire que ça marche très bien, ça marche mieux que nous. Un marteau, ça marche mieux que nous pour planter un clou.
Ces intelligences artificielles sont effectivement puissantes et, on va y revenir, utiles et/ou dangereuses, on y reviendra.

Je vais commencer par 1956, quand on a inventé le mot, on va dire l’expression « intelligence artificielle », donc ça ne date pas d’hier, ça ne date pas d’il y a dix ans, ça ne date pas s’il y a six mois. 1956 c’est quand une tripotée de scientifiques américains se sont réunis à l’université de Dartmouth pour donner un nom au domaine sur lequel ils étaient en train de travailler. Ils avaient défini mathématiquement un neurone, c’est-à-dire qu’ils avaient défini une fonction, ils avaient dit « ça, ça a la capacité d’un neurone » donc on est capable, en mathématiques, de modéliser un neurone. Si on a un neurone, on peut modéliser un réseau de neurones ; si on a un réseau de neurones, on peut modéliser le cerveau ; si on a le cerveau, on peut modéliser l’intelligence. Le raisonnement que je viens de faire ici est évidemment complètement stupide et ça n’a pas marché, je vais y revenir. Mais c’est là que ça a démarré.
Mais, si on réfléchit bien, on fait ça depuis la nuit des temps. On essaye de trouver des outils, de faire des machines ou de faire des systèmes qui vont faire des choses qui ressemblent à ce que nous faisons ; on essaye d’automatiser depuis la nuit des temps. On peut certainement aller aux Grecs, aux Égyptiens, même peut-être avant.
Comme je suis franchouillard de base, je vais faire démarrer l’intelligence artificielle, ou ce qu’on peut appeler comme ça, en 1642. Qu’est-ce qui s’est passé en 1642 ? En 1642, le mathématicien et philosophe français, Pascal, a inventé la pascaline. La pascaline c’est quoi ? C’est la première machine à calculer, c’est une machine à calculer qui faisait des additions et des soustractions. Vous allez me dire que ce n’est pas très intelligent de faire des additions et des soustractions, mais si je vous demande combien fait 649 + 1884… [Attente, NdT] D’accord ! Il y a deux solutions : ou vous êtes complètement idiots, c’est possible, on peut le dire comme ça, ou alors ce n’est pas intelligent de faire ça. En tout cas la machine, la pascaline, aurait eu ce résultat en moins de quatre secondes, parce qu’il suffit de tourner les mollettes. En plus de ça, la machine aurait eu juste, là la personne n’a donné de réponse, mais si vous aviez donné une réponse, il y avait à peu près 60~% de chances qu’elle soit fausse.
Ceci dit, c’est pour cela que ça fait très longtemps qu’on essaie de créer des machines qui ont l’air intelligentes, qui font des trucs qui ont l’air intellectuel.

Je reviens à mes amis de 1956. Je disais tout à l’heure que le raisonnement est stupide et c’est embêtant parce que non seulement ils ont donné le mauvais nom, « intelligence artificielle », à ce domaine, mais, en plus de ça, ils se sont attaqués au problème qui est certainement le problème le plus compliqué auquel on puisse s’attaquer puisqu’ils ont essayé de résoudre le langage naturel. Langage naturel c’est quoi ? C’est ce qu’on fait ensemble, on va dire, il y a un gars qui parle, il y a des mots, vous entendez les mots et vous essayez de comprendre le sens ; les mots c’est relativement facile, le sens c’est compliqué. En 1956, avec les méthodes qu’on utilisait à l’époque, qui étaient ces méthodes statistiques, évidemment ils ont complètement échoué, ça n’a pas marché et on est entré dans ce qui s’appelle le premier hiver de l’IA. C’est quoi l’hiver de l’IA ? C’est un moment où on arrête de l’IA parce qu’on ne donne plus de sous, parce qu’on nous a menti. On nous a menti, on nous a promis plein de choses, on ne les a pas faites, etc. Il y a eu plein d’hivers de l’IA après et il y a en un autre qui nous pend au nez si on continue à faire notre Laurent Alexandre et à raconter n’importe quoi, eh bien on peut très bien arrêter l’IA. On a peur, c’est ce qui se passe en ce moment avec ChatGPT, on a peur, vous avez peur ! D’accord ! On nous dit n’importe quoi, Laurent Alexandre, ou alors on nous fait rêver et ça n’arrive pas.
Là nous sommes dans une période où il est très possible, à cause d’une de ces trois/ quatre ou cinq raisons, qu’on arrête de travailler sur l’intelligence artificielle. Ce serait dommage, parce que dans LES intelligences artificielles dont je parlais tout à l’heure, il y en a plein qui sont excessivement utiles, qui sont très utiles et il faut surtout continuer, il ne faut pas s’arrêter, mais il faut comprendre, il faut s’éduquer, donc il faut venir ici.

Dans les années 60, il n’y a donc plus d’intelligence artificielle, début des années 60, du moins il n’y a plus d’intelligence artificielle que je vais appeler statistique, celle qui essaie de modéliser les neurones, mais un autre type apparaît, c’est ce qu’on va appeler, ce que je vais appeler les intelligences artificielles logiques. Vous en avez entendu parler, c’est ce qu’on appelle les systèmes experts. Les systèmes experts c’est très à la mode dans les années 60/70/80/90 et ça arrive à son apothéose en 1997, quand le champion du monde d’échecs, Garry Kasparov, est battu par la machine Deep Blue, une machine d’IBM, qui bat effectivement Kasparov aux échecs et c’est super impressionnant parce que quand on joue aux échecs on est intelligent. Non ! En fait non. Les échecs c’est rigolo, c’est un jeu, il y a des règles. Ça tombe bien parce quand on parle des systèmes experts ce sont des bases de règles, donc on rentre les règles du jeu dans la base, c’est relativement simple et, en plus de ça, il se trouve qu’aux échecs on sait exactement combien il y a de coups, 1049 coups, on est capable de rentrer pas mal de coups dans la machine. En 1997 il y a pas mal de mémoire, on est donc capable de calculer relativement facilement, parce qu’on a assez de puissance de calcul, n’importe quelle position à n’importe quelle position gagnante, très facilement. Kasparov, lui, n’est pas capable, Kasparov a 20 coups d’avance, il est fort, il a 20 coups d’avance moi je n’ai que deux coups d’avance. Ce qui se passe est relativement simple, je ne sais pas si c’est de l’intelligence, en tout cas c’est impressionnant, c’est sûr.

Là on est dans les années 90 et dans les années 90 il se passe quelque chose d’autre qui fait que les intelligences artificielles statistiques, qu’on avait abandonnées 30 ans plus tôt, reviennent à la charge. Pourquoi reviennent-elles à la charge ? Parce que ce sont des statistiques, et pourquoi ce sont des statistiques, je vais vous dire cela juste après. On change quand même de nom, on appelle maintenant ça du machine learning, c’est la machine qui va apprendre des trucs, ça va être sympa. Pourquoi ce machine learning arrive-t-il en force ? Il arrive en force parce qu’en 1990, vous vous souvenez peut-être, au milieu des années 90 un truc arrive qui s’appelle Internet. Et Internet arrive avec beaucoup de données et, pour faire des statistiques, il faut beaucoup de données.

Là on est dans les années 2000, on fait maintenant même du deep learning, on ne se contente pas du machine learning, on fait du deep learning. Deep learning, ça veut dire quoi ? C’est exactement pareil sauf qu’il y a encore plus de données, de plus en plus de données. Vous allez voir, on va parler de ChatGPT tout à l’heure, il y a beaucoup de données.

Au début des années Internet, parmi les gros montants de données qu’il y a, il y a beaucoup d’images de chats sur Internet. Vous allez vous dire « il a pété une durite le gars ! ». Non, il y a vraiment beaucoup d’images de chats, et puis les images de chats sont intéressantes pour les gens qui veulent faire des statistiques parce qu’elles sont annotées, c’est-à-dire que les gens mettent des images de chats sur Internet et disent « c’est mon minou, c’est mon kiki, c’est mon chaton », donc on a une base de données d’images de chats relativement intéressante et on dit « on va utiliser cette base de données de chats pour faire le premier reconnaisseur de chats », un truc super intelligent !
On se rend compte qu’avec seulement 100 000 images de chats, on peut faire un reconnaisseur de chats qui reconnaît les chats à 98~%. Waouh ! Là, on arrive quand même au top de l’intelligence artificielle. On se rend compte qu’on est vraiment capable de faire des machines intelligentes si on est capable de faire des machines qui reconnaissent les chats.
Là on se demande si ce machin est un truc vraiment intelligent parce qu’il lui faut quand même 100 000 images de chats, 100 000 images de chats c’est beaucoup. Surtout quand on se pose des questions et la question que j’ai posée à des gens, à des psychologues en l’occurrence, je leur ai demandé : « Combien d’images de chats faut-il à ma fille de deux ans pour reconnaître les chats ? » La réponse des psychologues c’est « deux » ! D’accord. Donc ma fille de deux ans, qui n’est pas forcément très intelligente, d’après moi elle est complètement con, il lui faut deux images de chats pour reconnaître les chats à 100~% quand même ! Et la machine qu’on est en train de fabriquer, l’intelligence artificielle, il lui faut 100 000 images de chats.
On est en donc train de fabriquer des trucs qui n’ont strictement rien à voir avec notre cerveau. C’est pour cela qu’il va falloir se calmer un tout petit peu quand on va dire, à un moment donné, « attention ça va nous remplacer, tout ça », ça n’a strictement rien à voir.

En plus, je l’ai dit, cette machine qu’on a créée reconnaît les chats à 98~%. Vous savez pourquoi ce n’est qu’à 98~% ? Ma fille, elle, reconnaît à 100~% parce qu’elle reconnaît même les chats dans la pénombre, mais les chats dans la pénombre, il n’y a pas dans la database, parce que personne m’a posté d’images de chats dans la pénombre, on ne les voit pas, donc ça ne sert à rien. Si on ne les voit pas ils n’existent pas, s’ils n’existent pas on ne les reconnaît pas.
Ces systèmes ont donc aussi des limites, des data, des données qui sont disponibles pour pouvoir reconnaître ce qu’ils sont censés faire.

13’ 03

OK ! Ça c’est réglé. On a parlé des données, on a parlé des systèmes qui sont idiots, qui ont besoin de beaucoup de données et qui n’ont strictement rien à voir avec notre cerveau. Pour amplifier encore là-dessus, on va passer en 2016 maintenant, et on va aller cette fois-ci à la machine qui a battu le champion du monde de go. Le go c’est rigolo, c’est un peu plus compliqué que les échecs, je disais tout à l’heure 1049 coups aux échecs. Si vous demandez aux mathématiciens combien il y a de coups au go, ils vont vous dire qu’il y en a entre 10200 et 10600 donc, en gros, je suis en train de dire qu’on n’en sait rien, mais on sait que c’est beaucoup. Récemment, j’ai donné cette conférence dans un lycée et un gars m’a dit « finalement, 10200 c’est seulement quatre fois plus que 1049 ! », c’est beaucoup plus, on est d’accord ! Il y a beaucoup de zéros derrière. OK. C’est donc impossible d’utiliser les méthodes de logique qu’on avait utilisées en 1997, là on va effectivement utiliser des méthodes statistiques, on va utiliser du deep learning, c’est DeepMind, une boîte de Google qui fait ça. On ne va pas d’intéresser à l’algorithme, on s’en fiche, on va s’intéresser à la machine de DeepMind, qui fait tourner AlphaGo, le programme qui joue au go.
Cette machine n’est pas vraiment comme ça, c’est un dessin que j’ai fait – on ne sait jamais –, on va donc ouvrir ses entrailles et, quand on ouvre ses entrailles, on va voir qu’il y a à l’intérieur 1500 CPU, les CPU ce sont les chips, les puces d’ordinateur, donc 1500 puces d’ordinateur ; il y a 300 GPU, les GPU ce sont d’autres puces qui font du Graphics Processing Unit, ce sont des machins qui font du calcul matriciel, très intéressant pour faire du machine learning ; il y a encre un autre type de puces qui est nouveau à ce moment-là, qui s’appelle les TPU, Tensor Processing Unit, c’est pour faire des TensorFlow, TensorFlowc’est une méthode de deep learning. Très bien ! Donc, le machin, ce sont 2000 ordinateurs ! 2000 ordinateurs pour jouer au go. 2000 ordinateurs c’est un petit datacenter. Un petit datacenter qui fait 440 kilowatts, 440 kilowatts pour jouer au go !
Il y a une autre question qu’il faut se poser. Le petit Coréen de 18 ans – d’ailleurs c’est bien fait pour sa gueule qu’il se soit fait ratatiner parce qu’il est infect – il a ça [son cerveau, NdT] et ça [le cerveau], en watts, est-ce que vous avez une idée de ce que c’est ? Pas tous et surtout ce matin, mais en général, c’est à peu près 20 watts. OK ! Là on est donc en train de créer une machine qui pète 440 kilowatts pour jouer à un jeu auquel le champion du monde est capable de jouer avec 20 watts. Le gars est champion du monde, il n’était pas loin de battre la machine, il l’a battue quelquefois, elle l’a battu plus.
Encore une fois, on est en train de créer des trucs qui n’ont absolument rien à voir avec notre intelligence, avec notre cerveau, qui utilisent beaucoup plus d’énergie, beaucoup plus de données. Dans ??? [16 min 20] ce qui est marrant aussi, c’est que cette machine, AlphaGo, elle ne fait que jouer au go. Le petit Coréen, lui, il sait faire la cuisine, il sait parler le langage naturel, vous savez, le truc compliqué, il sait faire plein de trucs avec ses 20 watts ; ça, ça ne fait que jouer au go. Si je veux que ça joue aux dames, il faut tout refaire ! OK !
Encore une fois, respirons, ces machines n’ont strictement rien à voir avec notre cerveau, avec notre intelligence. On n’aurait jamais dû appeler ça intelligence artificielle.

Comme je l’ai dit, il y a beaucoup de données dans ces systèmes, il faut utiliser énormément de données, on en utilise de plus en plus, ce sont des statistiques. ChatGPT, aujourd’hui, ce ne sont pas 100 000 morceaux de données comme c’était pour les premiers reconnaisseurs de chats dans les années 90/2000. On parle de 175 milliards de morceaux de données. On parle entre 1000 et 2000 milliards de mots qui sont ingurgités par la machine. C’est beaucoup ! En gros c’est Internet.
Malheureusement, quand il y en a beaucoup comme ça, ces données sont souvent, sont toujours biaisées. Je ne sais pas si on vous a dit que sur Internet il n’y a pas que des trucs vrais. Du coup, comme la machine a ingurgité des trucs qui ne sont pas vrais, pas vrais selon certains standards, par exemple la Terre n’est pas plate, à priori, mais, sur Internet on trouve des fois que la Terre est plate. Du coup ChatGPT, si vous insistez vraiment, il va vous dire que la Terre plate, parce qu’il va vous rendre des données qui sont sur internet.
Donc les données sont biaisées, les données sont fausses et, malheureusement, ça donne de temps en temps des systèmes dans lesquels ça va se voir, ça se voit tout le temps, ça se voit de plus en plus. Sur ChatGPT, puisque tout le monde l’utilise n’importe comment, on peut effectivement dire de grosses bêtises.

Je vais prendre un exemple de 2016, qui est l’exemple d’un chatbot, déjà, ce n’était pas ChatGPT, c’est un chatbot de Microsoft qui s’appelait Tay. Tay est sorti en 2016, c’était un chatbot qui était censé interagir avec les gens, sur Twitter, pour promouvoir les produits de Microsoft. L’idée était certainement très bonne. Ils ont mis des mois à développer le machin et ils ont été obligés de le débrancher au bout de 16 heures d’opération. Au bout de 16 heures d’opération Tay était devenu le chatbot le plus raciste et sexiste de l’humanité. Il n’y en avait pas beaucoup à l’époque, mais c’était quand même assez grave, donc ils l’ont débranché. Ils ne voulaient pas le débrancher, évidemment, ils n’avaient pas fait tout ce travail pour rien, il y avait quelque chose qui n’allait pas. Les scientifiques se sont penchés sur le problème, ils se sont demandés pourquoi ? Que s’est-il passé ? Ça n’a strictement aucun sens, on n’a pas créé ce truc pour le débrancher juste après.
Deux bugs ont été identifiés. Un premier bug qu’on va appeler un bug de logique, qui n’a rien à voir avec l’intelligence artificielle mais qui m’amuse donc je vais vous le dire.

Quand on crée un système d’interaction comme ça, on a petit slider, un petit curseur qu’on va adapter, c’est un slider d’adaptabilité au public auquel on s’adresse. Là, le slider était un peu trop haut, il s’est adapté au public auquel il s’adressait et le public, ici, c’était Twitter et, comme vous le savez certainement, au bout de deux/trois interactions sur Twitter on s’insulte. Eh bien là le truc, au bout de deux/trois interactions, il insultait les gens. La bonne nouvelle c’est que c’est assez facile à fixer : vous descendez le slider, vous récupérez la façon dont vous interagissez avec les gens et vous contrôlez le dialogue globalement, donc ce problème disparaît. Fastoche !

L’autre bug est beaucoup plus insidieux, beaucoup plus compliqué, c’est un bug de data. Ça veut dire quoi un bug de data ? Ça veut dire que les data étaient mauvaises.
Quand on fait un système d’interaction, ce sont des dialogues, il faut donc trouver des dialogues. On ne trouve pas des dialogues sur Internet comme on trouve des chats, il faut donc aller les chercher ailleurs. Il y a des systèmes, en fait il y a des bases de données de dialogues. Il y en a une qui s’appelle Switchboard, qui est très connue, qui est une énorme base de données avec des millions et des millions de conversations, des conversations qui sont enregistrées, retranscrites, on retranscrit les mots, et qui sont annotées. On dit « le gars a téléphoné pour sa machine à laver, il n’était pas content, etc. » C’est donc une énorme une base de données qui est magnifique pour les gens qui font des systèmes d’interaction, qui permet de comprendre un peu les structures des dialogues.
J’imagine le gars de chez Microsoft à qui on dit : « Il faut que tu fasses un système Tay. Tu te débrouilles, tu prends Switchboard et tu nous fais un système ». Le gars dit : « OK, d’accord, il y a de millions de conversations, je ne vais pas pouvoir tout prendre, je vais prendre un sous-ensemble, je n’ai besoin que de quelques milliers de trucs pour créer mon modèle, je vais prendre le début de la base, Alabama années 50 ». Alabama années 50, vous imaginez que c’était un peu biaisé, je pense que les Blacks étaient dans une situation un peu délicate, un peu plus délicate que celle d’aujourd’hui, peut-être. Du coup, la base de données étant biaisée, le modèle était biaisé et il a fallu une petite étincelle pour qu’elle devienne complètement raciste et qu’elle détruise les Noirs dans les interactions de dialogues.

Il faut donc faire super attention. Je n’ai pas forcément la solution. Vous allez me dire que c’est fastoche, il suffit de bien regarder toutes les données et d’enlever les trucs qui sont un peu limite. Il y a deux problèmes avec ça.
Le premier problème, c’est que quand on a 100 000 images de chats, on peut peut-être trouver deux/trois images de chiens et les enlever. Fastoche ! Mais quand on a 175 milliards de morceaux de données, ça commence à être un peu plus délicat d’aller chercher les machins qui ne vont pas, parce qu’il y en a beaucoup.
L’autre truc c’est que quand on va commencer à balancer les data, à dire « je vais choisir les data », ce que je viens de dire ici « choisir les data », ça veut dire, quelque part, que je rentre mon propre biais et, quand je rentre mon propre biais, qui dit que éthiquement c’est moi qui ai raison ? Je ne sais pas. C’est donc un problème excessivement délicat : dès qu’on commence à faire des statistiques, il y a des choses qui sont certainement fausses et moi je vous dis que toutes les bases de données sont fausses. Il faut donc douter de ces systèmes. J’espère que cette population ici en est persuadée.
Bref, ça c’était mon ami chatbot sur Twitter qui a vécu 16 heures.

Un autre truc, on dit souvent « de toute façon il faut douter, il faut faire attention, ces intelligences artificielles sont des boîtes noires, c’est trop compliqué, on ne peut pas comprendre ce que ça fait. Ce sont des boîtes noires, il ne faut pas leur faire confiance. » Je vais modérer un tout petit, je ne vais pas dire exactement ça. Je vais dire que oui, il faut douter, je vais le répéter tout le temps, par contre, de temps en temps on peut faire confiance à ces boîtes noires parce que ce ne sont pas des boîtes noires ; en fait, ce sont des boîtes transparentes si on prend le temps de les expliquer. Il n’y a pas d’inexplicabilité en IA. Souvent on dit inexplicabilité, on dit comme c’est inexplicable, blablabla.
Comme toutes les sciences nouvelles, comme tous les trucs nouveaux qui arrivent, c’est compliqué, ça a l’air compliqué, mais des fois il suffit de quelques petites choses pour expliquer correctement pour que tout le monde comprenne. Je vais vous raconter une histoire qui est une histoire familiale, je parlais tout à l’heure de ce brave Gaston Julia, qui n’est d’ailleurs pas mon grand-père, qui est un grand-oncle, ce n’est pas très grave. Ce brave Gaston a effectivement inventé les fractales, il a découvert une équation particulière qu’on a appelée les fractales, qui est un logarithme, bref ! Il fait ça en 1914, le papier est publié en 1915. La communauté mathématique regarde cette équation, est absolument surprise par le machin, c’est super, mais, pour le commun des mortels, c’est une équation mathématique complètement incompréhensible. C’est un log, machin, blabla, on ne comprend que dalle, c’est une boîte noire pour la plupart des gens, mais c’est une boîte transparente pour Julia lui-même qui a inventé le truc, qui a découvert le truc, il est donc capable d’expliquer ce que c’est, il est capable d’expliquer à ses collègues qui eux comprennent, les mathématiciens comprennent, mais c’est vrai que la plupart des gens ne comprennent pas forcément la mathématique qui est derrière cette équation.
1955, Julia est prof à Polytechnique, 40 ans plus tard, il a comme élève un garçon qui s’appelle Benoît Mandelbrot. Benoît Mandelbrot part aux États-Unis, chez IBM, il a un des premiers ordinateurs à sa disposition. Il rentre l’équation de Julia dans l’ordinateur, il en profite pour l’appeler équation de Mandelbrot, on ne va pas se gêner ! Quand il affiche cette équation apparaît à l’écran cette magnifique fougère, pour ceux qui savaient ce qu’était une fractale, et, quand on la regarde, on voit qu’à chaque niveau de la fougère c’est la même fougère, et la même fougère, et la même fougère. Cette propriété exceptionnelle qu’ont les fractales s’appelle la récursivité. La récursivité devient complètement transparente pour n’importe qui : juste en regardant l’image, n’importe qui est capable de comprendre, la boîte noire est donc devenue une boîte transparente grâce à cette image. Pour ceux qui n’ont toujours pas compris, la récursivité c’est comme La vache qui rit !

Tant que je suis dans les trucs qui m’énervent, je vais vous parler de la voiture autonome. La voiture autonome, Elon Musk. 2015, Elon Musk nous dit : « La voiture autonome, c’est pour demain ». Super. Très bien ! 2018, « La voiture autonome, c’est pour demain ». 2021, « La voiture autonome c’est pour demain ». 2023, « La voiture autonome c’est pour demain ». Bon ! Elon Musk raconte n’importe quoi, je pense que vous le savez maintenant. Quand il parle de voiture autonome et quand je parle de voiture autonome, on parle de voiture autonome niveau 5, donc le niveau ultime de l’autonomie. Il y a évidemment 0, 1, 2, 3, 4 avant. Aujourd’hui, on est à peu près à 2,5, les Tesla sont à 2,5. Certains déclarent qu’ils sont presque à 3, je pense qu’on est effectivement presque à 3, mais on est loin de 4 et on est très loin de 5, on est d’autant plus loin de 5 qu’aujourd’hui je vous annonce officiellement que 5 n’existera jamais, comme dans « ja » et « mais », jamais, je vais vous le prouver, je ne vais pas juste vous le dire, je vais vous le prouver.
Du coup, ces voitures autonomes, quand elles seront au niveau 4, elles vont nous permettre d’être beaucoup plus sûrs dans les voitures, ça va être absolument extraordinaire et on y arrivera. On va arriver au niveau 4, mais on ne peut pas dire qu’on aura un jour la full autonomie. Pour cela, je vais donner deux exemples, un exemple qui est pour les Français, qui s’appelle la place de l‘Étoile à 18 heures.

Place de l’Étoile à 18 heures. Vous collez une voiture autonome sur une des avenues qui est là, la voiture autonome va être comme ça [immobile, NdT], parce que la voiture autonome a une propriété extraordinaire, elle respecte le Code de la route !, ce que vous, quand vous êtes sur la place de l’Étoile, vous ne faites pas. Vous avez un truc en plus qui s’appelle le pouvoir de négociation [pouce levé, NdT] ou le pouvoir de négociation [doigt d’honneur, NdT], et ça c’est un peu compliqué à expliquer aux voitures, à expliquer au système autonome. Ça c’était pour les Français.

28’ 52

La version officielle