Intelligence artificielle, bullsh*t, pipotron - Benjamin Bayart

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Intelligence artificielle, bullsh*t, pipotron ? Benjamin Bayart

Intervenants : Benjamin Bayart - Sky

Lieu : Chaîne Internet Thinkerview

Date : 4 avril 2024

Durée : 2 h 36 min 29

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sky : Benjamin Bayart, bonsoir.

Benjamin Bayart : Bonsoir.

Sky : Nous vous recevons pour une chaine internet qui s’appelle Thinkerview. Nous sommes en direct, est-ce que vous pouvez vous présenter succinctement ?

Benjamin Bayart : Me présenter succinctement, c’est toujours très compliqué.
Benjamin Bayart, 50 ans, informaticien, militant, activiste, membre de trouse [0 min 33] associations, militant pour les libertés en général et en ligne en particulier. Ma bio Twitter dit « vieux con des internets », c’est bien.

Sky : U petit background. Qu’avez-vous fait ?

Benjamin Bayart : Côté pro, ça va emmerder tout le monde. Côté associatif, cofondateur de La Quadrature. On a encore créé une association récemment, il faudra que je te raconte les « Licornes célestes », c’est marrant. Je t’assure, c’est marrant ! C’est du droit administratif, c’est toujours rigolo le droit administratif ! J’ai été président pendant 14 ans de French Data Network, le plus vieux fournisseur d’accès à Internet en France, qui est une association. On a créé la Fédération des fournisseurs d’accès internet associatifs. Qu’est-ce que j’ai fait d’autre comme sottises ? En ce moment, je suis consultant dans une boîte qui s’appelle OCTO Technology, où je m’amuse beaucoup, où me laisse bosser sur des sujets intéressants, c’est très rigolo.

Sky : On va se tutoyer direct, si tu m’autorises. Notre première interview date de Notre-Dame, au pied de Notre-Dame.

Benjamin Bayart : 2014, un truc comme ça.

Sky : Oui, un truc comme ça. On va faire le point. Aujourd’hui, on va parler intelligence artificielle, on va parler libertés aussi sur Internet, on va parler data, on va parler de stockage, on va parler de failles de sécurité, peut-être sur certaines choses exfiltrées, on va peut-être parler des Jeux olympiques. Non ?
Benjamin, on commence par l’intelligence artificielle et on parlera de l’intelligence artificielle militarisée après. Pour toi, l’intelligence artificielle, c’est quoi ?

Benjamin Bayart : Tout de suite les questions qui fâchent !
Pour moi, ce sont des statistiques. C’est essentiellement un outil de statistiques. Les gens qui ne sont pas du métier découvrent ça en ce moment, à cause de ChatGPT, pour faire joujou. Mais, pour moi, c’est une façon particulière de faire des stats, de calculer des résultats, de faire des prédictions.

Sky : De l’anticipation.

Benjamin Bayart : Des prédictions ou des détections, mais qui s’appuient sur des mécaniques qu’on ne comprend pas, c’est ça le jeu.
Si je fais une analyse statistique tout seul parce que je suis un garçon sérieux, je fais des maths, je fais des calculs de pourcentage, des trajectoires, je ne sais pas quoi, je vais pouvoir faire des estimations, des prédictions, des évaluations basées sur du calcul et où je sais pourquoi je trouve ce résultat-là et je sais à quel moment mon calcul dit « 27,3, donc c’est bleu. » Tout le jeu de l’intelligence artificielle, c’est de trouver des mécanismes qui vont manger ces données de manière extrêmement bizarre et qui vont réussir à nous produire des résultats dont on ne sait pas expliquer pourquoi ils sortent.

Sky : Qu’est-ce que tu appelles « extrêmement bizarre » ? Le biais du mec qui a entraîné l’intelligence artificielle ? Le biais des pipes`

Benjamin Bayart : Non, ça c’est la partie facile à comprendre. Ce que j’adore, par exemple, c’est ce qu’on fait avec ce qu’on appelle les algorithmes génétiques, qui est une des formes de l’intelligence artificielle.
Le principe est assez simple, ça suppose que tu aies un problème à résoudre et que tu saches mesurer à quel point tu es loin de la solution. Tu écris des programmes complètement aléatoires, donc ils font n’importe quoi, tu prends ça comme base de départ, tu les fais évaluer par la machine, et puis la machine sélectionne les 10 % les meilleurs, qui produisent les moins mauvais résultats, puis elle les mélange pour produire de nouveau 3000 programmes qu’elle va évaluer ; elle prend les 10 % les meilleurs, elle les mélange, elle reproduit à partir de ça 3000 programmes et puis elle va évaluer. En fait, tu fais ça des milliers, des dizaines de milliers, des centaines de milliers de fois, et ça produit des programmes qui sont, en moyenne, de plus en plus performants et qui donnent des résultats qui sont de mieux en mieux, mais on ne comprend rien à ce qu’ils font, parce que ce sont des programmes écrits complètement au pif.
Un exemple de ça a été fait avec des FPGA, et ça ne va pas forcément parler à tout le monde. Je vous explique. FPGA, ce sont des petites puces électroniques qu’on peut configurer pour qu’elles implémentent un circuit électronique ou un autre avec quelque chose qui ressemble à un programme.

Sky : Pour ceux qui ne savent pas implémenter ?

Benjamin Bayart : C’est vraiment un circuit électrique, sauf que tu peux le configurer, le paramétrer, pour qu’il se comporte ou bien comme un circuit donné ou bien comme un autre, juste avec des éléments de programme.
On a utilisé des algorithmes génétiques. On voulait faire réaliser une fonction à ce circuit-là, on a donc écrit une combinaison de configurations et puis on a fait tourner l’algorithmique génétique, comme ça, sur des centaines de milliers d’itérations. À la fin, le truc a produit une mécanique qui n’utilise qu’un tout petit nombre de cellules interconnectées dans le circuit, beaucoup moins que ce qu’utiliserait un ingénieur qui veut implémenter et créer cette fonction-là, enfin, sensiblement moins que ce qu’on sait faire de mieux. On ne comprend rigoureusement rien à la raison pour laquelle ça produit de bons résultats. Manifestement, il configure certaines des cellules d’une certaine façon, mais qui ne sont connectées à rien, et s’il les configure autrement ça ne marche plus, ça ne fonctionne plus, la fonction n’est plus rendue. Et ça, en termes électriques, ça veut dire qu’il se passe des trucs bizarres, il se passe des trucs où il y a des fuites, il y a des courants, il y a des inductions, il y a des échanges de tension, de champs magnétiques, que sais-je, mais il se passe des trucs ! C’est-à dire que si on configure cette cellule-là, qui n’est connectée à rien, dans l’autre sens, elle ne marche plus, mais ça produit un résultat extrêmement efficace, ça réalise la fonction qu’on voulait réaliser, ça la réalise en utilisant moins de cellules que ce qu’aurait utilisé un ingénieur qui réfléchit au problème, mais on ne comprend pas ce que ça fait. Donc ça produit un résultat et on ne comprend pas ce que ça fait. On a constaté qu’une fois qu’on avait ce programme-là, quand on l’amenait sur un FPGA de la même marque, du même constructeur, mais qui n’est pas le même exemplaire, ça ne marche plus, parce que le truc est trop hyper adapté à cet exemplaire-là, sur lequel on l’a testé des millions de fois.
Pour moi, cela est un exemple assez simple de ce qu’est l’intelligence artificielle : ça produit des résultats, mais on est incapable d’expliquer de manière claire pourquoi ça a sorti ce résultat-là à ce moment-là.

Sky : C’est vachement inquiétant quand même !

Benjamin Bayart : Mais non ! Ça peut être vachement pratique. Quand tu as besoin de faire un système d’éclairage qui produit ce résultat-là, ce qui t’intéresses, c’est qu’il produise le résultat ; sii tu ne comprends pas bien pourquoi, ce n’est pas très grave ! Mais il y a plein d’applications dans lesquelles c’est vachement embêtant, typiquement ce qu’on fait en ce moment avec ChatGPT. Quand les journalistes disent « intelligence artificielle » ça veut dire ChatGPT.

Sky : Il n’y a pas que les journalistes !

Benjamin Bayart : ChatGPT, c’est très mignon. Tant que tu l’utilises comme jouet, tu lui poses une question débile, il fait une réponse débile, tu t’en sers comme tu te servirais d’un énarque ou d’un sciencepiste, ça ne sert à rien, c’est amusant, ça fait joli dans les salons, tout va bien ! Ça ce n’est pas grave, c’est du jouet, c’est ludique.
Une fois qu’on enlève cet usage ludique, si tu veux en faire un usage sérieux, tu as un problème, puisque tu ne comprends pas : il a produit une réponse qui peut être rigolote, qui peut être manifestement débile, ce sont les plus drôles, ou qui peut avoir l’air vaguement sérieuse, c’est le moment où ça se met à ressembler à un énarque ou à un sciencepiste. Mais on ne sait pas pourquoi il a produit cette réponse-là et on ne sait pas bien sur quoi il s’est appuyé pour produire cette réponse-là. Du coup, on ne peut pas en faire grand-chose parce qu’on ne sait pas dire quand il se trompe. C’est donc d’un usage extrêmement particulier.
Pour moi qui suis informaticien et qui ai un peu bossé sur ces sujets-là, on était jeunes à l’époque, j’étais étudiant ! J’ai un peu bossé sur des réseaux de neurones, des cartes de Kohonen, ce sont les réseaux de neurones sur lesquels j’ai le plus bossé ; les cartes de Kohonen, c’est très rigolo.

Sky : Je peux faire une petite digression ? Tu fréquentes les salons, tu fréquentes les journalistes ? Quand tu fais une boutade sur les énarquistes et les sciencepistes, est-ce que tu as l’impression qu’ils « bullshitent » à mort sur l’intelligence artificielle ? Quand tu regardes un programme de télé où il y a des débats ? Déjà, est-ce que tu regardes la télé ?

Benjamin Bayart : Pas masse.

Sky : Pas masse, oui, je sais. N’as-tu pas l’impression que ça flûte un peu de partout, que ça pipeaute à mort ?

Benjamin Bayart : Si, mais pas plus sur ça que sur le reste !
Tu as deux grands morceaux à comprendre : il y a le fait que ce n’est pas leur métier. À part ce qu’ils ont pu comprendre de ce qu’ils ont lu sur le sujet, sachant qu’ils n’y ont pas passé des milliers d’heures parce qu’ils ont autre chose à faire, ils arrivent quand même, en moyenne, à poser des questions qui ne sont pas toujours complètement idiotes, ce qui est, je trouve, pas mal quand on ne vient pas du secteur, mais qui mélangent des réalités, des fantasmes et ils ne savent pas bien faire le tri entre les deux. Mais c’est comme ça dans tous les domaines un peu pointus. Tu as tu prends un physicien, tu lui fais parler de sociologie, s’il n’a pas fait de sociologie, il y a moyen qu’il raconte de la merde ! Tu prends un sociologue, tu lui demandes de t’expliquer le boson de Higgs, il y a moyen que ça fume ! Ce n’est pas complètement surprenant et les journalistes ne peuvent pas être spécialistes en tout.

Sky : Et les politiques, quand ils disent « on va être une superpuissance de l’intelligence artificielle, il faut, il faut, il faut, y’ qu’à, faut qu’on » ?

Benjamin Bayart : Si ça les amuse, que veux-tu que j’y fasse ? Une super puissance de l’intelligence artificielle où les étudiants font la queue pour avoir à bouffer à l’Armée du salut ! Tu m’excuseras, c’est une superpuissance de rien du tout ! Il y a des problèmes un peu plus sérieux à traiter dans ce pays que d’être une superpuissance de l’intelligence artificielle.

Sky : On va digresser à nouveau : quel regard portes-tu maintenant sur la France ? Comment sens-tu la France avec les étudiants qui font la queue pour essayer de bouffer, le ticket de métro à 4 euros pendant les JO, les problèmes énergétiques ? En tant que citoyen, comment sens-tu l’air du temps ? Tu n’es pas obligé de répondre.

Benjamin Bayart : Je sais très bien que je ne suis pas obligé de répondre. Je suis très en dehors de mon domaine de compétence. Il y a quand même des morceaux qui sont évidents, on a affaire à des clowns, il n’y a pas besoin d’avoir fait Saint-Cyr pour le comprendre !

Sky : Un exemple. Pourquoi sont-ils des clowns ?

Benjamin Bayart : Si tu veux, ils s’affolent de deux pelés et trois tondus qui font de la fraude au RSA, ils ne s’affolent pas du tout du fait qu’il y a à peu près la moitié des gens qui auraient droit à des minima sociaux et qui ne les réclament pas, ce qui est extraordinairement inquiétant. Déjà qu’il y ait autant de gens qui ont droit aux minimas sociaux, alors qu’ils sont assez stricts, et qui, en plus, ne les réclament pas, ça veut dire que ce sont des gens qui restent dans la mouise, ce n’est pas bien ! Ils ne s’affolent pas au bon endroit, ils s’inquiètent de vouloir être une superpuissance de je ne sais quoi, la dernière tartufferie à la mode, il y a cinq ans ça aurait été la blockchain, maintenant tout le monde a compris que la blockchain est une excellente solution, sauf qu’on n’a pas encore trouvé à quel problème. Pour moi, l’intelligence artificielle c’est du même ordre. Il y a sûrement deux ou trois bidules pour lesquels ce n’est pas mal et il y a une quantité industrielle d’usages complètement stupides de ce truc-là.

Sky : Revenons à nos sujets, on reviendra sur l’air du temps un peu plus tard.
Quand tu vois que Google se fait tirer les oreilles parce que son intelligence artificielle produit des réponses relativement déconnantes par rapport à la réalité historique, ça vient d’où ? Ça vient de quoi ? Ça vient pourquoi ?

13’ 17

Benjamin Bayart : Là, on n’est on est plus dans l’intelligence artificielle, ce sont les IA génératives de textes ou d’mages, on a hyper restreint. Quand je te parlais d’algorithmes génétiques, c’est aussi de l’intelligence artificielle et ça a plus d’usages pratiques.
En fait, l’IA générative a des biais qu’on connaît, qu’on comprend, qu’on sait un peu expliquer informatiquement. Le principe d’une IA générative qui génère du texte, c’est qu’elle va générer un texte qui est cohérent, c’est la partie qui est, je ne dirais pas, facile ; quand j’étais étudiant, on ne savait pas le faire, ça demande quand même de la puissance de feu en matière d’informatique pour apprendre au système à produire ça. Ça produit un texte qui est cohérent en ce sens qu’il est grammaticalement plutôt correct, ce qui, en français, n’est pas simple : il n’y a pas trop de fautes d’orthographe, de fautes de grammaire, les phrases sont à peu près construites ; ça n’a pas forcément de sens.

Sky : Ça n’a pas forcément de sens quand tu connais le sujet.

Benjamin Bayart : C’est tout le problème. Il y a des fois où, quand tu ne connais pas le sujet, tu vois bien que c’est débile, et c’est ce qui produit les résultats que je trouve les plus drôles. Pour le coup, pour l’usage ludique, je ne sais plus qui s’était amusé à demander à un de ces trucs-là, je crois à ChatGPT, mais je ne suis pas sûr, de lui fournir la liste des 100 nombres premiers pairs supérieurs à 2. Il a sorti une série d’entiers. Pour les gens qui n’ont pas fait de maths, il y a un seul nombre premier pair, c’est 2. Tous les autres nombres premiers, il y en a une infinité, sont impairs et tout le monde sait ça. De mon temps, ça s’enseignait en cinquième, de nos jours c’est un peu plus tard ; c’est une base de l’arithmétique qui est connue depuis la Haute Antiquité : le seul nombre premier pair, c’est 2. Sauf que ChatGPT ne fait pas des maths, tu lui poses une question, il te fait une réponse et la réponse est écrite en bon français, etc., et il te dit « les 20 premiers nombres premiers pairs sont 2 », il met 2 deux dans la liste, puis il en met d’autres. Après on lui dit « regarde bien, tu m’as cité, genre 57, mais il n’est pas pair ».

Sky : Et là, il dit pardon.

Benjamin Bayart : Il dit pardon et il refait une réponse où il t’en propose d’autres et c’est magique ! C’est c’est tout le jeu de cet outil-là. J’adore les usages ludiques de ce truc-là, je suis très fan. Un collègue devait présenter un de mes talks, il s’est amusé à demander à ChatGPT ma bio. ChatGPT a inventé que j’avais fondé je ne plus quelles associations, celle-là oui, celle-là non, c’était très drôle. Voilà, ça c’est ludique.
Quand tu t’en sers pour un usage autre que ludique, c’est extraordinairement dangereux. Il y a un usage que je comprends comme étant acceptable, c’est quand tu veux demander à ChatGPT de rédiger un texte dans un domaine où tu es un expert. Mettons que tu sois physicien des particules et tu veux que ChatGPT t’écrive une petite fiche pour présenter le boson de Higgs. Si tu es un physicien des particules, dans la petite fiche qu’écrit ChatgPT, tu sauras ce qui est vrai et tu sauras ce qui est faux. Tu pourras donc relire le texte et dire « ça non, ça non », ça te laisse cinq/six phrases un peu utiles, ça t’évite d’avoir à rédiger le truc. Si tu n’es pas tout à fait à l’aise à l’écrit, qu’il n’y a pas de maths, que tu cherches à faire un écrit grand public, c’est un bon moyen.
Mais si tu n’as pas le niveau, si tu es, comme moi, un pauvre ingénieur qui sait un petit peu de physique, mais pas plus que ça, il peut dire des trucs qui ne te font pas tiquer et qui, pourtant, sont faux. Il peut te dire « la particule a telle caractéristique, elle a une masse, une énergie, je ne sais pas quoi, de blabla électronvolts, je ne sais pas si c’est la bonne valeur. Je ne suis pas assez spécialiste du secteur pour être capable de dire si c’est 30, 12, 47, 53, je n’en sais rien ! Du coup, je ne vais pas voir que le truc est aberrant.
Donc, même si je suis un petit peu compétent dans le domaine, je vais me faire abuser, parce que je ne vais pas repérer qu’il y a une merde.

Sky : Ou feignant ou fatigué.

Benjamin Bayart : Fatigué, quand tu es spécialiste du domaine, quand c’est ton domaine.

Sky : Un avocat américain s’est débrouillé pour écrire sa plaidoirie avec ChatGPT et il s’est fait reprendre.

Benjamin Bayart : Il s’est gouré sur les numéros de jurisprudence. En fait, il se serait fait planter de la même façon si c’était son assistant ou le stagiaire du cabinet qui avait rédigé le truc et qui s’était gouré. Ça prouve juste qu’il est incompétent. Quand l’élève avocat, sur le recours qu’on fait en ce moment, se gourre sur le numéro d’un décret présidentiel américain, je lui dis parce que je relis attentivement, j’essaye de faire gaffe. Effectivement, je ne relis pas ça les soirs de cuite, je relis ça à tête reposée.

Sky : Tu prends jamais de cuites, de toute de façon.

Benjamin Bayart : Si, pas avec toi !

Sky : Ce n’est vrai !

Benjamin Bayart : Pas toujours, il y en a plusieurs où tu n’es pas venu.

Sky : Où je ne suis pas reparti dans un bon état, c’est ça.

Benjamin Bayart : Pour moi, tout le danger de ces trucs-là, c’est si tu ne pines rien au domaine, que tu dis « ils disent qu’ils ont découvert ou détecté le boson de Higgs, c’est quoi le boson de Higgs ? » et que tu vas demander à ChatGPT. Il va te faire un texte qui a l’air de tenir la route, il va te faire un texte qui en bon français, où il y a les bons buzzwords, il y a tous les mots-clés, tous les articles que ChatGPT a analysés sur le sujet, tout ce qu’il a remonté comme gloubi-boulga.

Sky : Ça ressemble un peu à de la communication politique.

Benjamin Bayart : Mais oui, puisque c’est le principe, c’est pour cela que je me moquais des sciencepistes ; c’est le talent qu’on t’apprend dans la communication politique : tu ne connais pas bien le domaine, mais tu as capté trois/quatre mots clés, tu les agences en mode « il est très important que blabla, mais en même temps blublu » et tu as écrit le discours de Macron parfaitement standard qui ne dit rigoureusement rien. C’est la base de la campagne Macron de 2017, c’est exactement écrit comme ça, c’est « ha là, là, il faut absolument qu’on permette à nos anciens d’avoir des revenus, donc les retraites c’est super important, mais, en même temps, il faut absolument que l’on ne prenne pas de pognon à ces pauvres entreprises et qu’on arrête de payer des charges sociales insupportables, donc qu’on travaille jusqu’à 98 ans, parce que, sinon, les pauvres patrons ! » En fait, il t’a dit une chose et son contraire dans la même phrase et tous les gens qui étaient d’avis plutôt gaucho, bidule, ont applaudi la première moitié, tous les gens qui étaient d’avis plutôt entrepreneur, Medef, ils ont applaudi la deuxième moitié.

Sky : Il y a aussi des patrons de gauche.

Benjamin Bayart : Oui, mais tu vois ce que je veux dire. Il t’a dit une chose et son contraire avec un « mais » au milieu. En fait, ChatGPT te chie effectivement des kilomètres de discours creux comme ça.

Sky : Il en pisse des kilomètres, c’est ce que tu veux dire !
Maintenant, quand tu vois que l’intelligence artificielle ou ce qui est appelé comme ça, sur la détection de cancer sur les grains de beauté, sur l’optimisation d’une consommation électrique.

Benjamin Bayart : Ça, c’est radicalement différent, on n’est pas du tout au même endroit.
Les systèmes génératifs qui produisent des textes ou qui produisent des images, en fait, si tu les laisses faire, ils produisent des fantasmes. Ils produisent des images qui peuvent avoir une qualité photoréaliste mais de choses qui n’existent pas, donc de choses qui ne sont pas vraies. C’est ce qui fait, par exemple, que les premières te produisaient des photos qui étaient très jolies et où, en fait, tu voyais que le personnage sur la photo il avait quatre doigts comme un Simpson ou il en avait six. Pour le moteur qui produit l’image, ça ne pose pas de problème. L’image était jolie, il y avait un fond, il y avait un décor, il y avait un éclairage à peu près réaliste, le truc tenait debout, sauf que c’est manifestement de la flûte. Ça c’est de l’IA générative.
L’IA qui sert à faire de la reconnaissance de formes, par exemple, c’est totalement différent. Là, tu as des mécanismes d’intelligence artificielle, des systèmes d’apprentissage qui savent reconnaître et, effectivement, c’est assez bluffant. Une IA va être capable de reconnaître, va être capable de dire que, sur une radio, tel type d’ombre c’est signe de cancer, pneumonie, je ne sais quoi. Elle va savoir lire la radio, en moyenne moins bien qu’un radiologue, mais mieux qu’un médecin ; plutôt moins bien qu’un radiologue et plutôt mieux qu’un médecin.

Sky : Le généraliste, parce qu’un radiologue est aussi médecin.

Benjamin Bayart : Le généraliste n’a pas l’habitude de lire un scanner, je parle d’imagerie compliquée ; détecter une fracture de la cheville sur une radio, ce n’est pas très dur ! Mais, quand tu cherches à lire des choses un petit peu compliquées sur des images un peu plus riches, ça peut être compliqué à voir. Si tu n’as pas le coup d’œil, si tu n’as pas l’entraînement, alors toi, moi, on voit que dalle, on arrive à dire que c’est une photo de poumon parce qu’il y a des côtes, mais, à part ça, on est à l’ouest. Le médecin, si il sait ce qu’il cherche, il va le voir. Typiquement, ton radiologue t’as dit « vous avez tel problème », tu apportes la radio au médecin et il te dit « oui, ça se voit, c’est là, etc. » S’il voit la radio, comme ça, out of the blue, il peut ne pas tout voir, parce qu’il n’a pas le coup d’œil, parce qu’il n’a pas l’entraînement, etc. Là-dessus, les moteurs d’intelligence artificielle, en moyenne, ne se gourent pas. Ils arrivent à lire, ils peuvent se laisser abuser, c’est-à-dire qu’il y a des trucs où une ombre apparaît à la radio et le radiologue saura que ça c’est un défaut de l’appareil, c’est une erreur de réglage, c’est une erreur de calibrage, il y avait un objet métallique à tel endroit, un artefact quelconque que lui sait reconnaître et, pour le coup, il peut être capable de dire « ça, c’est un artefact, c’est une erreur d’image », ce n’est pas ce qu’on y cherche.
De la même manière, le radiologue, même expérimenté, peut laisser passer un petit truc où le moteur informatique de détection va être capable de dire « là il y a une anomalie, elle est louche ». En général, on te dira toujours dans ces trucs-là, il faut faire vérifier par quelqu’un du métier. Tu as un bout d’intelligence artificielle, un système de détection automatique qui a dit « ça c’est suspect » et, là, un vrai professionnel regarde et dit « oui, c’est suspect, mais ce n’est pas significatif » ou « c’est trop petit pour avoir un sens » ou « le truc est gros comme une crotte de mouche, on ne peut pas le différencier d’un artefact, c’est probablement rien, etc. »
Là, tu as des usages extrêmement intéressants parce que ça permet de faire un tri qui est très pertinent, mais c’est très différent : dans un cas c’est la reconnaissance d’une forme, d’un schéma, et, dans l’autre cas, on veut faire produire du contenu. Et tous les systèmes de production de contenu, si ce n’est pas à destination d’un spécialiste du domaine qui va relire le truc, c’est dangereux.
Typiquement, il y a un exemple qu’on me cite comme étant un usage raisonnable, pourquoi pas ! Tu as assisté à trois heures de réunion, il faut que tu fasses un compte-rendu synthétique de deux pages.

Sky : Qui fait des réunions de trois heures ! Une réunion c’est maximum 20 minutes !

Benjamin Bayart : Oh, là, là ! plein de gens. Tu n’as jamais fait d’AG de copropriété ! Ce sont des heures et des heures de discussions inutiles !

Sky : Je délègue, je ne suis pas un propriétaire.

Benjamin Bayart : En fait, tu prends un enregistrement son de ton bidule, tu donnes ça à un outil de ce type-là et tu lui dis « génère-moi un compte-rendu de deux pages ». Tu étais à la réunion, à priori tu n’as pas trop somnolé, donc tu sais à peu près ce qui s’est raconté, donc tu verras bien si les deux pages de synthèse qu’il te raconte ça colle ou ça ne colle pas. Mais tu as intérêt à vérifier et à être pointilleux, parce que si, à un moment, il fait un contresens, il a mal compris une remarque, il y avait un petit peu d’ironie dans une phrase et il ne l’a pas perçue, 1000 trucs peuvent échapper à ce genre d’outil, tu seras capable de dire « non, ce n’est pas ça que disait Jean-Eudes », puis tu corriges, parce que tu es un spécialiste du domaine, tu étais à la réunion. Si tu as laissé passer trop de temps et que tu as oublié, c’est très dangereux, mais tant que tu t’en souviens, tu peux utiliser ça comme outil d’assistance. Mais sur un domaine sur lequel tu ne sais pas, tu n’es pas sûr, ou un contresens peut t’échapper ou, etc., c’est très vite casse-gueule.

Sky : J’ouvre une parenthèse, on reviendra sur ce sujet-là différemment. L’intelligence artificielle ou ce que ??? [27 min] appelait intelligence artificielle, militarisée pour la prise de décisions létales ? Ou l’intelligence artificielle qui va te faire émerger une liste de suspects à abattre, qu’en penses-tu ? L’intelligence artificielle dans des robots tueurs à la frontière coréenne, qu’en penses-tu ?

Benjamin Bayart : Il n’y a pas besoin d’intelligence artificielle pour que ce soit de la merde !

Sky : Les ??? [27 min 23] drones.

Benjamin Bayart : Tu as de très jolis documentaires là-dessus qui expliquent très bien. RoboCop est un très beau documentaire qui t’explique pourquoi il ne faut pas.

Sky : Ce n’est pas trop documenté.

Benjamin Bayart : Si, ils s’en servent comme mode d’emploi.

Sky : Un peu comme 1984.

Benjamin Bayart : Oui, c’est ça, c’était de la science-fiction qui disait « il ne faut pas aller par là, faites gaffe, ça pue » et on a toute une classe politique qui fait « non, ça a l’air rigolo, on va aller là ».

Sky : Ça te fait peur ?

Benjamin Bayart : Oui. De manière générale, la classe politique violente je n’aime pas ça, mais c’est mon côté gauchiste.

Sky : Arrête de dire que c’est réservé qu’à la gauche et arrête de tomber dans le qualificatif gauchiste, on n’accepte pas ça ici, il n’y a pas de gauchistes, il y a des gens avec une sensibilité. C’est important.
Revenons à nos moutons. Une intelligence artificielle qui va faire émerger une liste de suspects. Les Israéliens utilisent ça.

Benjamin Bayart : Rien ne va là-dedans. En fait, ou bien c’est une intelligence artificielle qui fait de la détection, l’équivalent de ce qu’on disait sur l’imagerie médicale : tu lui as fourni des centaines de milliers de dossiers à analyser et tu lui as dit « ceux-là sont des terroristes, ils sont très méchants, ceux-là sont des policiers, ils sont très gentils, ceux-là sont des bouchers charcutiers, ils ne sont pas dangereux » et puis tu l’as entraînée.

Sky : Je peux t’arrêter ? Dans le dossier en question, je prends l’exemple des bouchers, est-ce qu’il y a toute l’historicité de leurs surfs sur Internet ?

Benjamin Bayart :  ??? [29 min 05], ce n’est pas là que je veux aller.
Tu as entraîné ton système avec ça, après tu lui présentes des dossiers de gens lambda et le système va te dire « ceux-là sont des méchants, ceux-là sont des gentils ». C’est comme ça que ça marche, c’est de la reconnaissance de formes. En fait, c’est de la merde parce que, le plus souvent ton dossier est mal qualifié.
Ton radiologue qui cherche une pneumonie sur une radio des poumons, il ne cherche pas n’importe quoi au pif, il sait très bien ce qu’il cherche, ça fait 200 ans qu’on fait de la médecine de manière pas trop random, qu’on ne fait pas que des bêtises. On a des milliards d’heures de travail cumulées sur ces sujets-là, si tu prends tous les médecins qui auscultent tous les patients depuis, etc., on n’y va pas du tout au pif.
Si tu prends un moteur d’intelligence artificielle et que tu l’entraînes sur des photos complètement aléatoires de trucs débiles, tu lui montres des radios du tibia, tu lui montres des images d’IRM, tu lui montres des images de n’importe quoi, et que tu lui demandes d’apprendre à reconnaître à quel endroit il y a une pneumonie, le truc va te raconter n’importe quoi !
Ce qui fait que ton moteur est relativement fiable pour détecter, c’est que tu lui as présenté des trucs très ciblés. Tu sais que si la réponse est quelque part, c’est sur cette image-là, ce n’est pas sur une image à côté, tu ne lui as pas présenté une radio du tibia pour essayer de détecter une pneumonie. Tu lui as présenté une radio des poumons. En fait, tu as présenté des dossiers hyper qualifiés et, déjà, ce n’est pas parfait.
Quand tu vas faire de l’analyse pour dire si les gens sont gentils ou méchants, ton dossier est mal construit, il n’a pas du tout la rigueur d’une imagerie médicale. Tu es incapable de dire quelle est la partie de la vie de quelqu’un qu’il faut photographier pour être capable de dire si c’est un terroriste ou si ce n’est pas un terroriste. On est sûr quand on regarde après, c’est après qu’il sera passé à l’acte et qu’une enquête ait prouvé, qu’on ait trouvé des preuves que c’est bien cette personne-là qui a fait, là on sait. Mais c’est le seul cas ! Avant on ne savait pas.

Sky : Si tu prends tous les dossiers des gens qui ont été jugés terroristes.

Benjamin Bayart : Tu n’es pas capable de dire quel extrait du dossier, avant, avait du sens. Quand tu fais analyser la radio des poumons par ton outil, tu sais que la radio des poumons a du sens. Le fait que tu ne sois pas capable, avec tes yeux, de voir quelque chose et tu espères que le programme va être capable de détecter. Tu sais que ça c’était une radio de ton patient genre trois mois avant qu’on ait diagnostiqué son cancer, donc, la question c’est : est-ce que ça se voyait déjà ? Et est-ce que l’ordinateur est capable de détecter une ombre d’un truc que les médecins n’ont pas vu, mais qui serait peut-être pertinent pour dire que c’est un signe précoce de ? Mais tu sais très bien où tu es, tu sais très bien ce que tu cherches. L’information que tu présentes à ton système d’apprentissage et à ton système de traitement est une info hyper pertinente pour laquelle a des centaines d’années de médecine pour nous dire « c’est hyper pertinent ».
En fait, quand tu vas quand tu vas faire ça avec des trucs beaucoup plus génériques, sur la vie des gens, leur profil : est-ce que c’était parce qu’il avait une gazinière bleue qu’il est devenu terroriste ?

Sky : Est-ce qu’il est devenu terroriste parce qu’il a regardé une vidéo sur YouTube ?

Benjamin Bayart : Peut-être ! Ce n’est exclu !

Sky : Quand tu vois l’administration américaine qui demande à l’hébergeur de la vidéo qui, quelle IP, quel gars a regardé cette vidéo. C’est pour compléter des dossiers, c’est pour faire quoi ?

Benjamin Bayart : Je n’en sais rien. C’est à eux qu’il faut demander. Ils ont envie de surveiller leur population, comme tous les gouvernements. C’est une constante des gouvernements. En France on est bon dans ce domaine-là.

Sky : Pourquoi dis-tu qu’on est bon ? Parce qu’on ne se fait pas repérer ou parce que c’est légal ?

Benjamin Bayart : Parce qu’on le fait depuis très longtemps. C’est une vieille tradition.

Sky : Depuis quand ?

Benjamin Bayart : C’était déjà une vieille tradition du temps de Joseph Fouché, ça ne va pas nous rajeunir ! La France est un pays qui a ces envies-là depuis très longtemps.

33’ 19