Différences entre les versions de « Intelligence artificielle, bullsh*t, pipotron - Benjamin Bayart »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/intelligence-artificielle-bullsh-t-pipotron-benjamin-bayart ici] - Avril 2024 »)
Balise : Contenu remplacé
 
(35 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Intelligence artificielle, bullsh*t, pipotron ? Benjamin Bayart
+
Publié [https://www.librealire.org/intelligence-artificielle-bullsh-t-pipotron-benjamin-bayart ici] - Avril 2024
 
 
'''Intervenants :''' Benjamin Bayart - Sky
 
 
 
'''Lieu :''' Chaîne Internet Thinkerview
 
 
 
'''Date :''' 4 avril 2024
 
 
 
'''Durée :''' 2 h 36 min 29
 
 
 
'''[https://www.youtube.com/watch?v=tTb5wQw_8JE Vidéo]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' À prévoir
 
 
 
'''NB :''' <em>Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription==
 
 
 
<b>Sky : </b>Benjamin Bayart, bonsoir.
 
 
 
<b>Benjamin Bayart : </b>Bonsoir.
 
 
 
<b>Sky : </b>Nous vous recevons pour une chaine internet qui s’appelle Thinkerview. Nous sommes en direct, est-ce que vous pouvez vous présenter succinctement ?
 
 
 
<b>Benjamin Bayart : </b>Me présenter succinctement, c’est toujours très compliqué.<br/>
 
Benjamin Bayart, 50 ans, informaticien, militant, activiste, membre de trouse [0 min 33] associations, militant pour les libertés en général et en ligne en particulier. Ma bio Twitter dit « vieux con des internets », c’est bien.
 
 
 
<b>Sky : </b>U petit background. Qu’avez-vous fait ?
 
 
 
<b>Benjamin Bayart : </b>Côté pro, ça va emmerder tout le monde. Côté associatif, cofondateur de La Quadrature. On a encore créé une association récemment, il faudra que je te raconte les « Licornes célestes », c’est marrant. Je t’assure, c’est marrant ! C’est du droit administratif, c’est toujours rigolo le droit administratif ! J’ai été président pendant 14 ans de French Data Network, le plus vieux fournisseur d’accès à Internet en France, qui est une association. On a créé la Fédération des fournisseurs d’accès internet associatifs. Qu’est-ce que j’ai fait d’autre comme sottises ? En ce moment, je suis consultant dans une boîte qui s’appelle OCTO Technology, où je m’amuse beaucoup, où me laisse bosser sur des sujets intéressants, c’est très rigolo.
 
 
 
<b>Sky : </b>On va se tutoyer direct, si tu m’autorises. Notre première interview date de Notre-Dame, au pied de Notre-Dame.
 
 
 
<b>Benjamin Bayart : </b>2014, un truc comme ça.
 
 
 
<b>Sky : </b>Oui, un truc comme ça. On va faire le point. Aujourd’hui, on va parler intelligence artificielle, on va parler libertés aussi sur Internet, on va parler data, on va parler de stockage, on va parler de failles de sécurité, peut-être sur certaines choses exfiltrées, on va peut-être parler des Jeux olympiques. Non ?<br/>
 
Benjamin, on commence par l’intelligence artificielle et on parlera de l’intelligence artificielle militarisée après. Pour toi, l’intelligence artificielle, c’est quoi ?
 
 
 
<b>Benjamin Bayart : </b>Tout de suite les questions qui fâchent !<br/>
 
Pour moi, ce sont des statistiques. C’est essentiellement un outil de statistiques. Les gens qui ne sont pas du métier découvrent ça en ce moment, à cause de ChatGPT, pour faire joujou. Mais, pour moi, c’est une façon particulière de faire des stats, de calculer des résultats, de faire des prédictions.
 
 
 
<b>Sky : </b>De l’anticipation.
 
 
 
<b>Benjamin Bayart : </b>Des prédictions ou des détections, mais qui s’appuient sur des mécaniques qu’on ne comprend pas, c’est ça le jeu.<br/>
 
Si je fais une analyse statistique tout seul parce que je suis un garçon sérieux, je fais des maths, je fais des calculs de pourcentage, des trajectoires, je ne sais pas quoi, je vais pouvoir faire des estimations, des prédictions, des évaluations basées sur du calcul et où je sais pourquoi je trouve ce résultat-là et je sais à quel moment mon calcul dit « 27,3, donc c’est bleu. » Tout le jeu de l’intelligence artificielle, c’est de trouver des mécanismes qui vont manger ces données de manière extrêmement bizarre et qui vont réussir à nous produire des résultats dont on ne sait pas expliquer pourquoi ils sortent.
 
 
 
<b>Sky : </b>Qu’est-ce que tu appelles « extrêmement bizarre » ? Le biais du mec qui a entraîné l’intelligence artificielle ? Le biais des <em>pipes</em>`
 
 
 
<b>Benjamin Bayart : </b>Non, ça c’est la partie facile à comprendre. Ce que j’adore, par exemple, c’est ce qu’on fait avec ce qu’on appelle les algorithmes génétiques, qui est une des formes de l’intelligence artificielle.<br/>
 
Le principe est assez simple, ça suppose que tu aies un problème à résoudre et que tu saches mesurer à quel point tu es loin de la solution. Tu écris des programmes complètement aléatoires, donc ils font n’importe quoi, tu prends ça comme base de départ, tu les fais évaluer par la machine, et puis la machine sélectionne les 10 % les meilleurs, qui produisent les moins mauvais résultats, puis elle les mélange pour produire de nouveau 3000 programmes qu’elle va évaluer ; elle prend les 10 % les meilleurs, elle les mélange, elle reproduit à partir de ça 3000 programmes et puis elle va évaluer. En fait, tu fais ça des milliers, des dizaines de milliers, des centaines de milliers de fois, et ça produit des programmes qui sont, en moyenne, de plus en plus performants et qui donnent des résultats qui sont de mieux en mieux, mais on ne comprend rien à ce qu’ils font, parce que ce sont des programmes écrits complètement au pif.<br/>
 
Un exemple de ça a été fait avec des FPGA, et ça ne va pas forcément parler à tout le monde. Je vous explique. FPGA, ce sont des petites puces électroniques qu’on peut configurer pour qu’elles implémentent un circuit électronique ou un autre avec quelque chose qui ressemble à un programme.
 
 
 
<b>Sky : </b>Pour ceux qui ne savent pas implémenter ?
 
 
 
<b>Benjamin Bayart : </b>C’est vraiment un circuit électrique, sauf que tu peux le configurer, le paramétrer, pour qu’il se comporte ou bien comme un circuit donné ou bien comme un autre, juste avec des éléments de programme.<br/>
 
On a utilisé des algorithmes génétiques. On voulait faire réaliser une fonction à ce circuit-là, on a donc écrit une combinaison de configurations et puis on a fait tourner l’algorithmique génétique, comme ça, sur des centaines de milliers d’itérations. À la fin, le truc a produit une mécanique qui n’utilise qu’un tout petit nombre de cellules interconnectées dans le circuit, beaucoup moins que ce qu’utiliserait un ingénieur qui veut implémenter et créer cette fonction-là, enfin, sensiblement moins que ce qu’on sait faire de mieux. On ne comprend rigoureusement rien à la raison pour laquelle ça produit de bons résultats. Manifestement, il configure certaines des cellules d’une certaine façon, mais qui ne sont connectées à rien, et s’il les configure autrement ça ne marche plus, ça ne fonctionne plus, la fonction n’est plus rendue. Et ça, en termes électriques, ça veut dire qu’il se passe des trucs bizarres, il se passe des trucs où il y a des fuites, il y a des courants, il y a des inductions, il y a des échanges de tension, de champs magnétiques, que sais-je, mais il se passe des trucs ! C’est-à dire que si on configure cette cellule-là, qui n’est connectée à rien, dans l’autre sens, elle ne marche plus, mais ça produit un résultat extrêmement efficace, ça réalise la fonction qu’on voulait réaliser, ça la réalise en utilisant moins de cellules que ce qu’aurait utilisé un ingénieur qui réfléchit au problème, mais on ne comprend pas ce que ça fait. Donc ça produit un résultat et on ne comprend pas ce que ça fait. On a constaté qu’une fois qu’on avait ce programme-là, quand on l’amenait sur un FPGA de la même marque, du même constructeur, mais qui n’est pas le même exemplaire, ça ne marche plus, parce que le truc est trop hyper adapté à cet exemplaire-là, sur lequel on l’a testé des millions de fois.<br/>
 
Pour moi, cela est un exemple assez simple de ce qu’est l’intelligence artificielle : ça produit des résultats, mais on est incapable d’expliquer de manière claire pourquoi ça a sorti ce résultat-là à ce moment-là.
 
 
 
<b>Sky : </b>C’est vachement inquiétant quand même !
 
 
 
<b>Benjamin Bayart : </b>Mais non ! Ça peut être vachement pratique. Quand tu as besoin de faire un système d’éclairage qui produit ce résultat-là, ce qui t’intéresses, c’est qu’il produise le résultat ; sii tu ne comprends pas bien pourquoi, ce n’est pas très grave ! Mais il y a plein d’applications dans lesquelles c’est vachement embêtant, typiquement ce qu’on fait en ce moment avec ChatGPT. Quand les journalistes disent « intelligence artificielle » ça veut dire ChatGPT.
 
 
 
<b>Sky : </b>Il n’y a pas que les journalistes !
 
 
 
<b>Benjamin Bayart : </b>ChatGPT, c’est très mignon. Tant que tu l’utilises comme jouet, tu lui poses une question débile, il fait une réponse débile, tu t’en sers comme tu te servirais d’un énarque ou d’un sciencepiste, ça ne sert à rien, c’est amusant, ça fait joli dans les salons, tout va bien ! Ça ce n’est pas grave, c’est du jouet, c’est ludique.<br/>
 
Une fois qu’on enlève cet usage ludique, si tu veux en faire un usage sérieux, tu as un problème, puisque tu ne comprends pas : il a produit une réponse qui peut être rigolote, qui peut être manifestement débile, ce sont les plus drôles, ou qui peut avoir l’air vaguement sérieuse, c’est le moment où ça se met à ressembler à un énarque ou à un sciencepiste. Mais on ne sait pas pourquoi il a produit cette réponse-là et on ne sait pas bien sur quoi il s’est appuyé pour produire cette réponse-là. Du coup, on ne peut pas en faire grand-chose parce qu’on ne sait pas dire quand il se trompe. C’est donc d’un usage extrêmement particulier.<br/>
 
Pour moi qui suis informaticien et qui ai un peu bossé sur ces sujets-là, on était jeunes à l’époque, j’étais étudiant ! J’ai un peu bossé sur des réseaux de neurones, des cartes de Kohonen, ce sont les réseaux de neurones sur lesquels j’ai le plus bossé ; les cartes de Kohonen, c’est très rigolo.
 
 
 
<b>Sky : </b>Je peux faire une petite digression ? Tu fréquentes les salons, tu fréquentes les journalistes ? Quand tu fais une boutade sur les énarquistes et les sciencepistes, est-ce que tu as l’impression qu’ils « bullshitent » à mort sur l’intelligence artificielle ? Quand tu regardes un programme de télé où il y a des débats ? Déjà, est-ce que tu regardes la télé ?
 
 
 
<b>Benjamin Bayart : </b>Pas masse.
 
 
 
<b>Sky : </b>Pas masse, oui, je sais. N’as-tu pas l’impression que ça flûte un peu de partout, que ça pipeaute à mort ?
 
 
 
<b>Benjamin Bayart : </b>Si, mais pas plus sur ça que sur le reste !<br/>
 
Tu as deux grands morceaux à comprendre : il y a le fait que ce n’est pas leur métier. À part ce qu’ils ont pu comprendre de ce qu’ils ont lu sur le sujet, sachant qu’ils n’y ont pas passé des milliers d’heures parce qu’ils ont autre chose à faire, ils arrivent quand même, en moyenne, à poser des questions qui ne sont pas toujours complètement idiotes, ce qui est, je trouve, pas mal quand on ne vient pas du secteur, mais qui mélangent des réalités, des fantasmes et ils ne savent pas bien faire le tri entre les deux. Mais c’est comme ça dans tous les domaines un peu pointus. Tu as tu prends un physicien, tu lui fais parler de sociologie, s’il n’a pas fait de sociologie, il y a moyen qu’il raconte de la merde ! Tu prends un sociologue, tu lui demandes de t’expliquer le boson de Higgs, il y a moyen que ça fume ! Ce n’est pas complètement surprenant et les journalistes ne peuvent pas être spécialistes en tout.
 
 
 
<b>Sky : </b>Et les politiques, quand ils disent « on va être une superpuissance de l’intelligence artificielle, il faut, il faut, il faut, y’ qu’à, faut qu’on » ?
 
 
 
<b>Benjamin Bayart : </b>Si ça les amuse, que veux-tu que j’y fasse ? Une super puissance de l’intelligence artificielle où les étudiants font la queue pour avoir à bouffer à l’Armée du salut ! Tu m’excuseras, c’est une superpuissance de rien du tout ! Il y a des problèmes un peu plus sérieux à traiter dans ce pays que d’être une superpuissance de l’intelligence artificielle.
 
 
 
<b>Sky : </b>On va digresser à nouveau : quel regard portes-tu maintenant sur la France ? Comment sens-tu la France avec les étudiants qui font la queue pour essayer de bouffer, le ticket de métro à 4 euros pendant les JO, les problèmes énergétiques ? En tant que citoyen, comment sens-tu l’air du temps ? Tu n’es pas obligé de répondre.
 
 
 
<b>Benjamin Bayart : </b>Je sais très bien que je ne suis pas obligé de répondre. Je suis très en dehors de mon domaine de compétence. Il y a quand même des morceaux qui sont évidents, on a affaire à des clowns, il n’y a pas besoin d’avoir fait Saint-Cyr pour le comprendre !
 
 
 
<b>Sky : </b>Un exemple. Pourquoi sont-ils des clowns ?
 
 
 
<b>Benjamin Bayart : </b>Si tu veux, ils s’affolent de deux pelés et trois tondus qui font de la fraude au RSA, ils ne s’affolent pas du tout du fait qu’il y a à peu près la moitié des gens qui auraient droit à des minima sociaux et qui ne les réclament pas, ce qui est extraordinairement inquiétant. Déjà qu’il y ait autant de gens qui ont droit aux minimas sociaux, alors qu’ils sont assez stricts, et qui, en plus, ne les réclament pas, ça veut dire que ce sont des gens qui restent dans la mouise, ce n’est pas bien ! Ils ne s’affolent pas au bon endroit, ils s’inquiètent de vouloir être une superpuissance de je ne sais quoi, la dernière tartufferie à la mode, il y a cinq ans ça aurait été la blockchain, maintenant tout le monde a compris que la blockchain est une excellente solution, sauf qu’on n’a pas encore trouvé à quel problème. Pour moi, l’intelligence artificielle c’est du même ordre. Il y a sûrement deux ou trois bidules pour lesquels ce n’est pas mal et il y a une quantité industrielle d’usages complètement stupides de ce truc-là.
 
 
 
<b>Sky : </b>Revenons à nos sujets, on reviendra sur l’air du temps un peu plus tard.<br/>
 
Quand tu vois que Google se fait tirer les oreilles parce que son intelligence artificielle produit des réponses relativement déconnantes par rapport à la réalité historique, ça vient d’où ? Ça vient de quoi ? Ça vient pourquoi ?
 
 
 
==13’ 17==
 
 
 
<b>Benjamin Bayart : </b>Là, on n’est on est plus dans l’intelligence artificielle, ce sont les IA génératives de textes ou d’mages, on a hyper restreint. Quand je te parlais d’algorithmes génétiques, c’est aussi de l’intelligence artificielle et ça a plus d’usages pratiques.<br/>
 
En fait, l’IA générative a des biais qu’on connaît, qu’on comprend, qu’on sait un peu expliquer informatiquement. Le principe d’une IA générative qui génère du texte, c’est qu’elle va générer un texte qui est cohérent, c’est la partie qui est, je ne dirais pas, facile ; quand j’étais étudiant, on ne savait pas le faire, ça demande quand même de la puissance de feu en matière d’informatique pour apprendre au système à produire ça. Ça produit un texte qui est cohérent en ce sens qu’il est grammaticalement plutôt correct, ce qui, en français, n’est pas simple : il n’y a pas trop de fautes d’orthographe, de fautes de grammaire, les phrases sont à peu près construites ; ça n’a pas forcément de sens.
 
 
 
<b>Sky : </b>Ça n’a pas forcément de sens quand tu connais le sujet.
 
 
 
<b>Benjamin Bayart : </b>C’est tout le problème. Il y a des fois où, quand tu ne connais pas le sujet, tu vois bien que c’est débile, et c’est ce qui produit les résultats que je trouve les plus drôles. Pour le coup, pour l’usage ludique, je ne sais plus qui s’était amusé à demander à un de ces trucs-là, je crois à ChatGPT, mais je ne suis pas sûr, de lui fournir la liste des 100 nombres premiers pairs supérieurs à 2. Il a sorti une série d’entiers. Pour les gens qui n’ont pas fait de maths, il y a un seul nombre premier pair, c’est 2. Tous les autres nombres premiers, il y en a une infinité, sont impairs et tout le monde sait ça. De mon temps, ça s’enseignait en cinquième, de nos jours c’est un peu plus tard ; c’est une base de l’arithmétique qui est connue depuis la Haute Antiquité : le seul nombre premier pair, c’est 2. Sauf que ChatGPT ne fait pas des maths, tu lui poses une question, il te fait une réponse et la réponse est écrite en bon français, etc., et il te dit « les 20 premiers nombres premiers pairs sont 2 », il met 2 deux dans la liste, puis il en met d’autres. Après on lui dit « regarde bien, tu m’as cité, genre 57, mais il n’est pas pair ».
 
 
 
<b>Sky : </b>Et là, il dit pardon.
 
 
 
<b>Benjamin Bayart : </b>Il dit pardon et il refait une réponse où il t’en propose d’autres et c’est magique ! C’est c’est tout le jeu de cet outil-là. J’adore les usages ludiques de ce truc-là, je suis très fan. Un collègue devait présenter un de mes talks, il s’est amusé à demander à ChatGPT ma bio. ChatGPT a inventé que j’avais fondé je ne plus quelles associations, celle-là oui, celle-là non, c’était très drôle. Voilà, ça c’est ludique.<br/>
 
Quand tu t’en sers pour un usage autre que ludique, c’est extraordinairement dangereux. Il y a un usage que je comprends comme étant acceptable, c’est quand tu veux demander à ChatGPT de rédiger un texte dans un domaine où tu es un expert. Mettons que tu sois physicien des particules et tu veux que ChatGPT t’écrive une petite fiche pour présenter le boson de Higgs. Si tu es un physicien des particules, dans la petite fiche qu’écrit ChatgPT, tu sauras ce qui est vrai et tu sauras ce qui est faux. Tu pourras donc relire le texte et dire « ça non, ça non », ça te laisse cinq/six phrases un peu utiles, ça t’évite d’avoir à rédiger le truc. Si tu n’es pas tout à fait à l’aise à l’écrit, qu’il n’y a pas de maths, que tu cherches à faire un écrit grand public, c’est un bon moyen.<br/>
 
Mais si tu n’as pas le niveau, si tu es, comme moi, un pauvre ingénieur qui sait un petit peu de physique, mais pas plus que ça, il peut dire des trucs qui ne te font pas tiquer et qui, pourtant, sont faux. Il peut te dire « la particule a telle caractéristique, elle a une masse, une énergie, je ne sais pas quoi, de blabla électronvolts, je ne sais pas si c’est la bonne valeur. Je ne suis pas assez spécialiste du secteur pour être capable de dire si c’est 30, 12, 47, 53, je n’en sais rien ! Du coup, je ne vais pas voir que le truc est aberrant.<br/>
 
Donc, même si je suis un petit peu compétent dans le domaine, je vais me faire abuser, parce que je ne vais pas repérer qu’il y a une merde.
 
 
 
<b>Sky : </b>Ou feignant ou fatigué.
 
 
 
<b>Benjamin Bayart : </b>Fatigué, quand tu es spécialiste du domaine, quand c’est ton domaine.
 
 
 
<b>Sky : </b>Un avocat américain s’est débrouillé pour écrire sa plaidoirie avec ChatGPT et il s’est fait reprendre.
 
 
 
<b>Benjamin Bayart : </b>Il s’est gouré sur les numéros de jurisprudence. En fait, il se serait fait planter de la même façon si c’était son assistant ou le stagiaire du cabinet qui avait rédigé le truc et qui s’était gouré. Ça prouve juste qu’il est incompétent. Quand l’élève avocat, sur le recours qu’on fait en ce moment, se gourre sur le numéro d’un décret présidentiel américain, je lui dis parce que je relis attentivement, j’essaye de faire gaffe. Effectivement, je ne relis pas ça les soirs de cuite, je relis ça à tête reposée.
 
 
 
<b>Sky : </b>Tu prends jamais de cuites, de toute de façon.
 
 
 
<b>Benjamin Bayart : </b>Si, pas avec toi !
 
 
 
<b>Sky : </b>Ce n’est vrai !
 
 
 
<b>Benjamin Bayart : </b>Pas toujours, il y en a plusieurs où tu n’es pas venu.
 
 
 
<b>Sky : </b>Où je ne suis pas reparti dans un bon état, c’est ça.
 
 
 
<b>Benjamin Bayart : </b>Pour moi, tout le danger de ces trucs-là, c’est si tu ne pines rien au domaine, que tu dis « ils disent qu’ils ont découvert ou détecté le boson de Higgs, c’est quoi le boson de Higgs ? » et que tu vas demander à ChatGPT. Il va te faire un texte qui a l’air de tenir la route, il va te faire un texte qui en bon français, où il y a les bons <em>buzzwords</em>, il y a tous les mots-clés, tous les articles que ChatGPT a analysés sur le sujet, tout ce qu’il a remonté comme gloubi-boulga.
 
 
 
<b>Sky : </b>Ça ressemble un peu à de la communication politique.
 
 
 
<b>Benjamin Bayart : </b>Mais oui, puisque c’est le principe, c’est pour cela que je me moquais des sciencepistes ; c’est le talent qu’on t’apprend dans la communication politique : tu ne connais pas bien le domaine, mais tu as capté trois/quatre mots clés, tu les agences en mode « il est très important que blabla, mais en même temps blublu » et tu as écrit le discours de Macron parfaitement standard qui ne dit rigoureusement rien. C’est la base de la campagne Macron de 2017, c’est exactement écrit comme ça, c’est « ha là, là, il faut absolument qu’on permette à nos anciens d’avoir des revenus, donc les retraites c’est super important, mais, en même temps, il faut absolument que l’on ne prenne pas de pognon à ces pauvres entreprises et qu’on arrête de payer des charges sociales insupportables, donc qu’on travaille jusqu’à 98 ans, parce que, sinon, les pauvres patrons ! » En fait, il t’a dit une chose et son contraire dans la même phrase et tous les gens qui étaient d’avis plutôt gaucho, bidule, ont applaudi la première moitié, tous les gens qui étaient d’avis plutôt entrepreneur, Medef, ils ont applaudi la deuxième moitié.
 
 
 
<b>Sky : </b>Il y a aussi des patrons de gauche.
 
 
 
<b>Benjamin Bayart : </b>Oui, mais tu vois ce que je veux dire. Il t’a dit une chose et son contraire avec un « mais » au milieu. En fait, ChatGPT te chie effectivement des kilomètres de discours creux comme ça.
 
 
 
<b>Sky : </b>Il en pisse des kilomètres, c’est ce que tu veux dire !<br/>
 
Maintenant, quand tu vois que l’intelligence artificielle ou ce qui est appelé comme ça, sur la détection de cancer sur les grains de beauté, sur l’optimisation d’une consommation électrique.
 
 
 
<b>Benjamin Bayart : </b>Ça, c’est radicalement différent, on n’est pas du tout au même endroit.<br/>
 
Les systèmes génératifs qui produisent des textes ou qui produisent des images, en fait, si tu les laisses faire, ils produisent des fantasmes. Ils produisent des images qui peuvent avoir une qualité photoréaliste mais de choses qui n’existent pas, donc de choses qui ne sont pas vraies. C’est ce qui fait, par exemple, que les premières te produisaient des photos qui étaient très jolies et où, en fait, tu voyais que le personnage sur la photo il avait quatre doigts comme un Simpson ou il en avait six. Pour le moteur qui produit l’image, ça ne pose pas de problème. L’image était jolie, il y avait un fond, il y avait un décor, il y avait un éclairage à peu près réaliste, le truc tenait debout, sauf que c’est manifestement de la flûte. Ça c’est de l’IA générative.<br/>
 
L’IA qui sert à faire de la reconnaissance de formes, par exemple, c’est totalement différent. Là, tu as des mécanismes d’intelligence artificielle, des systèmes d’apprentissage qui savent reconnaître et, effectivement, c’est assez bluffant. Une IA va être capable de reconnaître, va être capable de dire que, sur une radio, tel type d’ombre c’est signe de cancer, pneumonie, je ne sais quoi. Elle va savoir lire la radio, en moyenne moins bien qu’un radiologue, mais mieux qu’un médecin ; plutôt moins bien qu’un radiologue et plutôt mieux qu’un médecin.
 
 
 
<b>Sky : </b>Le généraliste, parce qu’un radiologue est aussi médecin.
 
 
 
<b>Benjamin Bayart : </b>Le généraliste n’a pas l’habitude de lire un scanner, je parle d’imagerie compliquée ; détecter une fracture de la cheville sur une radio, ce n’est pas très dur ! Mais, quand tu cherches à lire des choses un petit peu compliquées sur des images un peu plus riches, ça peut être compliqué à voir. Si tu n’as pas le coup d’œil, si tu n’as pas l’entraînement, alors toi, moi, on voit que dalle, on arrive à dire que c’est une photo de poumon parce qu’il y a des côtes, mais, à part ça, on est à l’ouest. Le médecin, si il sait ce qu’il cherche, il va le voir. Typiquement, ton radiologue t’as dit « vous avez tel problème », tu apportes la radio au médecin et il te dit « oui, ça se voit, c’est là, etc. » S’il voit la radio, comme ça, <em>out of the blue</em>, il peut ne pas tout voir, parce qu’il n’a pas le coup d’œil, parce qu’il n’a pas l’entraînement, etc. Là-dessus, les moteurs d’intelligence artificielle, en moyenne, ne se gourent pas. Ils arrivent à lire, ils peuvent se laisser abuser, c’est-à-dire qu’il y a des trucs où une ombre apparaît à la radio et le radiologue saura que ça c’est un défaut de l’appareil, c’est une erreur de réglage, c’est une erreur de calibrage, il y avait un objet métallique à tel endroit, un artefact quelconque que lui sait reconnaître et, pour le coup, il peut être capable de dire « ça, c’est un artefact, c’est une erreur d’image », ce n’est pas ce qu’on y cherche.<br/>
 
De la même manière, le radiologue, même expérimenté, peut laisser passer un petit truc où le moteur informatique de détection va être capable de dire « là il y a une anomalie, elle est louche ». En général, on te dira toujours dans ces trucs-là, il faut faire vérifier par quelqu’un du métier. Tu as un bout d’intelligence artificielle, un système de détection automatique qui a dit « ça c’est suspect » et, là, un vrai professionnel regarde et dit « oui, c’est suspect, mais ce n’est pas significatif » ou « c’est trop petit pour avoir un sens » ou « le truc est gros comme une crotte de mouche, on ne peut pas le différencier d’un artefact, c’est probablement rien, etc. »<br/>
 
Là, tu as des usages extrêmement intéressants parce que ça permet de faire un tri qui est très pertinent, mais c’est très différent : dans un cas c’est la reconnaissance d’une forme, d’un schéma, et, dans l’autre cas, on veut faire produire du contenu. Et tous les systèmes de production de contenu, si ce n’est pas à destination d’un spécialiste du domaine qui va relire le truc, c’est dangereux.<br/>
 
Typiquement, il y a un exemple qu’on me cite comme étant un usage raisonnable, pourquoi pas ! Tu as assisté à trois heures de réunion, il faut que tu fasses un compte-rendu synthétique de deux pages.
 
 
 
<b>Sky : </b>Qui fait des réunions de trois heures ! Une réunion c’est maximum 20 minutes !
 
 
 
<b>Benjamin Bayart : </b>Oh, là, là ! plein de gens. Tu n’as jamais fait d’AG de copropriété ! Ce sont des heures et des heures de discussions inutiles !
 
 
 
<b>Sky : </b>Je délègue, je ne suis pas un propriétaire.
 
 
 
<b>Benjamin Bayart : </b>En fait, tu prends un enregistrement son de ton bidule, tu donnes ça à un outil de ce type-là et tu lui dis « génère-moi un compte-rendu de deux pages ». Tu étais à la réunion, à priori tu n’as pas trop somnolé, donc tu sais à peu près ce qui s’est raconté, donc tu verras bien si les deux pages de synthèse qu’il te raconte ça colle ou ça ne colle pas. Mais tu as intérêt à vérifier et à être pointilleux, parce que si, à un moment, il fait un contresens, il a mal compris une remarque, il y avait un petit peu d’ironie dans une phrase et il ne l’a pas perçue, 1000 trucs peuvent échapper à ce genre d’outil, tu seras capable de dire « non, ce n’est pas ça que disait Jean-Eudes », puis tu corriges, parce que tu es un spécialiste du domaine, tu étais à la réunion. Si tu as laissé passer trop de temps et que tu as oublié, c’est très dangereux, mais tant que tu t’en souviens, tu peux utiliser ça comme outil d’assistance. Mais sur un domaine sur lequel tu ne sais pas, tu n’es pas sûr, ou un contresens peut t’échapper ou, etc., c’est très vite casse-gueule.
 
 
 
<b>Sky : </b>J’ouvre une parenthèse, on reviendra sur ce sujet-là différemment. L’intelligence artificielle ou ce que ??? [27 min] appelait intelligence artificielle, militarisée pour la prise de décisions létales ? Ou l’intelligence artificielle qui va te faire émerger une liste de suspects à abattre, qu’en penses-tu ? L’intelligence artificielle dans des robots tueurs à la frontière coréenne, qu’en penses-tu ?
 
 
 
<b>Benjamin Bayart : </b>Il n’y a pas besoin d’intelligence artificielle pour que ce soit de la merde !
 
 
 
<b>Sky : </b>Les ??? [27 min 23] drones.
 
 
 
<b>Benjamin Bayart : </b>Tu as de très jolis documentaires là-dessus qui expliquent très bien. <em>RoboCop </em> est un très beau documentaire qui t’explique pourquoi il ne faut pas.
 
 
 
<b>Sky : </b>Ce n’est pas trop documenté.
 
 
 
<b>Benjamin Bayart : </b>Si, ils s’en servent comme mode d’emploi.
 
 
 
<b>Sky : </b>Un peu comme <em>1984</em>.
 
 
 
<b>Benjamin Bayart : </b>Oui, c’est ça, c’était de la science-fiction qui disait « il ne faut pas aller par là, faites gaffe, ça pue » et on a toute une classe politique qui fait « non, ça a l’air rigolo, on va aller là ».
 
 
 
<b>Sky : </b>Ça te fait peur ?
 
 
 
<b>Benjamin Bayart : </b>Oui. De manière générale, la classe politique violente je n’aime pas ça, mais c’est mon côté gauchiste.
 
 
 
<b>Sky : </b>Arrête de dire que c’est réservé qu’à la gauche et arrête de tomber dans le qualificatif gauchiste, on n’accepte pas ça ici, il n’y a pas de gauchistes, il y a des gens avec une sensibilité. C’est important.<br/>
 
Revenons à nos moutons. Une intelligence artificielle qui va faire émerger une liste de suspects. Les Israéliens utilisent ça.
 
 
 
<b>Benjamin Bayart : </b>Rien ne va là-dedans. En fait, ou bien c’est une intelligence artificielle qui fait de la détection, l’équivalent de ce qu’on disait sur l’imagerie médicale : tu lui as fourni des centaines de milliers de dossiers à analyser et tu lui as dit « ceux-là sont des terroristes, ils sont très méchants, ceux-là sont des policiers, ils sont très gentils, ceux-là sont des bouchers charcutiers, ils ne sont pas dangereux » et puis tu l’as entraînée.
 
 
 
<b>Sky : </b>Je peux t’arrêter ? Dans le dossier en question, je prends l’exemple des bouchers, est-ce qu’il y a toute l’historicité de leurs surfs sur Internet ?
 
 
 
<b>Benjamin Bayart : </b><em> ???</em> [29 min 05], ce n’est pas là que je veux aller.<br/>
 
Tu as entraîné ton système avec ça, après tu lui présentes des dossiers de gens lambda et le système va te dire « ceux-là sont des méchants, ceux-là sont des gentils ». C’est comme ça que ça marche, c’est de la reconnaissance de formes. En fait, c’est de la merde parce que, le plus souvent ton dossier est mal qualifié.<br/>
 
Ton radiologue qui cherche une pneumonie sur une radio des poumons, il ne cherche pas n’importe quoi au pif, il sait très bien ce qu’il cherche, ça fait 200 ans qu’on fait de la médecine de manière pas trop <em>random</em>, qu’on ne fait pas que des bêtises. On a des milliards d’heures de travail cumulées sur ces sujets-là, si tu prends tous les médecins qui auscultent tous les patients depuis, etc., on n’y va pas du tout au pif.<br/>
 
Si tu prends un moteur d’intelligence artificielle et que tu l’entraînes sur des photos complètement aléatoires de trucs débiles, tu lui montres des radios du tibia, tu lui montres des images d’IRM, tu lui montres des images de n’importe quoi, et que tu lui demandes d’apprendre à reconnaître à quel endroit il y a une pneumonie, le truc va te raconter n’importe quoi !<br/>
 
Ce qui fait que ton moteur est relativement fiable pour détecter, c’est que tu lui as présenté des trucs très ciblés. Tu sais que si la réponse est quelque part, c’est sur cette image-là, ce n’est pas sur une image à côté, tu ne lui as pas présenté une radio du tibia pour essayer de détecter une pneumonie. Tu lui as présenté une radio des poumons. En fait, tu as présenté des dossiers hyper qualifiés et, déjà, ce n’est pas parfait.<br/>
 
Quand tu vas faire de l’analyse pour dire si les gens sont gentils ou méchants, ton dossier est mal construit, il n’a pas du tout la rigueur d’une imagerie médicale. Tu es incapable de dire quelle est la partie de la vie de quelqu’un qu’il faut photographier pour être capable de dire si c’est un terroriste ou si ce n’est pas un terroriste. On est sûr quand on regarde après, c’est après qu’il sera passé à l’acte et qu’une enquête ait prouvé, qu’on ait trouvé des preuves que c’est bien cette personne-là qui a fait, là on sait. Mais c’est le seul cas ! Avant on ne savait pas.
 
 
 
<b>Sky : </b>Si tu prends tous les dossiers des gens qui ont été jugés terroristes.
 
 
 
<b>Benjamin Bayart : </b>Tu n’es pas capable de dire quel extrait du dossier, avant, avait du sens. Quand tu fais analyser la radio des poumons par ton outil, tu sais que la radio des poumons a du sens. Le fait que tu ne sois pas capable, avec tes yeux, de voir quelque chose et tu espères que le programme va être capable de détecter. Tu sais que ça c’était une radio de ton patient genre trois mois avant qu’on ait diagnostiqué son cancer, donc, la question c’est : est-ce que ça se voyait déjà ? Et est-ce que l’ordinateur est capable de détecter une ombre d’un truc que les médecins n’ont pas vu, mais qui serait peut-être pertinent pour dire que c’est un signe précoce de ? Mais tu sais très bien où tu es, tu sais très bien ce que tu cherches. L’information que tu présentes à ton système d’apprentissage et à ton système de traitement est une info hyper pertinente pour laquelle a des centaines d’années de médecine pour nous dire « c’est hyper pertinent ».<br/>
 
En fait, quand tu vas quand tu vas faire ça avec des trucs beaucoup plus génériques, sur la vie des gens, leur profil : est-ce que c’était parce qu’il avait une gazinière bleue qu’il est devenu terroriste ?
 
 
 
<b>Sky : </b>Est-ce qu’il est devenu terroriste parce qu’il a regardé une vidéo sur YouTube ?
 
 
 
<b>Benjamin Bayart : </b>Peut-être ! Ce n’est exclu !
 
 
 
<b>Sky : </b>Quand tu vois l’administration américaine qui demande à l’hébergeur de la vidéo qui, quelle IP, quel gars a regardé cette vidéo. C’est pour compléter des dossiers, c’est pour faire quoi ?
 
 
 
<b>Benjamin Bayart : </b>Je n’en sais rien. C’est à eux qu’il faut demander. Ils ont envie de surveiller leur population, comme tous les gouvernements. C’est une constante des gouvernements. En France on est bon dans ce domaine-là.
 
 
 
<b>Sky : </b>Pourquoi dis-tu qu’on est bon ? Parce qu’on ne se fait pas repérer ou parce que c’est légal ?
 
 
 
<b>Benjamin Bayart : </b>Parce qu’on le fait depuis très longtemps. C’est une vieille tradition.
 
 
 
<b>Sky : </b>Depuis quand ?
 
 
 
<b>Benjamin Bayart : </b>C’était déjà une vieille tradition du temps de Joseph Fouché, ça ne va pas nous rajeunir ! La France est un pays qui a ces envies-là depuis très longtemps.
 
 
 
==33’ 19==
 
 
 
<b>Sky : </b>Est-ce que l’intelligence artificielle, plus ce qu’ils appellent la big data, le pot-pourri de tout ça, ne va pas faire un flicage sous stéroïdes et, en plus, mal calibré ?
 
 
 
<b>Benjamin Bayart : </b>Je suis embêté avec cette question-là parce qu’elle est trop tordue. Je vais te la démonter.<br/>
 
Le fait d’aller pomper de la data sur les gens, d’aller stocker en quantité industrielle des données sur tout le monde, même si on n’en fait rien, c’est déjà du flicage. Le fait d’exploiter cette base d’informations dans le but de détecter si les gens font quelque chose, c’est du flicage, que tu le fasses par de l’intelligence artificielle ou pas.<br/>
 
La vieille blague qui disait qu’en Allemagne de l’Est la moitié de la population était occupée à surveiller l’autre moitié de la population, c’était en partie vrai, c’était une blague, mais il y avait un petit fond intéressant derrière.<br/>
 
C’est cette espèce de fantasme qu’on peut surveiller tout le monde. En fait, si tu veux surveiller tout le monde, il te faut une infinité de policiers. Si tu as une infinité de policiers occupés à surveiller toute la population, il va falloir que tu les surveilles, parce que tes policiers sont vachement dangereux et ils sont hyper nombreux. Très vite le truc devient intenable. Mais, à partir du moment où tu l’automatises, où tu l’industrialises, il y a ce fantasme qu’en surveillant tout le monde suffisamment, tout le monde sera sage et il n’y aura plus jamais de bêtises. C’est un fantasme, ça n’aura pas lieu. Le seul effet c’est que tu auras détruit toute forme de liberté dans la société dans laquelle tu vis. Et ce n’est pas grave de ne pas surveiller tout le monde.<br/>
 
Cette espèce de fantasme fou qui est une espèce de délire totalitaire, un truc qui est très immature, il faudrait inviter un psy pour parler de ça, ce serait plus rigolo ! Là, tu as une espèce de délire de toute puissance totalitaire, un côté très enfantin, très puéril, très bébé.
 
 
 
<b>Sky : </b>Peut-être très flippé !
 
 
 
<b>Benjamin Bayart : </b>C’est lié. Cette idée, par exemple, qu’il faudrait absolument attraper tous les gens qui font des bêtises, et ce n’est pas vrai ! Depuis longtemps, je ne saurais pas dire depuis quand c’est dans le code de la route, mais plus vieux que moi je suis à peu près sûr : il est interdit de traverser en dehors des clous. Il y a une amende prévue au code pour ça. Je ne suis pas sûr qu’on donne souvent cette amende. Pourtant je t’assure, je suis parisien, des gens qui traversent en dehors des clous, il y en a plusieurs, tous les jours, et pourtant l’amende ne tombe pas et ce n’est pas très grave !<br/>
 
Si tu veux, c’est une espèce d’incompréhension de ce que c’est qu’une loi. Pour le coup, même chose, ce serait plus rigolo si c’était un anthropologue ou un sociologue qui venait expliquer ça.<br/>
 
Une loi, dans une société, c’est d’abord quelque chose que les gens respectent ; ce n’est pas parce qu’on l’a écrit. Ce n’est pas parce que c’est écrit dans le code pénal que ce n’est pas bien de tuer, que tu ne tues pas. Le code pénal ne t’en empêchera pas. Ce qui t’en empêche, c’est le fait que tu appartiens à une société dans laquelle c’est jugé comme étant pas bien et que tu as complètement intégré ce jugement comme étant pas bien comme tu as intégré ta langue maternelle : on te l’a dit quand tu étais petit, tout le monde se comporte autour de toi en partant du principe que c’est vrai, tout le monde a intégré ce truc-là, donc, même quand il te prend l’envie d’étrangler le pénible qui est devant toi, tu ne le fais pas, tu te retiens, parfois tu te retiens moins bien, mais tu te retiens. C’est ce qui fait que, du coup, parce que tout le monde fait comme ça, on peut en faire une loi. On peut dire, dans la loi, « il ne faut pas tuer les gens et, quand on tue les gens, on est puni ». Mais ce n’est pas la punition qui fait que tu ne tues pas les gens, ce n’est absolument pas ça. C’est une structure sociale, c’est une construction sociale. C’est ce qui fait que tu peux bien faire des lois absurdes, elles ne seront pas respectées, les gens les contournent en permanence. Tu peux écrire que c’est illégal de traverser en dehors des clous, on explique aux enfants qu’il ne faut pas traverser en dehors des clous et ils apprennent.
 
 
 
<b>Sky : </b>C’est un peu comme l’évasion fiscale, ce n’est pas bien.
 
 
 
<b>Benjamin Bayart : </b>Non, ce n’est pas comme l’évasion fiscale. On explique aux gamins qu’il ne faut pas traverser en dehors des clous, qu’il faut être prudent quand on traverse la rue, etc. En moyenne, quand tu regardes, les gens qui traversent en dehors des clous sont quand même relativement prudents, ils ne traversent pas le périph en mode rock and roll, à moitié bourrés, ils ne font pas ça. En général, ils sont raisonnablement prudents, parce qu’ils savent qu’il y a une règle, ils savent pourquoi ils la contournent, ce n’est pas très grave qu’ils la contournent et tout va bien. C’est dans ce sens-là qu’on écrit le truc : il faut d’abord que la règle soit admise et c’est parce qu’elle est admise par la société, c’est parce qu’elle est intégrée dans le tissu social, que cette règle a un sens, qu’on peut, si on le souhaite, la transcrire.
 
 
 
<b>Sky : </b>C’est pour des raisons de sécurité, pour des raisons de fluidification du trafic, pour des questions d’assurance.
 
 
 
<b>Benjamin Bayart : </b>Pour 1000 raisons. En fait, il y a une espèce de délire de nos jours qui est de dire : parce qu’on a écrit dans la loi que c’est interdit, il faut absolument qu’on surveille tout le monde pour s’assurer que personne ne le fait. Il y a un certain nombre de cas où ce comportement est raisonnablement légitime et il y a un certain nombre de cas où ce comportement est complètement paranoïaque.<br/>
 
Je fais une différence très nette entre le comportement de la population et le comportement d’un tout petit nombre sur un certain nombre d’agissements très précis. Je donne deux exemples : on dit que c’est illégal de mettre tel produit chimique dans telle denrée alimentaire parce qu’on a constaté que c’est toxique. En haut de la liste des gens qui sont susceptibles d’utiliser, en grande quantité, ce produit chimique dans cette denrée alimentaire, il y a trois/quatre gros industriels de l’agroalimentaire, puis, derrière, il va y avoir toute une chiée de petits restaurateurs ou de petits artisans mais, en gros, s’ils n’arrivent pas à se procurer le produit chez le grossiste, ils ne vont pas aller beaucoup plus loin, ils ne savent pas le produire eux-mêmes, etc. Du coup, tu peux et tu as un vrai intérêt à contrôler les deux ou trois qui sont susceptibles de faire des très grosses bêtises, parce qu’ils ont un pouvoir énorme qui vient de leur taille.<br/>
 
À l’opposé, tu dis, pour des raisons qui ne regardent que nos politiques, « il est interdit de fumer les fines herbes qui font rire ». Si tu veux empêcher les gens de fumer les fines herbes qui font rire, entre ceux qui sont capables d’en faire pousser, parce que ça pousse très gentiment sur le balcon, ceux qui savent très bien où en acheter, parce qu’on sait très bien où en acheter, en fait, il faudrait surveiller tout le monde tout le temps pour réussir à faire appliquer ce truc-là de manière stricte. Mais, pour moi, on n’est pas du tout au même endroit. C’est typiquement une loi dont on se dit qu’il faudrait qu’elle soit appliquée parce qu’elle est écrite dans la loi, mais, socialement, elle n’est pas admise, c’est-à-dire qu’il y a une quantité colossale de la population qui fume des fines herbes.
 
 
 
<b>Sky : </b>Après, c’est une addiction, c’est un cas de santé publique.
 
 
 
<b>Benjamin Bayart : </b>Oui, mais est-ce que cela n’est pas une addiction [Benjamin montre sa cigarette, NdT] ? Est-ce que le tabac n’est pas une addiction en vente libre ? Le gros rouge qui tâche n’est-il pas une addiction en vente libre ? Ça va, ce n’est pas le sujet, c’est toxique ! Moi j’ai les poumons complètement niqués parce que je fume depuis 30 ans ! C’est une addiction, c’est toxique et pourtant ce n’est pas interdit.
 
 
 
<b>Sky : </b>Tu cotises et tu vas partir plutôt que tout le monde, merci Benjamin ! C’est ça la vraie solidarité.
 
 
 
<b>Benjamin Bayart : </b>Je ne suis pas sûr !<br/>
 
Pour moi, là tu as un nœud assez intéressant et, en fait, on a une société qui a de plus en plus envie de vouloir surveiller tout le monde tout le temps. Je ne suis pas sûr d’être d’accord avec ça. Qu’on surveille les quelques personnes qui ont trop de pouvoir, qui sont trop puissantes, qui, donc, doivent être surveillées. Quand un géant de l’agroalimentaire décide qu’il va économiser trois sous en mettant des produits qui sont pas très bons ou des compléments alimentaires qu’il ne devrait pas.
 
 
 
<b>Sky : </b>Tu as suivi le Japon !
 
 
 
<b>Benjamin Bayart : </b>Je n’ai pas suivi le Japon ! J’ai juste regardé ce qui se passe partout, c’est comme ça partout ; les bonbons à la mélamine ce n’était pas au Japon, c’était en Chine. Ce n’est vraiment pas un truc si nouveau que ça !<br/>
 
Pour moi, là-dedans, il y a une notion de pouvoir. Le petit citoyen lambda, qui fait ses petites bêtises lambda, il n’a pas une toxicité, vis-à-vis de la société, qui est immense. Ce qu’il fait ce n’est pas bien. Le clampin de base, qui fume des fines herbes, entretient toute une économie parallèle, toxique, extrêmement dangereuse, et, derrière cette économie parallèle, toxique et extrêmement dangereuse, il y a du grand banditisme, il y a des trucs vraiment pas bien. Mais, d’un autre côté, si les fines herbes étaient en vente libre au tabac du coin, il irait acheter ses fines herbes au tabac du coin. Voilà ! Cet aspect-là est, pour moi, un faux problème.
 
 
 
<b>Sky : </b>Est-ce que tu suspectes, en termes de surveillance, que ce qu’ils appellent intelligence artificielle soit encore une came numérique ou une camisole numérique pour encadrer la population ?
 
 
 
<b>Benjamin Bayart : </b>C’est le but. C’est aussi un élément formidable qui permet de dire que c’est de la faute de l’ordinateur. Ce n’est pas le grand méchant ministre qui a dit qu’on allait te couper les allocs, c’est l’ordinateur qui a dit qu’on allait te couper les allocs. Ce n’est pas monsieur le directeur qui a dit que tu étais viré parce que ta gueule ne lui revenait pas, c’est l’ordinateur qui a dit que tu étais viré parce que ta gueule ne lui revenait pas. Oui, mais qui a entraîné l’ordinateur ? Qui a appris à l’ordinateur que tu avais une sale gueule, alors que ta voisine est très bien, que ton voisin est très bien, mais toi non. Qui a entraîné l’ordinateur ? En fait, l’ordinateur a été choisi, il a été programmé, il a été paramétré et personne n’est responsable ! Si, il y a bien quelqu’un qui est responsable ; c’est bien l’ordinateur de quelqu’un.<br/>
 
Ce qui m’intéresse ce n’est pas de savoir « l’ordinateur a décidé que », c’est de savoir « l’ordinateur de quelqu’un a décidé que » ; c’est le nom du quelqu’un. Ça n’est pas ton revolver qui m’a tué, c’est toi ! Ce n’est pas l’ordinateur qui ne veut pas que j’aie des allocs, qui veut pas que j’aie le poste, qui ne veut pas que j’aie eu une promotion, c’est toi ! C’est toi qui as choisi d’utiliser l’ordinateur ; c’est un outil, tu as utilisé l’outil, c’est toi qui es responsable, ce n’est pas l’ordinateur. Mais c’est un très bon moyen de dédouaner.<br/>
 
Les Israéliens ont décidé qu’ils allaient tuer des gens en s’appuyant sur un programme informatique, que ce programme informatique relève de l’intelligence artificielle ou du tarot, je m’en fous, ils ont choisi d’utiliser ça. Ils auraient décidé de tuer les gens en faisant D6 D8 [45 min 33] comme on fait dans les jeux de rôle, je m’en fous, c’est pareil ! Ils ont utilisé un outil pour tuer des gens. Discutons du fait qu’ils tuent des gens, l’outil je m’en fous ! Franchement ! S’ils avaient décidé de tuer les gens au sabre au lieu de les tuer à la bombe, est-ce que c’était moins grave ? Pas tellement ! Ce qui m’embête c’est qu’ils tuent des gens. Est-ce qu’ils ont raison de le faire ? Pourquoi tuent-ils ces gens-là plutôt que d’autres ? Comment le font-ils ? Est-ce qu’ils les tuent ou est-ce qu’ils les affament aussi ? On peut discuter de tout cela. Ce qui m’intéresse, c’est ce qui se produit ; l’outil avec lequel on le fait est peu pertinent.<br/>
 
Ce qui me fait peur dans l’intelligence artificielle, ce n’est pas l’intelligence artificielle militarisée. Que les militaires décident de tuer n’importe qui, n’importe comment, qu’ils le fassent avec de l’intelligence artificielle, avec de l’intelligence naturelle ou avec de la bêtise standard comme on fait depuis des milliers d’années, je m’en fous ! C’est le résultat qui est intéressant. Le sujet intéressant à discuter là-dedans, ce n’est pas qu’ils utilisent de l’intelligence artificielle, du calcul probabiliste ou les prédictions de madame Irma, ce qui est intéressant, c’est ce qu’ils font.
 
 
 
<b>Sky : </b>Est-ce que tu penses que la population, en général, prend conscience de ce type de sujet ? Est-elle bien informée ? Est-elle bien formée ? Est-ce qu’elle a la capacité d’avoir accès à de l’information suffisamment bitable pour comprendre le basculement sociétal que ça amène ?
 
 
 
<b>Benjamin Bayart : </b>Non, mais ce n’est pas spécifique à l’intelligence artificielle.
 
 
 
<b>Sky : </b>Mais les répercussions sont quand même vachement énormes !
 
 
 
<b>Benjamin Bayart : </b>Non, je suis pas d’accord.<br/>
 
Je vais prendre un exemple un peu moins dramatique. On ne va pas parler de gens qui bombardent et de gens qui meurent. Regardons ce qui sert à fliquer les gens et à surveiller les bénéficiaires des allocs pour essayer de détecter les fraudes. On fait ça avec de la détection informatique basée sur les dossiers. La Quadrature du Net a publié des trucs vachement intéressants là-dessus, un dossier que je n’ai pas suivi de près, mais je sais qu’il est vachement intéressant. Ils ont réussi à obtenir la publication d’un certain nombre d’éléments de la Caisse d’allocations familiales via la Cada, en amenant tous ces braves gens devant les tribunaux. La Quadrature ne travaille jamais avec des <em>leaks</em>, pas officiellement. Parfois, on reçoit des informations dont on ne parle pas, du coup on sait ce qui est dedans, mais ce qui est intéressant c’est de les obtenir en officiel. On constate que les algos qui servent à détecter les fraudes ont tendance à dire que ce sont les pauvres qui fraudent. Donc, quand tu es pauvre, précaire, etc., tu as beaucoup plus de chances d’être contrôlé et d’être soupçonné de fraude. C’est un biais. Que ce soit fait par une intelligence artificielle ou pas une intelligence artificielle, ce n’est pas ça le problème, le problème ce n’est pas l’outil, c’est qu’on utilise un outil, en gros pour faire du mal aux gens
 
 
 
<b>Sky : </b>Pas pour faire du mal aux gens ! Pour optimiser, je me fais l’avocat du diable.
 
 
 
<b>Benjamin Bayart : </b>Non, pour faire du mal aux gens : le contrôle Caf ça fait du mal. Les contrôles et les tracasseries administratives, c’est extrêmement pénible et désagréable.
 
 
 
<b>Sky : </b>Mais le fraudeur social fait du mal aussi !
 
 
 
<b>Benjamin Bayart : </b>En fait, il se trouve que la majorité des gens qu’on contrôle sont en règle, ils n’ont rien fait de mal. Du coup, on embête des tas de braves gens pour pas grand-chose. C’est comme le contrôle d’identité : un policier qui te demande tes papiers ne te fait pas de mal, parce que tu es un monsieur, tu es blanc, tu parles français sans accent ; si jamais un policier te demande tes papiers, ce qui a dû t’arriver peut-être trois fois dans ta vie parce que tu es conducteur et, dans la rue, dans Paris jamais, il ne te fait pas de mal. Mais quand c’est trois fois par jour parce que tu es rebeu dans une cité, ce n’est pas le même jeu, en fait, là, il te fait du mal. Il ne te fait pas du mal parce qu’il t’a demandé tes papiers, il te fait du mal parce qu’il te demande tes papiers tout le temps, trois fois aujourd’hui, mais c’était aussi trois fois hier et ce sera aussi trois fois demain. Et c’est le même flic ; il sait très bien qui tu es et il sait très bien que tu es en règle. Il a juste envie de te faire chier, il en a le pouvoir, il le fait ! C’est le même jeu avec la Caf.
 
 
 
<b>Sky : </b>Ils ne sont pas tous chiants les flics ! Il y en a des sympas, qui font bien leur boulot !
 
 
 
<b>Benjamin Bayart : </b>Non, pas tous ! Il y a aussi des poissons qui volent.
 
 
 
<b>Sky : </b>Non, il y a des flics sympas, vraiment, qui essayent de faire leur boulot, qui sont dévoués, qui travaillent dans des locaux où ça pue le pipi, avec de la peinture cloquée, avec peu de moyens, avec des caisses qui sentent le moisi. ll y en a beaucoup
 
 
 
<b>Benjamin Bayart : </b>Sans doute ! Le problème n’est pas là. C’est une question de rapport de domination et d’usage de la force. C’est une posture dans laquelle tu peux faire usage de la force, c’est admis, ça fait partie des outils à ta disposition.
 
 
 
<b>Sky : </b>La violence légitime.
 
 
 
==51’ 08==
 
 
 
<b>Benjamin Bayart : </b>C’est autre chose.
 

Dernière version du 23 avril 2024 à 09:15


Publié ici - Avril 2024