Intelligence artificielle, bullsh*t, pipotron - Benjamin Bayart

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Intelligence artificielle, bullsh*t, pipotron ? Benjamin Bayart

Intervenants : Benjamin Bayart - Sky

Lieu : Chaîne Internet Thinkerview

Date : 4 avril 2024

Durée : 2 h 36 min 29

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sky : Benjamin Bayart, bonsoir.

Benjamin Bayart : Bonsoir.

Sky : Nous vous recevons pour une chaine internet qui s’appelle Thinkerview. Nous sommes en direct, est-ce que vous pouvez vous présenter succinctement ?

Benjamin Bayart : Me présenter succinctement, c’est toujours très compliqué.
Benjamin Bayart, 50 ans, informaticien, militant, activiste, membre de trouse [0 min 33] associations, militant pour les libertés en général et en ligne en particulier. Ma bio Twitter dit « vieux con des internets », c’est bien.

Sky : U petit background. Qu’avez-vous fait ?

Benjamin Bayart : Côté pro, ça va emmerder tout le monde. Côté associatif, cofondateur de La Quadrature. On a encore créé une association récemment, il faudra que je te raconte les « Licornes célestes », c’est marrant. Je t’assure, c’est marrant ! C’est du droit administratif, c’est toujours rigolo le droit administratif ! J’ai été président pendant 14 ans de French Data Network, le plus vieux fournisseur d’accès à Internet en France, qui est une association. On a créé la Fédération des fournisseurs d’accès internet associatifs. Qu’est-ce que j’ai fait d’autre comme sottises ? En ce moment, je suis consultant dans une boîte qui s’appelle OCTO Technology, où je m’amuse beaucoup, où me laisse bosser sur des sujets intéressants, c’est très rigolo.

Sky : On va se tutoyer direct, si tu m’autorises. Notre première interview date de Notre-Dame, au pied de Notre-Dame.

Benjamin Bayart : 2014, un truc comme ça.

Sky : Oui, un truc comme ça. On va faire le point. Aujourd’hui, on va parler intelligence artificielle, on va parler libertés aussi sur Internet, on va parler data, on va parler de stockage, on va parler de failles de sécurité, peut-être sur certaines choses exfiltrées, on va peut-être parler des Jeux olympiques. Non ?
Benjamin, on commence par l’intelligence artificielle et on parlera de l’intelligence artificielle militarisée après. Pour toi, l’intelligence artificielle, c’est quoi ?

Benjamin Bayart : Tout de suite les questions qui fâchent !
Pour moi, ce sont des statistiques. C’est essentiellement un outil de statistiques. Les gens qui ne sont pas du métier découvrent ça en ce moment, à cause de ChatGPT, pour faire joujou. Mais, pour moi, c’est une façon particulière de faire des stats, de calculer des résultats, de faire des prédictions.

Sky : De l’anticipation.

Benjamin Bayart : Des prédictions ou des détections, mais qui s’appuient sur des mécaniques qu’on ne comprend pas, c’est ça le jeu.
Si je fais une analyse statistique tout seul parce que je suis un garçon sérieux, je fais des maths, je fais des calculs de pourcentage, des trajectoires, je ne sais pas quoi, je vais pouvoir faire des estimations, des prédictions, des évaluations basées sur du calcul et où je sais pourquoi je trouve ce résultat-là et je sais à quel moment mon calcul dit « 27,3, donc c’est bleu. » Tout le jeu de l’intelligence artificielle, c’est de trouver des mécanismes qui vont manger ces données de manière extrêmement bizarre et qui vont réussir à nous produire des résultats dont on ne sait pas expliquer pourquoi ils sortent.

Sky : Qu’est-ce que tu appelles « extrêmement bizarre » ? Le biais du mec qui a entraîné l’intelligence artificielle ? Le biais des pipes`

Benjamin Bayart : Non, ça c’est la partie facile à comprendre. Ce que j’adore, par exemple, c’est ce qu’on fait avec ce qu’on appelle les algorithmes génétiques, qui est une des formes de l’intelligence artificielle.
Le principe est assez simple, ça suppose que tu aies un problème à résoudre et que tu saches mesurer à quel point tu es loin de la solution. Tu écris des programmes complètement aléatoires, donc ils font n’importe quoi, tu prends ça comme base de départ, tu les fais évaluer par la machine, et puis la machine sélectionne les 10 % les meilleurs, qui produisent les moins mauvais résultats, puis elle les mélange pour produire de nouveau 3000 programmes qu’elle va évaluer ; elle prend les 10 % les meilleurs, elle les mélange, elle reproduit à partir de ça 3000 programmes et puis elle va évaluer. En fait, tu fais ça des milliers, des dizaines de milliers, des centaines de milliers de fois, et ça produit des programmes qui sont, en moyenne, de plus en plus performants et qui donnent des résultats qui sont de mieux en mieux, mais on ne comprend rien à ce qu’ils font, parce que ce sont des programmes écrits complètement au pif.
Un exemple de ça a été fait avec des FPGA, et ça ne va pas forcément parler à tout le monde. Je vous explique. FPGA, ce sont des petites puces électroniques qu’on peut configurer pour qu’elles implémentent un circuit électronique ou un autre avec quelque chose qui ressemble à un programme.

Sky : Pour ceux qui ne savent pas implémenter ?

Benjamin Bayart : C’est vraiment un circuit électrique, sauf que tu peux le configurer, le paramétrer, pour qu’il se comporte ou bien comme un circuit donné ou bien comme un autre, juste avec des éléments de programme.
On a utilisé des algorithmes génétiques. On voulait faire réaliser une fonction à ce circuit-là, on a donc écrit une combinaison de configurations et puis on a fait tourner l’algorithmique génétique, comme ça, sur des centaines de milliers d’itérations. À la fin, le truc a produit une mécanique qui n’utilise qu’un tout petit nombre de cellules interconnectées dans le circuit, beaucoup moins que ce qu’utiliserait un ingénieur qui veut implémenter et créer cette fonction-là, enfin, sensiblement moins que ce qu’on sait faire de mieux. On ne comprend rigoureusement rien à la raison pour laquelle ça produit de bons résultats. Manifestement, il configure certaines des cellules d’une certaine façon, mais qui ne sont connectées à rien, et s’il les configure autrement ça ne marche plus, ça ne fonctionne plus, la fonction n’est plus rendue. Et ça, en termes électriques, ça veut dire qu’il se passe des trucs bizarres, il se passe des trucs où il y a des fuites, il y a des courants, il y a des inductions, il y a des échanges de tension, de champs magnétiques, que sais-je, mais il se passe des trucs ! C’est-à dire que si on configure cette cellule-là, qui n’est connectée à rien, dans l’autre sens, elle ne marche plus, mais ça produit un résultat extrêmement efficace, ça réalise la fonction qu’on voulait réaliser, ça la réalise en utilisant moins de cellules que ce qu’aurait utilisé un ingénieur qui réfléchit au problème, mais on ne comprend pas ce que ça fait. Donc ça produit un résultat et on ne comprend pas ce que ça fait. On a constaté qu’une fois qu’on avait ce programme-là, quand on l’amenait sur un FPGA de la même marque, du même constructeur, mais qui n’est pas le même exemplaire, ça ne marche plus, parce que le truc est trop hyper adapté à cet exemplaire-là, sur lequel on l’a testé des millions de fois.
Pour moi, cela est un exemple assez simple de ce qu’est l’intelligence artificielle : ça produit des résultats, mais on est incapable d’expliquer de manière claire pourquoi ça a sorti ce résultat-là à ce moment-là.

Sky : C’est vachement inquiétant quand même !

Benjamin Bayart : Mais non ! Ça peut être vachement pratique. Quand tu as besoin de faire un système d’éclairage qui produit ce résultat-là, ce qui t’intéresses, c’est qu’il produise le résultat ; sii tu ne comprends pas bien pourquoi, ce n’est pas très grave ! Mais il y a plein d’applications dans lesquelles c’est vachement embêtant, typiquement ce qu’on fait en ce moment avec ChatGPT. Quand les journalistes disent « intelligence artificielle » ça veut dire ChatGPT.

Sky : Il n’y a pas que les journalistes !

Benjamin Bayart : ChatGPT, c’est très mignon. Tant que tu l’utilises comme jouet, tu lui poses une question débile, il fait une réponse débile, tu t’en sers comme tu te servirais d’un énarque ou d’un sciencepiste, ça ne sert à rien, c’est amusant, ça fait joli dans les salons, tout va bien ! Ça ce n’est pas grave, c’est du jouet, c’est ludique.
Une fois qu’on enlève cet usage ludique, si tu veux en faire un usage sérieux, tu as un problème, puisque tu ne comprends pas : il a produit une réponse qui peut être rigolote, qui peut être manifestement débile, ce sont les plus drôles, ou qui peut avoir l’air vaguement sérieuse, c’est le moment où ça se met à ressembler à un énarque ou à un sciencepiste. Mais on ne sait pas pourquoi il a produit cette réponse-là et on ne sait pas bien sur quoi il s’est appuyé pour produire cette réponse-là. Du coup, on ne peut pas en faire grand-chose parce qu’on ne sait pas dire quand il se trompe. C’est donc d’un usage extrêmement particulier.
Pour moi qui suis informaticien et qui ai un peu bossé sur ces sujets-là, on était jeunes à l’époque, j’étais étudiant ! J’ai un peu bossé sur des réseaux de neurones, des cartes de Kohonen, ce sont les réseaux de neurones sur lesquels j’ai le plus bossé ; les cartes de Kohonen, c’est très rigolo.

Sky : Je peux faire une petite digression ? Tu fréquentes les salons, tu fréquentes les journalistes ? Quand tu fais une boutade sur les énarquistes et les sciencepistes, est-ce que tu as l’impression qu’ils « bullshitent » à mort sur l’intelligence artificielle ? Quand tu regardes un programme de télé où il y a des débats ? Déjà, est-ce que tu regardes la télé ?

Benjamin Bayart : Pas masse.

Sky : Pas masse, oui, je sais. N’as-tu pas l’impression que ça flûte un peu de partout, que ça pipeaute à mort ?

Benjamin Bayart : Si, mais pas plus sur ça que sur le reste !
Tu as deux grands morceaux à comprendre : il y a le fait que ce n’est pas leur métier. À part ce qu’ils ont pu comprendre de ce qu’ils ont lu sur le sujet, sachant qu’ils n’y ont pas passé des milliers d’heures parce qu’ils ont autre chose à faire, ils arrivent quand même, en moyenne, à poser des questions qui ne sont pas toujours complètement idiotes, ce qui est, je trouve, pas mal quand on ne vient pas du secteur, mais qui mélangent des réalités, des fantasmes et ils ne savent pas bien faire le tri entre les deux. Mais c’est comme ça dans tous les domaines un peu pointus. Tu as tu prends un physicien, tu lui fais parler de sociologie, s’il n’a pas fait de sociologie, il y a moyen qu’il raconte de la merde ! Tu prends un sociologue, tu lui demandes de t’expliquer le boson de Higgs, il y a moyen que ça fume ! Ce n’est pas complètement surprenant et les journalistes ne peuvent pas être spécialistes en tout.

Sky : Et les politiques, quand ils disent « on va être une superpuissance de l’intelligence artificielle, il faut, il faut, il faut, y’ qu’à, faut qu’on » ?

Benjamin Bayart : Si ça les amuse, que veux-tu que j’y fasse ? Une super puissance de l’intelligence artificielle où les étudiants font la queue pour avoir à bouffer à l’Armée du salut ! Tu m’excuseras, c’est une superpuissance de rien du tout ! Il y a des problèmes un peu plus sérieux à traiter dans ce pays que d’être une superpuissance de l’intelligence artificielle.

Sky : On va digresser à nouveau : quel regard portes-tu maintenant sur la France ? Comment sens-tu la France avec les étudiants qui font la queue pour essayer de bouffer, le ticket de métro à 4 euros pendant les JO, les problèmes énergétiques ? En tant que citoyen, comment sens-tu l’air du temps ? Tu n’es pas obligé de répondre.

Benjamin Bayart : Je sais très bien que je ne suis pas obligé de répondre. Je suis très en dehors de mon domaine de compétence. Il y a quand même des morceaux qui sont évidents, on a affaire à des clowns, il n’y a pas besoin d’avoir fait Saint-Cyr pour le comprendre !

Sky : Un exemple. Pourquoi sont-ils des clowns ?

Benjamin Bayart : Si tu veux, ils s’affolent de deux pelés et trois tondus qui font de la fraude au RSA, ils ne s’affolent pas du tout du fait qu’il y a à peu près la moitié des gens qui auraient droit à des minima sociaux et qui ne les réclament pas, ce qui est extraordinairement inquiétant. Déjà qu’il y ait autant de gens qui ont droit aux minimas sociaux, alors qu’ils sont assez stricts, et qui, en plus, ne les réclament pas, ça veut dire que ce sont des gens qui restent dans la mouise, ce n’est pas bien ! Ils ne s’affolent pas au bon endroit, ils s’inquiètent de vouloir être une superpuissance de je ne sais quoi, la dernière tartufferie à la mode, il y a cinq ans ça aurait été la blockchain, maintenant tout le monde a compris que la blockchain est une excellente solution, sauf qu’on n’a pas encore trouvé à quel problème. Pour moi, l’intelligence artificielle c’est du même ordre. Il y a sûrement deux ou trois bidules pour lesquels ce n’est pas mal et il y a une quantité industrielle d’usages complètement stupides de ce truc-là.

Sky : Revenons à nos sujets, on reviendra sur l’air du temps un peu plus tard.
Quand tu vois que Google se fait tirer les oreilles parce que son intelligence artificielle produit des réponses relativement déconnantes par rapport à la réalité historique, ça vient d’où ? Ça vient de quoi ? Ça vient pourquoi ?

13’ 17

Benjamin Bayart : Là, on n’est on est plus dans l’intelligence artificielle, ce sont les IA génératives de textes ou d’mages, on a hyper restreint. Quand je te parlais d’algorithmes génétiques, c’est aussi de l’intelligence artificielle et ça a plus d’usages pratiques.
En fait, l’IA générative a des biais qu’on connaît, qu’on comprend, qu’on sait un peu expliquer informatiquement. Le principe d’une IA générative qui génère du texte, c’est qu’elle va générer un texte qui est cohérent, c’est la partie qui est, je ne dirais pas, facile ; quand j’étais étudiant, on ne savait pas le faire, ça demande quand même de la puissance de feu en matière d’informatique pour apprendre au système à produire ça. Ça produit un texte qui est cohérent en ce sens qu’il est grammaticalement plutôt correct, ce qui, en français, n’est pas simple : il n’y a pas trop de fautes d’orthographe, de fautes de grammaire, les phrases sont à peu près construites ; ça n’a pas forcément de sens.

Sky : Ça n’a pas forcément de sens quand tu connais le sujet.

Benjamin Bayart : C’est tout le problème. Il y a des fois où, quand tu ne connais pas le sujet, tu vois bien que c’est débile, et c’est ce qui produit les résultats que je trouve les plus drôles. Pour le coup, pour l’usage ludique, je ne sais plus qui s’était amusé à demander à un de ces trucs-là, je crois à ChatGPT, mais je ne suis pas sûr, de lui fournir la liste des 100 nombres premiers pairs supérieurs à 2. Il a sorti une série d’entiers. Pour les gens qui n’ont pas fait de maths, il y a un seul nombre premier pair, c’est 2. Tous les autres nombres premiers, il y en a une infinité, sont impairs et tout le monde sait ça. De mon temps, ça s’enseignait en cinquième, de nos jours c’est un peu plus tard ; c’est une base de l’arithmétique qui est connue depuis la Haute Antiquité : le seul nombre premier pair, c’est 2. Sauf que ChatGPT ne fait pas des maths, tu lui poses une question, il te fait une réponse et la réponse est écrite en bon français, etc., et il te dit « les 20 premiers nombres premiers pairs sont 2 », il met 2 deux dans la liste, puis il en met d’autres. Après on lui dit « regarde bien, tu m’as cité, genre 57, mais il n’est pas pair ».

Sky : Et là, il dit pardon.

Benjamin Bayart : Il dit pardon et il refait une réponse où il t’en propose d’autres et c’est magique ! C’est c’est tout le jeu de cet outil-là. J’adore les usages ludiques de ce truc-là, je suis très fan. Un collègue devait présenter un de mes talks, il s’est amusé à demander à ChatGPT ma bio. ChatGPT a inventé que j’avais fondé je ne plus quelles associations, celle-là oui, celle-là non, c’était très drôle. Voilà, ça c’est ludique.
Quand tu t’en sers pour un usage autre que ludique, c’est extraordinairement dangereux. Il y a un usage que je comprends comme étant acceptable, c’est quand tu veux demander à ChatGPT de rédiger un texte dans un domaine où tu es un expert. Mettons que tu sois physicien des particules et tu veux que ChatGPT t’écrive une petite fiche pour présenter le boson de Higgs. Si tu es un physicien des particules, dans la petite fiche qu’écrit ChatgPT, tu sauras ce qui est vrai et tu sauras ce qui est faux. Tu pourras donc relire le texte et dire « ça non, ça non », ça te laisse cinq/six phrases un peu utiles, ça t’évite d’avoir à rédiger le truc. Si tu n’es pas tout à fait à l’aise à l’écrit, qu’il n’y a pas de maths, que tu cherches à faire un écrit grand public, c’est un bon moyen.
Mais si tu n’as pas le niveau, si tu es, comme moi, un pauvre ingénieur qui sait un petit peu de physique, mais pas plus que ça, il peut dire des trucs qui ne te font pas tiquer et qui, pourtant, sont faux. Il peut te dire « la particule a telle caractéristique, elle a une masse, une énergie, je ne sais pas quoi, de blabla électronvolts, je ne sais pas si c’est la bonne valeur. Je ne suis pas assez spécialiste du secteur pour être capable de dire si c’est 30, 12, 47, 53, je n’en sais rien ! Du coup, je ne vais pas voir que le truc est aberrant.
Donc, même si je suis un petit peu compétent dans le domaine, je vais me faire abuser, parce que je ne vais pas repérer qu’il y a une merde.

Sky : Ou feignant ou fatigué.

Benjamin Bayart : Fatigué, quand tu es spécialiste du domaine, quand c’est ton domaine.

Sky : Un avocat américain s’est débrouillé pour écrire sa plaidoirie avec ChatGPT et il s’est fait reprendre.

Benjamin Bayart : Il s’est gouré sur les numéros de jurisprudence. En fait, il se serait fait planter de la même façon si c’était son assistant ou le stagiaire du cabinet qui avait rédigé le truc et qui s’était gouré. Ça prouve juste qu’il est incompétent. Quand l’élève avocat, sur le recours qu’on fait en ce moment, se gourre sur le numéro d’un décret présidentiel américain, je lui dis parce que je relis attentivement, j’essaye de faire gaffe. Effectivement, je ne relis pas ça les soirs de cuite, je relis ça à tête reposée.

Sky : Tu prends jamais de cuites, de toute de façon.

Benjamin Bayart : Si, pas avec toi !

Sky : Ce n’est vrai !

Benjamin Bayart : Pas toujours, il y en a plusieurs où tu n’es pas venu.

Sky : Où je ne suis pas reparti dans un bon état, c’est ça.

Benjamin Bayart : Pour moi, tout le danger de ces trucs-là, c’est si tu ne pines rien au domaine, que tu dis « ils disent qu’ils ont découvert ou détecté le boson de Higgs, c’est quoi le boson de Higgs ? » et que tu vas demander à ChatGPT. Il va te faire un texte qui a l’air de tenir la route, il va te faire un texte qui en bon français, où il y a les bons buzzwords, il y a tous les mots-clés, tous les articles que ChatGPT a analysés sur le sujet, tout ce qu’il a remonté comme gloubi-boulga.

Sky : Ça ressemble un peu à de la communication politique.

Benjamin Bayart : Mais oui, puisque c’est le principe, c’est pour cela que je me moquais des sciencepistes ; c’est le talent qu’on t’apprend dans la communication politique : tu ne connais pas bien le domaine, mais tu as capté trois/quatre mots clés, tu les agences en mode « il est très important que blabla, mais en même temps blublu » et tu as écrit le discours de Macron parfaitement standard qui ne dit rigoureusement rien. C’est la base de la campagne Macron de 2017, c’est exactement écrit comme ça, c’est « ha là, là, il faut absolument qu’on permette à nos anciens d’avoir des revenus, donc les retraites c’est super important, mais, en même temps, il faut absolument que l’on ne prenne pas de pognon à ces pauvres entreprises et qu’on arrête de payer des charges sociales insupportables, donc qu’on travaille jusqu’à 98 ans, parce que, sinon, les pauvres patrons ! » En fait, il t’a dit une chose et son contraire dans la même phrase et tous les gens qui étaient d’avis plutôt gaucho, bidule, ont applaudi la première moitié, tous les gens qui étaient d’avis plutôt entrepreneur, Medef, ils ont applaudi la deuxième moitié.

Sky : Il y a aussi des patrons de gauche.

Benjamin Bayart : Oui, mais tu vois ce que je veux dire. Il t’a dit une chose et son contraire avec un « mais » au milieu. En fait, ChatGPT te chie effectivement des kilomètres de discours creux comme ça.

Sky : Il en pisse des kilomètres, c’est ce que tu veux dire !
Maintenant, quand tu vois que l’intelligence artificielle ou ce qui est appelé comme ça, sur la détection de cancer sur les grains de beauté, sur l’optimisation d’une consommation électrique.

Benjamin Bayart : Ça, c’est radicalement différent, on n’est pas du tout au même endroit.
Les systèmes génératifs qui produisent des textes ou qui produisent des images, en fait, si tu les laisses faire, ils produisent des fantasmes. Ils produisent des images qui peuvent avoir une qualité photoréaliste mais de choses qui n’existent pas, donc de choses qui ne sont pas vraies. C’est ce qui fait, par exemple, que les premières te produisaient des photos qui étaient très jolies et où, en fait, tu voyais que le personnage sur la photo il avait quatre doigts comme un Simpson ou il en avait six. Pour le moteur qui produit l’image, ça ne pose pas de problème. L’image était jolie, il y avait un fond, il y avait un décor, il y avait un éclairage à peu près réaliste, le truc tenait debout, sauf que c’est manifestement de la flûte. Ça c’est de l’IA générative.
L’IA qui sert à faire de la reconnaissance de formes, par exemple, c’est totalement différent. Là, tu as des mécanismes d’intelligence artificielle, des systèmes d’apprentissage qui savent reconnaître et, effectivement, c’est assez bluffant. Une IA va être capable de reconnaître, va être capable de dire que, sur une radio, tel type d’ombre c’est signe de cancer, pneumonie, je ne sais quoi. Elle va savoir lire la radio, en moyenne moins bien qu’un radiologue, mais mieux qu’un médecin ; plutôt moins bien qu’un radiologue et plutôt mieux qu’un médecin.

Sky : Le généraliste, parce qu’un radiologue est aussi médecin.

Benjamin Bayart : Le généraliste n’a pas l’habitude de lire un scanner, je parle d’imagerie compliquée ; détecter une fracture de la cheville sur une radio, ce n’est pas très dur ! Mais, quand tu cherches à lire des choses un petit peu compliquées sur des images un peu plus riches, ça peut être compliqué à voir. Si tu n’as pas le coup d’œil, si tu n’as pas l’entraînement, alors toi, moi, on voit que dalle, on arrive à dire que c’est une photo de poumon parce qu’il y a des côtes, mais, à part ça, on est à l’ouest. Le médecin, si il sait ce qu’il cherche, il va le voir. Typiquement, ton radiologue t’as dit « vous avez tel problème », tu apportes la radio au médecin et il te dit « oui, ça se voit, c’est là, etc. » S’il voit la radio, comme ça, out of the blue, il peut ne pas tout voir, parce qu’il n’a pas le coup d’œil, parce qu’il n’a pas l’entraînement, etc. Là-dessus, les moteurs d’intelligence artificielle, en moyenne, ne se gourent pas. Ils arrivent à lire, ils peuvent se laisser abuser, c’est-à-dire qu’il y a des trucs où une ombre apparaît à la radio et le radiologue saura que ça c’est un défaut de l’appareil, c’est une erreur de réglage, c’est une erreur de calibrage, il y avait un objet métallique à tel endroit, un artefact quelconque que lui sait reconnaître et, pour le coup, il peut être capable de dire « ça, c’est un artefact, c’est une erreur d’image », ce n’est pas ce qu’on y cherche.
De la même manière, le radiologue, même expérimenté, peut laisser passer un petit truc où le moteur informatique de détection va être capable de dire « là il y a une anomalie, elle est louche ». En général, on te dira toujours dans ces trucs-là, il faut faire vérifier par quelqu’un du métier. Tu as un bout d’intelligence artificielle, un système de détection automatique qui a dit « ça c’est suspect » et, là, un vrai professionnel regarde et dit « oui, c’est suspect, mais ce n’est pas significatif » ou « c’est trop petit pour avoir un sens » ou « le truc est gros comme une crotte de mouche, on ne peut pas le différencier d’un artefact, c’est probablement rien, etc. »
Là, tu as des usages extrêmement intéressants parce que ça permet de faire un tri qui est très pertinent, mais c’est très différent : dans un cas c’est la reconnaissance d’une forme, d’un schéma, et, dans l’autre cas, on veut faire produire du contenu. Et tous les systèmes de production de contenu, si ce n’est pas à destination d’un spécialiste du domaine qui va relire le truc, c’est dangereux.
Typiquement, il y a un exemple qu’on me cite comme étant un usage raisonnable, pourquoi pas ! Tu as assisté à trois heures de réunion, il faut que tu fasses un compte-rendu synthétique de deux pages.

Sky : Qui fait des réunions de trois heures ! Une réunion c’est maximum 20 minutes !

Benjamin Bayart : Oh, là, là ! plein de gens. Tu n’as jamais fait d’AG de copropriété ! Ce sont des heures et des heures de discussions inutiles !

Sky : Je délègue, je ne suis pas un propriétaire.

Benjamin Bayart : En fait, tu prends un enregistrement son de ton bidule, tu donnes ça à un outil de ce type-là et tu lui dis « génère-moi un compte-rendu de deux pages ». Tu étais à la réunion, à priori tu n’as pas trop somnolé, donc tu sais à peu près ce qui s’est raconté, donc tu verras bien si les deux pages de synthèse qu’il te raconte ça colle ou ça ne colle pas. Mais tu as intérêt à vérifier et à être pointilleux, parce que si, à un moment, il fait un contresens, il a mal compris une remarque, il y avait un petit peu d’ironie dans une phrase et il ne l’a pas perçue, 1000 trucs peuvent échapper à ce genre d’outil, tu seras capable de dire « non, ce n’est pas ça que disait Jean-Eudes », puis tu corriges, parce que tu es un spécialiste du domaine, tu étais à la réunion. Si tu as laissé passer trop de temps et que tu as oublié, c’est très dangereux, mais tant que tu t’en souviens, tu peux utiliser ça comme outil d’assistance. Mais sur un domaine sur lequel tu ne sais pas, tu n’es pas sûr, ou un contresens peut t’échapper ou, etc., c’est très vite casse-gueule.

Sky : J’ouvre une parenthèse, on reviendra sur ce sujet-là différemment. L’intelligence artificielle ou ce que ??? [27 min] appelait intelligence artificielle, militarisée pour la prise de décisions létales ? Ou l’intelligence artificielle qui va te faire émerger une liste de suspects à abattre, qu’en penses-tu ? L’intelligence artificielle dans des robots tueurs à la frontière coréenne, qu’en penses-tu ?

Benjamin Bayart : Il n’y a pas besoin d’intelligence artificielle pour que ce soit de la merde !

Sky : Les ??? [27 min 23] drones.

Benjamin Bayart : Tu as de très jolis documentaires là-dessus qui expliquent très bien. RoboCop est un très beau documentaire qui t’explique pourquoi il ne faut pas.

Sky : Ce n’est pas trop documenté.

Benjamin Bayart : Si, ils s’en servent comme mode d’emploi.

Sky : Un peu comme 1984.

Benjamin Bayart : Oui, c’est ça, c’était de la science-fiction qui disait « il ne faut pas aller par là, faites gaffe, ça pue » et on a toute une classe politique qui fait « non, ça a l’air rigolo, on va aller là ».

Sky : Ça te fait peur ?

Benjamin Bayart : Oui. De manière générale, la classe politique violente je n’aime pas ça, mais c’est mon côté gauchiste.

Sky : Arrête de dire que c’est réservé qu’à la gauche et arrête de tomber dans le qualificatif gauchiste, on n’accepte pas ça ici, il n’y a pas de gauchistes, il y a des gens avec une sensibilité. C’est important.
Revenons à nos moutons. Une intelligence artificielle qui va faire émerger une liste de suspects. Les Israéliens utilisent ça.

Benjamin Bayart : Rien ne va là-dedans. En fait, ou bien c’est une intelligence artificielle qui fait de la détection, l’équivalent de ce qu’on disait sur l’imagerie médicale : tu lui as fourni des centaines de milliers de dossiers à analyser et tu lui as dit « ceux-là sont des terroristes, ils sont très méchants, ceux-là sont des policiers, ils sont très gentils, ceux-là sont des bouchers charcutiers, ils ne sont pas dangereux » et puis tu l’as entraînée.

Sky : Je peux t’arrêter ? Dans le dossier en question, je prends l’exemple des bouchers, est-ce qu’il y a toute l’historicité de leurs surfs sur Internet ?

Benjamin Bayart :  ??? [29 min 05], ce n’est pas là que je veux aller.
Tu as entraîné ton système avec ça, après tu lui présentes des dossiers de gens lambda et le système va te dire « ceux-là sont des méchants, ceux-là sont des gentils ». C’est comme ça que ça marche, c’est de la reconnaissance de formes. En fait, c’est de la merde parce que, le plus souvent ton dossier est mal qualifié.
Ton radiologue qui cherche une pneumonie sur une radio des poumons, il ne cherche pas n’importe quoi au pif, il sait très bien ce qu’il cherche, ça fait 200 ans qu’on fait de la médecine de manière pas trop random, qu’on ne fait pas que des bêtises. On a des milliards d’heures de travail cumulées sur ces sujets-là, si tu prends tous les médecins qui auscultent tous les patients depuis, etc., on n’y va pas du tout au pif.
Si tu prends un moteur d’intelligence artificielle et que tu l’entraînes sur des photos complètement aléatoires de trucs débiles, tu lui montres des radios du tibia, tu lui montres des images d’IRM, tu lui montres des images de n’importe quoi, et que tu lui demandes d’apprendre à reconnaître à quel endroit il y a une pneumonie, le truc va te raconter n’importe quoi !
Ce qui fait que ton moteur est relativement fiable pour détecter, c’est que tu lui as présenté des trucs très ciblés. Tu sais que si la réponse est quelque part, c’est sur cette image-là, ce n’est pas sur une image à côté, tu ne lui as pas présenté une radio du tibia pour essayer de détecter une pneumonie. Tu lui as présenté une radio des poumons. En fait, tu as présenté des dossiers hyper qualifiés et, déjà, ce n’est pas parfait.
Quand tu vas faire de l’analyse pour dire si les gens sont gentils ou méchants, ton dossier est mal construit, il n’a pas du tout la rigueur d’une imagerie médicale. Tu es incapable de dire quelle est la partie de la vie de quelqu’un qu’il faut photographier pour être capable de dire si c’est un terroriste ou si ce n’est pas un terroriste. On est sûr quand on regarde après, c’est après qu’il sera passé à l’acte et qu’une enquête ait prouvé, qu’on ait trouvé des preuves que c’est bien cette personne-là qui a fait, là on sait. Mais c’est le seul cas ! Avant on ne savait pas.

Sky : Si tu prends tous les dossiers des gens qui ont été jugés terroristes.

Benjamin Bayart : Tu n’es pas capable de dire quel extrait du dossier, avant, avait du sens. Quand tu fais analyser la radio des poumons par ton outil, tu sais que la radio des poumons a du sens. Le fait que tu ne sois pas capable, avec tes yeux, de voir quelque chose et tu espères que le programme va être capable de détecter. Tu sais que ça c’était une radio de ton patient genre trois mois avant qu’on ait diagnostiqué son cancer, donc, la question c’est : est-ce que ça se voyait déjà ? Et est-ce que l’ordinateur est capable de détecter une ombre d’un truc que les médecins n’ont pas vu, mais qui serait peut-être pertinent pour dire que c’est un signe précoce de ? Mais tu sais très bien où tu es, tu sais très bien ce que tu cherches. L’information que tu présentes à ton système d’apprentissage et à ton système de traitement est une info hyper pertinente pour laquelle a des centaines d’années de médecine pour nous dire « c’est hyper pertinent ».
En fait, quand tu vas quand tu vas faire ça avec des trucs beaucoup plus génériques, sur la vie des gens, leur profil : est-ce que c’était parce qu’il avait une gazinière bleue qu’il est devenu terroriste ?

Sky : Est-ce qu’il est devenu terroriste parce qu’il a regardé une vidéo sur YouTube ?

Benjamin Bayart : Peut-être ! Ce n’est exclu !

Sky : Quand tu vois l’administration américaine qui demande à l’hébergeur de la vidéo qui, quelle IP, quel gars a regardé cette vidéo. C’est pour compléter des dossiers, c’est pour faire quoi ?

Benjamin Bayart : Je n’en sais rien. C’est à eux qu’il faut demander. Ils ont envie de surveiller leur population, comme tous les gouvernements. C’est une constante des gouvernements. En France on est bon dans ce domaine-là.

Sky : Pourquoi dis-tu qu’on est bon ? Parce qu’on ne se fait pas repérer ou parce que c’est légal ?

Benjamin Bayart : Parce qu’on le fait depuis très longtemps. C’est une vieille tradition.

Sky : Depuis quand ?

Benjamin Bayart : C’était déjà une vieille tradition du temps de Joseph Fouché, ça ne va pas nous rajeunir ! La France est un pays qui a ces envies-là depuis très longtemps.

33’ 19

Sky : Est-ce que l’intelligence artificielle, plus ce qu’ils appellent la big data, le pot-pourri de tout ça, ne va pas faire un flicage sous stéroïdes et, en plus, mal calibré ?

Benjamin Bayart : Je suis embêté avec cette question-là parce qu’elle est trop tordue. Je vais te la démonter.
Le fait d’aller pomper de la data sur les gens, d’aller stocker en quantité industrielle des données sur tout le monde, même si on n’en fait rien, c’est déjà du flicage. Le fait d’exploiter cette base d’informations dans le but de détecter si les gens font quelque chose, c’est du flicage, que tu le fasses par de l’intelligence artificielle ou pas.
La vieille blague qui disait qu’en Allemagne de l’Est la moitié de la population était occupée à surveiller l’autre moitié de la population, c’était en partie vrai, c’était une blague, mais il y avait un petit fond intéressant derrière.
C’est cette espèce de fantasme qu’on peut surveiller tout le monde. En fait, si tu veux surveiller tout le monde, il te faut une infinité de policiers. Si tu as une infinité de policiers occupés à surveiller toute la population, il va falloir que tu les surveilles, parce que tes policiers sont vachement dangereux et ils sont hyper nombreux. Très vite le truc devient intenable. Mais, à partir du moment où tu l’automatises, où tu l’industrialises, il y a ce fantasme qu’en surveillant tout le monde suffisamment, tout le monde sera sage et il n’y aura plus jamais de bêtises. C’est un fantasme, ça n’aura pas lieu. Le seul effet c’est que tu auras détruit toute forme de liberté dans la société dans laquelle tu vis. Et ce n’est pas grave de ne pas surveiller tout le monde.
Cette espèce de fantasme fou qui est une espèce de délire totalitaire, un truc qui est très immature, il faudrait inviter un psy pour parler de ça, ce serait plus rigolo ! Là, tu as une espèce de délire de toute puissance totalitaire, un côté très enfantin, très puéril, très bébé.

Sky : Peut-être très flippé !

Benjamin Bayart : C’est lié. Cette idée, par exemple, qu’il faudrait absolument attraper tous les gens qui font des bêtises, et ce n’est pas vrai ! Depuis longtemps, je ne saurais pas dire depuis quand c’est dans le code de la route, mais plus vieux que moi je suis à peu près sûr : il est interdit de traverser en dehors des clous. Il y a une amende prévue au code pour ça. Je ne suis pas sûr qu’on donne souvent cette amende. Pourtant je t’assure, je suis parisien, des gens qui traversent en dehors des clous, il y en a plusieurs, tous les jours, et pourtant l’amende ne tombe pas et ce n’est pas très grave !
Si tu veux, c’est une espèce d’incompréhension de ce que c’est qu’une loi. Pour le coup, même chose, ce serait plus rigolo si c’était un anthropologue ou un sociologue qui venait expliquer ça.
Une loi, dans une société, c’est d’abord quelque chose que les gens respectent ; ce n’est pas parce qu’on l’a écrit. Ce n’est pas parce que c’est écrit dans le code pénal que ce n’est pas bien de tuer, que tu ne tues pas. Le code pénal ne t’en empêchera pas. Ce qui t’en empêche, c’est le fait que tu appartiens à une société dans laquelle c’est jugé comme étant pas bien et que tu as complètement intégré ce jugement comme étant pas bien comme tu as intégré ta langue maternelle : on te l’a dit quand tu étais petit, tout le monde se comporte autour de toi en partant du principe que c’est vrai, tout le monde a intégré ce truc-là, donc, même quand il te prend l’envie d’étrangler le pénible qui est devant toi, tu ne le fais pas, tu te retiens, parfois tu te retiens moins bien, mais tu te retiens. C’est ce qui fait que, du coup, parce que tout le monde fait comme ça, on peut en faire une loi. On peut dire, dans la loi, « il ne faut pas tuer les gens et, quand on tue les gens, on est puni ». Mais ce n’est pas la punition qui fait que tu ne tues pas les gens, ce n’est absolument pas ça. C’est une structure sociale, c’est une construction sociale. C’est ce qui fait que tu peux bien faire des lois absurdes, elles ne seront pas respectées, les gens les contournent en permanence. Tu peux écrire que c’est illégal de traverser en dehors des clous, on explique aux enfants qu’il ne faut pas traverser en dehors des clous et ils apprennent.

Sky : C’est un peu comme l’évasion fiscale, ce n’est pas bien.

Benjamin Bayart : Non, ce n’est pas comme l’évasion fiscale. On explique aux gamins qu’il ne faut pas traverser en dehors des clous, qu’il faut être prudent quand on traverse la rue, etc. En moyenne, quand tu regardes, les gens qui traversent en dehors des clous sont quand même relativement prudents, ils ne traversent pas le périph en mode rock and roll, à moitié bourrés, ils ne font pas ça. En général, ils sont raisonnablement prudents, parce qu’ils savent qu’il y a une règle, ils savent pourquoi ils la contournent, ce n’est pas très grave qu’ils la contournent et tout va bien. C’est dans ce sens-là qu’on écrit le truc : il faut d’abord que la règle soit admise et c’est parce qu’elle est admise par la société, c’est parce qu’elle est intégrée dans le tissu social, que cette règle a un sens, qu’on peut, si on le souhaite, la transcrire.

Sky : C’est pour des raisons de sécurité, pour des raisons de fluidification du trafic, pour des questions d’assurance.

Benjamin Bayart : Pour 1000 raisons. En fait, il y a une espèce de délire de nos jours qui est de dire : parce qu’on a écrit dans la loi que c’est interdit, il faut absolument qu’on surveille tout le monde pour s’assurer que personne ne le fait. Il y a un certain nombre de cas où ce comportement est raisonnablement légitime et il y a un certain nombre de cas où ce comportement est complètement paranoïaque.
Je fais une différence très nette entre le comportement de la population et le comportement d’un tout petit nombre sur un certain nombre d’agissements très précis. Je donne deux exemples : on dit que c’est illégal de mettre tel produit chimique dans telle denrée alimentaire parce qu’on a constaté que c’est toxique. En haut de la liste des gens qui sont susceptibles d’utiliser, en grande quantité, ce produit chimique dans cette denrée alimentaire, il y a trois/quatre gros industriels de l’agroalimentaire, puis, derrière, il va y avoir toute une chiée de petits restaurateurs ou de petits artisans mais, en gros, s’ils n’arrivent pas à se procurer le produit chez le grossiste, ils ne vont pas aller beaucoup plus loin, ils ne savent pas le produire eux-mêmes, etc. Du coup, tu peux et tu as un vrai intérêt à contrôler les deux ou trois qui sont susceptibles de faire des très grosses bêtises, parce qu’ils ont un pouvoir énorme qui vient de leur taille.
À l’opposé, tu dis, pour des raisons qui ne regardent que nos politiques, « il est interdit de fumer les fines herbes qui font rire ». Si tu veux empêcher les gens de fumer les fines herbes qui font rire, entre ceux qui sont capables d’en faire pousser, parce que ça pousse très gentiment sur le balcon, ceux qui savent très bien où en acheter, parce qu’on sait très bien où en acheter, en fait, il faudrait surveiller tout le monde tout le temps pour réussir à faire appliquer ce truc-là de manière stricte. Mais, pour moi, on n’est pas du tout au même endroit. C’est typiquement une loi dont on se dit qu’il faudrait qu’elle soit appliquée parce qu’elle est écrite dans la loi, mais, socialement, elle n’est pas admise, c’est-à-dire qu’il y a une quantité colossale de la population qui fume des fines herbes.

Sky : Après, c’est une addiction, c’est un cas de santé publique.

Benjamin Bayart : Oui, mais est-ce que cela n’est pas une addiction [Benjamin montre sa cigarette, NdT] ? Est-ce que le tabac n’est pas une addiction en vente libre ? Le gros rouge qui tâche n’est-il pas une addiction en vente libre ? Ça va, ce n’est pas le sujet, c’est toxique ! Moi j’ai les poumons complètement niqués parce que je fume depuis 30 ans ! C’est une addiction, c’est toxique et pourtant ce n’est pas interdit.

Sky : Tu cotises et tu vas partir plutôt que tout le monde, merci Benjamin ! C’est ça la vraie solidarité.

Benjamin Bayart : Je ne suis pas sûr !
Pour moi, là tu as un nœud assez intéressant et, en fait, on a une société qui a de plus en plus envie de vouloir surveiller tout le monde tout le temps. Je ne suis pas sûr d’être d’accord avec ça. Qu’on surveille les quelques personnes qui ont trop de pouvoir, qui sont trop puissantes, qui, donc, doivent être surveillées. Quand un géant de l’agroalimentaire décide qu’il va économiser trois sous en mettant des produits qui sont pas très bons ou des compléments alimentaires qu’il ne devrait pas.

Sky : Tu as suivi le Japon !

Benjamin Bayart : Je n’ai pas suivi le Japon ! J’ai juste regardé ce qui se passe partout, c’est comme ça partout ; les bonbons à la mélamine ce n’était pas au Japon, c’était en Chine. Ce n’est vraiment pas un truc si nouveau que ça !
Pour moi, là-dedans, il y a une notion de pouvoir. Le petit citoyen lambda, qui fait ses petites bêtises lambda, il n’a pas une toxicité, vis-à-vis de la société, qui est immense. Ce qu’il fait ce n’est pas bien. Le clampin de base, qui fume des fines herbes, entretient toute une économie parallèle, toxique, extrêmement dangereuse, et, derrière cette économie parallèle, toxique et extrêmement dangereuse, il y a du grand banditisme, il y a des trucs vraiment pas bien. Mais, d’un autre côté, si les fines herbes étaient en vente libre au tabac du coin, il irait acheter ses fines herbes au tabac du coin. Voilà ! Cet aspect-là est, pour moi, un faux problème.

Sky : Est-ce que tu suspectes, en termes de surveillance, que ce qu’ils appellent intelligence artificielle soit encore une came numérique ou une camisole numérique pour encadrer la population ?

Benjamin Bayart : C’est le but. C’est aussi un élément formidable qui permet de dire que c’est de la faute de l’ordinateur. Ce n’est pas le grand méchant ministre qui a dit qu’on allait te couper les allocs, c’est l’ordinateur qui a dit qu’on allait te couper les allocs. Ce n’est pas monsieur le directeur qui a dit que tu étais viré parce que ta gueule ne lui revenait pas, c’est l’ordinateur qui a dit que tu étais viré parce que ta gueule ne lui revenait pas. Oui, mais qui a entraîné l’ordinateur ? Qui a appris à l’ordinateur que tu avais une sale gueule, alors que ta voisine est très bien, que ton voisin est très bien, mais toi non. Qui a entraîné l’ordinateur ? En fait, l’ordinateur a été choisi, il a été programmé, il a été paramétré et personne n’est responsable ! Si, il y a bien quelqu’un qui est responsable ; c’est bien l’ordinateur de quelqu’un.
Ce qui m’intéresse ce n’est pas de savoir « l’ordinateur a décidé que », c’est de savoir « l’ordinateur de quelqu’un a décidé que » ; c’est le nom du quelqu’un. Ça n’est pas ton revolver qui m’a tué, c’est toi ! Ce n’est pas l’ordinateur qui ne veut pas que j’aie des allocs, qui veut pas que j’aie le poste, qui ne veut pas que j’aie eu une promotion, c’est toi ! C’est toi qui as choisi d’utiliser l’ordinateur ; c’est un outil, tu as utilisé l’outil, c’est toi qui es responsable, ce n’est pas l’ordinateur. Mais c’est un très bon moyen de dédouaner.
Les Israéliens ont décidé qu’ils allaient tuer des gens en s’appuyant sur un programme informatique, que ce programme informatique relève de l’intelligence artificielle ou du tarot, je m’en fous, ils ont choisi d’utiliser ça. Ils auraient décidé de tuer les gens en faisant D6 D8 [45 min 33] comme on fait dans les jeux de rôle, je m’en fous, c’est pareil ! Ils ont utilisé un outil pour tuer des gens. Discutons du fait qu’ils tuent des gens, l’outil je m’en fous ! Franchement ! S’ils avaient décidé de tuer les gens au sabre au lieu de les tuer à la bombe, est-ce que c’était moins grave ? Pas tellement ! Ce qui m’embête c’est qu’ils tuent des gens. Est-ce qu’ils ont raison de le faire ? Pourquoi tuent-ils ces gens-là plutôt que d’autres ? Comment le font-ils ? Est-ce qu’ils les tuent ou est-ce qu’ils les affament aussi ? On peut discuter de tout cela. Ce qui m’intéresse, c’est ce qui se produit ; l’outil avec lequel on le fait est peu pertinent.
Ce qui me fait peur dans l’intelligence artificielle, ce n’est pas l’intelligence artificielle militarisée. Que les militaires décident de tuer n’importe qui, n’importe comment, qu’ils le fassent avec de l’intelligence artificielle, avec de l’intelligence naturelle ou avec de la bêtise standard comme on fait depuis des milliers d’années, je m’en fous ! C’est le résultat qui est intéressant. Le sujet intéressant à discuter là-dedans, ce n’est pas qu’ils utilisent de l’intelligence artificielle, du calcul probabiliste ou les prédictions de madame Irma, ce qui est intéressant, c’est ce qu’ils font.

Sky : Est-ce que tu penses que la population, en général, prend conscience de ce type de sujet ? Est-elle bien informée ? Est-elle bien formée ? Est-ce qu’elle a la capacité d’avoir accès à de l’information suffisamment bitable pour comprendre le basculement sociétal que ça amène ?

Benjamin Bayart : Non, mais ce n’est pas spécifique à l’intelligence artificielle.

Sky : Mais les répercussions sont quand même vachement énormes !

Benjamin Bayart : Non, je suis pas d’accord.
Je vais prendre un exemple un peu moins dramatique. On ne va pas parler de gens qui bombardent et de gens qui meurent. Regardons ce qui sert à fliquer les gens et à surveiller les bénéficiaires des allocs pour essayer de détecter les fraudes. On fait ça avec de la détection informatique basée sur les dossiers. La Quadrature du Net a publié des trucs vachement intéressants là-dessus, un dossier que je n’ai pas suivi de près, mais je sais qu’il est vachement intéressant. Ils ont réussi à obtenir la publication d’un certain nombre d’éléments de la Caisse d’allocations familiales via la Cada, en amenant tous ces braves gens devant les tribunaux. La Quadrature ne travaille jamais avec des leaks, pas officiellement. Parfois, on reçoit des informations dont on ne parle pas, du coup on sait ce qui est dedans, mais ce qui est intéressant c’est de les obtenir en officiel. On constate que les algos qui servent à détecter les fraudes ont tendance à dire que ce sont les pauvres qui fraudent. Donc, quand tu es pauvre, précaire, etc., tu as beaucoup plus de chances d’être contrôlé et d’être soupçonné de fraude. C’est un biais. Que ce soit fait par une intelligence artificielle ou pas une intelligence artificielle, ce n’est pas ça le problème, le problème ce n’est pas l’outil, c’est qu’on utilise un outil, en gros pour faire du mal aux gens

Sky : Pas pour faire du mal aux gens ! Pour optimiser, je me fais l’avocat du diable.

Benjamin Bayart : Non, pour faire du mal aux gens : le contrôle Caf ça fait du mal. Les contrôles et les tracasseries administratives, c’est extrêmement pénible et désagréable.

Sky : Mais le fraudeur social fait du mal aussi !

Benjamin Bayart : En fait, il se trouve que la majorité des gens qu’on contrôle sont en règle, ils n’ont rien fait de mal. Du coup, on embête des tas de braves gens pour pas grand-chose. C’est comme le contrôle d’identité : un policier qui te demande tes papiers ne te fait pas de mal, parce que tu es un monsieur, tu es blanc, tu parles français sans accent ; si jamais un policier te demande tes papiers, ce qui a dû t’arriver peut-être trois fois dans ta vie parce que tu es conducteur et, dans la rue, dans Paris jamais, il ne te fait pas de mal. Mais quand c’est trois fois par jour parce que tu es rebeu dans une cité, ce n’est pas le même jeu, en fait, là, il te fait du mal. Il ne te fait pas du mal parce qu’il t’a demandé tes papiers, il te fait du mal parce qu’il te demande tes papiers tout le temps, trois fois aujourd’hui, mais c’était aussi trois fois hier et ce sera aussi trois fois demain. Et c’est le même flic ; il sait très bien qui tu es et il sait très bien que tu es en règle. Il a juste envie de te faire chier, il en a le pouvoir, il le fait ! C’est le même jeu avec la Caf.

Sky : Ils ne sont pas tous chiants les flics ! Il y en a des sympas, qui font bien leur boulot !

Benjamin Bayart : Non, pas tous ! Il y a aussi des poissons qui volent.

Sky : Non, il y a des flics sympas, vraiment, qui essayent de faire leur boulot, qui sont dévoués, qui travaillent dans des locaux où ça pue le pipi, avec de la peinture cloquée, avec peu de moyens, avec des caisses qui sentent le moisi. ll y en a beaucoup

Benjamin Bayart : Sans doute ! Le problème n’est pas là. C’est une question de rapport de domination et d’usage de la force. C’est une posture dans laquelle tu peux faire usage de la force, c’est admis, ça fait partie des outils à ta disposition.

Sky : La violence légitime.

51’ 08

Benjamin Bayart : C’est autre chose. La violence légitime, c’est t une référence à un texte de Max Weber, il faudrait aller relire le texte, parce que la référence n’est pas si claire que ça et, surtout, elle ne s’utilise pas dans ce sens-là.
Il y a un usage possible de la force, donc, il peut y avoir un abus, comme toujours dans une position de force. Quand tu es dans un rapport de force ou c’est toi le plus fort des deux, il est possible que tu en abuses et toute la difficulté c’est comment on fait pour s’assurer que tu n’en abuses pas.

Sky : L’éducation ?

Benjamin Bayart : Non, plus exactement ça ne suffit pas. L’éducation c’est ce qui permet d’essayer de s’assurer qu’il reste un rapport d’égalité et que tu n’ailles pas utiliser le fait que tu es plus grand et plus costaud que moi pour me mettre une droite. Ça, c’est plutôt de l’ordre de l’éducation. Mais si on te met dans une position de pouvoir et qu’on te donne un outil de pouvoir, s’assurer que tu n’en abuses pas, c’est plus du contrôle et le contrôle est légitime : on t’a donné un outil, il est dangereux, on vérifie que tu ne fais pas de la merde avec. C’est plutôt légitime.
À partir du moment où le contrôle devient défaillant, des tas de trucs dérapent. En fait, il suffit d’un qui fait de la merde et de dix autour qui font semblant de ne rien voir, parce qu’on ne va pas dénoncer un collègue qui fait de la merde pour que, là, on ait une situation qui est très vite pourrie. Tu en as qui fait de la merde, tu en as dix qui regardent ailleurs et tu en as 100, autour, qui ne peuvent plus bosser sérieusement parce qu’ils ne sont plus pris au sérieux, parce qu’ils sont tous considérés comme toxiques.
C’est partout pareil : le petit chef qui harcèle son assistante, c’est exactement le même problème, c’est exactement le même jeu. Il a un outil de pouvoir, son rôle de petit chef, il s’en sert pour faire du mal et si personne ne regarde quand le problème survient, si personne n’intervient quand quelqu’un lève le doigt en disant « ça ne va pas », tout de suite ça part très vite très mal, parce que plus personne ne l’arrêtera jamais dans ces conneries.

Sky : Au niveau de l’intelligence artificielle, est-ce qu’il y a des instruments de contrôle ? Est-ce qu’il y a des gens capables de soulever le capot pour savoir comment ça se passe ?

Benjamin Bayart : Non, c’est ce que je disais au départ : le principe même de l’intelligence artificielle, c’est qu’on ne comprend pas ce que ça fait. Si on comprenait ce que ça fait, on saurait le faire sans utiliser tout le bazar d’intelligence artificielle.
Si on a une méthode calculatoire où on sait que quand la distance entre le point bidule et le point truc, divisé par la distance entre trucs, multiplié par la surface racine carrée de l’âge du capitaine, et donc alors, si c’est supérieur à 23,2, vous avez un cancer, quand on sait faire ce calcul-là, on ne s’emmerdera pas avec une intelligence artificielle ; on fait le calcul, on trouve la réponse et on donne la réponse. Tout l’intérêt de l’intelligence artificielle, c’est quand on ne sait pas faire le calcul. On n’a pas un truc hyper fiable qui permet de faire le calcul et de dire « la réponse c’est ça ». On va donc utiliser cette espèce d’outil, basé sur des statistiques, qui produit un résultat dont on ne sait pas bien d’où il sort, mais qui n’est pas trop déconnant en moyenne et qui, du coup, servira de base à dire qu’on suspecte. En général, typiquement, si on veut faire de la détection de cancer, on va le régler un petit peu chatouilleux, donc, il va en détecter deux fois trop. Ce qui est intéressant c’est qu’il ne laisse pas filer quelqu’un qui a un tout début de cancer et qu’on n’arrive pas à attraper. On va donc régler un tout petit peu trop fin pour capter un peu trop de gens et on fera des analyses sérieuses et puis on verra. OK, il n’y a rien, c’était une ombre, ce n’est pas grave. Ça, c’est de l’usage qui se passe bien.
Mais dès que tu veux faire du contrôle social, tu n’es plus au même endroit. Pour moi, ce n’est pas tellement une question d’intelligence artificielle, c’est une question d’usage de l’informatique. Si tu veux faire prendre une décision par un ordinateur, tu es dans l’erreur ; un ordinateur, ça ne sert pas à ça.
Un ordinateur n’est jamais responsable d’une décision, c’est un outil ; c’est un outil comme un marteau ou une poêle à frire ; ce n’est pas la poêle à frire qui est responsable du fait que c’est trop cuit et que ce n’est pas bon ! Non, c’est moi qui cuisinais et si je ne maîtrise pas mon outil, c’est de ma faute, il faut que je prenne un outil que je maîtrise.
Si je décide d’utiliser un ordinateur pour faire quelque chose, le fait que je le fasse avec un ordinateur est, pour moi, une information non pertinente. Ce qui est pertinent c’est : j’ai décidé de prendre un outil pour faire ça, et ça c’est de ma faute, ce n’est pas de la faute de l’outil. Que tu le fasses avec une intelligence artificielle, sur une feuille de calcul avec un tableur, je m’en fous ! Tu as décidé de prendre un outil pour faire ça et, ce que tu es en train de faire, c’est bien ou ce n’est pas bien.
Typiquement, essayer de détecter la fraude des petites gens, je ne suis pas sûr que ce soit le truc le plus urgent ; aller attraper de l’évasion fiscale me semblerait plus intéressant et ce n’est pas de l’intelligence artificielle qu’il faut.

Sky : Ce sont des vrais enquêteurs.

Benjamin Bayart : Il n’y a pas besoin d’enquêter beaucoup. Pour comprendre que l’Irlande sert à faire de l’évasion fiscale, il n’y a pas besoin d’enquêter, on n’appelle pas ça enquête quand tout le monde est au courant. Le fait que le Luxembourg est un paradis fiscal, il n’y a pas besoin d’une enquête, on ne va pas réveiller Sherlock Holmes ! Ou la Belgique sur certains trucs. Les 1000 techniques, les niches fiscales qui permettent à tout un tas de braves industriels méritants de mettre des milliards de côté, ce n’est pas belge, c’est français. Les 200 milliards d’aides diverses et variées que l’État verse aux entreprises sous une forme ou sous une autre, ce n’est pas belge, c’est chez nous !
Pour moi, ce qui est intéressant c’est ce qu’on fait. Il n’y a pas besoin d’une intelligence artificielle pour détecter de la fraude fiscale, pour savoir où elle est, pour savoir où on va aller la chercher, où on va corriger l’optimisation et où on va aller attraper le fait que telle ou telle boîte ne paye pas ses impôts alors qu’elle devrait et qu’elle a de l’activité en France. Ça me paraît plus urgent.

Sky : On saute du coq à l’âne. L’intelligence artificielle générative, pas générative, pour créer du contenu vidéo, vocal, pour faire parler les gens, leur faire dire n’importe quoi, faire de la fake news, qu’avons-nous fait pour endiguer ? Comment fait-on ?

Benjamin Bayart : On ne peut pas endiguer ça ! Comme disait George Washington, il faut se méfier de ce qu’on voit sur Internet.

Sky : George Washington n’avait pas Internet.

Benjamin Bayart : Non ! Tu vois qu’il n’y a pas besoin d’une intelligence artificielle ! C’est un mème qu’on voit tourner sur les réseaux sociaux depuis au moins 20 ans, la photo de George Washington avec « Méfiez-vous de ce que vous voyez sur Internet ».
Le fait qu’on s’amuse à utiliser de l’intelligence artificielle pour générer de la voix, de la vidéo ou des textes. Tu demandes à ChatGPT « écris-moi un texte à la manière de Desproges », il va t’écrire un texte avec deux/ trois tournures de phrases qu’il sera allé pomper dans Desproges et ça collera. Pour moi c’est pareil, ça dépend de ce que tu veux en faire. Ce que fait Alex Vizorek quand il fait raconter des grosses conneries à Gérard Larcher, ça me fait mourir de rire, mais c’est évident que c’est un fake.

Sky : C’est évident pour toi.

Benjamin Bayart : Non, c’est évident pour tout le monde et il le dit. Quand Alex Vizorek présente le truc, tu sais bien que tu es dans une chronique humoristique, il explique que ça a été produit avec un système d’intelligence artificielle pour faire dire des grossièretés à Gérard Larcher et je trouve que c’est très rigolo.

Sky : Est-ce que tu te souviens quand il y avait un petit astérisque sur l’écran qui disait « réalisé avec trucage » ? On imagine qu’on le spécifiait parce que certaines personnes, dans la population, prenaient ça pour argent comptant.

Benjamin Bayart : Oui, mais elles prennent pour argent comptant des fake news et il n’y a pas besoin de passer par une intelligence artificielle. Je te rappelle que Christine Boutin a réagi à certains articles du Gorafi parce qu’elle croyait que c’était vrai. Pourtant Le Gorafi, c’est quand même assez gros !

Sky : D’ailleurs les titres de presse s’en rapprochent de plus en plus. C’est quand même dingue !

Benjamin Bayart : Eh oui ! La réalité s’est gorafiée ! Dans quel monde vivons-nous !

Sky : Je te pose la question : dans quel monde vit-on ?

Benjamin Bayart : Je ne sais pas. Comment peux-tu expliquer que les déclarations de nos politiques ressemblent de plus en plus à ce qu’on lisait dans Le Gorafi il y a dix ans ? Il faut demander à nos politiques.

Sky : Comment expliques-tu que la population tolère ça ?

Benjamin Bayart : On n’a pas le choix et je ne trouve pas qu’elle tolère beaucoup.

Sky : Tout va bien !

Benjamin Bayart : Non !

Sky : Donne-moi des exemples, mis à part les étudiants qui font la queue pour essayer de bouffer.

Benjamin Bayart : Ce n’était pas dans ce sens-là parce que ça, ce n’est pas une question de tolérer, il faut bien faire la queue pour aller bouffer. Il va bien falloir qu’ils mangent et ils n’ont pas de pognon. Avec l’inflation, ça ne va pas s’arranger, mais Bruno Le Maire a demandé, du coup, tout va bien !

Sky : Tu as ton jeu de cartes avec toi ? Tu connais ce jeu de cartes ? La carte « Bruno demande », magnifique.

Benjamin Bayart : Non je ne connaissais pas, mais c’est bien, on peut faire des jeux à partir de ça dans les soirées. Il y a aussi une carte ? Ils ont fait un numéro vert ? Comment ça se passe ?
Je ne trouve pas que les gens tolèrent ça. On est juste dans un mode de fonctionnement extrêmement étrange. Il y a une offre politique qui est mauvaise, pas nulle, mais faible, on va dire. On vit de plus en plus dans un système extrêmement bizarre ou, une fois tous les cinq ans, on te demande de choisir le moins pire et, une fois qu’il est élu, il croit qu’il a les pleins pouvoirs. Ce n’est pas ça une démocratie, ce n’est pas comme ça que ça fonctionne. Il y a deux trois bases dans Montesquieu qui expliquent que ce n’est pas comme ça que ça marche. On n’élit pas un tyran tous les cinq ans, ce n’est pas ça l’histoire. En théorie, il faut quelques contre-pouvoirs, des systèmes institutionnels, etc.

Sky : Est-ce que la cagne numérique de l’intelligence artificielle va aider la classe politique ?

Benjamin Bayart : Non, pas plus pas moins. Ça les aidera à ne pas assumer, ça peut-être.

Sky : Ce n’est pas George Washington, c’était Lincoln.

Benjamin Bayart : Tu es sûr que cette citation était d’Abraham Lincoln. Il me semblait que c’était Washington.

Sky : Je demande à faire fack chacker.
Tu veux une petite question d’internet ? Tu en veux une comment ? Je la prends au pif ? Que pense-t-il du système politique suisse ?

Benjamin Bayart : Je connais mal. Ce que je connais du système politique suisse, c’est ce qu’en raconte Thomas Wiesel, globalement, dans ses chroniques sur la RTS.

Sky : Il est marrant.

Benjamin Bayart : Il est marrant, je ne dis pas le contraire.
Ça a l’air vachement intéressant. Il y a une très chouette chronique de Marina Rollman sur la démocratie française, qui fait deux/trois parallèles, que je trouve très intéressants, avec la mécanique suisse. Ils ont des institutions beaucoup plus contraintes qui, du coup, peuvent un peu moins partir en cacahuètes. C’est rigolo, parce que le fait qu’il faut contraindre le pouvoir c’est une théorie inventée en France. C’est-à-dire que le pouvoir doit être découpé en trois et il faut que les trois pouvoirs se contrent et s’équilibrent. Il faut non seulement une séparation des pouvoirs, mais il faut un équilibre des pouvoirs, donc que exécutif, judiciaire, législatif, soient séparés, contraints, etc. C’est tout le principe du fonctionnement d’institutions démocratiques dans une société ouverte. En fait, il faut que tu emportes la société dans une direction si tu veux faire quelque chose, si tu veux faire un changement majeur. Il va donc falloir que tu négocies. Le fait que tu sois tout seul d’avis qu’il faut changer l’âge de la retraite, si tous les autres t’expliquent que tu déconnes, eh bien tu arrêtes

Sky : C’était Lincoln. J’ai vérifié.

Benjamin Bayart : C’était Lincoln ? J’ai un doute. Je pense que c’est Lincoln qui citait Washington.
C’est un truc que je trouve intéressant dans le modèle suisse. Ils ont un pays qui est grand comme un mouchoir et ils ont quand même réussi à le découper en 27 cantons avec quatre langues, c’est un truc de dingue. Je ne sais même pas à quoi ressemble le romanche, qui est une des quatre langues de Suisse, je ne sais même pas, sur le plan sonore, à quoi ça ressemble. Je sais à peu près à quoi ressemble le suisse allemand parce que Marie-Thérèse Porchet fait deux/trois morceaux en suisse allemand que je trouve OK. On voit à quoi ça ressemble.
Cet équilibre-là, le fait que ce soit coupé en 27 cantons autonomes, qui ont, à chaque fois, un pouvoir exécutif, législatif, plus un pouvoir fédéral, ça crée une espèce de millefeuille qui m’a l’air relativement résilient, c’est-à-dire que ça ne peut pas partir complètement en cacahuètes parce qu’il faudrait pas embarquer les 27 cantons, plus le système fédéral, toute une mécanique. Le pouvoir n’est détenu par un seul pépère qui va décider tout seul dans son palais. Je trouve ça plus sain de ce point de vue-là.

Sky : Revenons sur du un peu plus tech. Quand tu vois que nos données de Sécu, nos données de DF sont stockées aux États-Unis, ça te fait penser à quoi ? Pourquoi fait-on ça ? Qu’est-ce que ça anticipe ? Qu’est-ce que c’est que ça ?

1 h 06’ 43

Benjamin Bayart : Tu as plein de questions contenues dans ta question.
Qu’elles soient stockées aux États-Unis, je m’en fous, elles pourraient être stockées en Patagonie, ce qui m’intéresse c’est ce qui leur arrive.

Sky : Parlons du stockage.

Benjamin Bayart : Les histoires des données.
En fait, tu as plein de strates différentes qui sont des choses à chaque fois particulières.
Typiquement sur la Sécu, pour le coup on pourra se faire un chapitre sur le Health Data Hub et sur ce qu’on est en train de faire avec, c’est rigolo.
Les données d’EDF, c’est complètement autre chose. EDF a confié, récemment, un certain nombre de données, apparemment non critiques à ce qu’ils disent, j’y crois mollement, dont les systèmes vont être hébergés sur Amazon. Je trouve ça très embêtant en termes de souveraineté. On a bien vu qu’être capable de produire de l’électricité, y compris en cas de conflit, genre, par exemple, quand on se fâche avec son marchand de gaz – je ne sais pas si c’était prévisible. On avait un marchand de gaz, c’est donc quelqu’un qui a du pouvoir sur nous et le jour où on se fâche avec lui, il faut être capable d’assumer !
Je n’aimerais pas qu’on soit, pour la production d’électricité en France, dans la main de quelqu’un, que tel ou tel pas gentil décide de fermer le service et que, du coup, on se retrouve dans la mouise.

Sky : D’augmenter ses prix.

Benjamin Bayart : Augmenter ses prix, à la rigueur, il faut voir, parce que tu as toujours des fournisseurs, il va bien falloir que tu en dépendes, il va bien falloir que tu gères. Ça m’embêterait que le jour où les Américains sont fâchés contre nous ils puissent mettre en panne EDF et nous mettre dans la mouise.

Sky : Ce qu’ils avaient fait avec la guerre en Irak et nos porte-avions.

Benjamin Bayart : Qu’ils jouent avec nos porte-avions, je m’en fous, ce sont des histoires de militaire, on n’a pas besoin de militaires pour manger, on ne mange pas du militaire, alors qu’on a besoin d’électricité pour se chauffer. Du coup, s’il n’a pas d’électricité l’hiver, ce n’est pas bien et les gens meurent. C’est un outil stratégique et pas que stratégique pour l’industrie, alors que s’ils nous prennent nos porte-avions ou qu’ils les cassent ou qu’ils les mettent en panne ! C’est très embêtant quand on est en guerre, mais on n’est pas en guerre :

Sky : Pas encore !

Benjamin Bayart : Ce n’est pas le même jeu. Je trouve toujours cela un peu embêtant, quand il y a un outil vraiment important comme ça. De ce que j’ai compris, ce qu’EDF a bazardé chez Amazon, ce ne sont pas des systèmes vitaux, ce ne sont pas des systèmes qui permettraient de couper la production ou quoi. Je trouve ça con. Toute la filière électronucléaire en France se porte bien parce que, en gros, on a forcé à fabriquer un modèle public.

Sky : Ça se porte bien parce qu’il y a des gens qui travaillent à l’intérieur.

Benjamin Bayart : Bien sûr ! Évidemment ! Si on n’avait pas forcé EDF à acheter des centrales françaises, produites avec telle ou telle entreprise, donc à monter tout un écosystème industriel…

Sky : À la base tu sais pourquoi.

Benjamin Bayart : Entre autre pour du militaire, mais pas que, c’est plus riche que ça. Ce n’est pas que du militaire, il y a un petit peu de militaire dedans parce que c’est très pratique d’utiliser le pognon des militaires pour faire de la bombe atomique, pour développer d’autres techniques. Aller pomper du pognon aux militaires pour faire des trucs intelligents, ça se fait, c’est comme ça qu’on a fait Internet. Tu imagines bien que les anarcho-gauchistes, bouffeurs de LSD, qui ont fait internet, quand ils ont pu récupérer du contrat militaire, ce n’était pas parce qu’ils aimaient l’armée, c’est parce qu’il y avait du pognon à piquer aux autres pénibles à képi et puis voilà ! Il ne faut pas le comprendre autrement. Le passé militaire d’Internet et d’Arpanet c’est ça, ce sont des hippies qui ont récupéré du pognon là où il y avait moyen, il se trouve que ce sont les militaires qui en avaient, ce n’est pas beaucoup plus compliqué que ça, historiquement.

Sky : Maintenant, les militaires militarisent Internet.

Benjamin Bayart : Non, ils utilisent Internet comme étant une infrastructure essentielle, ils s’en servent pour des communications, ils s’en servent pour faire la guerre, ils s’en servent pour déstabiliser les pays, comme on se servait de la presse pour déstabiliser les pays, comme on se servait de la télévision pour déstabiliser les pays, c’est le même jeu. Donc oui, bien sûr ! Les pays font ça, ils cherchent à avoir de l’influence, ce n’est pas complètement nouveau.
Si je step back, si je fais un pas en arrière, ce qui fait que la filière nucléaire tient debout, ce n’est pas parce qu’on a cherché à faire le plus rentable ou le plus simple techniquement, sinon on aurait acheté des réacteurs chez Westinghouse au lieu de juste leur acheter des brevets et de la techno et la France vivrait en achetant des réacteurs américains et en les faisant installer par des entreprises américaines en France ; en France, évidemment, parce que si tu mets le réacteur nucléaire sur la côte est des États-Unis et qu’il faut pousser l’électricité dans un câble jusqu’à Paris, ça ne fonctionne pas. On ne peut pas faire 6 000 km avec un câble à haute tension, c’est trop chiant, il y a trop de pertes.
On a décidé de développer une filière industrielle. Tout le monde électronucléaire en France et EDF, en tête, existe parce qu’on a fait le choix d’être autonomes industriellement et de développer notre industrie, même si, au départ, ce n’était pas la meilleure, et c’est parce qu’on a décidé de développer notre industrie qu’elle est devenue la meilleure. Ça moi ça me fait chier.

Sky : Ça t’ennuie.

Benjamin Bayart : Non, ça me fait chier – toi tu es politiquement correct, moi pas – que ces gens-là aillent acheter de l’informatique, qui ne marche pas forcément mieux, à des entreprises américaines alors qu’il y a des boîtes très compétentes en France, qui ont besoin de se développer, qui seraient ravies d’avoir des gros contrats, stables, avec des grandes entreprises, de faire du codéveloppement technologique, de participer et d’intégrer du produit et des affaires.

Sky : C’est la deuxième partie de ma question : est-ce qu’on est en train d’aller mettre nos data aux États-Unis ?

Benjamin Bayart : Qu’on les mette aux États-Unis, je m’en fous, ce n’est ça le problème. Mon problème, c’est qu’on ne fait pas se développer le système économique en France sur ce sujet alors qu’on a des gens très bons.

Sky : Je vais me faire l’avocat du diable : est-ce qu’on ne fait pas ça parce qu’on n’est pas capable de les sécuriser proprement ?

Benjamin Bayart : Non, ce n’est pas vrai ! Le dernier rapport dont Internet rigole ces jours-ci sur Microsoft mal sécurisé et ça fait grogner je sais plus quelle haute autorité américaine, c’est Microsoft, ce n’est pas pinpin informatique, Place du Châtelet à Paris ! Donc non, ce n’est pas vrai. Évidemment que nos entreprises ont des problèmes de sécurité en matière d’informatique, comme tout le monde !

Sky : Pourquoi ne le fait-on ? De l’incompétence ? Du défaitisme ?

Benjamin Bayart : Non, je ne crois pas. Il y a plein de petits facteurs qui s’accumulent. Le fait qu’on croit qu’on ne sait pas faire. Le symptôme de ça, c’est Cédric O qui est persuadé qu’en France on ne sait pas faire d’informatique.

Sky : Cédric O est l’ancien secrétaire d’État au Numérique qui, maintenant, est parti dans le privé.

Benjamin Bayart : Oui. Il est VRP chez Microsoft, un truc dans ce goût-là.
C’est symptomatique. Beaucoup de dirigeants d’entreprises croient qu’en France on ne sait pas faire d’informatique, alors que ce n’est pas vrai. En France, on sait faire de l’informatique, on sait former des ingénieurs, on a des ingés qui ne sont pas mauvais, ce ne sont pas les meilleurs du monde, mais ce ne sont pas les plus mauvais non plus. Je connais beaucoup d’ingénieurs français qui sont partis travailler dans des grandes entreprises américaines, je ne connais pas beaucoup d’ingénieurs américains qui sont venus travailler en France. Donc, à priori, c’est plus intéressant de venir débaucher nos ingénieurs que d’aller débaucher les leurs.

Sky : C’est moins cher !

Benjamin Bayart : Ce n’est pas si clair !

Sky : Comment fait-on pour récupérer la souveraineté numérique proprement ? On commence à se pointer aux pieds du ministère, on leur dit « écoutez ça suffit », il faut s’agglomérer d’une façon un peu plus offensive ? On commence à leur mettre le nez dans leur caca ? Que fait-on ?

Benjamin Bayart : Pour moi, ce n’est pas une histoire de souveraineté. C’est comment faire pour avoir une économie du numérique en France. Eh bien, simplement, en ayant une politique industrielle. Comment font les Américains ? Il y a de la commande publique. Tu crois que Microsoft vit et a fait toute sa croissance avec de la commande privée ? Mon cul ! Toutes ces entreprises vivent de la commande publique, ont de la commande publique à gros bouillons, y compris de la commande militaire et protégées par l’arsenal législatif qui va bien aux États-Unis, l’extraterritorialité du droit américain. Du coup, c’est ça qui leur permet d’avoir une base de commandes qui leur a permis de se développer, il ne faut pas se leurrer. Je n’aurais pas de problème à dire qu’on flèche la commande publique française pour aller plutôt sur des entreprises qui font des choses intéressantes et qui sont capables de développer les bons produits. Après, il faut toujours se méfier, quand tu flèches la commande publique sur un certain nombre d’acteurs protégés, ils peuvent avoir tendance, du coup, vu qu’ils sont certains d’avoir la commande, à faire de la merde et à ne pas faire d’efforts, etc., il y a donc un peu de travail. Mais on sait faire une filière économique, on a su le faire et on saurait encore le faire.

Sky : N’a-t-on pas perdu les savoirs ? Ne penses-tu pas que cette nouvelle génération qui nous dirige, ou qui est arrivée au pouvoir, ce ne sont plus que des petits arrivistes sans aucune conscience patriotique de l’avenir de nos enfants, de l’avenir de la France ?

Benjamin Bayart : Je ne suis pas sûr que le terme « patriotique » soit très utile à cet endroit-là.

Sky : Qu’est-ce que tu utiliserais comme terme ?

Benjamin Bayart : Je n’en sais rien.

Sky : Pour développer le thermonucléaire en France, ils étaient patriotes !

Benjamin Bayart : Je ne sais pas si c’est patriote. Je ne sais pas s’ils seraient partis en guerre contre les méchants Allemands pour défendre le nucléaire en France ; ce n’est pas ça patriote. Oui, il y a un intérêt bien senti à ce que nous soyons capables de. Je n’appelle pas ça du patriotisme. Le patriotisme, c’est mon Pépé qui faisait la guerre contre les Allemands. Ce n’est pas le même jeu !

Sky : Ton Pépé t’a raconté des histoires de guerre ?

Benjamin Bayart : Pas tellement, non, il n’en parlait pas.

Sky : Je peux te poser une question internet : l’intelligence artificielle pourra-t-elle devenir juge ou bien à un poste comme président de la République ?

Benjamin Bayart : Pour moi, ça n’a rigoureusement aucun sens. Si on veut partir dans du délire futuriste et du fantasme, il y a un truc où ça a du sens, mais ce n’est pas ce qu’on appelle, aujourd’hui, intelligence artificielle, c’est une vraie intelligence artificielle, une vraie intelligence, une intelligence consciente avec tout ce que ça implique, où on pourrait imaginer qu’un ordinateur suffisamment puissant pour être intelligent et conscient présenterait deux/trois intérêts, deux/trois avantages par rapport à nos petites intelligences animales, du coup, on pourrait confier à cet ordinateur-là les rênes de deux ou trois trucs. Mais, pour le moment, il n’existe pas du tout, il est complètement fantasmagorique. Il y a un bon récit de ce truc-là dans les bouquins de Iain Banks, dans un truc qui s’appelle Cycle de la Culture, de la très bonne science-fiction.

Sky : Est-ce qu’en continuant l’expérience de pensée qu’on a maintenant, ça présente des risques ou pas ?

Benjamin Bayart : On est en train de parler d’un truc qui n’existe pas. Est-ce que ça représente un risque de confier telle ou telle fonction au Père Noël ? Ça n’a pas de sens, puisque ça n’existe pas

Sky : Tu viens de casser tous nos rêves !

Benjamin Bayart : Pour répondre à la question internet : est-ce que ça aurait du sens de confier ce genre de rôle à une intelligence artificielle ? Eh bien non, puisque cette intelligence artificielle a été fabriquée par quelqu’un, cet ordinateur, appelons ça un ordinateur, a été fabriqué par quelqu’un qui a choisi comment il était paramétré, qui a choisi sur quoi on l’entraînait dans le cadre de l’apprentissage d’une intelligence artificielle. C’est donc confier le pouvoir à ce quelqu’un, qu’on l’élise président de la République ! Après, si le président de la République n’a pas envie de faire son taf, parce qu’il est mieux à faire la sieste et, du coup, il met un ordinateur à sa place, c’est quand même lui qui est responsable et c’est une très mauvaise idée. Donner un pouvoir de décision à un ordinateur, ce n’est pas bien ! Un ordinateur, ce n’est pas fait pour ça, ce n’est pas fait pour décider !

1 h 20 min 12

Sky : Quand tu vois les Chinois commencer à implémenter l’intelligence artificielle sur leurs réponses aux agressions de tout genre, est-ce que ça peut partir en sucette sur un flou positif ?

Benjamin Bayart : Je vois pas, je ne sais pas, je ne connais pas le cas.

Sky : Question internet : la dissuasion nucléaire avec une intelligence artificielle, est-ce que ça peut être dangereux pour l’humanité ?

Benjamin Bayart : Ça n’a, pour moi, aucun sens. Dire que c’est un ordinateur qui va décider tout seul de lancer la bombe atomique, c’est de la merde en barres. Que l’ordinateur le décide tout seul en s’appuyant sur de l’intelligence artificielle ou sur autre chose, quel que soit ce sur quoi il s’appuie, ce n’est pas acceptable. C’est un humain qui est responsable et je préfère que ce soit l’humain qui appuie sur le bouton plutôt que l’humain qui a programmé le système qui décidera tout seul, mais, à la fin, c’est toujours un humain qui est responsable.

Sky : Maintenant, ils sont responsables mais pas coupables ! Tu connais le principe.

Benjamin Bayart : Oui, je connais le principe, je ne suis pas d’accord, mais je connais le principe.

Sky : Question internet : « Bonjour en tant que radiologue et développeur d’intelligence artificielle, j’ai codé plusieurs logiciels de segmentation de e-reconnaissance d’images. Je me permets un commentaire : les IA, actuellement, sont quasiment du niveau du radiologue des fois au-dessus, des fois en dessous. Pour l’instant, le radiologue est encore nécessaire pour regarder les détails non connus par l’intelligence artificielle, mais pour combien de temps ? Ma question : vis-à-vis de sa description de l’intelligence artificielle en tant que processus statistique, quelle différence avec le vivant ? Dire que l’intelligence artificielle n’est que de la stat, n’est-ce pas juste une façon d’éviter le sujet ? Notre cerveau est une machine à produire des statistiques, il se trompe régulièrement, il est aussi dur de dire comment il fonctionne.

Benjamin Bayart : Si on appelle vivant tous les process qu’on ne comprend pas, ça ne va pas le faire, ce n’est pas ça le vivant. Pour moi ça règle cet aspect-là de la question.
L’autre l’autre aspect, qui, pour moi est vraiment l’aspect intéressant, c’est l’espèce d’inquiétude derrière « il y a encore besoin de radiologues, jusqu’à quand et qu’est-ce qu’on fera après, une fois qu’il n’y aura plus besoin de radiologues ? ». Pour moi, à partir du moment où il n’y aura plus besoin de radiologues, le système va s’arrêter de fonctionner. Il n’y aura peut-être pas besoin de beaucoup de radiologues, mais il y a deux choses absolument fondamentales : il faut quand même des gens capables d’entraîner l’intelligence artificielle.
Aujourd’hui, on a appris mettons à un tel programme à détecter telle forme de cancer ou telle forme de maladie dans une radio. Très bien. Mais la médecine change, la médecine évolue, donc dans 20 ans, 30 ans, 40 ans, il faudra qu’on apprenne à détecter d’autres problèmes sur d’autres formes d’imagerie médicale. Et, en fait, il faudra bien qu’on soit capable d’entraîner la machine, donc, il faudra bien qu’on soit capable de présenter à la machine des images qu’on a qualifiées et qui, par définition, n’auront pas été qualifiées par la machine. Ou bien on entraîne la nouvelle machine à partir des résultats de l’ancienne, au risque de faire toujours systématiquement un petit peu moins bien. Ou bien on l’entraîne à partir d’images qu’on a fait qualifier par des humains compétents. Pour le moment, le principe reste qu’il faut des humains compétents et je pense que ça ne changera pas. Peut-être qu’il faudra moins de radiologues et peut-être qu’il faudra des radiologues qui travailleront beaucoup plus sur des programmes de recherche pour entraîner les intelligences artificielles, pour apprendre à détecter des choses plus pertinentes sur des images, trouver comment il faut les cadrer, comment il faut régler tel ou tel paramètre, donc sur des trucs beaucoup plus pointus, et qu’il y aura moins besoin de radiologues pour détecter une fracture. Ça suppose qu’on a fini d’entraîner les intelligences artificielles pour détecter dans l’imagerie médicale tout ce qu’il faut y détecter, ce n’est pas pour tout de suite et je pense que pendant encore un bon moment l’intelligence artificielle se contentera d’entourer le machin en disant « ça c’est louche » et le radiologue fera « oui, ça c’est le cancer du monsieur, on sait qu’il a un cancer ». L’ordinateur aura juste mesuré tout seul, détouré la forme de la tumeur, son volume, l’âge du capitaine et que sais-je, mais il restera quand même le radiologue pour regarder pendant encore au moins un brave moment.

Sky : Question d’Internet : est-ce que la FDN héberge toujours un miroir de WikiLeaks.

Benjamin Bayart : C’est FDN, ce n’est pas « la » FDN. C’est la SNCF parce que c’est la Société Nationale des Chemins de Fer ; c’est la RATP parce que c’est la régie. C’est FDN parce que c’est French Data Network et « French » n’est pas un nom commun féminin en français.

Sky : Ça ne marche pas avec EDF.

Benjamin Bayart : Les anciens disaient l’EDF ou l’ÉDF. Ça fait longtemps que le miroir n’y est plus, parce que WikiLeaks n’a plus besoin de miroir. On avait monté un miroir de WikiLeaks à l’époque où WikiLeaks a été censurée très violemment. On avait fait en sorte qu’il y ait des miroirs partout. En tout cas, chez FDN, le miroir WikiLeaks n’est plus à jour depuis Mathusalem et demi.

Sky : Tu me dis un mot sur Assange et ce qui se passe en ce moment. Suis-tu ce qui se passe ?

Benjamin Bayart : Je suis de très loin.

Sky : Parce que tu es dégoûté, parce que tu en as marre, parce que ça n’avance pas, parce qu’on a perdu ?

Benjamin Bayart : D’abord, on a perdu. Le pauvre Julian est détruit. Si, un jour, il sort de prison, il est dans un tel état qu’il faudra le ranger, il est bon pour l’hospice. Le pouvoir a gagné, comme d’habitude ! Il a été détruit par la puissance américaine. Il a chié dans les bottes de l’armée américaine, du coup, il est détruit. Ils ne sont pas allés l’abattre en plein Londres.

Sky : Ils ont essayé, ils ont planifié. ??? [1 h 27 min 08]. C’est chaud.

Benjamin Bayart : Ils ont tenté, mais ils ne l’ont pas fait. C’est un dossier qui est juridiquement super compliqué, ils en sont dans les procédures d’extradition, d’appel, de droit américain, etc. ; ce sont des sujets que je ne connais pas assez bien.

Sky : Tu connais bien la France. Comment juges-tu la position de la France par rapport à ça ?

Benjamin Bayart : Il ne faut surtout pas qu’on lui donne le droit d’asile, parce que, chez nous, les opposants politiques des autres pays se font abattre.

Sky : Parce qu’on n’est pas capables de les protéger ? Ou parce qu’on les laisse se faire abattre ?

Benjamin Bayart : Je ne sais pas. Je constate que chez nous ils se font abattre, alors qu’à Londres non, donc, il est mieux à Londres.

Sky : Ou peut-être à Moscou.

Benjamin Bayart : Je suis pas sûr ! À Moscou, les gens qui ne plaisent pas au pouvoir se font abattre aussi.

Sky : Tu as peur pour Snowden ?

Benjamin Bayart : Tant qu’il est gentil avec Poutine, il ne craint rien, du coup, il est obligé d’être gentil avec Poutine.

Sky : Ou de fermer sa gueule.
Question internet : dans quelle mesure l’intelligence artificielle remplacera-t-elle l’homme au travail ? Quelles en seront les conséquences sociales ?

Benjamin Bayart : Je n’en sais rien. Il y a des trucs que je sais et qui ne m’amusent pas.
Pisser de la ligne de fausse presse écrite qui sert à faire des sites web tout nazes, qui servent de support publicitaire, avec des titres putaclics pour générer du trafic, tu peux le faire pisser par de l’intelligence artificielle, de toute façon tu t’en fous que ça raconte de la merde ! Les gens qui étaient payés à faire ça pourraient ne plus être payés. D’un côté, si ce truc-là s’arrêtait complètement, je ne serais pas bien triste !
Ce qui me fait très peur, c’est si des vrais boulots sont remplacés par de l’intelligence artificielle, ça c’est très dangereux, du vrai travail intelligent. Typiquement, si tu remplaces mon médecin généraliste par une IA, je vais être très inquiet. C’est extrêmement dangereux, parce que le travail du médecin c’est beaucoup plus que ses connaissances médicales, c’est plein de trucs compliqués.

Sky : C’est le rapport humain, c’est rassurer.

Benjamin Bayart : C’est plein de choses. Ça peut être de tenir le bon discours, au bon moment, savoir le faire, etc., et un ordinateur ne sait pas faire. Il y a donc beaucoup d’endroits où, quand on décide d’enlever des humains et qu’on met des machines à la place, ça donne quelque chose qui ne fait pas envie.
Quel est l’avenir de mettre des intelligences artificielles au travail et de faire perdre leur emploi à tout un tas de braves gens ? Je n’en sais rien, je trouve ça plutôt inquiétant, je ne suis pas du tout sûr qu’il y ait à y gagner de quelque façon que ce soit. Il y a quelques usages extrêmement intéressants de l’intelligence artificielle y compris de l’IA générative et les quelques usages vachement intéressants, je ne vois pas bien pourquoi on se les interdirait, à part, éventuellement, et c’est un vrai sujet, quel est le bilan de tout ça ? C’est-à-dire qu’est-ce que ça coûte, pas seulement en pognon ! Qu’est-ce que ça détruit comme quantité de ressources, qu’est-ce que ça consomme comme quantité d’informatique, d’électricité, d’ordinateurs, de machins, de trucs et de bidules ? À quel point ça détruit le monde pour produire un avantage potentiellement faible ? Si c’est juste pour faire un truc techno zinzin de plus qui ne sert à rien mais qui brille dans la nuit, ce n’est pas hyper intéressant.
Je suis un peu partagé parce qu’il y a en moi l’informaticien qui est resté un peu gamin et qui dit « c’est quand même chouette qu’un ordinateur soit capable de faire un texte aussi rigolo ». Tu demandes à ChatGPT la liste de tous les nombres premiers pairs, il t’en liste et c’est à mourir de rire de drôlerie !

Sky : C’est comme si tu demandais à Bruno Le Maire la surface d’un hectare.

Benjamin Bayart : Par exemple ! Et il va sûrement me répondre un truc qui sera probablement assez exotique !
Ça ne vaut pas le coup de faire fondre la banquise pour ça ! Est-ce que les quelques usages un petit peu intelligents de ce truc-là méritent qu’on détruise le monde ? Je ne suis pas sûr. Je ne suis pas complètement convaincu.

Sky : J’ouvre une parenthèse : n’as-tu pas l’impression que la classe politique occidentale, se retrouvant avec une marge de manœuvre équivalente à une feuille de cigarette, quand on la met au milieu des contraintes de ressources, de guerre économique, de comportement prédateur d’autres États, de dégradation du climat, dégradation des ressources en eau, de la faune, la chienlit dans laquelle on est, est en train de prier, de sortir du chapeau l’intelligence artificielle qui va essayer de l’aider pour éviter de se faire ravager par une population qui va être très fâchée de comprendre que, depuis les 40 dernières années on lui raconte un peu des conneries, juste pour maintenir une fonction exponentielle de croissance pour faire du chiffre, et j’en passe !

Benjamin Bayart : Par principe, quand tu es dirigeant politique, tu es soumis à des contraintes contradictoires où il n’existe pas l’espace de solutions. C’est comme ça. Je vais essayer d’expliquer un peu mon image parce que, pour moi qui aie fait des maths, elle est limpide, mais, pour les gens normaux, peut-être pas.
Tu peux avoir des contraintes du genre « il ne il faut pas que tu ailles au-delà de telle limite ». Tu traces un beau trait et tu as la limite ; et puis il ne faut pas que tu ailles au-delà de telle autre, il ne faut pas que tu ailles au-delà de telle autre et, là, tu as dessiné un triangle, et le triangle c’est l’espace de tes solutions. Non seulement les contraintes ne sont pas cohérentes entre elles, elles ne sont pas alignées, mais elles te définissent une surface dans laquelle tu as le droit : c’est la surface qui répond à tes trois contraintes. Tu peux avoir une surface qui devient toute petite, tu dis de l’épaisseur d’une feuille de cigarette, ce n’est pas vrai, la surface n’existe pas, la surface est nulle. Les contraintes sont contradictoires entre elles, elles sont très fortes et il n’y a aucun point qui satisfasse à toutes les contraintes et c’est comme ça depuis que le monde est monde. En fait, le travail d’un politique, le travail d’un système social – le système social, pas au sens sécu, au sens constitution, le truc qui structure la société –, c’est de chercher à dire lesquelles de ces contraintes sont plus ou moins importantes, comment elles doivent s’équilibrer, sachant qu’il n’existe pas de solution parfaite qui satisfasse toutes les contraintes, ce n’est pas possible, alors on va chercher des solutions pas trop pires, qui sont à peu près raisonnables, pour à peu près tout le monde, dans à peu près toutes les situations et où on va définir justement pas le consensus, parce qu’il y a des gens qui perdent.
Dans la Grèce Antique, on va définir que tous les citoyens sont à peu près égaux et ont le droit de venir partager participer sur le forum. Tous les citoyens ont le droit, mais il se trouve qu’il y a deux fois plus d’esclaves que de citoyens. Du coup, ça fait que pour aller ramasser le blé dans les champs, il y a du monde pendant qu’on bavarde sur le forum. Du coup, dans la société romaine, on peut s’amuser à avoir beaucoup plus de jours fériés que ce qu’on a maintenant, aujourd’hui, dans nos pays modernes, civilisés, parce que, de toute façon, les jours fériés ne concernent que les citoyens, ça concerne pas du tout les esclaves dans les champs. C’est une façon de résoudre les contraintes, on a désigné des perdants, ce sont les esclaves. Mais tu peux avoir d’autres façons de résoudre les contraintes.
Le poste même du politicien, du « dirigeant », entre guillemets, c’est de se retrouver face à ces contraintes avec un espace nul et de chercher une solution qui corresponde à la société dans laquelle il est.

Sky : Là tu parles d’un politicien dévoué corps et âme pour son pays, pour sa population.

Benjamin Bayart : Non, du fait qu’il n’y a pas de solution optimale, qu’il n’y a pas de solution idéale, il va chercher à faire le moins mauvais qu’il arrive à faire accepter et où la société n’explose pas ; c’est la définition du job. Après, il y a ceux qui le font et ceux qui ne le font pas. Une des solutions c’est, par exemple, le récit, c’esT De Gaulle qui vient te raconter un récit de la France et si la population adhère au récit, s’embarque et veut faire ça – le grand projet national et machin –, tu peux déplacer des montagnes. Une très grande masse de la société adhère au récit, tu as toujours deux/trois marginaux qu’il faut faire tabasser par les flics, mais tu as une grande masse de la société qui veut aller par là et qui veut faire ça. Ça peut marcher, c’est un des modèles.
L’autre seule solution c’est que tu n’as pas de récit, du coup tu as beaucoup plus de policiers qui tapent sur beaucoup plus de gens.
Cette espèce d’obligation de trouver une solution qui n’existe pas, d’essayer de satisfaire au mieux les tensions et de trouver un système un petit peu apaisé malgré les difficultés, c’est la base de la politique, ce n’est pas du tout spécifique à notre époque.

Sky : Ça te reste en travers de la gorge les Gilets jaunes !

Benjamin Bayart : Ça et le reste !

1 h 37’ 10

Sky : Question Internet : que faire de la gestion des données personnelles et de l’intelligence artificielle dans les pays qui n’ont pas les cadres juridiques comme dans l’Union européenne, par exemple en Afrique où les enjeux sont plutôt de l’ordre fondationnels ? Jusqu’où ça pourrait aller ?

Benjamin Bayart : Excellente question ! Sur le traitement des données personnelles et sur des bases de droit, je fais quand même un petit élément important de contexte. Si je prends comme point de référence ce qu’on fait en Europe, le droit européen sur les données personnelles, je considère que c’est le point central point, le point médian, parce que c’est nous et quand on dit « dans les autres pays », c’est bien par rapport à chez nous.

Sky : Mais on réglemente un truc, on n’a rien fait.

Benjamin Bayart : Si. Tu as énormément de droit, en Europe, autour des données personnelles. En France, depuis 1978, en Allemagne depuis 1971 et dans le droit européen depuis au moins 92/95. Ça fait donc un petit moment qu’il y a du droit solide. Ce n’est pas le RGPD 2016, applicable en 2018, c’est plus vieux que ça. On a du droit sur les données personnelles en Europe.
En fait, pour moi, tu as deux grandes catégories dans les pays autres.
D’abord, des gens qui font vraiment mieux que l’Union européenne sur les données personnelles, il n’y en a pas masse. Il y en a quelques-uns qui font vaguement aussi bien, souvent parce qu’ils ont recopié ce qu’on a fait, typiquement les Suisses. Ils n’ont pas trop fait les andouilles, ils ont pris le RGPD, ils ont fait un truc. Je trouve que c’est une méthode très maligne : ils prennent les compromis qui sortent de Bruxelles où 27 se sont foutus sur la gueule, ils disent « ils ont réussi à se mettre d’accord à 27 sur ça, c’est peut-être pas bête, on va regarder si, des fois, on ne pourrait pas se mettre d’accord à 27 cantons ».

Sky : On embrasse la Suisse, on les embrasse fort.

Benjamin Bayart : Il y a des pays où il n’y a pas de droit. Ils n’ont pas écrit de loi sur le sujet, du coup, l’État n’oblige pas à protéger les données personnelles. Là, pour moi, il y a besoin que les acteurs économiques qui vont jouer dans ces pays-là, en gros, décident d’eux-mêmes d’appliquer des règles protectrices et on peut, dans ce cas-là, bosser avec eux.
Et puis il y a des pays qui ont un droit qui porte atteinte aux données personnelles, ça c’est très particulier, c’est le cas américain. Les Américains ont écrit, dans le droit, que les services de renseignement pouvaient aller taper dans les données personnelles et surtout dans les données personnelles des étrangers. C’est une particularité du droit américain. C’est du droit américain, le droit américain c’est très particulier.
En France, on a la Déclaration des droits de l’homme, celle de l’ONU c’est la Déclaration universelle des droits de l’homme, en fait, ce sont des droits qui sont applicables à tout le monde, y compris quand tu n’es pas citoyen français, ce sont les droits de l’homme.
Aux États-Unis, le <em<Bill of Rights, ce sont les droits des citoyens américains et tout le droit américain est écrit comme ça. Le droit à un procès équitable, c’est pour les citoyens américains ; si tu n’es pas citoyen américain ce n’est pas sûr.

Sky : Si tu es Australien ?

Benjamin Bayart : Ce n’est pas sûr. C’est ce qui fait qu’à Guantánamo, on peut passer les gens à la moulinette, ils ne sont pas citoyens américains. S’il y avait un citoyen américain dans une prison de Guantánamo, ça foutrait la merde !

Sky : En plus, ce n’est pas aux États-unis.

Benjamin Bayart : Ce n’est pas sur le sol américain et, surtout, ce ne sont pas des citoyens américains, donc, on peut se permettre de les passer à la moulinette et c’est super important.

Sky : C’est pour cela que la Cour pénale internationale n’est pas reconnue par tout le monde ?

Benjamin Bayart : C’est plus compliqué que ça, ce n’est vraiment pas le même sujet.
Dans la protection des données personnelles, tu as beaucoup de pays qui sont moins protecteurs que l’Union européenne. Tu as quelques pays qui sont aussi protecteurs que l’Union européenne et puis tu as un pays très particulier qui interdit d’être aussi protecteur que l’Union européenne. Ce n’est pas la même chose que de ne pas avoir un droit positif pour protéger les données ; il y a un droit négatif qui interdit de protéger les données puisque tu dois les communiquer au gouvernement, etc. C’est donc très particulier.
Que donnera l’usage de l’intelligence artificielle ? Pour moi, la question des données personnelles dans l’intelligence artificielle est qu’une question secondaire. Si tu veux comprendre la quantité immense de risques à faire des bêtises avec de l’intelligence artificielle, il n’y a pas besoin de toucher aux données personnelles. Les données personnelles vont intervenir quand il s’agit de faire de l’apprentissage. Si tu veux entraîner ton modèle, il te faut donc des montagnes de données qui sont qualifiées et, entre autres, il te faut des montagnes de données personnelles. Typiquement, tu veux entraîner ton intelligence artificielle pour détecter des cancers dans de l’imagerie médicale, le seul moyen c’est de sortir des stocks et des stocks de dossiers, extrêmement bien annotés, qu’on puisse donner en entrée au système pour apprendre.
Là tu as un vrai problème : est-ce qu’on peut entraîner n’importe quel système informatique sur des données dans les dans les pays où ce n’est pas encadré ? Eh bien oui, il y a un problème, il y a un problème très sérieux.
Pour moi, le problème très sérieux est vraiment en deux temps. On s’apprête à faire de l’intelligence artificielle pour faire quelque chose ; est-ce que ce truc est intéressant ou pas et est-ce qu’on ferait mieux de ne pas le faire ?, et c’est vraiment une question centrale. Une fois que tu as répondu à ce problème-là, c’est : on va le faire avec les données personnelles des gens, est-ce que les bonnes garanties sont apportées ? C’est un deuxième sujet.
Mais tu ne peux pas empêcher qu’une entreprise à y faire des bêtises dans un pays à réglementation un peu trop légère, c’est vrai pour la réglementation environnementale, c’est vrai pour la réglementation sociale. Pourquoi fait-on fabriquer dans les pays où les réglementations sociales sont nazes ?

Sky : C’est vrai aussi pour la recherche virologique.

Benjamin Bayart : Je suis pas si sûr que le terrain soit favorable, si tu vas par là.

Sky : Question Internet : à part des solutions locales open source, très spécialisées, quelle alternative française à OpenAI ou à Google ? Entre parenthèses, c’est affreux Jojo, il faut le connaître, il a le décalage horaire, il est au Canada en ce moment, je te raconterai. Il fait son Candide parce que l’avocat du diable, c’était déjà pris.

Benjamin Bayart : Google et OpenAI ce n’est pas vraiment le même objet ! Il y a des y a des alternatives à ça. Ce n’est pas vraiment mon domaine, je ne regarde pas beaucoup ce qui se passe là-dedans. J’ai une culture générale dans le domaine, mais ça ne m’amuse pas tant que ça et ce n’est pas ma spécialité professionnelle. Comme mon patron ne me paye pas à bosser là-dessus, je passe plus de temps sur d’autres sujets où je suis meilleur.
Il y a des trucs. D’abord, il y a des grands morceaux open source qui sont beaucoup portés par les Européens, y compris par des Français. Il y a un paquet de code qui existe sur les modèles d’apprentissage, sur des bibliothèques d’entraînement, etc., il y a des gros trucs, très sérieux, qui sortent de l’Inria, etc. En France, quand on finance la recherche, on a de bons chercheurs, c’est juste qu’on n’a pas envie de la financer, mais, quand on finance la recherche, on n’est pas mauvais !
En termes de business, il y a des trucs comme Mistral qui ont l’air d’avoir un aspect intéressant.
Tiens, par exemple, une belle légende qu’il faut démonter : avoir une boîte comme Mistral, en France, c’est chouette, c’est bien, pourquoi pas après tout ! Quitte à ce que quelqu’un fasse de l’IA, pourquoi ce ne seraient pas des Français ! Je ne suis pas convaincu qu’il faille en faire, mais s’il faut en faire, pourquoi pas ! Mais beaucoup de gens croient que, du coup, on va propulser Mistral pour faire ça et puis ce n’est pas grave qu’on ait perdu la guerre du cloud, mais ce n’est pas comme ça que ça marche ! Pour le coup, c’est exactement comme l’histoire des chercheurs d’or pendant la ruée vers l’or. Pendant toutes les ruées vers l’or, qui gagne de l’argent, qui devient riche dans la ruée vers l’or ? C’est le vendeur de pelles qui devient riche. En fait, dans l’histoire qu’on est en train de raconter autour de l’intelligence artificielle, de big data et de bidules, qui est le vendeur de pelles ? C’est le cloud provider, c’est le fournisseur de cloud.
En fait, que tu ailles acheter de la base de données, de l’intelligence artificielle, du serveur web, de la blockchain ou je sais pas quelle appli à la mode ou je sais pas quel grigri qui se vend bien en ce moment et dont on verra s’il est utile, il y en a toujours un, c’est que tu achètes des ordinateurs et que tu loues les ordinateurs. Dans le numérique, celui qui vend des ordinateurs est celui qui gagne à tous les coups : le réseau et l’ordinateur. Tu as l’opérateur télécoms qui gagne à tous les coups.

Sky : L’électricien ? Dans le cloud, c’est quand même important l’énergie pas chère !

Benjamin Bayart : Oui, mais lui il s’en fout, c’est très marginal, ce n’est pas très structurant. Si tu regardes quand tu payes 1000 euros par mois chez un cloud provider, que ce soit OVH, Amazon, Google, on s’en fout, le coût d’électricité, dans le lot, est de quelques euros.

Sky : Mistral, c’est Cédric O. N’est-il pas actionnaire ? N’avait-il pas 150 balles en actions au départ ?

Benjamin Bayart : Possible, il me semble. Si, il y a Cédric O là-dedans, il y en a d’autres : Xavier Niel est aussi là-dedans.

Sky : Si tu avais une question à poser à Xavier, une question majeure, que lui poserais-tu ?

Benjamin Bayart : Je ne la lui poserais pas en public.

Sky : Pourquoi ? Parce que c’est trop dangereux ? Tu as peur de déclencher une guerre ?

Benjamin Bayart : Non, parce que je voudrais avoir une réponse. Quand j’ai des questions à poser à Xavier, je lui pose et, en général, il me répond. Je n’ai jamais des questions très compliquées.

Sky : Tu crois que je vais te croire ! Quelle est la dernière question que tu lui as posée à laquelle tu as eu une réponse concrète ?

Benjamin Bayart : Je lui ai dit que je comprenais pas ce que faisait stratégiquement, ce qu’il est louait en matière de cloud, c’était il y a un an, quelque chose comme ça, un peu plus, depuis que le précédent directeur avait été remercié. Il m’a dit « j’en ai nommé un nouveau, vois ça avec lui, si ça ne se passe pas bien, tu me rappelles ». Xavier répond à ses mails, c’est aussi simple que ça

Sky : Il y a Free.
Question internet : aujourd’hui, la majorité des libéraux français ne veulent plus de l’État et ne veulent pas entendre de commande publique, donc pas de relance économique par l’État. Est-ce un fantasme du libéralisme actuel ?

Benjamin Bayart : Non, c’est une illusion, c’est ce qu’ils racontent, ce n’est pas ce qu’ils font. Pas de commande publique, c’est de la flûte, il y a de la commande publique de partout et, en fait, ils ne veulent que de la commande publique. Quand nos libéraux te disent qu’ils ne veulent pas d’État, Le Maire et son orchestre, ils ne te disent pas qu’ils ne veulent pas de commande publique, ils te disent qu’ils ne veulent pas d’État, ce qu’ils veulent c’est pas de fonction publique. Mais que les cliniques privées soient financées par les assurances privées et que tout ça soit piloté parce que l’État a obligé à cotiser à des assurances privées plutôt que de cotiser à la sécu, ils ne rêvent que de ça ! Ils mouillent la culotte la nuit en pensant à ça. Le truc, c’est qu’ils ne veulent pas de fonctionnaires, mais que l’État dégueule des tonnes de pognon vers des boîtes privées pour faire le boulot qu’auraient dû faire des fonctionnaires, ils sont pour. Ils ne veulent pas de la régie municipale de l’eau pour gérer la flotte, mais ils sont très contents que tout cet argent public tombe dans les caisses de Veolia et de Suez.
Il ne faut vraiment pas croire qu’ils veulent qu’il n’y ait plus de contrats de commande publique. Ils veulent qu’il n’y ait que de la commande publique et qu’il n’y ait plus de fonctionnaires. Si on pouvait avoir l’État qui injecte de l’argent en très grande masse dans des écoles privées pour éduquer les gamins, ça leur irait très bien ; ça correspond tout à fait à leur dogme : privatisation de l’école, mais privatisation de l’école ça ne veut pas dire qu’on arrête de payer l’impôt, parce que l’impôt c’est ce qui permet de prendre l’argent des pauvres et, une fois que tu as pris l’argent des pauvres, tu peux, avec, financer les riches, c’est vachement bien foutu ! C’est du ruissellement ! C’est juste que les gens n’ont pas compris comment ça fonctionne. C’est un grand classique, tu connais cette théorie du ruissellement, c’est ce que te racontent les libéraux : quand les riches sont très riches, l’argent ruisselle vers les pauvres. Alors ça ne marche pas, ça ne marche absolument pas. En revanche, le ruissellement c’est un truc qui marche pour de vrai, c’est juste qu’il faut comprendre ce que c’est que du ruissellement. Le ruissellement c’est bien le fait que l’eau part des sommets pour aller dans les vallées, c’est ça le ruissellement. En fait, l’eau par des sommets où il n’y a pas d’eau, pour aller dans les vallées où il y en a beaucoup. Le ruissellement c’est le fait que l’eau part des endroits où il n’y a pas d’eau et va dans les endroits où il y a beaucoup d’eau. C’est ça le ruissellement ! Le pognon ruisselle vachement bien : il sort des poches des pauvres et il rentre dans les poches des riches, il ruisselle parfaitement !

Sky : Comment expliques-tu qu’on tolère ça ? Ce ruissellement ?

Benjamin Bayart : Le fait que les riches s’enrichissent et que les pauvres s’appauvrissent, c’est une question de répartition des pouvoirs, c’est tout.
Pour le coup, j’ai envie de prendre des références qui sont celles de l’anthropologie. Dans Georges Balandier tu as ça, mais Balandier c’est illisible quand tu n’as pas un peu de pratique.
J’avais déjà dit, lors de précédentes interviews ici : allez regarder les séries de cours d’Alexandre Duclos sur YouTube, vraiment ! Toute sa série de cours sur « Solidarité et violence », c’est super intéressant. Comprendre, par exemple, que toute violence vient de la solidarité, c’est un truc qui te fait péter la cervelle la première fois, c’est extraordinairement intéressant.

1 h 53’ 10

Sky : Que penses-tu de Musk ?

Benjamin Bayart : Dangereux !

Sky : Pourquoi ? Un fou ?

Benjamin Bayart : Dangereux comme Bolloré ou Arnaud. Déjà, c’est un type dont je ne suis pas bien sûr qu’il soit très équilibré psychologiquement. Trump n’est pas un ami à moi, mais, manifestement, il lui manque deux ou trois cases.

Sky : Est-ce qu’il a plus de cases vides que Biden ou pas ?

Benjamin Bayart : Ce n’est pas pareil, Biden est vieux, il n’est pas con. Ce n’est vraiment pas pareil.
Je ne suis pas très sûr que Musk soit équilibré psychologiquement, quand bien même il le serait, il a un pouvoir délirant, qui vient de sa montagne de pognon.

Sky : Là, tu parles de TWitter. Est-ce que tu as suivi les Twitter Files ?

Benjamin Bayart : Flemme !

Sky : Tu aurais dû ! J’espère que ce soir, en rentrant, si tu as deux minutes, tu vas aller mettre un peu les doigts dedans, c’est vachement important, Benjamin. En termes de manipulation de l’opinion publique, des structures fines et tout ce qui va avec, c’est vachement important.

Benjamin Bayart : Pour moi, c’est tout le problème de ces milliardaires qui ont énormément de pouvoir, y compris un pouvoir économique, médiatique, politique, parce que quand tu as du pouvoir économique, tu as du pouvoir politique. Ces gens sont extraordinairement toxiques. En fait, même s’ils étaient hyper équilibrés, ils seraient extraordinairement toxiques parce qu’ils sont trop puissants. Ils n’ont pas de contre-pouvoir, en vrai, et c’est un très gros problème. Le fait qu’une très grande partie de la presse soit aux mains de quelques milliardaires – il y en a, dans le lot, que j’aime bien ; avec Xavier Niel, nous ne sommes vraiment pas du même bord politique, etc., mais il se trouve que j’ai bossé avec lui, il était plutôt gentil à l’époque où j’ai bossé avec lui, il ne m’a pas mordu, il ne m’a pas tapé. À part ça, on n’est pas plus potes et c’était sur la Feebox avant que la v1 sorte, ça remonte !

Sky : C’est toi que j’ai eu au téléphone ?

Benjamin Bayart : Non, tu ne m’as jamais eu au téléphone, je ne réponds pas au téléphone, je ne parle pas aux gens !
En fait, ces gens sont dangereux, ils ont trop de pouvoir et c’est extraordinairement malsain. Il se trouve, en plus, que Musk a l’air assez délirant.

Sky : C’est quoi le petit pin's que tu as là.

Benjamin Bayart : C’est le logo de Exodus Privacy, si vous connaissez pas, renseignez-vous, c’est un truc bien, c’est une association dont je ne suis pas membre. Ils ont menacé plusieurs fois de m’élire président et je leur ai rappelé, chaque fois, que je n’étais pas membre.
C’est une asso qui fait un petit soft vachement intéressant, qui, en gros, fait de l’analyse sur les logiciels que tu installes sur ton téléphone et qui te dit « voilà les traqueurs publicitaires qu’on a détectés, voilà les bibliothèques qui sont utilisées et ce qu’elles embarquent comme traqueurs avec elles ». Ça s’appelle Exodus Privacy [exodus-privacy.eu.org/fr/], vachement intéressant ! C’est une petite asso française, ce sont des Français, ce sont des copains, des gens que j’aime bien.

Sky : As-tu suivi l’histoire de Pegasus ou pas du tout ?

Benjamin Bayart : Pas spécialement. Le nom m’évoque un truc, j’ai dû voir passer ça dans un fil d’actu quelconque.

Sky : Ça aussi ce n’est pas mal !

Benjamin Bayart : Mais il y a plein de trucs pas mal, il y a aussi plein de trucs chiants, je n’ai pas le temps !
Pour moi, Musk est un fou et il est dangereux parce qu’il a du pouvoir.

Sky : Il pense que l’intelligence artificielle de classes supérieures, l’AGI, sera atteinte dans un ou trois ans max.

Benjamin Bayart : C’est bien ! C’est de la flûte ! Il pensait qu’il irait se promener sur Mars, note qu’il n’y est pas encore.

Sky : Si tu me permets d’interagir sur la lecture de Mars, j’en discutais souvent avec Jacques Blamont, fondateur du programme spatial français qui a envoyé des ballons sur Vénus, qui a créé le pas de tirde tir de Kourou, pas un con, et puis un peu comme toi, toujours 30 ans dans sa tête jusqu’à 90 piges, tu imagines la force de travail. Il me disait tout le temps : « En fait, le coup d’envoyer des gens sur Mars, c’est du gros pipeau. La seule chose que veut Musk, c’est avoir de la technologie pour mettre des astéroïdes en orbitation pour faire de l’exploitation minière ».

Benjamin Bayart : C’est déjà c’est plus raisonnable. Techniquement, ça n’a plus de sens.

Sky : Il disait au sujet de l’exploration spatiale : « On envoie des astronautes, maintenant, pour avoir les budgets, pour la NASA, pour l’Agence spatiale, mais l’exploration spatiale ne se fera que par androïdes. On aura des androïdes, des petits robots qui iront se balader pour nous », peut-être avec de l’intelligence artificielle. Une autre question internet : as-tu un sujet que tu souhaiterais aborder avec nous comme les dernières petites choses que tu essayes d’imposer à l’État. Il faudra aussi parler de licornes.

Benjamin Bayart : Ouais, ça peut être drôle. Il faut que je vous raconte les Licornes Célestes

Sky : C’est en hommage à la start-up nation, un élevage de licornes, le haras de la licorne bleue ?

Benjamin Bayart : non. À quel point est-ce que je me lance dans un cours de droit administratif sur la protection des données personnelles dans le droit de l’Union européenne ? J’ai le droit à combien d’heures ?

Sky : Tu as droit à dix minutes. Si tu le fais avec humour, 15.

Benjamin Bayart : On va peut-être monter à 20 alors !
Il y a plusieurs morceaux.
Pour transférer des données personnelles vers un pays étranger, le droit de l’Union européenne dit, en gros, qu’une des solutions pour qu’on puisse le faire c’est que ce pays ait un droit suffisamment protecteur et que l’Union européenne l’ait reconnu dans un accord, dans un traité international qui diT « dans tel pays a un droit qui est vaguement similaire au nôtre, donc ça va. »
Il y a eu un premier accord international, concernant les États-Unis d’Amérique, qui était le Safe Harbor, signé à la fin des années 90, qui permettait le libre transfert de données personnelles entre l’Union européenne et les États-Unis. Il a été cassé par la Cour de justice de l’Union européenne, dans un arrêt resté célèbre qui s’appelle Schrems 1 – le 1 est important, parce qu’il y a un 2. Donc, la Cour de justice de l’Union européenne, après les révélations Snowden et tout ça, a constaté que le droit américain prévoit que le Gouvernement américain puisse venir piocher dans les données personnelles comme un petit cochon, sans possibilité de recours, avec un encadrement juridique qui n’est pas du tout satisfaisant, il n’est pas assez protecteur, le Safe Harbor a donc été cassé.
En mode panique, la Commission européenne, dans les semaines qui ont suivi, dans les mois, en très peu de temps, entre le moment où le Safe Harbor est cassé et le moment où son successeur est signé, il se passe six mois ! Six mois pour signer un accord international, je ne sais pas si tu vois le truc de malade, il s’appelle le Privacy Shield. Il est amené devant la CJUE, le plus vite possible, alors que pour aller devant une cour suprême c’est un petit peu long. La CJUE a cassé ce truc-là en disant « non, toujours pas », en gros, je résume. C’est l’arrêt Schrems 2.
On en était resté là assez gentiment et puis il n’y a pas très longtemps, il y a deux ans, deux ans et demi, tu vas voir que c’est intéressant le fait que ce soit il y a deux ans, la Commission européenne a annoncé qu’elle travaillait sur un nouvel accord avec les États-Unis, mais là, pour le coup, il s’est passé deux/trois ans entre l’arrêt Schrems 2 et l’annonce, en conférence de presse, que la Commission travaillait sur un nouvel accord avec les États-Unis, qui a été signé un petit peu après, etc. C’est dans la même conférence de presse qu’ils ont annoncé que vu qu’on était fâché avec les Russes on allait acheter du gaz américain. Les mauvaises langues ont dit qu’on faisait données personnelles contre gaz, mais ce sont les mauvaises langues ! La commission a juré qu’il n’y avait pas de corrélation entre les deux dossiers, la main sur le cœur sur le cœur, du coup, c’est forcément vrai ! Ce nouvel accord s’appelle le Data Privacy Framework et, pour le moment, il n’a pas encore été amené devant la CJUE. Beaucoup de gens disent que si on l’amène devant la Cour de justice de l’Union européenne, elle va répondre « toujours pas », donc il sera encore cassé. Sauf que, tant qu’il est pas cassé, il est légitime de transférer des données personnelles, y compris les données sensibles, aux États-Unis.
Du coup, il se trouve que le Health Data Hub, un bel organisme français, le vrai nom c’est Plateforme des données de santé, qui est chargé de centraliser la totalité des données de santé de France, il ne les a pas encore toutes, mais c’est son but, pour pouvoir les mettre à disposition d’un certain nombre de projets de recherche encadrés et surveillées, tout ça, veut ouvrir un nouvel entrepôt de données de santé dans le cadre d’un projet de recherche. Comme ce n’est pas la même chose que ce qu’il fait d’habitude, il a dû demander l’autorisation à la CNIL et il souhaite confier ces données à Microsoft France, sur la plateforme Azure, mais sur des serveurs en France ou, au moins, en Union européenne.
La CNIL traînait un peu des pieds, disait « ce serait quand même mieux que ce soit sur un acteur pas américain, qui ne soit pas soumis au droit extraterritorial américain ». On ne le sait pas toujours, mais le droit américain est très souvent extraterritorial, puisqu’il s’applique partout dans le monde. Du coup, les capacités prévues pour la surveillance par le droit américain sur les données personnelles s’appliquent partout dans le monde, pas qu’aux États-Unis, donc Microsoft doit obtempérer y compris pour les données hébergées à Paris.
La CNIL, la mort dans l’âme, a donc expliqué longuement, dans une décision, qu’elle autorisait le Health Data hub, parce qu’elle ne peut pas faire autrement à cause du machin américain.
Nous sommes quelques-uns, essentiellement des industriels cette fois-ci, ce n’est pas La Quadrature qui est à la manœuvre, au point de départ ce sont des industriels qui disent « le Data Privacy Framework ne nous arrange pas parce qu’il permet de confier la commande publique à Microsoft plutôt qu’à nous et ça nous fait chier ». Donc, quelques industriels du secteur, quelques particuliers et quelques associations ont décidé d’attaquer devant le Conseil d’État cette décision. Toute la question est de si le Data Privacy Framework, cette troisième tentative d’accord international, tient debout ou est-ce que c’est toujours tout pourri ? On demande au Conseil d’État de transmettre la question à la CJUE parce qu’il en a le pouvoir, ce qu’on ne peut pas faire de manière directe.
C’est dans ce cadre-là qu’on a inventé une association qui s’appelle les Licornes Célestes.
Il se trouve qu’il y a un petit point un peu technique en matière de droit : pour pouvoir attaquer une décision il faut que tu présentes un intérêt à agir, tu n’as pas le droit d’attaquer une décision là, comme ça, parce que tu en as envie. Il faut que tu arrives à démontrer que tu as un intérêt à faire ce recours.
Dans les décisions génériques, quand le Gouvernement signe un décret, une directive interministérielle ou un truc comme ça, l’intérêt à agir est assez facile : est-ce que la décision a un effet sur toi ou pas ? Si elle a un effet sur toi, tu as un intérêt à t’en plaindre. Du coup, quasiment n’importe quel citoyen peut se plaindre du décret d’application d’une loi quelconque, parce que l’intérêt à agir est presque évident.
Une décision générale de la CNIL, par exemple la CNIL qui décide de modifier sa politique en matière de gestion de cookies et de bandeaux de cookies, est une décision qui s’applique à tout le monde, donc tout le monde a le droit de s’en plaindre. Mais là, on a affaire à une décision individuelle. C’est d’ailleurs une petite structure de droit privé, le Health Data Hub c’est un truc de droit privé c’est un GIP, ce n’est pas une administration. Il se trouve que les dirigeants sont nommés par l’État, c’est tout bizarre, c’est un peu comme si c’était une asso sous tutelle de l’État, c’est un truc tout curieux, mais c’est un organisme de droit privé, ce n’est pas une direction du ministère. Cet organisme a demandé une autorisation à la CNIL pour remplir une de ses missions prévues par la loi et la CNIL a rendu une décision sur cet organisme-là. Il faut donc justifier du fait qu’on a un intérêt à agir contre une décision individuelle.
Donc, des industriels se plaignent parce qu’ils disent « mon intérêt à agir, c’est que j’aurais dû avoir le marché, que le truc est tout nul, je ne l’ai pas eu. » Ça peut se discuter : il n’y a pas eu d’appel d’offres, ils n’ont pas reçu d’appel d’offres, donc ils ne peuvent pas dire qu’ils ont été lésés, c’est donc un peu chaud en termes de droit.
Il y a des associations de défense des libertés, l’Association de défense des libertés constitutionnelles, une petite asso qui a l’habitude de faire ce genre de truc, on n’était pas sûr que ça passe comme intérêt à agir.
Il y a des particuliers, parce que, pour le coup, mes données de santé sont susceptibles de faire partie de celles qui sont traitées, donc je suis concerné, donc j’ai le droit de me plaindre. On pense que c’est bon, mais on n’était pas sûr que le Conseil d’État l’accepte.
Et puis, il un vieux truc que m’avait donné quelqu’un du Conseil d’État, il m’avait dit : « Quand tu as un problème d’intérêt à agir sur un dossier, tu crées une association exprès. Par exemple, tu veux attaquer le décret numéro pioupiou, tu crées une association dont le but statutaire est de contester le décret numéro pioupiou devant le Conseil d’État. Jamais personne ne pourra te dire que cette association-là n’a pas intérêt à attaquer le décret en question. » Si FDN veut attaquer un décret, ce n’est pas sûr parce que FDN n’a pas comme mission d’attaquer les décrets, le but de l’association c’est de développer Internet, ce n’est pas d’attaquer les décrets. Alors qu’une association fabriquée exprès pour attaquer le décret numéro tant, il est incontestable qu’elle a intérêt à attaquer les numéros tant pour atteindre son objectif statutaire, il n’y a aucun doute ! C’est un mec du conseil d’État qui m’avait expliqué ça. Donc, on s’est dit « OK, comme on pourrait avoir un problème sur l’intérêt à agir, on va créer une association exprès ». On a donc créé une association qui s’appelle les Licornes Célestes dont le but est, je te fais simple, parce qu’il est assez long, les statuts font à peine une page, mais il y a un gros bout, c’est le but. Le but c’est la protection des données personnelles en s’assurant qu’elles ne sont pas soumises à un droit plus faible et moins protecteur que celui de l’Union européenne, en particulier le droit des États-Unis d’Amérique, donc de faire cesser tout accord international qui viendrait dire le contraire et ce, y compris au travers de questions préjudicielles, en particulier dans le cadre d’un recours contre, si nécessaire, la décision numéro tant de la CNIL. Voilà !
On a une jurisprudence constante du Conseil d’État qui dit que ce type d’association, les associations ad hoc, faites sur mesure pour attaquer des décisions génériques, c’est valable. Si tu veux contester les décrets d’application d’une loi, tu as besoin d’un intérêt à agir et tu n’es pas sûr que ta petite asso de joueurs de pétanque a un intérêt à agir suffisant, avec ton voisin vous créez une association dont le but est d’attaquer le décret numéro tant. Vous avez l’intérêt à agir. Ça ne veut pas dire que tu as trouvé un bon moyen pour que le décret soit annulé, juste, au moins, tu pourras déposer un recours. Donc, c’est ça les Licornes Célestes.

Sky : Merci de faire ça Est-ce que les Licornes Célestes ont besoin d’un peu de foin, un peu de paille, un peu d’orge, un peu d’avoine ?

Benjamin Bayart : Non, il n’y a pas de trésorerie, C’est une association qui ne sert qu’à avoir le droit de déposer le recours, c’est tout. L’association existe juste assez.

Sky : On va en profiter, n’oubliez pas de nous soutenir sur Tipeee, c’est grâce à vous qu’on peut???[2 h 10 min 34] librement.

Benjamin Bayart : Là où il y a besoin de soutien, c’est sur les associations qui font du vrai travail. Les Licornes Célestes, ce n’est pas une association qui fait du vrai travail. Ce sont les industriels qui payent l’avocat dans le cadre du recours, moi j’y passe un petit peu de temps bénévole pour aller creuser le truc et parce que, maintenant, j’ai quand même un peu d’expérience en droit administratif et j’ai deux/trois idées sur le sujet, donc je jette un œil, je suis attentif, j’aide, etc. On n’a pas besoin de pognon là-dessus, ce sont des industriels qui sortent le pognon, d’ailleurs ils sont très gentils de le faire. Si un jour on a besoin de pognon, on le demandera, t’inquiète, on est grands. En revanche les assos comme La Quadrature, FDN, la fédération, toutes les associations qui militent, qui font du gros travail militant et utile ont besoin d’argent.

C’était 176 euros exactement pour Cédric O dans Mistral, nous dit clem, on va fact checker clem.
Est-ce que tu as un sujet important que tu souhaiterais aborder pour les dix prochaines minutes ? Tu regardes Fondation, tu as lu Fondation ?

2 h 11’ 40

Benjamin Bayart : J’ai lu Fondation.