ChatGPT : amie ou ennemie

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : ChatGPT : amie ou ennemie ? - Printemps de l’économie 2023

Intervenants : Laurence Devillers - Tariq Krim - Antonio Casilli - Christian Chavagneux

Lieu : Amphithéâtre du Conseil économique social et environnemental - 11ème édition du Printemps de l’économie

Date : 7 avril 2023

Durée : 1 h 04 min 52

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Avec l'arrivée de ChatGPT, l'intelligence artificielle a fait son entrée grand public. De quoi révolutionner le monde du travail (emplois, productivité...) comme jamais ou bien est-ce une évolution technologique comme les autres ? L'Europe est-elle encore une fois distancée par les États-Unis et la Chine ? Faut-il encourager son utilisation ou bien en avoir peur ?

Transcription

Christian Chavagneux : Bonjour à toutes et à tous. Nous allons commencer cette table ronde de l’après-midi.
Je me présente, je suis Christian Chavagneux, je suis éditorialiste à Alternatives Économiques, très heureux de revenir dans ce magnifique amphithéâtre du Conseil économique social et environnemental.
J’avoue que quand j’ai proposé à Pierre-Pascal Boulanger [Fondateur du Printemps de l'économie, NdT] de faire une table ronde sur l’intelligence artificielle et ChatGPT, je ne pensais pas que nous serions autant dans l’actualité. Cette semaine vous avez vu que l’Italie, cher Antonio Casilli, a décidé de suspendre[1] temporairement l’accès à cette IA grand public pour des raisons de gestion des données personnelles. On nous a dit que beaucoup de pays européens pourraient peut-être suivre, éventuellement la France. Le ministre nous a dit, hier soir ou ce matin, je ne sais plus, que finalement non,la France ne suivrait pas. On a eu cette étude de Goldman Sachs nous disant que 300 millions d'emplois pouvaient être perdus au niveau mondial à cause de ces IA. Et puis cette fameuse lettre de « scientifiques », entre guillemets, avec quelques entrepreneurs dont l’inénarrable Elon Musk, demandant de faire une pause pour le développement de cette intelligence artificielle[2]. On est donc vraiment en plein cœur de l’actualité. Pour ma part, je terminerai avec une petite anecdote : un utilisateur de ChatGPT lui a demandé : « Raconte-moi un bon mensonge ». ChatGPT a dit : « Le ciel est fait avec du fromage frais – Non. Personne n’y croit. Donne-moi vraiment un mensonge très subtil ». Et là, l’IA a clignoté et a dit : « Je suis un être humain », ce qui est plutôt amusant.

Nous allons en parler cet après-midi : est-ce qu’il faut avoir peur ? Est-ce qu’il faut encourager ? Est-ce qu’on va avoir besoin ? Est-ce qu’on ne pourra pas se passer de ces intelligences artificielles ? Il y a des craintes sur l’emploi, j’ai rappelé l’étude de Goldman Sachs, il y a des craintes en termes sociaux, en termes d’inégalités : il y a ceux qui vont avoir accès aux dernières versions et à la multitude d’applications qui sont autour de ces intelligences artificielles et ceux qui n’y auront pas accès ; il y a ceux qui vont faire, vendre ces intelligences artificielles, qui vont récupérer une bonne partie, ou pas, de la valeur ajoutée du reste de l’économie, mais aussi des craintes politiques, mais aussi ds craintes même civilisationnelles. Est-ce que ces IA vont finir par nous remplacer ? Je me souviens du livre d’un chercheur américain sur ces sujets, qui était sorti il y a très longtemps, qui avait dit : « Il y a deux erreurs à ne pas commettre face à cette question c’est de dire : ça va se passer bientôt et ça ne va pas se passer. »

Je suis très content d’avoir réussi à réunir ce plateau de haute qualité cet après-midi. Ce sont trois grands spécialistes reconnus du sujet des IA en général, ChatGPT en particulier, l’intelligence artificielle en général. Je vous les présente par ordre alphabétique.

Antonio Casilli, au milieu, qui est professeur de sociologie à Télécom Paris. Il a publié En attendant les robots, une enquête sur le travail du clic, on en parlait tout à l’heure. C’est une trilogie. Vous avez eu les robots aujourd’hui, la prochaine fois vous aurez le préquel, ce qui s’est passé avant les robots d’aujourd’hui, on attend cela avec impatience, il va falloir être patients n’est pas pour tout de suite.

Laurence Devillers qui est professeure d’informatique appliquée aux sciences sociales à la Sorbonne. L’un de ses multiples ouvrages s’intitule Les Robots émotionnels : Santé, surveillance, sexualité... : et l'éthique dans tout ça ? aux éditions de l’Observatoire. Elle a même travaillé sur une pièce de théâtre autour de ces sujets, qui sera en off à Avignon, au mois de juillet. C’est aussi une façon pédagogique de pouvoir avoir accès à ces sujets qui peuvent paraître un peu techniques, scientifiques, difficiles.

Et puis Tariq Krim, qui est un entrepreneur de la tech. Pour ceux qui connaissent, c’est le fondateur de Netvibes[3] . Il a été l’un des vice-président du Conseil national du numérique[4]. Il coanime le réseau Slow web, peut-être qu’il nous en dira un petit mot. Pour ceux qui sont intéressés, son blog est nourri régulièrement qui s’appelait Code souverain[5].
Comme vous êtes entrepreneur, Tariq Krim, j’ai envie de vous donner la parole en premier. Finalement n’êtes-vous pas un peu jaloux ? N’auriez-vous pas voulu être Sam Altman, avoir inventé OpenAI[6], avoir développé ces intelligences artificielles ? Est-ce que c’est quelque chose qui va nous faire du bien ? Est-ce que c’est quelque chose qui est bien ? C’est le signe de notre esprit entrepreneurial ou est-ce qu’il faut un peu s’en méfier ?

Tariq Krim : Tout d’abord je suis très heureux d’être là. Je vois qu’on a une audience, ça va être très intéressant parce que je pense qu’on a aussi un besoin de pédagogie et le premier des besoins de pédagogie c’est que les gens qui inventent un truc tout seul dans leur coin, en général ça n’existe pas, ça n’est que dans les films. Donc ce n’est pas Sam Altman qui a inventé OpenAI, ce n’est même pas lui qui a inventé ChatGPT, on en parlera tout à l’heure, mais c’est Google qui avait inventé les technologies de ChatGPT. Il faut donc faire attention parce que dans le monde de la technologie, on nous donne toujours ce mythe de la personne seule dans un coin qui invente une chose incroyable et, du jour au lendemain, ça marche. Ça n’est jamais comme ça.

En fait, je ne suis pas vraiment un spécialiste de l’intelligence artificielle, pour moi l’intelligence artificielle c'est un amour de jeunesse. C’est d’ailleurs assez drôle, parce que, finalement, ce sont trois femmes, à différents moments, qui m’ont fait aimer cette discipline : la première s’appelle Bonnie MacBird[7] qui était la femme de Alan Kay, qui a fait le scénario d’un film qui s’appelait Tron et Tron c’est un peu, pour ma génération, ce que Matrix a été pour d’autres plus tard, il y a eu un avant et un après. On rentrait à l’intérieur d’un ordinateur, c’était la première fois qu’on comprenait qu’il allait se passer quelque chose de merveilleux. Évidemment, je suis tombé tout de suite complètement fou de ça. J’ai mis en veille mon autre passion qui était la musique. Au départ je voulais être un historien et, finalement, je me suis retrouvé à bidouiller les machines.
Il y a aussi Sherry Turkle[8] qui m’a fait comprendre, à travers ses différents livres, que la relation de la machine avec l’être humain allait être quelque chose de très important. Une autre femme, qui s’appelle Pattie Maes[9], a été la première, en tout cas pour moi, à travailler sur les premiers types d’intelligence artificielle. Au départ, avant ChatGPT, la première vraie révolution a été la capacité d’organiser les contenus, ce qu’on appelle le ranking. C’est d’ailleurs la force de Google : vous tapez un mot clef, qui doit être en premier ?, qui doit être en dernier ? Votre génération n’a pas connu l’époque où on allait sur le Web et on devait connaître par cœur les adresses, il y a même eu une époque où on avait des bottins téléphoniques, on connaissait les numéros de téléphone par cœur, c’était avant qu’on ait son téléphone.
C’est donc quelque chose qui a toujours été autour de moi. À un moment donné, évidemment, j’ai voulu être un peu sérieux et j’ai voulu faire des études plus poussées là-dessus. Le prof que j’ai eu m’a dit : « L’IA c’est mort, il faut faire autre chose ». C’était dans les années 90. J’ai donc fait autre chose, je suis parti, j’ai pris l’avion, je suis allé à San Francisco, en Californie, dans ce qu’on appelle maintenant la Silicon Valley. C’est là que j’ai découvert que tous les gens qui se passionnaient pour les technologies qui me passionnaient depuis tout jeune étaient là-bas, c’est là qu’était Steve Jobs, c’est là qu’étaient… D’une certaine manière ça a donc façonné ma vision.

Quand on parle d’intelligence artificielle et quand on parle d’informatique – c’est un vrai que c’est un terme qui n’est plus vraiment à la mode, mais ça reste quand même des technologies autour de l’ordinateur –, il y a toujours eu deux visions différentes. C’est un peu dans les années 60 que ça s’est organisé. Quelqu’un a été pour moi très important, qui s’appelle Doug Engelbart[10], c’est la personne qui a inventé la souris, qui a inventé l’informatique moderne, qui disait : « L’ordinateur va servir à améliorer la créativité de l’homme ». C’est Steve Jobs qui le dit le mieux, il a dit un jour : « L’ordinateur c’est le vélo pour l’esprit ». Quand on prend un vélo on peut aller très vite, il s’est dit c’est l’équivalent d’un vélo pour l’esprit, c'est-à-dire que soudain, on peut faire plein de choses. De l’autre côté il y avait un des pères de l’informatique, John McCarthy[11], pour qui la machine, à un moment donné, allait remplacer l’homme.
Vous aviez donc toujours ces deux visions : l’outil va nous permettre de faire plus de choses et les gens qui disaient « demain l’outil va nous remplacer ». Le problème c’est que pendant des années les gens qui espéraient que la technologie nous remplace, il n’y avait pas de produits qui marchaient. L’équivalent, le point culminant de la génération de Doug Engelbart, de l’outil qui va nous aider, c’est l’iPhone. Mais, curieusement, à vouloir nous aider, à vouloir trop simplifier, l’iPhone est un peu devenu une forme de prison, finalement on a des boutons, on clique et on ne peut plus rien faire, d’ailleurs on ne sait même pas comment ça marche, on pourrait croire que ça pousse dans les arbres, on ouvre la boîte, on appuie sur le bouton, ça s’allume et c'est prêt.
Face à ça on a effectivement de nouveaux outils comme ChatGPT. Je ne sais pas qui, dans la salle, l’utilise, a utilisé, j’imagine tout le monde, ou va le faire. Je trouve ça fascinant parce que, contrairement à ce que j’entends dire, on ne sait pas trop en fait, c’est tellement nouveau qu’on ne sait pas trop. En tout cas, personnellement, je considère que je ne sais pas où ça va et j’ai plein de questions.
Parmi les questions que je me pose, il y en a une très simple. Je me souviens qu’avant on connaissait des numéros de téléphone par cœur. Puis, un jour, on a eu un téléphone, on les a mis et on a commencé à les oublier, on connaissait peut-être le numéro de téléphone de la maison, des parents, des quelques amis, mais c’est tout. Et puis, un jour, on a eu le GPS et maintenant vous avez les chauffeurs de taxi Uber, vous leur dites « je voudrais aller gare de Lyon » et, en fait, ils regardent le GPS et ça y est. Certains m’ont même avoué qu’ils ne connaissent pas Paris, mais le GPS est là. Donc, d’une certaine manière, on oublie ça. La question que je me pose avec ChatPGT c’est : quelles sont les choses que l’on sait faire aujourd’hui que l’on va oublier et qu’on ne pourra plus, justement, faire aussi bien ?
Il y a une autre question qu’on m’a posée récemment, que je trouve très intéressante. Vous savez certainement que ChatGPT permettrait d’écrire facilement, on pourrait presque écrire un livre avec ChatGPT, même si je pense que, pour nous, le plaisir d’écrire est quand même un plaisir extraordinaire. Vous avez peut-être vu cette blague, quelqu’un qui dit : « Grâce à ChatGPT, je prends une ligne et ça va écrire tout un paragraphe, je peux l’envoyer en e-mail à quelqu’un en lui faisant croire que je l’ai écrit ». La personne qui reçoit l’e-mail dit « grâce à ChatGPT, je peux réduire cet e-mail en une ligne et faire croire que je l'ai lu ». En fait, ils auraient pu s’envoyer une ligne chacun et ça aurait été réglé.
C’est cette question qui se pose avec ça : dans un monde où les choses qui étaient difficiles, codées, par exemple quand on fait une startup, quand on construit un projet, du code, c’est compliqué, et on nous explique que grâce à ces outils ça va être simple. Écrire c’est compliqué, raisonner c’est compliqué, on nous explique que grâce à ces outils ça va devenir simple. La question que je me pose c’est : dans ce nouveau monde qu’est-ce qui est difficile alors ? C’est une question ouverte, je n’ai pas de réponse.

L’autre chose importante c’est que derrière toute cette bataille, il y a évidemment une bataille de gros sous. Vous connaissez cette blague : on dit qu’il est plus facile d’imaginer la fin du monde que la fin du capitalisme. D’une certaine manière, derrière ces produits, il y a cette question de la domination cognitive, c’est-à-dire qui va dominer mon deuxième cerveau ? On aura son propre cerveau et, ensuite, on aura ce deuxième cerveau auquel on pourra demander de nous aider, de faire nos devoirs, de réciter des choses, de nous inventer les choses. On verra, tout est encore ouvert. C’est un deuxième cerveau qu’on aura en location, c’est-à-dire que quand on arrêtera de payer, on n’y aura peut-être plus accès. On ne sait pas qui y aura accès, on ne sait pas de quoi ce cerveau sera capable de nous parler, s'il va nous influencer ou pas. Tout cela ce sont des questions très importantes.

Christian Chavagneux : Pardon de te couper. Pour l’instant ce deuxième cerveau est plutôt américain qu’européen ?

Tariq Krim : Effectivement. On est aussi en train de basculer d’un modèle de plateformes technologiques à des plateformes idéologiques. Ce qui va être fascinant, c’est que pour apprendre, notamment pour apprendre le langage, il faut analyser la littérature, l’ensemble des connaissances. Une des raisons pour lesquelles on suspecte que ChatGPT n’est pas très ouvert, ne veut pas s’ouvrir, c’est que certaines personnes pensent qu’au départ il a fallu analyser l’ensemble des livres et l’ensemble des livres, l’ensemble des documents, est disponible sur une base de données pirate russe qui s’appelle LibGen[12], qu’il est possible qu’on ait utilisé l’ensemble de ces contenus pour construire la base. Ça pose évidemment une autre question : peut-on absorber la culture existante pour la refaçonner et pour la revendre en condensé, en tout cas, d’en vendre un ersatz ?

Pour l’instant, j’ai essentiellement posé des questions. Comme je le disais très humblement, il y a des questions auxquelles j’ai des réponses, des questions pour lesquelles j’ai des idées, des questions auxquelles je n’ai pas encore de réponses.

Christian Chavagneux : Laurence Devillers, je vous vois un petit peu trépigner depuis tout à l’heure, je vois que vous avez envie de rebondir sur ce qu’a dit Tariq Krim.

15’ 28

Laurence Devillers : Normalement je fais de la recherche et j’enseigne à la Sorbonne l’intelligence artificielle. J’ai travaillé sur ces sujets-là depuis 30 ans, non pas sur l’intelligence artificielle symbolique des vieux de la veille de l’informatique, mais sur les réseaux de neurones qui étaient émergents dans les années 90, 87, la rétropropagation du gradient[13], comment on faisait pour apprendre à une machine, de façon distribuée, de l’information. Vous avez entendu parler de ce gros mot qui est deep learning, un système avec plein de couches cachées, plein de neurones, qui va pouvoir faire de la reconnaissance faciale, reconnaître la parole, reconnaître des émotions dans la voix. C’est mon sujet de prédilection, de recherche depuis plus de 30 ans. C’est ça le cœur du sujet : le nouveau monde dont on nous parle, c’est un nouveau monde qui marche avec des objets comme ceux-là.

En 2017, Google fait ce qu’il appelle les transformers qui sont des algorithmes qui permettent d’agglutiner des milliards de mots et, là aussi, de jongler avec des connaissances minimum. Par exemple, si je parle de ce qu’encapsule ChatGPT, c’est un GPT 3.5 dans cette version-là, c’est-à-dire un réseau de neurones assez complexe qui a embarqué des milliards de mots qui viennent de données qu’on ne maîtrise pas forcément — c’est de la science, des connaissances, des opinions, de l’infox —, pluri-langages et, en majorité, américains : dans ChatCPT il y a moins de 5~% de français, pourtant ça vous parle français.
Ces données-là sont utilisées par la machine de façon non intelligente, l’intelligence artificielle n’existe pas, c’est une imitation artificielle ou une illusion artificielle. C’est assez comique d’entendre que tout le monde joue avec et, finalement, on se gausse de l’intelligence de la machine qui répond alors qu’il n’y a rien : il n’y a absolument aucune intention – à part celle du constructeur qui fait de l’argent avec vos données – aucune conscience, rien de tout cela. Il y a, en fait, la connaissance de nos propos, de nos mots, qui est encapsulée dans la suite des mots. Quand je dis quelque chose dans ma phrase, la sémantique est dans la suite de mots. Or ces gros systèmes, GPT 3.5, 4 et les futurs, vont encapsuler comme ça des mots, ou en dessous du mot, et regarder ces mots dans des milliards de contextes, donc, finalement, ils apprennent une certaine sémantique autour de ce mot. Lorsque vous envoyez une invite, c’est-à-dire le début d’une phrase, ou une question — ça ne répond pas à une question, c’est ce qu’on a mis après, au-dessus dont tu parleras aussi tout à l’heure. On a mis un agent conversationnel qui va interroger ce gros modèle de langage dans ChatGPT. Le gros modèle de langage ne fait juste que générer la séquence des mots les plus probables, des mots ou même en dessous des mots, les entités peuvent être en dessous des mots. Il y en a énormément. On parle d’un modèle qui fait 175 milliards de paramètres avec deux fois plus de ces petites entités qui servent de puzzle ou, si vous voulez, de Lego pour la machine, sans aucune intelligence là-dedans.

Ensuite, pourquoi la machine est-elle capable de nous répondre trois fois une phrase différente à la même entrée ? Parce qu’il y a une variable de température qui permet d’aller chercher parmi les 20~% des mots les plus probables, non pas seulement le mot le plus probable, ce qui donne l’impression que c’est assez intelligent. En fait non, c’est du hasard.

On a aussi l’impression que le système s’adapte à nous ; c'est encore une vaste plaisanterie. C’est-à-dire qu’il prend du contexte, donc, évidemment, il s’adapte un peu puisqu’il prend vos mots en entrée en plus de ceux que vous avez prononcés dans la dernière phrase, ceux que vous avez dit avant. Il va donc s’adapter à ça et aller chercher encore plus une réponse correspondant à ce que vous avez demandé. On a donc l’impression que ça s’adapte, alors que ça ne s’adapte pas du tout. Par contre, on récupère vos données, et un de ces jours le futur GPT aura effectivement une base de données encore plus importante. Nous sommes tous les cobayes de ce système en ce moment, je ne sais pas si vous vous en rendez compte. C’est génial parce qu’on apprend aussi que ça a des limites, mais il faut arrêter de dire que c’est fabuleux, c’est génial. C’est juste comique.

Nous avons écrit une pièce de théâtre [Qui a hacké Garoutzia ?] qui met en scène un objet comme celui-là, qui prend dans nos mémoires plein de traces et qui est capable de simuler du langage. Mais c’est du langage non humain, qui n’a aucune nature d’humanité, personne n’est responsable de ce que dit le système. C’est un algorithme, des statistiques, des mathématiques qui font que ça produit du langage.
On est bluffé parce que ça nous semble, là c’est de l’anthropomorphisme, c’est la deuxième bonne nouvelle pour tout industriel : quand on nous parle avec un semblant de langage, on va tout de suite projeter sur la machine des capacités intelligentes qu’elle n’a pas.
On aide énormément tout startupeur qui se lance là-dedans, tout gros système. OpenIA peut se frotter les mains, il a mis dans les mains de tout le monde un système qui était très bien ficelé, qui peut dire n’importe quoi. On l’a vu avec le jeune Belge qui est décédé en ayant discuté avec sa machine. Il a dit à la machine que ça n'allait pas bien dans sa vie, qu’il était éco-anxieux, la machine lui a demandé : « Avais-tu déjà pensé au suicide ? ». Il a dit oui et je ne sais quoi et, finalement, elle a aussi expliqué qu’il allait se retrouver dans l’au-delà, dans le paradis. L’industriel qui a fait ça dans la Silicon Vallley n’a pas pensé à mettre un filtre parce que OpenIA est très bien fait !

Dans ChatGPT il y a trois couches : le gros modèle qui agglutine énormément de données qu’on ne maîtrise pas, on ne sait pas d’où elles viennent, ce n’est pas transparent, ça peut être de l’infox ; le deuxième modèle c’est une conversation avec ce système et ça a été optimisé par des humains pour qu’on ait l’impression que ça parle comme un humain ; le troisième niveau c’est la censure, c’est-à-dire qu’OpenIA va vous dire : « Hou là, ce sujet-là n’est pas un sujet politiquement correct », donc on ne parle pas trop de religion et si vous regardez un petit peu c’est très discriminant, certaines religions sont black-boutées, d’autres non. Il y a donc là une censure donnée par un industriel sur son propre produit. Il faut des comités d’éthique, il faut de la régulation dans tout cela, parce qu’on va sur n’importe quoi.

Si je fais le parallèle, et ça va peut-être vous engager aussi à comprendre mieux, en ce moment on est train de se rendre compte qu’on a balancé du plastique dans les mers un peu partout. Ce sont des micro-billes de plastique, quasiment invisibles, que les poissons vont manger et, derrière, ils vont nous intoxiquer. Je simplifie le schéma, mais il y a un risque comme celui-là. C’est le risque de ce genre de système qui va distiller des choses qui ont l’air vrai, avec une imprécision que sont ces micro-capsules, et, en fait, il y a plein d’erreurs dans tout cela qu’on ne voit pas forcément directement, le pire étant par exemple Bing, Microsoft, qui nous dit vous allez utiliser ça dans tous les logiciels.
Bing a bien compris un des problèmes majeurs de l’enjeu éthique autour de cela, c’est-à-dire que ce n’est pas sourcé. Normalement, en bon scientifique ou en bon journaliste, lorsque vous annoncez quelque chose vous avez toujours des sources en référence pour dire « ça c’était vrai, ça c’était vrai, donc je raisonne et je vais plus loin ». Là, il n’y a plus de sources, ce donc n’est pas possible de trouver quel est le raisonnement – l’effet de la boîte noire – qui a amené la réponse. On ne peut pas vérifier si c’est juste une fake news, si c’est quelqu’un qui vient de Russie qui s’appelle, je ne sais pas comment prononcer, on ne sait pas. Ils ont très bien compris ça, donc ils font une recherche sur Internet avec un moteur de recherche pour aller chercher quelques références, ils les remettent dans le compte qui va chercher dans GPT 4, et il va remettre des références dans la réponse. Pour avoir joué avec Bing, il y a des références qui sont fausses, qui sont aussi inventées que le texte qui vous est donné.
On parle d’hallucination. Des papiers entiers de chercheurs parlent de ça, essayent d’évaluer quand est-ce que le système sait faire une déduction, quand est-ce qu’il a du sens commun. Effectivement, ça marche plutôt bien, mais c’est très approximatif. Demandez la bibliographie de quelqu’un de connu, vous allez voir que ça l’air juste. Regardez un tout petit peu dans les détails, d’un seul coup vous allez voir un truc qui choque. Le diable est dans les détails et il est partout.

Il n’y a aucune responsabilité de la machine, il n’y a aucune responsabilité de personne. On est en train de jouer avec le feu, de trouver cela brillant, sans se rendre compte des limites. Alors on va faire comme d’habitude, loi d'Amara[14], tout le monde trouve ça génial, c’est naturel, on joue avec, d’un seul coup on dit « oh là, là c’est l’horreur, il y a des risques partout, donc on arrête ! ». Ce n’est pas ça le sujet. Le sujet c’est d’arrêter d’être dans les phares des voitures comme des lapins, de trouver que c’est formidable, de s’esbaudir devant tout le monde des dernières trouvailles et des dernières réponses de ChatGPT. Il faut juste dire : nous avons une augmentation de ce qu’on pourrait faire d’intelligent grâce à ces systèmes qui savant déceler des micro-informations, on appelle ça les signaux faibles, c’est l’intérêt dans les radiographies, par exemple des cancers, de voir des signaux que notre œil ne voit pas. Ces systèmes qui vont jouer sur les images, sur le langage, sur des tas de données différentes, vont pouvoir déceler des irrégularités à des nivaux que nous ne sommes pas capables de percevoir.
Comment fait-on pour acquérir ces connaissances intelligemment plutôt que de se faire bluffer par le marketing de tout cela.

Le moratoire qui est arrivé, qui a été envoyé par des chercheurs comme Bengio et d’autres qui sont en train de dire « attendez, ne confondons pas tout », fait signer et met partout en emphase que Musk ou que le patron d’Apple signe ça. C’est lamentable ! C’est un effet de marketing, un effet de buzz économique qui n’a rien à voir avec le fait qu’il ait envie de freiner. Vous pensez vraiment, honnêtement, qu’Elon Musk c’est le monsieur qui freine les idées ? Eh bien non ! On en est tous conscients, il veut juste avoir raison. Il avait dit il y quelque temps « l’IA c’est la bombe de demain », eh bien voilà ! Il faut faire attention !

Attention aussi à ce qu’on entend comme petite musique. Malraux avait dit : « Le 21e siècle sera un siècle mystique ». Ce n’est pas de la mystique, il ne faut pas croire cela. Ce que nous racontent ces systèmes ce sont des statistiques, des mathématiques, des algorithmes qui sont derrière, qui ont été décidés par des humains, avec beaucoup d’humains à l’intérieur, puisque quand je vais chercher des données, ce sont des humains qui vont les chercher, qui les annotent, qui les évaluent ; les humains vérifient les outils. Tous ces systèmes-là passent à la moulinette de multiples humains qu’il faut aussi mettre dans la boucle. Il faut donc cartographier globalement la situation morale de ces systèmes en regardant l’interaction entre les humains et ce que fait la machine. En tout cas comprendre que le premier sujet c’est la vérité, philosophiquement – vous pourrez en parler après. C’est avant tout savoir si c’est vrai ou pas vrai. Il faut donc faire son propre état critique devant ce que répond ChatGPT. À vous de faire tout le travail, de déceler d’où ça vient, les sources, etc., et si c’est vrai.

Le deuxième grand enjeu c’est la manipulation. Si demain, dans mon travail, il faut que j’utilise ça parce que je n’ai pas le temps, ou je suis étudiant, c’est facile, j’ai un truc à rendre, je me base là-dessus, le nivellement des connaissances va aller vers le bas, c’est-à-dire qu’on va créer des connaissances qui sont fausses et, demain, d’autres systèmes vont générer d’autres modèles comme ceux-là, voire des programmes comme tu le disais très bien. Le fait qu’ils soient capables de construire d’autres programmes, alors pas hyper-compliqués, pas très nouveaux, ils copient, mais, de temps en temps, ils illuminent.

Un autre facteur nous interroge beaucoup, nous chercheurs, positivement et négativement, ce sont les hallucinations et l’émergence des comportements. C’est pour cela que Bengio et d’autres grands chercheurs donnent l’alerte. Si je n’ai pas signé ce moratoire directement c’est parce que j’étais très énervée de voir des gens comme Musk ou de voir récupérer cette histoire. On est en train de se faire manipuler par le monde américain qui, comme on l’a vu, va encapsuler dans ces systèmes des données qui viennent majoritairement des USA, on ne sait pas ce qu’ils font. Est-ce qu’ils traduisent ? Comme je l’ai dit tout à l’heure, dans l’ensemble des mots qu’on manipule dans cette machine c’est le sens, ce sont nos opinions. Qu’est-ce que veut dire le langage qui est issu de cela, même si c’est en français ? Est-ce que ce sont des opinions réellement ? Qu’est-ce que ça veut dire ? Il y a là encore un sujet énorme.
Si je reviens sur les hallucinations, de temps en temps le système part un peu en vrille, mais il peut aussi partir en vrille positivement, c’est-à-dire qu’il donne l’impression qu’il y a effectivement une espèce de conscience derrière cela. La machine ne doute pas, elle vous donne des solutions avec beaucoup d’aplomb. Donc attention au langage que cette machine utilise. Elle va dire aussi, de temps en temps, « nous humains », comme si elle était dans le coup. Tout cela c’est du copier-coller. Ça a un côté rigolo quand ça fait 30 ans, comme moi, qu’on manipule ces objets. Pour le commun des mortels qui l’utilise maintenant parce qu’il l’a eue dans les mains, il y a une énorme rupture et un vrai risque sociétal de, finalement, l’utiliser partout.

Il faut donc absolument l’encadrer. Le AI Act[15] est la loi sur l’intelligence artificielle, on a beaucoup parlé d’informatique tout à l’heure, mais c’est l’intelligence artificielle connexionniste à partir de réseaux de neurones qui est le vrai danger. Il faut absolument monter sur des régulations, des mesures. Je suis embarquée sur la normalisation. Ce sont trois grands piliers : la loi et il ne faut pas rigoler sur cette loi, on avait déjà pas mal rigolé sur le RGPD[16], le Règlement général sur la protection des données, on a vu que le monde entier nous l’a copié, ce sont vraiment des avancées ; le fait de pouvoir réfléchir et, en même temps, avancer avec les meilleurs chercheurs du monde en France et en Europe.
Il faut vraiment être conscient que ça suffit d’entendre qu’on est en retard. On est très en avance, par contre on n’a pas de commande publique pour aider l’innovation. Si vous regardez, même Elon Musk a plein de brevets qui viennent de commandes publiques. Regardons la réalité. Arrêtons de penser que la Silicon Valley c’est le must du must, que ce sont des gens qui réfléchissent et ailleurs ce n’est pas vrai. C’est faux ! Il y a énormément de faux amis là-dedans. Je pense donc que c’est très sain de comprendre qu’il y a des forces géopolitiques dans tout cela. Il y a la guerre des normes comme il y a la guerre sur la loi, c’est-à-dire qu’il y a plein de gens qui ne voudraient pas que ça arrive, notamment les GAFAM.

Le troisième pilier, c’est l’éthique et l’éthique est dans vos mains, ce sont les jeunes qui vont inventer tout ça. Il faut être encore plus créatifs, c’est-à-dire comprendre ce qu’on peut faire avec ces émergences de comportements absolument fascinants, en même temps ça peut émerger dans l’hallucination, même avec les images. On voit une image qui arrive, qui est très proche de la réalité, comment va-t-on faire demain pour vérifier que c’est une image qui a été montée de toute pièce ?
La cybersécurité, l’engagement sur l’écologie parce que ces systèmes dépensent aussi de l’énergie, mais sont très utiles pour tout l’engagement de l’industrie verte. C’est vraiment fondamental de comprendre que l’IA est un énorme atout. On l’a vu pour les vaccins pendant la Covid, on n’aurait pas eu autant outils, on aurait sûrement perdu même quelques années.

Il faut être très conscient. Je suis très positive sur ces technologies, sauf que je trouve qu’on ne parle pas assez de qu’il faudrait faire demain. Ça demande de la créativité, il faut être interdisciplinaire, à la fois comprendre les conséquences et, en même temps, être très bons dans la modélisation.
Ça va embarquer beaucoup plus de filles. Je suis désolée : 80~% de ces systèmes sont faits par des hommes, sur les plateaux nous ne sommes pas beaucoup de femmes. C’est évident que demain, lorsque l’on va comprendre que ce sont des objets sociaux-techniques, les filles vont aussi venir travailler sur ces visions plus humanistes de ce que sont ces systèmes. Comprenez bien toutes les incidences que ça a pour la société.

Christian Chavagneux : Merci pour ce tour d’horizon. Je crois que Tariq Krim voulait réagir un petit peu. Vous pouvez débattre tous les deux et après on laissera Antonio Casilli développer son point de vue.

Tariq Krim : En fait, j’ai une triple position : j’ai été entrepreneur, j’ai eu la chance de travailler dans la Silicon Valley et en France et j’ai aussi travaillé sur les questions de régulation.
Ce qui m’a toujours fasciné dans la Silicon Valley, en tout cas celle que j’ai connue, celle qui existe aujourd’hui est un peu différente. Dans une autre vie j’ai rencontré tous ces gens, Musk and co, ils étaient vraiment différents de ce qu’ils sont aujourd’hui. Il y a quand même une capacité de créer, d’inventer et de donner le maximum de ce que l’on est dans la Silicon Valley que je n’ai pas trouvée, malheureusement, ailleurs, je parle dans la recherche, je parle dans la capacité d’implémenter.
Après, avec tous ces outils, on est toujours face à deux approches : il y a une approche qui est « l’outil n’est pas prêt, mais il a l’air bien, il fait à peu près qu’on veut, on le sort ». Ça, c’est plutôt dans la Silicon Valley. En Europe, on a une approche un peu différente. Déjà, on a une partie des gens qui nous explique qu’on ne sait rien faire, ce qui est malheureusement le problème quand on est dans l’innovation. J’ai monté mes boîtes en France et, à chaque fois, mes seuls véritables soutiens étaient aux États-Unis ; on nous expliquait « non, on n’y arrivera jamais ». En fait, il ne faut pas écouter tout cela, il faut faire ses propres choix.

Au niveau de la régulation. Je rentre d’une conférence sur la cybersécurité, on a parlé de guerre de l’information, de la guerre de la désinformation, mais, en fait, on est en train d’entrer aujourd’hui dans un monde où la guerre elle-même va être dirigée par l’intelligence artificielle. Ce qui m’inquiète énormément avec ces outils, c’est qu’on a sorti le dentifrice du tube et ça va être extrêmement difficile de les réguler. La seule manière qu’on a trouvée pour l’instant de les réguler, c’est ce que font les États-Unis vis-à-vis de la Chine, c’est de les empêcher d’avoir accès aux composants stratégiques pour faire de l’entraînement et, même cela, on n’est pas certain que ça marche.
Je voulais juste faire cette petite remarque.

Christian Chavagneux : Merci. Antonio Casilli, le regard du sociologue.

33’38

Antonio Casilli : Que dire après tout cela ! On a fait un tour d’horizon.
Je dois me positionner parce que je me sens un peu comme un larron entre deux Christs, entre un entrepreneur de la tech et une professeure, une experte en machine learning.
Je suis le seul sociologue, mais un sociologue un peu particulier. Ça fait des années que je m’occupe de comment l’intelligence artificielle est produite. Ceci me conduit à être souvent hors de France, dans des endroits dans lesquels vous n’imagineriez pas qu’il y a des personnes à interviewer, des travailleurs de l’intelligence artificielle à observer, parce que ce n’est pas dans la Silicon Valley, ce n’est pas dans les technopoles dans les pays du Nord du monde, c’est dans des pays comme l’Égypte, Madagascar, la Bolivie, le Chili, ce sont les pays que je visite avec les collègues de mon équipe de recherche, qui s’appelle le DiPLab[17], qui se concentre depuis un moment sur l’ingrédient secret de l’intelligence artificielle et l’ingrédient secret c’est vous ou nous, nous sommes tous des ingrédients secrets.
ChatGPT se présente comme un modèle hypertrophique : chaque fois que OpenIA, l’entreprise qui produit ChatGPT, lance une nouvelle version de son intelligence artificielle – GPT veut dire Generative pre-trained transformer, donc un transformateur génératif pré-entraîné –, ils vous disent « cette fois-ci on a vraiment mis le paquet, cette fois-ci on a 174~milliards de paramètres » – ça c’était GPT-3 – maintenant c’est 100~trillions de paramètres, 170~trillions de paramètres, le français n’a même pas le mot trillions d’ailleurs. Pour dire que ce sont des trucs pharamineux, mais ils oublient de vous raconter ce que font ces paramètres, c’est-à-dire traiter des données, des masses de données, qui ont été collectées via une plateforme, du moins la plateforme sur laquelle ils communiquent qui s’appelle Common Crawl[18] qui, depuis 2012, a collecté sur le Web et à des endroits évidents comme Wikipédia, comme des grandes bases de données, d’images, de textes ou de vidéos, mais aussi à des endroits un peu moins connus par exemple LibGen ou d’autres trucs plus ou moins pirates dans lesquels on va assez couramment, soyons clairs, il ne faut pas se cacher. Cette intelligence artificielle est donc allée gratter des données pour créer des bases de données énormes.
Ces bases de données suffisent-elles pour faire l’intelligence artificielle, pour la rendre intelligente ? La réponse est non. Ces données, une fois grattées du Web, ont besoin d’être filtrées, annotées, modérées, parfois enrichies et qui fait ça ? Eh bien, ce sont des êtres humains, ce sont des travailleurs du clic. Quand je parle de travailleurs du clic, je ne parle pas des sublimes du code, des data scientists, des grands algorithmiciens et ainsi de suite. Ce ne sont pas des personnes qui sont les talents embauchés par Google et Meta, donc Facebook, ce sont des personnes qui, par ailleurs, ne travaillent pas pour ces grandes entreprises, mais travaillent pour des sous-traitants de sous-traitants de sous-traitants de ces entreprises dans des longues chaînes d’approvisionnement qui nous conduisent jusqu’à des pays dans lesquels les personnes sont prêtes à travailler pour une rémunération très faible et un contrat de travail qui n’en est pas un : ce sont des personnes qui s’inscrivent sur de plateformes et qui, à longueur de journée ou quand elles peuvent et quand les conditions matérielles de leur connexion le permettent, se connectent et enrichissent ces données-là.

Je vous donne un exemple de cette situation, comment ça se passe.
En France et dans d’autres pays d’Europe, il y a une intelligence artificielle qui est déployée dans les grandes surfaces, ce n’est pas ChatGPT, c’est une intelligence artificielle qui se manifeste sous forme de caméras intelligentes. Des caméras intelligentes détectent lorsque quelqu’un cherche à voler quelque chose dans un supermarché. Si vous faites un geste qui peut créer une suspicion de vol, par exemple vous prenez votre smartphone et vous le mettez dans votre poche – est-ce que c’est vraiment son smartphone ou une tablette de chocolat ? –, la caméra intelligente détecte ce comportement et envoie une alerte automatique, par SMS, au vigile ou au caissier et ces personnes peuvent vous interpeller à la sortie.
Le fait est que cette caméra intelligente n’est pas si intelligente que ça et ce n’est pas une surprise. Grosso modo, on a remonté la chaîne de production de cette caméra intelligente et on a trouvé l’algorithme de cette caméra : c’étaient 130 personnes dans une maison de Tananarive à Madagascar qui faisaient semblant d’être une intelligence artificielle en prenant des tours devant des ordinateurs. C’est vraiment une maison dans laquelle nous sommes allés. On commence à 7~heures du matin à bosser dans cette maison qui est connectée à des plateformes et vous avez dans chaque pièce – dans le garage, dans le grenier, dans la chambre à coucher – 20 à 30 personnes devant 20 à 30 postes qui, à longueur de journée, regardent en temps réel des caméras de surveillance de supermarchés, de Monoprix, de Franprix de France. À chaque fois que quelqu’un se pointe dans l’image, ils regardent attentivement s’il vole ou pas et ils envoient un message automatique, via la caméra intelligente, au caissier, au vigile, lequel vigile ou caissier peut vous interpeller. Vous allez me dire que c’est une fraude. C’est clairement une fausse intelligence artificielle qui relève de la fraude commerciale. Et ChatGPT n’est certainement pas dans le même cas de figure.

D’une part, je tiens à vous rassurer, à ne pas vous inquiéter davantage : cette fraude est beaucoup plus commune, beaucoup plus courante que ce que l’on croit.
En l’occurrence, s’agissant d’OpenIA, OpenIA après quelques mois, après la sortie de ChatGPT, a dû faire face au premier mini-scandale de son histoire lorsque Time Magazine a lancé une enquête qui a découvert que quelques milliers de personnes, au Kenya, étaient en train de faire exister ChatGPT non pas en ayant des conversations on live, mêmes si, parfois, personnellement, je me pose la question, donc j’attends avec impatience la prochaine enquêté de Time, mais en filtrant, en enrichissant ces données et en rendant possible l’existence même de cette intelligence artificielle.
Par la suite, on a découvert qu’il y avait aussi des personnes en Afrique du Sud, aux Philippines, aux États-Unis, au Canada, ça commence donc à faire effectivement beaucoup de monde, ça commence vraiment à être un peu partout dans le monde.
Je vais terminer en disant qu’il y a effectivement une économie mondiale de la production de ce travail caché du clic qui est nécessaire pour faire exister ces intelligences artificielles, ô combien artificielles. Là, il s’agit effectivement d’intelligence artificielle artificielle, deux fois artificielles. On commence désormais à avoir suffisamment de données ou d’indications pour savoir où sont les travailleurs du clic qui produisent les données qui sont utilisées ensuite pour construire telle ou telle intelligence artificielle.

Qui dirige ?, c’est une autre question. Ce n’est pas un complot international, ce sont tout simplement des entreprises qui achètent les services de travailleurs qui acceptent d’être payés un dollar, deux dollars de l’heure voire beaucoup moins, j’ai aussi vu des personnes qui sont payées 0,0001 dollar par clic.

Qui produit ces données, pour qui ? Si vous allez aux États-Unis, vous avez de fortes chances que les entreprises américaines achètent ce travail du clic, ou aux Philippines qui était auparavant un gouvernorat colonial des États-Unis, ou en Amérique du Sud, ce qui rentre dans une autre zone d’influence politique et économique des États-Unis. Il y a aussi, évidemment, les zones d’influence de la France et là, effectivement, la question de la souveraineté peut prendre toute une connotation beaucoup plus sombre qui, disons, réactualise, hélas, le passé colonial et aussi le présent néocolonial de la France. Si on regarde qui produit les données pour les intelligences artificielles à la française, c’est dans des pays comme Madagascar, comme le Sénégal, la Tunisie, donc des pays qui sont d’abord des pays francophones et d’influence économique et politique française. La situation est beaucoup plus complexe que ça, je termine avec cela.
Il y a de nouveaux acteurs qui se pointent, de nouveaux producteurs d’intelligence artificielle qui, eux aussi, vont acheter du travail du clic dans des pays à faible revenu. Je vais nommer la Chine et l’Inde. La Chine et l’Inde produisent aujourd'hui, surtout la Chine, des intelligences artificielles qui ont besoin à leur tour de parler chinois, de s’adapter au contexte chinois, donc où ces pays vont-ils acheter ce travail du clic, recruter ces travailleurs du clic ? Ils vont d’abord en Chine même parce qu’il y a un énorme marché interne, des personnes dans des zones rurales de la Chine qui produisent des données pour des intelligences artificielles produites dans des grandes villes, dans des grandes technopoles, à Shanghai ou à Wenzhou, et après, évidemment, ils vont aussi dans des pays d’Afrique comme l’Égypte.
Il y a quelques années j’étais en Égypte et j’ai rencontré des personnes qui entraînaient les intelligences artificielles de reconnaissance faciale chinoise. On parle beaucoup du fait que, dans les villes chinoises, il y a des caméras déployées capables de détecter des êtres humains, eh bien ces caméras sont largement nourries, modérés, entraînées, entretenues par des jeunes femmes du Caire, plutôt de la banlieue du Caire, qui se connectent à longueur de journée, qui regardent et qui décident si telle ou telle personne est la même qui, que sais-je, était passée dans l’autre rue à ce moment-là et si cela correspond à une identité civile.
J’ai terminé avec ce changement de perspective qui nous a un peu éloigné de la Silicon Valley, ou de Paris, pour aller regarder ailleurs.

Christian Chavagneux : Merci beaucoup.
Je voudrais continuer cette conversation avec vous trois en signalant quand même au passage qu’il y a plein de gens dans la salle mais aussi des lycéens à Limoges, à Nice, à Nantes et à Kuala Lumpur qui nous écoutent en ce moment. Vous avez un grand public, y compris en dehors du territoire européen.
Laurence Devillers, vous avez dit qu’il faut faire attention, il faut réguler, en même temps si c’est bien utilisé, ça pourrait être très positif. On voit que, de toute façon, quoi qu’on fasse et quoi qu’on dise, c’est de plus en plus utilisé. Où est la valeur ajoutée ? Vous nous dites « attention, j’en ai marre qu’on me dise que l’Europe ne fait rien, regardez le RGPD, tout le monde s’en moque alors que c’est vraiment quelque chose d’important ». Entre celui qui construit les routes et celui qui met juste les feux tricolores, la valeur ajoutée est toujours sur celui qui construit les routes. Nous, Européens, ne sommes-nous pas en train de nous faire complètement dépasser ? Et si c’est mal régulé, si c’est mal contrôlé tant pis pour nous ! De toute façon, on va se faire avoir par les gros producteurs d’intelligence artificielle qui sont aux États-Unis d’un côté, en Chine de l’autre et nous, en Europe, on a l’impression de passer à côté, encore une fois j’ai envie de dire, de cette innovation technologique. C’est juste ou pas ?

47’ 35

Laurence Devillers : Je pense qu’il faut arrêter de dire qu’on est en retard, qu’on a peur, que c’est impossible. Je ne vois comment on peut construire demain un monde dynamique, réactif, en partant déjà de ce constat. Ça suffit !
On a besoin d’engager de la créativité, de faire qu’on va risquer financièrement. Je fais un appel surtout à ces consciences-là, je voudrais que le gouvernement ait aussi une action. Sur l’écologie on voit plein de choses, mais sur le numérique, ça va avec, c’est très utile aussi d’engager beaucoup plus de fonds. On nous demande de faire avec des bouts e ficelle la même chose que les États-Unis, à un moment donné ce n’est pas possible ! La commande publique doit nécessairement engager aussi l’idée qu’on va créer des objets autour de nous.

Ensuite sur la régulation. Il faut réguler les plateformes, le DSA, ainsi que ce qu’on est en train de faire avec l’IA, ça c’est en route.
Ce qu’on n’a pas fait la première fois sur les réseaux sociaux c’était de dire « il faut réguler les réseaux sociaux ». Les Américains sont tous venus nous proposer des tas d’objets technologiques en disant « nous ne sommes pas responsables, ce sont des tuyaux, ce sont des routes, des autoroutes et ce qui passe dessus ce n’est pas notre problème, on n’y est pour rien ». Excusez-moi, ils y sont pour beaucoup et on voit maintenant qu’on ne peut pas lever le capot, on ne peut pas aller vérifier tout un tas de choses. Là, nous nous sommes trompés. Ne refaisons pas la même erreur, ce serait dramatique de se rendre compte de nos erreurs et de se dire « on va être en retard alors il faut adhérer, prendre du Microsoft à l’école et prendre Palantir pour la sécurité et continuer comme cela. »
À quoi ça sert de parler de souveraineté numérique ? J’en appelle quand même à la raison ! À un moment donné arrêtons. On va dire, tout simplement, qu’on dépend des Américains. Point. On va le reconnaître ! Je suis désolée, la Silicon Valley c’est fantastique. En Europe on a aussi des jeunes qui sortent de toutes les écoles qui sont fantastiques, qui engagent beaucoup d’énergie sur le climat, sur l’énergie, avec de l’IA, avec des tas d’objets. Donnons-leur leur chance de créer effectivement des startups. Les grands groupes sont là aussi pour aider. Il faut y croire.
BLOOM, par exemple, a été un projet soutenu par le CNRS, par le ministère pour créer un énorme modèle qui permette aussi de faire des expériences sur les language models comme ces tranformers dont on vient de parler, comme GPT-3.5, ce n’est peut-être encore suffisant à la hauteur. Mais on a le calculateur le plus en avance d’en Europe qui est à Saclay, qui s’appelle Jean Say. Vous savez tout cela. Vous savez que nous premiers en mathématiques dans le classement de Shanghai à Orsay, troisième à la Sorbonne. On ne le sera peut-être plus parce que maintenant on oublie que l’éducation c’est le premier acteur formidable. Qu’est-ce qu’on fait sur la transition au numérique à l’école ? Je suis sidérée. Je suis présidente de la Fondation Blaise Pascal, c’est financé par le CNRS, Inria et les grandes universités, et on vient aider à faire de la médiation culturelle sur les mathématiques avec des jeux, sur l’informatique. On engage énormément de professeurs des écoles, de chercheurs. On fait un truc qui s’appelle « 1 scientifique, 1 classe : Chiche ! », c’est un chercheur d’Inria qui vient à l’école expliquer son métier avec passion.
Allez-y c’est dans nos mains ! Je crois beaucoup que cette nouvelle génération aura plus de foi que l’ancienne génération qui n’a pas osé et qui est allée se réfugier aux États-Unis en disant « il y a une manne incroyable ».
Je pense qu’aujourd’hui c’est maintenant tous ensemble, avec une économie engagée sur le durable, qu’il faut aussi engager une économie sur le numérique éthique, sur le numérique responsable et arrêtons de suivre les cow-boys du Far West. On voit bien qu’il faut arriver à des limites de faisabilité. N’écoutez pas ! Je ne veux pas me retrouver demain, en tout cas pas mes enfants, avec un ange gardien sur l’épaule qui leur donne les bonnes décisions à prendre. Si effectivement on ne veut pas désapprendre, continuer à avoir un esprit critique, continuer à faire avancer collectivement, intelligemment, entre humains, il est essentiel de commencer à travailler sur les enjeux éthiques.

Christian Chavagneux : Tariq Krim , vous vouliez réagir.

Tariq Krim : Sur le constat sur les questions de souveraineté numérique, c’est-à-dire la capacité d’être indépendants et de choisir le futur que l’on veut avoir, je suis évidemment d’accord puisque ça a été mon combat depuis presque 20 ans.
Ça fait une dizaine d’années que je suis un peu, je ne vais pas dire en opposition, mais assez effaré par ce que je vois. Laurence est plutôt proche des choses actuelles avec le gouvernement. Je vois qu’on a eu 10 ans de French Tech. Il se trouve que j’ai fait la mission qui a entériné la création de la French Tech. À l’époque, j’avais une vision très différence de ce qui s’est fait. Je n’avais pas imaginé que ce qu’on appelle la Startup Nation allait devenir plutôt la « fils à papa nation », c’est-à-dire qu’on a donné quasiment tout l’argent public aux classes les plus favorisées, que les ingénieurs, les développeurs, ceux qui codent en fait ne comptent pas parce que, maintenant, il faut avoir fait une école de commerce pour faire de la tech, je caricature un peu, et surtout on a dépensé, et là je ne suis absolument d’accord. L’IA est un des rares sujets où ce gouvernement a eu une politique assez claire en disant « on va mettre le paquet, on va mettre 1,5 milliard », je crois qu’on a rajouté deux milliards, donc on en est à peu près trois milliards. Où sont les produits ? Où est l’argent ? Comment ça se passe ?
Le vrai sujet aujourd’hui derrière. On nous dit toujours qu’il y a l’idéologie de la Silicon Valley, mais il y a aussi l’idéologie actuelle qui consiste à dire qu’on est en train de déstructurer ce pays. En gros, les gens qui vont avoir des CDI sont les gens qui bossent dans les startups, qui sont une autre génération de startups, parce que ce n’est pas du tout celle que j’ai construite, on est vraiment dans un truc tout nouveau ; les enfants des classes moyennes vont devenir ce qu’on appelle des slasheurs, vous avez quatre boulots, vous avez une petite carte avec un truc et vous recevez de l’argent ; les classes populaires et les banlieues se retrouvent automatisées à devenir livreurs, vendeurs, serveurs. C’est ça ce monde ? Donc il y a un vrai problème au départ. Au-delà de tout ce qu’on dit à chaque fois : c’est la Sillicon Valley. La Silicon Valley a construit des outils, a construit une vision du monde. Nous avions une vision du monde qui était basée sur l’excellence des infrastructures. Je vais donner un exemple qui me tient beaucoup à cœur c’est l’exemple de l’eau. La France a une école française de l’eau, c’est-à-dire qu’on construit une vision où au lieu de dire on va faire ça n’importe comment, on a fait ça par bassins, on a structuré les choses, on a des gouvernances intelligentes. On a construit le Concorde, on construit Ariane, on a construit des produits. On bashe toujours la SNCF, mais on est l’un des seuls pays en Europe où, mais quand on a construit notre système de trains, il était extrêmement bien, c’est-à-dire que les trains s’interconnectent, ils sont souvent à l’heure. Quand vous allez en Allemagne, vous vous rendez compte que ce n’est pas si mal. On a donc été un pays d’infrastructures, c’est-à-dire qu’on a construit des infrastructures avec des accords et des équilibres public/privé intelligents.
Aujourd’hui, dans le monde numérique, pour des raisons qui m’échappent, on a une vision idéologique différente qui est souvent l’idéologie de dire « on va copier la Silicon Valley en moins bien, en beaucoup moins bien, parce que la plupart des gens que j’ai vu aujourd’hui dans ces interlocuteurs, la seule chose qu’ils voient c’est le plus joli powerpoint, ils sont incapables de vous dire pourquoi le cloud de Microsoft ou le cloud d’OVH est meilleur ou moins bon, ils n’en ont aucune idée. La vraie question qu’on doit se poser c’est : dans quel monde veut-on vivre en Europe et surtout en France ? Est-ce qu’on veut vivre dans un mode où la technologie nous simplifie un certain nombre de choses, mais nous permet aussi de nous exprimer, d’avoir notre propre individualité, notre propre capacité de réflexion ? Ou est-ce qu’on veut un système où on a une technologie au rabais, où on nous explique en permanence que ces outils vont nous remplacer ? Ces outils ne nous remplaceront pas.
Quand j’ai démarré ma carrière, on me disait « il n’y a plus de boulot, les informaticiens c’est mort ». D’ailleurs aujourd’hui, quand vous entendez les gens d’OpenIA, de cse technologies, on vous dit « on va remplacer tous les ingénieurs grâce à ces IA » et, dans la seconde qui suit, on vous dit « d’ailleurs on embauche les meilleurs si vous voulez venir ! ». En fait on est dans un mode un peu incohérent. Pourquoi ? Parce que, d’un côté, il y a des gens qui vous disent que la technologie va tout résoudre et, de l’autre, il y a des gens qui voudraient la construire et qui n’en ont pas toujours les moyens. Ce que j’aimerais aujourd’hui, pour parler franchement, le problème n’est pas que la question de l’IA, de la régulation, des choses comme ça. La question c’est de savoir si, comme a su le sait faire dans le passé, on est capable d’intégrer à nouveau cette notion de méritocratie parce que l’informatique est une méritocratie. Quand je suis arrivé dans la Silicon Valley je pensais être un des meilleurs. Le lendemain j’étais quasiment en larmes, j’ai dit « je n’ai jamais vu des gens aussi bons de ma vie », ils faisaient en deux heures ce qui me fallait deux semaines à faire. On s’améliore, on se dit si je reste une semaine j’aurais peut-être une chance.
On a un domaine où on a des talents extraordinaires. L’intégralité de l’Internet a été construite en Europe ; Linux, qui est la base de tout, a été construit en Finlande et en France ; le Web a été inventé en France : le MP3, la musique ; le MPEG, la téléphonie sur IP, l’ADSL, l’ensemble des technologies des bases de données a été faite par des Européens et elles ont été réutilisées après. Donc on a un vrai problème : on a une génération entière de politiques qui a dit « on va tout laisser faire en Chine parce qu’on va faire plus d’argent », on a vu le résultat. Aujourd’hui on a une nouvelle génération de politiques qui nous disent : « On va tout faire faire dans la Silicon Valley parce que, de toute façon, on ne comprend vraiment ces trucs et on pense que c’est mieux là-bas ». Il va donc falloir se battre pour ramener un certain nombre de choses, pas uniquement les technologies, s’assurer de valoriser les bonnes personnes. Je pense que le problème numéro un en France aujourd’hui c’est que l’argent ne va jamais chez les gens qui méritent de l’avoir parce que, malheureusement, si vous ne connaissez pas untel ou untel, si vous n’avez un niveau social suffisamment grand, vous n’avez pas forcément accès à de l’argent. Je trouve que c’est dommage parce qu’il y a partout des gens extraordinaires dans ces domaines.

[Applaudissements]

Christian Chavagneux : Antonio Casilli.

Antonio Casilli : Jusque-là on a abordé tout un tas de sujets et on a oublié le fait que ces technologies ont un coût et ce n’est pas seulement un coût économique, ce n’est pas seulement un coût social – même si je me suis efforcé de souligner l’élément coût social – il y a aussi un coût environnemental. Parler de GPT, parler de OpenIA, parler de ces technologies complètement énormes, faramineuses, nous renvoie aussi non seulement à l’empreinte carbone de ces modèles mais aussi à la quantité de ressources qui sont nécessaires pour produire ce qu’on a dans les poches [Antonio Casilli brandit son téléphone, NdT]. Ça c’est du lithium, ça c’est du cobalt, du nickel. Le truc qui est impressionnant est que si on va regarder où sont extraits ces minéraux, où sont extraites ces ressources, eh bien ils se trouvent fort souvent à quelques kilomètres des mêmes endroits où on trouve les travailleurs du clic dont je vous ai parlé auparavant. Je vous ai parlé de Tananarive, la capitale de Madagascar ; à quelques dizaines kilomètres de là, il y a la plus grande mine de nickel et de cobalt qui s’appelle Ambatovy, qui est un énorme puits à ciel ouvert duquel dont extrait ce qui est nécessaire pour produire nos équipements.
J’a fait de nouvelles enquêtes en Amérique du Sud, au Venezuela, au Chili à d’autres endroits et, en 2018 j’étais en Bolivie où j’ai interviewé des personnes qui faisaient effectivement du travail du clic et il y avait à quelques kilomètres de là la plus grande mine de lithium qui s’appelle Uyun, elle s’appelle le Salar d'Uyuni. C’est une énorme mine de sel de laquelle on peut extraire le lithium qui sert pour nos batteries.
Produire cela a évidemment un coût important en termes d’environnement, et ce coût environnemental est aussi lié à la quantité de travail humain qui est nécessaire pour produire ces technologies.

Là je renvoie à ce qu’autant Tariq que Christian avaient dit au début : OpenIA a re-actualisé tout un discours de fin du travail : c’est fini pour tout un tas de métiers. Par hasard, ce sont les mêmes métiers dans lesquels finalement OpenIA a un intérêt économique. OpenIA fait des produits de software, donc il dit « on ne va plus utiliser les développeurs de software ; on va travailler sur la production d’images, on n’aura plus besoin d’illustrateurs ; on va faire de la formation, on n’aura plus besoin des professeurs », c’est évident ! À chaque fois qu’on a un nouveau saut technologique, on remet sur le tapis cette prophétie de 80 %, il y a 10 ans c’était 47 %, des métiers qui vont disparaître à cause de la technologie du jour.
La bonne nouvelle c’est qu’on n’en est pas là, même si auparavant on avait annoncé qu’à l’horizon 2030 on aurait vu disparaître 47 % des postes de travail. Malgré une crise pandémique, une crise géopolitique et une crise climatique, on est dans une situation dans laquelle on travaille aujourd’hui beaucoup plus qu’auparavant.
La mauvaise nouvelle liée à cette bonne nouvelle est que ce travail-là ne sera pas, cela si nous ne faisons pas quelque chose en termes de régulation, encadré et protégé, tel qu’il l’a été du moins en France jusqu’à aujourd’hui parce que les nouveaux postes qui se créent sont justement des non-postes de travail, c’est du travail informel, du travail de plateforme, du travail payé au lance-pierre ou payé au clic comme cela arrive aujourd’hui.

Christian Chavagneux : Juste un dernier mot.

Laurence Devillers : La relation humain/machine, c’est le sujet de ma recherche. C’est vraiment très important de comprendre que ces systèmes peuvent nous manipuler. On a biais cognitifs, par paresse, on écoute le voisin, on va faire comme la machine va nous dire. Ces machines comme ChatGPT ne sont pas un gain de temps ; ce n’est un gain de temps que si vous savez le utiliser comme des brouillons et, derrière, mettez toute votre intelligence pour trouver qui a vraiment dit quelque chose, comment ça peut vous aider et ça vous permettra d’avoir une vision beaucoup plus large de tout un tas de sujets tout en ayant ce que sont les mainstreams, c’est-à-dire les idées les plus racontées partout. Si on veut être créatif, il faut être en dehors de cette machine.

Christian Chavagneux : Pour comprendre tout cela, bientôt Qui a Hacké Garoutza ?, la pièce de théâtre coécrite par Laurence Devillers, les prochains livres de Laurence Devillers, le prochain libre d’Antonio Casilli et les prochaines aventures entrepreneuriales de Tariq Krim.
Merci à tous les trois.

Laurence Devillers : Merci à vous.

[Applaudissements]