« ChatGPT : amie ou ennemie » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Aucun résumé des modifications
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/chatgpt-amie-ou-ennemie ici] - Juillet 2023 »)
Balise : Contenu remplacé
 
(8 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Transcriptions]]
[[Catégorie:Transcriptions]]


'''Titre :'''  ChatGPT : amie ou ennemie ? - Printemps de l’économie 2023
Publié [https://www.librealire.org/chatgpt-amie-ou-ennemie ici] - Juillet 2023
 
'''Intervenants : ''' Laurence Devillers - Tariq Krim - Antonio Casilli - Christian Chavagneux
 
'''Lieu :''' Amphithéâtre du Conseil économique social et environnemental - 11ème édition du Printemps de l’économie
 
'''Date :''' 7 avril 2023
 
'''Durée :''' 1 h 04 min 52
 
'''[https://www.youtube.com/watch?v=Sl_PqbJQK_g Vidéo]'''
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
'''Illustration :''' À prévoir
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
==Description==
 
Avec l'arrivée de ChatGPT, l'intelligence artificielle a fait son entrée grand public. De quoi révolutionner le monde du travail (emplois, productivité...) comme jamais ou bien est-ce une évolution technologique comme les autres ? L'Europe est-elle encore une fois distancée par les États-Unis et la Chine ? Faut-il encourager son utilisation ou bien en avoir peur ?
 
==Transcription==
 
<b>Christian Chavagneux : </b>Bonjour à toutes et à tous. Nous allons commencer cette table ronde de l’après-midi.<br/>
Je me présente, je suis Christian Chavagneux, je suis éditorialiste à <em>Alternatives Économiques</em>, très heureux de revenir ans ce magnifique amphithéâtre du Conseil économique social et environnemental.<br/>
J’avoue que quand j’ai proposé de faire une table ronde sur l’intelligence artificielle et ChatGPT, je ne pensais pas que nous serions autant dans l’actualité. Cette semaine vous avez vu que l’Italie, cher Antonio Casilli, a décidé de suspendre temporairement l’accès à cette IA grand public pour des raisons de gestion des données personnelles. On nous a dit que beaucoup de pays européens pourraient peut-être suivre, éventuellement la France. Le ministre nous a dit, hier soir ou ce matin, je ne sais plus, que finalement la France non ne déciderait pas. On a eu cette étude de Goldman Sachs nous disant que 300 millions pouvaient être perdus au niveau mondial à cause de ces IA. Et puis cette fameuse lettre de « scientifiques », entre guillemets, avec quelques entrepreneurs dont l’inénarrable Elon Musk, demandant de faire une pause pour le développement de cette intelligence artificielle. On est vraiment en plein cœur de l’actualité. Pour ma part, je terminerai avec une petite anecdote : un utilisateur de ChatGPT lui a dit « raconte-moi un bon mensonge ». ChatGPT a dit : « Le ciel est fait avec du fromage frais – Non. Personne n’y croit. Donne-moi vraiment un mensonge très subtil ». Et là, l’IA a clignoté et a dit « je suis un être humain », ce qui est plutôt amusant.<br/>
Nous allons en parler cet après-midi : est-ce qu’il faut avoir peur ? Est-ce qu’il faut encourager ? Est-ce qu’on va avoir besoin ? Est-ce qu’on ne pourra pas se passer de ces intelligences artificielles ? Il y a des craintes sur l’emploi, j’ai rappelé l’étude de Goldman Sachs, il y a des craintes en termes sociaux, en termes d’inégalités : il y a ceux qui vont avoir accès aux dernières versions et à la multitude d’applications qui sont autour de ces intelligences artificielles et ceux qui n’y auront pas accès ; il y a ceux qui vont faire, vendre ces intelligences artificielles, qui vont récupérer une bonne partie, ou pas, de la valeur ajoutée du reste de l’économie, mais aussi des craintes politiques, mais aussi ds craintes même civilisationnelles. Est-ce que ces IA vont finir par nous remplacer ? Je me souviens du livre d’un chercheur américain sur ces sujets, qui était sorti il y a très longtemps, qui avait dit « il y a deux erreurs à ne pas commettre sur ces questions c’est de dire : ça va se passer bientôt et ça ne va pas se passer. »
 
Je suis très content d’avoir réussi à réunir ce plateau de haute qualité cet après-midi. Ce sont trois grands spécialistes reconnus du sujet des IA en général, ChatGPT en particulier, l’intelligence artificielle en général. Je vous les présente par ordre alphabétique.<br/>
Antonio Casilli, au milieu, qui est professeur de sociologie à Télécom Paris. Il a publié <em>En attendant les robots</em>, une enquête sur le travail du clic, on en parlait tout à l’heure. C’est une trilogie. Vous avez eu les robots aujourd’hui, la prochaine fois vous aurez le préquel, ce qui s’est passé avant les robots d’aujourd’hui, on attend cela avec impatience, il va falloir être patients n’est pas pour tout de suite.<br/>
Laurence Devillers qui est professeure d’informatique appliquée aux sciences sociales à la Sorbonne. L’un de ses multiples ouvrages s’intitule <em>Les Robots émotionnels : Santé, surveillance, sexualité... : et l'éthique dans tout ça ?</em> aux éditions de l’Observatoire. Elle a même travaillé sur une pièce de théâtre autour de ces sujets, qui sera en off à Avignon, au mois de juillet. C’est aussi une façon pédagogique de pouvoir avoir accès à ces sujets qui peuvent paraître un peu techniques, scientifiques, difficiles.<br/>
Et puis Tariq Krim, qui est un entrepreneur de la tech. Pour ceux qui connaissent, c’est le fondateur de Netvibes. Il a été l’un des vice-présidents du Conseil national du numérique. Il coanime le réseau Slow web, peut-être qu’il nous en dira un petit mot. Pour ceux qui sont intéressés, son blog est nourri régulièrement qui s’appelait Code souverain.<br/>
Comme vous êtes entrepreneur, Tariq Krim, j’ai envie de vous donner la parole en premier. Finalement n’êtes-vous pas un peu jaloux ? N’auriez-vous pas voulu être Sam Altman, avoir inventé OpenAI, avoir développé ces intelligences artificielles ? Est-ce que c’est quelque chose qui va nous faire du bien ? Est-ce que c’est quelque chose qui est bien ? C’est le signe de notre esprit entrepreneurial ou est-ce qu’il faut un peu s’en méfier ?
 
<b>Tariq Krim : </b>Tout d’abord je suis très heureux d’être là. Je vois qu’on a une audience, ça va être très intéressant, je pense qu’on a aussi un besoin de pédagogie et le premier des besoins de pédagogie c’est que les gens qui inventent un truc tout seul dans leur coin, en général ça n’existe pas, ça n’est que dans les films. Donc ce n’est pas Sam Altman qui a inventé OpenAI, ce n’est même pas lui qui a inventé ChatGPT. Les technologies, on en parlera tout à l’heure, c’est Google qui avait inventé les technologies de ChatGPT. Il faut donc faire attention parce que dans le monde de la technologie, on nous donne toujours ce mythe de la personne seule dans un coin qui invente une chose incroyable et, du jour au lendemain, ça marche. Ça n’est jamais comme ça.
 
En fait, je en suis pas vraiment un spécialiste de l’intelligence artificielle, pour moi l’intelligence artificielle est un amour de jeunesse. C’est d’ailleurs assez drôle, parce que, finalement, ce sont trois femmes, à différents moments, qui m’ont fait aimer cette discipline : la première s’appelle Bonnie MacBird qui était la femme de Alan Kay, qui a fait le scénario d’un film qui s’appelait <em>Tron</em> et <em>Tron</em> c’est un peu pour ma génération ce que <em>Matrix</em> a été pour d’autres plus tard, il y a eu un avant et un après. On rentre à l’intérieur d’un ordinateur, c’était la première fois qu’on comprenait qu’il allait se passer quelque chose de merveilleux. Évidemment, je suis tombé tout de suite complètement fou de ça. J’ai mis en veille mon autre passion qui était la musique. Au départ je voulais être un historien et, finalement, je me suis retrouvé à bidouiller les machines.<br/>
Il y a aussi Sherry Turkle qui m’a fait comprendre, à travers ses différents livres, que la relation avec la machine et l’être humain allait être quelque chose de très important. Une autre femme, qui s’appelle Pattie Maes, a été la première, en tout cas pour moi, à travailler sur les premiers types d’intelligence artificielle. Au départ, avant ChatGPT, la première vraie révolution a été la capacité d’organiser les contenus, ce qu’on appelle le <em>ranking</em>. C’est d’ailleurs la force de Google : vous tapez un mot clef, qui doit être en premier ?, qui doit être en dernier ? Votre génération n’a pas connu l’époque où on allait sur le Web et on devait connaître par cœur les adresses, il y a même eu une époque où on avait des bottins téléphoniques, on connaissait les numéros de téléphone par cœur, c’était avant qu’on ait son téléphone.<br/>
C’est quelque chose qui a toujours été autour de moi. À un moment donné, évidemment, j’ai voulu être un peu sérieux et j’ai voulu faire des études plus poussées là-dessus. Le prof que j’ai eu m’a dit : « L’IA c’est mort, il faut faire autre chose ». C’était dans les années 90. J’ai donc fait autre chose, je suis parti, j’ai pris l’avion, je suis allé à San Francisco, en Californie, dans ce qu’on appelle maintenant la Silicon Valley. C’est là que j’ai découvert que tous les gens qui se passionnaient pour les technologies qui me passionnaient depuis tout jeune étaient là-bas, c’est là qu’était Steve Jobs, c’est là qu’étaient… D’une certaine manière ça a façonné ma vision.
 
Quand on parle d’intelligence artificielle et quand on parle d’informatique – c’est un vrai que c’est un terme qui n’est plus vraiment à la mode, mais ça reste quand même des technologies autour de l’ordinateur –, il y a toujours eu deux visions différentes. C’est un peu dans les années 60 que ça s’est organisé. Quelqu’un a été pour moi très important, il s’appelle Doug Engelbart, c’est la personne qui a inventé la souris, qui a inventé l’informatique moderne, qui disait : « L’ordinateur va servir à améliorer la créativité de l’homme ». C’est Steve Jobs qui le dit le mieux, il a dit un jour : « L’ordinateur c’est le vélo pour l’esprit ». Quand on prend un vélo on peut aller très vite, il s’est dit c’est l’équivalent d’un vélo pour l’esprit, soudain, on peut faire plein de choses. De l’autre côté il y avait un des pères de l’informatique, John McCarthy, pour qui la machine, à un moment donné, allait remplacer l’homme.<br/>
Donc vous aviez toujours ces deux visions : l’outil va nous permettre de faire plus de choses et les gens qui disaient « demain l’outil va nous remplacer ». Le problème c’est que pendant ds années les gens qui espéraient que la technologie nous remplace, il n’y avait pas de produits qui marchaient. L’équivalent, le point culminant de la génération de Doug Engelbart, de l’outil qui va nous aider, c’est l’iPhone. Mais, curieusement, à vouloir nous aider, à vouloir trop simplifier, l’iPhone est devenu un peu une forme de prison, finalement on a des boutons, on clique et on ne peut plus rien faire, d’ailleurs on ne sait mêmes pas comment ça marche, on pourrait croire que ça pousse dans les arbres, on ouvre la boite, on appuie sur le bouton, ça s’allume et tout est prêt .<br/>
Face à ça on a effectivement de nouveaux outils comme ChatGPT. Je ne sais pas qui l’utilise, a utilisé, j’imagine tout le monde, ou va le faire. Je trouve ça fascinant parce que, contrairement à ce que j’entends dire, on ne sait pas trop en fait, c’est tellement nouveau qu’on ne sait pas trop. En tout cas, personnellement je considère que je ne sais pas où ça va et j’ai plein de questions.<br/>
Parmi les questions que je me pose, il y en a une très simple. Je me souviens qu’avant on connaissait des numéros de téléphone par cœur. Puis, un jour, on a eu un téléphone, on les a mis et on a commencé à les oublier, on connaissait peut-être le numéro de téléphone de la maison, des parents, des quelques amis, mais c’est tout. Et puis un jour on a eu le GPS et maintenant vous avez les chauffeurs de taxi Uber, vous leur dites « je voudrais aller gare de Lyon » et, en fait, ils regardent le GPS et ça y est. Certains m’ont mêmes avoué qu’ils ne connaissent pas Paris, mais le GPS est là. Donc, d’une certaine manière, on oublie ça. La question que je me pose avec ChatPGT c’est :quelles sont les choses que l’on sait faire aujourd’hui que l’on va oublier et qu’on ne pourra plus, justement, faire aussi bien ?<br/>
Il y a une autre question qu’on m’a posée récemment, que je trouve très intéressante. Vous savez certainement que ChatGPT permettrait d’écrire facilement, on pourrait presque écrire un livre avec ChatGPT, mêmes si je pense que, pour nous, le plaisir d’écrire est quand même un plaisir extraordinaire. Vous avez peut-être vu cette blague, quelqu’un qui dit « grâce à ChatGPT, je prends une ligne et ça va écrire tout un paragraphe, je peux l’envoyer en e-mail à quelqu’un en lui faisant croire que je l’ai écrit ». La personne qui reçoit l’e-mail dit « grâce à ChatGPT, je peux réduire tous ces e-mails en une ligne et faire croire aux gens qui je les ai lus ». En fait, ils auraient pu s’envoyer une ligne chacun et ça aurait été réglé. C’est cette question qui se pose avec ça :dans un monde où les choses qui étaient difficiles, codées, par exemple quand on fait une startup, quand on construit un projet, du code, c’est compliqué, et on nous explique que grâce à ces outils ça va être simple. Écrire c’est compliqué, raisonner c’est compliqué, on nous explique que grâce à ces outils ça va devenir simple. La question que je me pose c’est : dans ce nouveau monde qu’est-ce qui est difficile alors ? C’est une question ouverte, je n’ai pas de réponse.
 
L’autre chose importante c’est que derrière toute cette bataille, il y a évidemment une bataille de gros sous. Vous connaissez cette blague : on dit qu’il est plus facile d’imaginer la fin du monde que la fin du capitalisme. D’une certaine manière, derrière ces produits, il y a cette question de la domination cognitive, c’est-à-dire qui va dominer mon deuxième cerveau ? Nous aurons notre propre cerveau et, ensuite, on aura ce deuxième cerveau auquel on peut demander de nous aider, de faire nos devoirs, de réciter les choses, de nous inventer les choses. On verra, tout est encore ouvert. C’est un deuxième cerveau qu’on aura en location, c’est-à-dire que quand on arrêtera de payer, on n’y aura peut-être plus accès. On ne sait pas qui y aura accès, on ne sait pas de quoi ce cerveau sera capable de nous parler, est-ce qu’il va nous influencer ou pas. Tout cela ce sont des questions très importantes.
 
<b>Christian Chavagneux : </b>Pardon de te couper. Pour l’instant ce deuxième cerveau est plutôt américain qu’européen ?
 
<b>Tariq Krim : </b>Effectivement. On est aussi en train de basculer d’un modèle de plateformes technologiques à des plateformes idéologiques. Ce qui va être fascinant, c’est que pour apprendre, notamment pour apprendre le langage, il faut analyser la littérature, l’ensemble des connaissances. Une des raisons pour lesquelles on suspecte que ChatGPT n’est pas très ouvert, ne veut pas s’ouvrir, c’est que certaines personnes pensent qu’au départ il fallait analyser l’ensemble des livres et l’ensemble des livres, l’ensemble des documents sont disponibles sur une base de données pirate russe qui s’appelle LibGen et qu’il est possible qu’on ait utilisé l’ensemble de ces contenus pour construire la base. Ça pose évidemment une autre question : peut-on absorber la culture existante pour la refaçonner et pour la revendre en condensé, en tout cas, d’en vendre un ersatz.
 
Pour l’instant, j’ai essentiellement posé des questions. Comme je le disais très humblement, il y a des questions auxquelles j’ai des réponses, des questions pour lesquelles j’ai des idées, des questions auxquelles je n’ai pas encore de réponses.
 
<b>Christian Chavagneux : </b>Laurence Devillers, je vous vois un petit peu trépigner depuis tout à l’heure, je vois que vous avez envie de rebondir sur ce qu’a dit Tariq Krim.
 
==15’ 28==
 
<b>Laurence Devillers : </b>Normalement je fais de la recherche et j’enseigne à la Sorbonne l’intelligence artificielle. J’ai travaillé sur ces sujets-là depuis 30 ans, non pas sur l’intelligence artificielle symbolique des vieux de la veille de l’informatique, mais sur les réseaux de neurones qui étaient émergents dans les années 90, 87, la rétropropagation du gradient, comment on faisait pour apprendre à une machine, de façon distribuée, de l’information. Vous avez entendu parler de ce gros mot qui est <em>deep learning</em>, un système avec plein de couches cachées, plein de neurones, qui va pouvoir faire de la reconnaissance faciale, reconnaître la parole, reconnaître des émotions dans la voix. C’est cela mon sujet de prédilection, de recherche de plus 30 ans. C’est ça le cœur du sujet : le nouveau monde dont on nous parle, c’est un nouveau monde qui marche avec des objets comme ceux-là.
 
En 2017, Google fait ce qu’il appelle les <em>transformers</em> qui sont des algorithmes qui permettent d’agglutiner des milliards de mots et, là aussi, de jongler avec des connaissances minimum. Par exemple, si je parle de ce qu’encapsule ChatGPT, c’est un GPT 3.5 dans cette version-là, c’est-à-dire un réseau de neurones assez complexe qui a embarqué des milliards de mots qui viennent de données qu’on ne maîtrise pas forcément, c’est de la science, des connaissances, des opinions, de l’infox, pluri-langages et, en majorité, américains, dans ChatCPT il y a moins de 5 % de français, pourtant ça vous parle français.<br/>
Ces données-là sont utilisées par la machine de façon non intelligente, l’intelligence artificielle n’existe pas, c’est une imitation artificielle ou une illusion artificielle. C’est assez comique d’entendre que tout le monde joue avec et, finalement, on se gausse de l’intelligence de la machine qui répond alors qu’il n’y a rien : il n’y a absolument aucune intention – à part celle du constructeur qui fait de l’argent avec vos données – il n’y a aucune intelligence, aucune conscience, rien de tout cela. Il y a, en fait, la connaissance de nos propos, de nos mots, qui est encapsulée dans la suite des mots. Quand je dis quelque chose dans ma phrase, la sémantique est dans la suite de mots. Or ces gros systèmes, GPT 3.5, 4 et les futurs, vont encapsuler comme ça des mots ou, en dessous du mot, et regarder ces mots dans des milliards de contextes. Donc, finalement, ils apprennent une certaine sémantique autour de ce mot, lorsque vous envoyez une invite, c’est-à-dire le début d’une phrase, ou une question. Ça ne répond pas à une question , c’est ce qu’on a mis après, au-dessus – dont tu parleras aussi tout à l’heure : on a mis un agent conversationnel qui va interroger ce gros modèle de langage dans ChatGPT. Le gros modèle de langage ne fait juste que générer la séquence des mots les plus probables, des mots ou même en dessous des mots, les entités peuvent être en dessous des mots. Il y en a énormément. On parle d’un modèle qui fait 175 milliards de paramètres avec deux fois plus de ces petites entités qui servent de puzzle ou, si vous voulez, de Lego pour la machine, sans aucune intelligence là-dedans.
 
Ensuite, pourquoi la machine est-elle capable de nous répondre trois fois une phrase différente à la même entrée ? Parce qu’il y a une variable de température qui permet d’aller chercher parmi les 20 % les mots les plus probables, non pas seulement le mot le plus probable, ce qui donne l’impression que c’est assez intelligent. En fait non, c’est du hasard.<br/>
On a aussi l’impression que le système s’adapte à nous. Cela est encore une vaste plaisanterie. C’est-à-dire qu’on prend du contexte, donc, évidemment, il s’adapte un peu puisqu’il prend vos mots en entrée en plus de ceux que vous avez prononcés dans la dernière phrase, ceux que vous avez dit avant. Il va donc s’adapter à ça et aller chercher encore plus une réponse correspondant à ce que vous avez demandé. On a l’impression que ça s’adapte, alors que ça ne s’adapte pas du tout. Par contre, on récupère vos données, et un de ces jours le futur GPT aura effectivement une base de données encore plus importante. Nous sommes tous les cobayes de ce système en ce moment, je ne sais pas si vous vous en rendez compte. C’est génial parce qu’on apprend aussi que ça a des limites, mais il faut arrêter de dire que c’est fabuleux, c’est génial. C’est juste comique.
 
Nous avons écrit une pièce de théâtre qui met en scène un objet comme celui-là, qui prend dans nos mémoires plein de traces et qui est capable de simuler du langage. Mais c’est du langage non humain, qui n’a aucune nature d’humanité, personne n’est responsable de ce que dit le système. C’est un algorithme, des statistiques, des mathématiques qui font que ça produit du langage.<br/>
On est bluffé parce que ça nous semble, là c’est de l’anthropomorphisme, c’est la deuxième bonne nouvelle pour tout industriel : quand on nous parle avec un semblant de langage, on va tout de suite projeter sur la machine des capacités intelligentes qu’elle n’a pas.<br/>
On aide énormément tout startupeur qui se lance là-dedans, tout grand système. OpenIA peut se frotter les mains, il a mis dans les mains de tout le monde un système qui était très bien ficelé, parce qu’il peut dire n’importe quoi. On l’a vu avec le jeune Belge qui est décédé en ayant discuté avec sa machine. Il a dit à la machine qu’il n’était pas bien dans sa vie, qu’il était écoanxieux, la machine lui a demandé : « Avais-tu déjà pensé au suicide ? » Il a dit oui et je ne sais quoi et, finalement, elle a aussi expliqué qu’il allait se retrouver dans l’au-delà, dans le paradis. L’industriel qui a fait ça dans la Silicon Vallley n’a pas pensé à mettre un filtre, Open IA est très bien fait.
 
Dans ChatGPT il y a trois couches : le gros modèle qui agglutine énormément de données qu’on ne maîtrise pas, on ne sait pas d’où elles viennent, ce n’est pas transparent, ça peut être de l’infox ; le deuxième modèle c’est la conversation avec ce système et ça a été optimisé par des humains pour qu’on ait l’impression que ça parle comme un humain ; le troisième niveau c’est la censure, c’est-à-dire qu’Open IA va vous dire : « Hou là, ce sujet-là n’est pas un sujet politiquement correct », donc on ne parle pas trop de religion et si vous regardez un petit peu c’est très discriminant, certaines religions sont ??? [21 min 30], d’autres non. Il y a donc là une censure donnée par un industriel sur son propre produit. Il faut des comités d’éthique, il faut de la régulation dans tout cela, parce qu’on va sur n’importe quoi.<br/>
Si je fais le parallèle, et ça va peut-être vous engager aussi à comprendre mieux, en ce moment on est train de se rendre compte qu’on a balancé du plastique dans les mers un peu partout. Ce sont des micro-billes de plastique, quasiment invisibles, que les poissons vont manger et, derrière, ils vont nous intoxiquer. Je simplifie le schéma, mais il y a un risque comme celui-là. C’est le risque de ce genre de système qui va distiller des choses qui ont l’air vrai, avec une imprécision que sont ces micro-capsules, et en fait il y a plein d’erreurs dans tout cela qu’on ne voit pas forcément directement, le pire étant par exemple Bing, Microsoft, qui nous dit vous allez utiliser ça dans tous les logiciels.<br/>
Que fait Bing il a bien compris un des problèmes majeurs d’enjeu éthique autour de cela, c’est que ce n’est pas sourcé. Normalement, en bon scientifique ou en bon journaliste, lorsque vous annoncez quelque chose vous avez toujours des sources en référence, pour dire ça c’était vrai, ça c’était vrai, donc je raisonne et je vais plus loin. Là, il n’y a plus de sources, ce n’est pas possible de trouver quel est le raisonnement – l’effet de la boîte noire – qui a amené la réponse. On ne peut pas vérifier si c’est juste une <em>fake news</em>, si c’est quelqu’un qui vient de Russie qui s’appelle, je ne sais pas comment prononcer, on ne sait pas. Ils ont très bien compris ça, donc ils font une recherche sur Internet avec un moteur de recherche pour aller chercher quelques références, ils les remettent dans le compte qui va chercher dans GPT 4, et on va remettre des références dans la réponse.<br/>
Pour avoir joué avec Bing, il y a des références qui sont fausses qui sont aussi inventées que le texte qui vous est donné. On parle d’hallucination. Des papiers entiers de chercheurs parlent de ça, essayent d’évaluer quand est-ce que le système sait faire une déduction, quand est-ce qu’il a du sens commun. Effectivement, ça marche plutôt bien, mais c’est très approximatif. Demandez la bibliographie de quelqu’un de connu, vous allez voir que ça l’air juste. Regardez un tout petit peu dans les détails, d’un seul coup vous allez voir un truc qui choque. Le diable est dans les détails et il est partout.<br/>
Il n’y a aucune responsabilité dans la machine, il n’y a aucune responsabilité de personne. On est en train de jouer avec le feu, de trouver cela brillant, sans se rendre compte des limites. Alors on va faire comme d’habitude, loi d'Amara, tout le monde trouve ça génial, c’est naturel, on joue avec, d’un seul coup on dit « oh là, là c’est l’horreur, il y a des risques partout, donc on arrête ! ». Ce n’est pas ça le sujet. Le sujet c’est d’arrêter d’être dans les phares des voitures comme des lapins, de trouver que c’est formidable, de s’esbaudir devant tout le monde des dernières trouvailles et des dernières réponses de ChatGPT. Il faut juste dire : nous avons une augmentation de ce qu’on pourrait faire d’intelligent grâce à ces systèmes qui savant déceler des micro-informations, on appelle ça les signaux faibles, c’est l’intérêt dans les radiographies, par exemple des cancers, de voir des signaux que notre œil ne voit pas. Ces systèmes qui vont jouer sur les images, sur le langage, sur des tas de données différentes, vont pouvoir déceler des irrégularités à des nivaux que nous ne sommes pas capables de percevoir.<br/>
Comment fait-on pour acquérir ces connaissances intelligemment plutôt que de se faire bluffer par le marketing de tout cela.
 
Le moratoire qui est arrivé, qui a été envoyé par des chercheurs comme Bengio et d’autres qui sont en train de dire « attendez, ne confondons pas tout », met partout en emphase que Musk ou le patron d’Apple signe ça. C’est lamentable ! C’est un effet de marketing, un effet de buzz économique qui n’a rien à vous avec le fait qu’il ait envie de freiner. Vous pensez vraiment, honnêtement, qu’Elon Musk c’est le monsieur qui freine les idées ? On en est tous conscients. Il veut juste avoir raison. Il avait dit il y quelque temps « l’IA c’est la bombe de demain », eh bien voilà ! Il faut faire attention !<br/>
Attention aussi à ce qu’on entend comme petite musique. Malraux avait dit : « Le 21e siècle sera un siècle mystique ». Ce n’est pas de la mystique, il ne faut pas croire cela. Ce que nous racontent ces systèmes ce sont des statistiques, des mathématiques, des algorithmes qui sont derrière, qui ont été décidés par des humains, avec beaucoup d’humains à l’intérieur, puisque quand je vais chercher des données, ce sont des humains qui vont les chercher, qui les annotent, qui les évaluent ; les humains vérifient les outils. Tous ces systèmes-là passent à la moulinette de multiples humains qu’il faut aussi mettre dans la boucle. Il faut donc cartographier globalement la situation morale de ces systèmes en regardant l’interaction entre les humains et ce que fait la machine. En tout cas comprendre que le premier sujet c’est la vérité, philosophiquement – vous pourrez en parler après. C’est avant tout savoir si c’est vrai ou pas vrai. Il faut donc faire son propre état critique devant ce que répond ChatGPT. À vous de faire tout le travail, de déceler d’où ça vient, les sources, etc., et si c’est vrai.<br/>
Le deuxième grand enjeu c’est la manipulation. Si demain, dans mon travail, il faut que j’utilise, que je n’ai pas le temps, ou je suis étudiant, c’est facile, j’ai un truc à rendre, je me base là-dessus, le nivellement des connaissances va aller vers le bas, c’est-à-dire qu’on va créer des connaissances qui sont fausses et, demain, d’autres systèmes vont régénérer d’autres modèles comme ceux-là, voire des programmes comme tu le disais très bien. Le fait qu’ils soient capables de construire d’autres programmes, alors pas hyper-compliqués, pas très nouveaux. Ils copient. Mais, de temps en temps, ils illuminent.
 
Un autre facteur nous interroge beaucoup, nous chercheurs, positivement et négativement, ce sont les hallucinations et l’émergence des comportements. C’est pour cela que Bengio et d’autres grands chercheurs donnent l’alerte. Si je n’ai pas signé ce moratoire directement c’est parce que j’étais très énervée de voir des gens comme Musk, ou de voir récupérer cette histoire. On est en tain de se faire manipuler par le monde américain qui, comme on l’a vu, va aussi encapsuler dans ces systèmes des données qui viennent majoritairement des USA, on ne sait pas ce qu’ils font. Est-ce qu’ils traduisent ? Comme je l’ai dit tout à l’heure, dans l’ensemble des mots qu’on manipule dans cette machine c’est le sens, ce sont nos opinions. Qu’est-ce que veut dire le langage qui est issu de cela, même si c’est en français ? Est-ce que ce sont des opinions réellement ? Qu’est-ce que ça veut dire ? Il y a là encore un sujet énorme.
 
Si je reviens sur les hallucinations, de temps en temps le système part un peu en vrille, mais il peut aussi partir en vrille positivement, c’est-à-dire qu’il donne l’impression qu’il y a effectivement une espèce de conscience derrière cela. La machine ne doute pas, elle vous donne des solutions avec beaucoup d’aplomb. Donc attention au langage que cette machine utilise. Elle va dire aussi de temps en temps « nous humains », comme si elle était dans le coup. Tout cela c’est du copier-coller. Ça a un côté rigolo quand ça fait 30 ans, comme moi, qu’on manipule ces objets. Maintenant, pour le commun des mortels qui l’utilise maintenant parce qu’il l’a eue dans les mains, il y a une énorme rupture et un vrai risque sociétal de, finalement, l’utiliser partout.
 
Il faut donc absolument l’encadrer. Le <em>AI Act</em> est la loi sur l’intelligence artificielle, on a beaucoup parlé d’informatique tout à l’heure, mais c’est l’intelligence artificielle connexionniste à partir de réseaux de neurones qui est le vrai danger. Il faut absolument monter sur des régulations, des mesures. Je suis embarquée sur la normalisation. Ce sont trois grands piliers : la loi et il ne faut pas rigoler sur cette loi, on avait déjà pas mal rigolé sur le RGPD, le règlement sur les données personnelles, on a vu que le monde entier nous l’a copié, ce sont vraiment des avancées ; le fait de pouvoir réfléchir et, en même temps, avancer avec les meilleurs chercheurs du monde en France et en Europe.<br/>
Il faut vraiment être conscient que ça suffit d’entendre qu’on est en retard. On est très en avance, par contre, on n’a pas de commande publique pour aider l’innovation. Si vous regardez, même Elon Musk a plein de brevets qui viennent de commandes publiques. Regardons la réalité. Arrêtons de penser que la Silicon Valley c’est le must du must, que ce sont des gens qui réfléchissent et ailleurs ce n’est pas vrai. C’est faux ! Il y a énormément de faux amis là-dedans. Je pense que c’est très sain de comprendre qu’il y a des forces géopolitiques dans tout cela. Il y a la guerre des normes comme il y a la guerre sur la loi, c’est-à-dire qu’il y a plein de gens qui ne voudraient pas que ça arrive, notamment les GAFAM.<br/>
Le troisième pilier, c’est l’éthique et l’éthique est dans vos mains, ce sont les jeunes qui vont inventer tout ça Il faut être encore plus créatifs, c’est-à-dire comprendre ce qu’on peut faire avec ces émergences de comportements absolument fascinants, en même temps ça peut émerger dans l’hallucination, même avec les images. On voit une image qui arrive, qui est très proche de la réalité, comment va-t-on faire demain pour vérifier que c’est une image qui a été montée de toute pièce ?<br/>
La cybersécurité, l’engagement sur l’écologie parce que ces systèmes dépensent aussi de l’énergie, mais sont très utiles pour tout l’engagement de l’industrie verte. C’est vraiment fondamental de comprendre que l’IA est un énorme atout. On l’a vu pour les vaccins pendant la Covid, on n’aurait pas eu autant outils, on aurait sûrement perdu même quelques années.
 
Il faut être très conscient. Je suis très positive sur ces technologies, sauf que je trouve qu’on ne parle pas assez de qu’il faudrait faire demain. Ça demande de la créativité, il faut être interdisciplinaire, à la fois comprendre les conséquences et, en même temps, être très bons dans la modalisation.<br/>
Ça va embarquer beaucoup plus de filles. J’en suis désolée : 80 % de ces systèmes sont faits par des hommes, sur les plateaux nous ne sommes pas beaucoup de femmes. C’est évident que demain, lorsque l’on va comprendre que ce sont des objets sociaux-techniques, les filles vont aussi venir travailler sur ces visions plus humanistes de ce que sont ces systèmes. Comprenez bien toutes les incidences que ça a pour la société.
 
<b>Christian Chavagneux : </b>Merci pour ce tour d’horizon. Je crois que Tariq Krim voulait réagir un petit peu. Vous pouvez débattre tous les deux et après on laissera Antonio Casilli développer son point de vue.
 
<b>Tariq Krim : </b>En fait, j’ai une tripe position : j’ai été entrepreneur, j’ai eu la chance de travailler dans la Silicon Valley et en France et j’ai aussi travaillé sur les questions de régulation.<br/>
Ce qui m’a toujours fasciné dans la Silicon Valley, en tout cas celle que j’ai connue, celle qui existe aujourd’hui est un peu différente. Dans une autre vie j’ai rencontré tous ces gens MusK ??? [31 min 55] , ils étaient vraiment différents de ce qu’ils sont aujourd’hui. Il y a quand même une capacité de créer, d’inventer et de donner le maximum de ce que l’on est dans la Silicon Valley que je n’ai pas trouvée, malheureusement, ailleurs, je parle de la recherche, je parle de la capacité d’implémenter.<br/>
Après, avec tous ces outils, on est toujours face à deux approches : il y a une approche qui est « l’outil n’est pas prêt, mais il a l’air bien, il fait à peu près qu’on veut, on le sort ». Ça, c’est plutôt dans la Silicon Valley. En Europe, on a une approche un peu différente. Déjà, une partie des gens qui nous explique qu’on ne sait rien faire, ce qui est malheureusement le problème quand on est dans l’innovation. J’ai monté mes boîtes en France et, à chaque fois mes seuls véritables soutiens étaient aux États-Unis ; on nous expliquait « non, on n’y arrivera jamais ». En fait, il ne faut pas écouter tout cela, il faut faire ses propres choix.
 
Au niveau de la régulation. Je rentre d’une conférence sur la cybersécurité, on a parlé de guerre de l’information, de la guerre de la désinformation, mais, en fait, on est en train d’entrer aujourd’hui dans un monde où la guerre elle-même va être dirigée par l’intelligence artificielle. Ce qui m’inquiète énormément avec ces outils, c’est qu’on a sorti le dentifrice du tube et ça va être extrêmement difficile de les réguler. La seule manière qu’on a trouvée pour l’instant de les réguler, c’est ce que font les États-Unis vis-à-vis de la Chine, c’est de les empêcher d’avoir accès aux composants stratégiques pour faire de l’entraînement et, même cela, on n’est pas certain que ça marche.<br/>
Je voulais juste faire cette petite remarque.
 
<b>Christian Chavagneux : </b>Merci. Antonio Casilli, le regard du sociologue.
 
==31’ 40==
 
<b>Antonio Casilli : </b>Que dire après tout cela !

Dernière version du 23 juillet 2023 à 15:56


Publié ici - Juillet 2023