« L' Intelligence Artificielle peut-elle remplacer l'homme » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Aucun résumé des modifications
 
Ligne 266 : Ligne 266 :
==47’ 05==
==47’ 05==


<b>Paul Sugy : </b>Cette question du sen
<b>Paul Sugy : </b>Cette question du sens, précisément, semble échapper à l’empire de la machine, peut-être pour une raison que je vous propose comme une hypothèse, c’est que l’intelligence artificielle, ou l’algorithme en tous les cas, c’est une intelligence qui n’a pas de corps, et peut-être même, je vous sais très pascalien, donc attaché à cette notion, peut-être même qu’elle n’a pas de cœur.
 
<b>Aurélie Jean : </b>Qui n’a pas d’âme.
 
<b>Paul Sugy : </b>Mais même plus, vraiment dans la perspective pascalienne, de facultés de connaître, en fait, puisque c’est nous-mêmes qui programmons cette intelligence. N’y a-t-il pas, justement, quelque chose de très inquiétant à imaginer cette intelligence libérée, au fond, des contraintes de notre incarnation, puisque c’est précisément par ces contraintes-là que nous nous sentons responsables du monde qui nous entoure, responsabilité qui, du coup, échappe à l’empire de la machine.
 
<b>Étienne de Rocquigny : </b>Question très riche. Il y a beaucoup de sujets.<br/>
Je voudrais d’abord revenir sur un point que vous avez ouvert tout à l’heure. Ma crainte fondamentale, aujourd’hui, c’est le sujet de la liberté. Effectivement, nous nous asservissons de manière volontaire par rapport à ces machines, là où, justement, nous sommes appelés à les dominer. Nous nous asservissons de manière volontaire et, tout particulièrement, et c’est une crainte très forte comme ancien enseignant, le choc épistémologie de ChatGPT par rapport à Internet avant : vous n’avez plus de sources. Vous n’avez plus, en fait, d’éducation de la raison critique. Je commence à être historien quand je me suis rendu compte que, sur le même événement historique, j’ai trois discours qui sont différents et que je vais faire une nouvelle découverte archéologique qui va remettre en question. C’est pareil en sciences : si je suis poppérien, je dis que je sors de la magie pour faire de la science à partir du moment où je sais réfuter ma théorie parce que j’ai des observations qui viennent la contredire. Ça veut donc dire que la construction de l’esprit critique dépend fondamentalement de la connaissance et de la recherche des sources.<br/>
Alors, comment je fais pour rester libre, et libre dans la recherche de la vérité, si je commence, comme ma nièce, qui est en fac de droit, comme 98 % des étudiants, à faire tous ses devoirs de droit en utilisant ChatGPT. Pour moi, c’est dramatique, c’est une très grande question. Comment est-ce que je vais éduquer des personnes à rester libres à partir du moment où elles succomberont, elles s’asserviront effectivement par paresse à cette machine qui leur délivre un discours tout cuit ?<br/>
Je vais faire un autre clin d’œil biblique, puisque nous sommes aux Bernardins, c’est le mythe de la tour de Babel, qui est un des grands mythes aujourd’hui pour penser la révolution algorithmique. La tour de Babel, qu’est-ce que c’est ? Je vais chercher de la brique, je vais la cuire, je vais prendre du bitume – le bitume est un hydrocarbure non renouvelable qui va tenir les étages de la tour de Babel. J’empile donc des réseaux de <em>deep learning</em>, je monte, je monte, j’arrive à 100 milliards de paramètres, 10 000 milliards de paramètres, je suis sur cette construction infinie, où est-ce qu’elle va ? En fait, cette construction ne va nulle part. Elle ne va nulle part ! C’est une construction complètement insensée.
Une autre chose intéressante avec la tour de Babel, il y a ce rêve d’avoir une seule langue, parce qu’avec une seule langue toute l’humanité va être ensemble. Qu’est-ce que c’est qu’une seule langue ? En fait, c’est un peu ce qui se passe aujourd’hui avec ChatGPT. Si un petit nombre de personnes de la Silicon Valley vont décider de la vérité qui va être présentée dans ChatGPT, qui vont modérer par eux-mêmes, qui vont exclure, qui vont censurer un certain nombre de choses parce qu’ils considèrent que ça n’est pas conforme, alors c’est une seule langue, c’est donc le totalitarisme dont parlent Hannah Arent, Simone Weil, Tocqueville, un certain nombre de gens, c’est cela qui nous guette. C’est donc, pour moi, une grande interrogation et je cherche à savoir comment, aujourd’hui, au temps de l’IA générative, remporter ce défi de l’éducation pour continuer à donner goût aux gens d’être à la recherche de la vérité et, de ce point de vue-là, de sauvegarder leur liberté.
 
<b>Aurélie Jean : </b>Quand vous parlez des sources concernant les réponses de ChatGPT, vous parliez du fait qu’il ne faut pas être dominé par la machine mais reprendre le pouvoir sur la machine, ChatGPT est un excellent exemple, puisque nous ne connaissons pas les jeux de données, nous ne connaissons pas exactement les bases de données sur lesquelles ChatGPT a été entraîné, donc, nous ne connaissons pas les sources. C’est quelque chose que les scientifiques et les ingénieurs reprochent, j’en fais partie, parce que, en fait, ça nous éloigne d’une certaine transparence du contenu qu’il est nécessaire de connaître quand on utilise un outil. Les jeux de données, surtout sur ce genre d’outil, sont très importants à connaître, surtout quand on sait qu’il peut y avoir des biais, des approximations, des réponses faussées. Toutes ces choses-là sont donc importantes.<br/>
Je dis cela parce que j’ai un stagiaire, je l’ai vu avant de venir vous voir. Il a 20 ans, il a fait des recherches sur ChatGPT concernant des choses que je lui ai demandées. Je l’ai challengé, je l’ai défié sur l’origine de ses réponses – une réponse était approximative, voire fausse. En fait, j’ai réalisé qu’il n’avait pas connaissance du processus de la façon dont ChatGPT fournit une réponse. Alors que, par exemple, quand vous ouvrez un dictionnaire, que vous faites une recherche sur Google, Yahoo, peu importe, un moteur de recherche, vous avez la source puisqu’on vous donne le lien vers le document et vous savez qui l’a écrit.
 
<b>Paul Sugy : </b>ChatGPT n’est pas <em>open source</em>.
 
<b>Aurélie Jean : </b>Le code, je ne crois pas ; vous pouvez utiliser les bases de données, il y a des ??? [52 min 19] et tout. Ce qui m’embête, ce sont vraiment les bases de données, ne pas savoir ce sur quoi l’algorithme a été entraîné me bloque, parce que ça ne permet pas d’avoir un œil critique juste sur la réponse fournie. C’est donc cela qui me dérange.<br/>
Encore une fois, je ne veux pas qu’on interdise ChatGPT, je pense que c’est une bêtise, parce que c’est une révolution dans la manière dont on va ordonner le savoir, la connaissance, la transmettre. Par contre, il faut vraiment mettre la pression sur les gens qui vont développer d’avoir des pratiques de développement et d’explication beaucoup plus élevées que ce qu’on a aujourd’hui, et puis former les gens, les jeunes qui utilisent ces outils justement à questionner la réponse. On l’a tous vu. Des gens, pas forcément jeunes, qui quand ils me disent quelque chose et que je leur demande « où est-ce que tu l’as vu ? – Je l’ai vu sur Facebook ». Facebook n’est pas une source, il faut essayer de creuser. Quand je disais, tout à l’heure, qu’il ne fallait pas chercher à tout prix à professionnaliser, c’est le terme que j’entends souvent, professionnaliser une formation. Non, il faut créer des bons esprits, des têtes bien faites. Je pense que c’est fondamental. Souvent on dit qu’il faut commencer à l’école élémentaire, je dis qu’il faut commencer à la maternelle, voire à la crèche, il faut réformer la crèche. Nous sommes tous des êtres intelligents.
 
<b>Paul Sugy : </b>Il nous reste quelques minutes, Il va rester une minute à chacun pour conclure là-dessus. Ça m’amène à reposer une question que, au fond, Étienne de Rocquigny formule très bien lorsqu’il propose, finalement, de faire un pari. Vous dites qu’il ne faut pas interdire ChatGPT, en somme qu’il faut lui faire confiance.
 
<b>Aurélie Jean : </b>Pas lui faire confiance. Il faut apprendre à l’utiliser.
 
<b>Paul Sugy : </b>Il faut miser dessus et se dire que, collectivement, il y a plus à gagner à l’utiliser de façon intelligente et raisonnable ??? [54 min]
 
<b>Aurélie Jean : </b>De toute façon, les gens l’utiliseront, il faut être pragmatique, Paul. De toute façon les gens l’utiliseront.
 
<b>Paul Sugy : </b>Du coup, c’est ma question : est-ce qu’on fait le pari de ChatGPT, de l’intelligence artificielle en général, parce qu’on n’a pas le choix, c’est-à-dire que l’on est poussé par un progrès inarrêtable, en quelque sorte ? Du moment que quelques savants, dans leurs laboratoires, vont concevoir les outils, alors ils s’imposent à nous, mais, dans ces cas-là, on n’est pas vraiment libre, puisque, dans ces cas-là, on est finalement prisonnier de ces outils que l’élite intellectuelle de l’humanité nous impose, plutôt qu’elle nous propose. Ou alors est-ce que, démocratiquement, il y a une vraie capacité aujourd’hui à décider, si l’on va utiliser ces outils, de la façon dont on va les utiliser et, surtout, de la façon dont on va organiser notre société – puisque c’est une question sur laquelle on s’est longtemps arrêté – pour les utiliser de la façon la plus optimale qui soit ?<br/>
Tout à l’heure, Étienne de Rocquigny, vous avez prononcé le mot de bien commun, qui n’est jamais anodin dans votre bouche. C’est-à-dire que le but de tout cela, contrairement à la tour de Babel qui ne va nulle part, c’est bien de faire grandir le bien commun.<br/>
Est-ce qu’on peut faire ce pari ? Est-ce qu’on est libre de faire ce pari.
 
<b>Aurélie Jean : </b>C’est une excellente question, parce que tout ce qui existe ne doit pas forcément être utilisé.
 
<b>Paul Sugy : </b>Et pourtant, vous disiez que du moment que ça existe…
 
<b>Aurélie Jean : </b>Ce n’est pas ce que je disais. Je pense que c’est une bêtise d’interdire ChatGPT, de toute façon les étudiants l’utiliseront, les gens l’utiliseront.<br/>
Il y a un risque d’analyser la pertinence du contenu, mais il y a un risque bien plus dont on parle très peu, parce que le vrai bouleversement n’est pas sur l’algorithme lui-même, il est sur l’interface graphique qui donne l’impression qu’on parle à un être humain. Et c’est ça qui est beaucoup plus dangereux, parce qu’on rentre dans ce point de singularité, dans cette intelligence générale apparente, où on aurait l’impression qu’on parle avec une âme, quelqu’un qui aurait une âme.
 
<b>Paul Sugy : </b>Un anthropomorphisme.
 
<b>Aurélie Jean : </b>Un anthropomorphisme vraiment dangereux et je pense que c’est encore plus dangereux que la pertinence de l’information reçue.
 
<b>Paul Sugy : </b>Cela a conduit à des drames, le suicide d’une personne qui, finalement, s’était liée d’amitié avec l’outil conversationnel et qui a fini par se suicider sur le conseil de cet ami imaginaire.
 
<b>Aurélie Jean : </b>Je ne l’ai pas vu, mais c’est dingue. Des gens se sont mariés avec leur agent conversationnel et leur robot au Japon, en Chine et dans un pays d’Afrique sub-saharienne.<br/>
Vous posez une excellente question, parce que c’est quel est le rôle de chacun, le rôle des États, le rôle des acteurs économiques ?<br/>
Je pense qu’on a toujours le choix, mais il faut que ce choix puisse être infusé, protégé, encadré par pas mal de choses qui sont, certes, la morale, mais aussi la loi. Je m’explique. Je pense sincèrement que ChatGPT est une bonne chose, ça nous permet de faire beaucoup de choses. Cela étant dit, il faut que ce soit bien fait, bien encadré. Par exemple, et ça, pour le coup, je pense que ça a été bien fait : lorsque vous demandez ChatGPT « est-ce que tu as un cœur ? » ChatGPT répond « je ne suis qu’une intelligence artificielle, je n’ai pas d’émotions ». Encore heureux qu’il réponde ça ! Par contre, il y a parfois des tournées de tournures de phrases qui, je pense auraient pu être évitées et davantage encadrées pour éviter un anthropomorphisme systématique.
 
<b>Paul Sugy : </b>Il faut plus d’humilité de la part par des créateurs de l’algorithme.
 
<b>Aurélie Jean : </b>Il faut qu’il y ait des règles. L’anthropomorphisme est utilisé à des fins marketing. Il peut être utilisé à des fins thérapeutiques. Par exemple, quand vous avez une alarme d’incendie qui se met en marche, vous avez une petite voix féminine très sympa qui vous rassure. C’est normal, c’est fait pour vous rassurer. Si maintenant vous avez des choses qui sont là pour vous manipuler et vous faire racheter, vous orienter, ça devient un problème.<br/>
C’est un sujet très complexe. Je pense qu’on n’a jamais un choix complètement libre, il faut le savoir, mais il faut optimiser cette liberté et, pour cela, il faut qu’il y ait une morale, des lois et une pression sur les acteurs. Il y a plein de choses à dire, mais, en fait, il y a beaucoup d’hypocrisie de tous les côtés sur ce sujet.
 
<b>Paul Sugy : </b>Cet anthropomorphisme, au fond, c’est ce qui fait que, parfois, l’algorithme est utilisé comme un divertissement.
 
<b>Étienne de Rocquigny : </b>On va reparler de Pascal. Juste avant de parler de Pascal, une chose à laquelle je crois de plus en plus c’est que, finalement, ces IA génératives sont en train de devenir des médias. Et, face aux tentations de pouvoir, la concurrence est absolument indispensable. De la même manière que la liberté de la presse est vraiment une garantie fondamentale dans un État de droit, je pense, notamment au niveau européen, qu’il faudrait renforcer les garanties antitrust et promouvoir la liberté d’expression, car je ne crains personnellement rien de plus qu’un algorithme dominant, par exemple ChatGPT, qui aurait un tampon de la part d’une autorité française, européenne ou américaine, qui garantisse, à mon insu, que c’est du bien et du mal. Pour moi, c’est le cauchemar absolu. Je pense qu’il faut absolument avoir une diversité, une pluralité et qu’il y ait plusieurs entreprises concurrentes qui soient en quête de la vérité, de la même manière que <em>Le Figaro</em> a un certain nombre de concurrents et ça vous stimule pour être en recherche de la vérité. Pour moi, c’est un élément indispensable de la régulation des algorithmes, c’est l’anti trust et une préservation renforcée de la liberté d’expression. C’est un premier point.<br/>
Il y a un deuxième point, effectivement, pour revenir à Pascal et, de ce point de vue-là, à nouveau prophète de ce qui se passe aujourd’hui, Pascal est le penseur du divertissement. Et qu’avons-nous sous les yeux si ce n’est une gigantesque opération de divertissement. Beaucoup de modèles économiques sont construits sur le fait que vous passiez beaucoup de temps à consommer le produit.
 
<b>Paul Sugy : </b>C’est ce qui produit du cash.
 
<b>Étienne de Rocquigny : </b>Que dit Pascal sur le divertissement ? il dit, en fait, que c’est déraisonnable de vouloir le supprimer, parce que le divertissement est fondamental dans l’âme humaine. L’âme humaine est tellement à la recherche de l’immense qu’on va tous se divertir. En revanche, ce qu’il faut faire, c’est convertir ce divertissement, c’est-à-dire le temps qu’on passe sur ces plateformes, le temps qu’on passe à s’échapper de notre misérable condition, suivant Pascal, il faut le passer au service du bien commun.<br/>
Pour moi, l’intelligence artificielle est là, elle est là comme, autrefois, il y avait le marteau pour construire la tour de Babel ou le temple de Salomon. Ce qu’il faut faire avec l’IA, c’est construire le bien commun et non pas des usines asservissantes. Il faut s’en servir et garantir autant possible la concurrence, la liberté d’expression, et que le meilleur gagne.
 
<b>Paul Sugy : </b>Merci beaucoup à tous les deux, Merci Aurélie jean. Merci Étienne de Rocquigny. Vous nous avez apporté une lecture à la fois pleine d’espérance et d’enthousiasme et, en même temps, je crois, assez réaliste, mus par ce souci de remettre les choses à leur place, loin des fantasmes, loin des idées reçues sur la question de l’intelligence artificielle, mot que j’ose à peine employer maintenant que je sais qu’Aurélie nous propose simplement de parler d’algorithme pour ne pas exagérer les choses.<br/>
Aurélie, on vous retrouve en librairie parce qu’on a toujours le plaisir de pouvoir retrouver votre roman <em>Résistance 2050</em> pour ceux qui veulent approfondir ces questions sous une approche plus fictionnelle.<br/>
Étienne de Rocquigny, je crois que vous revenez aux Bernardins en novembre pour nous parler aussi de la question de la parcimonie, de la modération, de la sobriété dans l’intelligence artificielle.<br/>
Merci à vous tous qui avez suivi ce débat jusqu’ici. Vous savez que votre nouveau rendez-vous, maintenant, c’est sur la chaîne YouTube des Bernardins, c’est ici, sur <em>Les débats des Bernardins</em>. N’hésitez pas à faire connaître ces conversations, elles sont faites pour vous, sur des thématiques d’actualité que l’on veut regarder avec notre regard, éclairés par, évidemment, une vision chrétienne, mais en même temps avec ce souci d’apporter de l’espérance dans ce monde sur tous les grands enjeux qui nous concernent.<br/>
Abonnez-vous, partagez, faites connaître cette chaîne et à bientôt, ici, pour plein de nouveaux rendez-vous. Merci à tous.

Dernière version du 29 novembre 2024 à 13:44


Titre : L'Intelligence Artificielle peut-elle remplacer l'homme ?

Intervenant·e·s : Aurélie Jean - Étienne de Rocquigny - Paul Sugy

Lieu : Podcast Les débats des Bernardins

Date : 1er mars 2023

Durée : 1 h 02 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription[modifier]

Voix off : L’écoute, le respect, la capacité à se mettre à la place de l’autre, à changer de regard ou d’avis, autant d’éléments indispensables dans une société hyper-médiatisée qui ne sait plus débattre.
Le Collège des Bernardins propose ce débat afin de rendre possible un vrai dialogue sur les interrogations de notre temps et renouer ainsi avec l’art de la contradiction.
Bonne écoute.

Paul Sugy : Chers amis, il faut bien reconnaître, ça va beaucoup trop vite. À peine découvrions-nous, il y a quelques semaines, quelques mois, ChatGPT, ce nouveau robot conversationnel avec qui on peut entretenir une discussion pendant des heures, que l’on apprend que la deuxième, la troisième, désormais je crois la quatrième version sont déjà prêtes. Bref !, ça va beaucoup plus vite encore que l’iPhone, vous savez, quand vous en avez acheté un, le nouveau modèle est déjà disponible.
On a l’impression que l’intelligence artificielle est en train de nous bousculer, qu’elle va plus vite que ce que l’on peut suivre. Et puis, face à cela, les ingénieurs eux-mêmes semblent parfois pris de court, les innovations se multiplient à un rythme effréné. Et pourtant, nous avons cette conviction profonde que ce qui se joue autour de l’intelligence artificielle nous concerne et que notre avenir est déterminé par cette révolution technologique. Alors il faut bien en parler et, quand on en parle, c’est peut-être souvent l’inquiétude qui prédomine. Combien de fois n’avons-nous pas entendu dans le débat public, ces peurs face donc à une intelligence artificielle qui pourrait demain nous remplacer, qui risquerait de supprimer tous les emplois, qui pourrait aggraver les inégalités, augmenter les biais dans nos interactions humaines, voire complètement nous asservir et réduire définitivement notre liberté ? Sommes-nous en train de devenir bel et bien, comme dans les pires cauchemars de la science-fiction, les esclaves de la machine et de l’intelligence artificielle ? Nous allons voir. En tous les cas, il faut parler de ce sujet, il faut en parler aux Bernardins, c’est notre conviction, pour l’éclairer peut-être avec toutes la nuance que nos invités sauront y mettre, mais aussi avec ce regard d’espérance qui nous caractérise dans ces débats et qui est précieux pour nous.
Nous savons que notre génération est en train de vivre, finalement, un saut dans l’inconnu, en entrant, peut-être, dans ce qui était réservé autrefois au domaine de l’imagination. Ce que nous n’avions pas osé imaginer il y a quelques dizaines d’années est aujourd’hui en train de se produire sous nos yeux.
Et puis peut-être cette question aussi, pour paraphraser un petit peu la Genèse : l’homme est en train de créer l’intelligence artificielle à son image. On voit bien que le but est que cette intelligence ressemble le plus possible à la nôtre. Au fond, quel avenir pour l’humanité, si l’on est capable de dupliquer cette humanité, mais en est-on seulement capable ?
v Voilà un peu toutes les questions dont on va discuter dans ce nouveau débat.
Pour ceci, j’ai le plaisir de recevoir Aurélie Jean. Bonjour, Aurélie.

Aurélie Jean : Bonjour.

Paul Sugy : Et Étienne de Rocquigny. Bonjour Étienne.

Étienne de Rocquigny : Bonjour Paul.

Paul Sugy : Merci à tous les deux d’avoir accepté de vous plier à cette conversation. Vous avez beaucoup de points communs, à commencer par celui-ci : vous êtes tous les deux scientifiques et c’est d’autant plus précieux que le débat qui nous intéresse, évidemment philosophique, anthropologique, peut-être même théologique en un sens, reste d’abord un débat scientifique.
Aurélie Jean, vous êtes scientifique, spécialiste du numérique. Vous êtes aussi entrepreneuse. Vous avez notamment fondé et vous dirigez la société In Silico Veritas qui s’occupe de modélisation numérique. Vous avez aussi fondé une start-up qui est spécialisée dans les applications – tout ce qu’on peut faire de magnifique avec l’intelligence artificielle – qui s’intéresse notamment à l’application dans la santé et qui permet de s’intéresser au cancer du sein. Vous êtes classée par le magazine Forbes comme l’une des 40 Françaises, cocorico, qui seraient les plus influentes au monde. Rien que ça, rendez-vous compte ! Et puis, vous avez écrit plusieurs ouvrages, le dernier en date, Résistance 2050, avec votre coauteur, Amanda Sthers ; c’est un roman de science-fiction. Avant cela, vous avez écrit cet ouvrage dont le titre est une question, Les algorithmes font-ils la loi ? aux Éditions de l’Observatoire, ou encore De l’autre côté de la machine : voyage d’une scientifique au pays des algorithmes. Le voyage se passe-t-il bien ?

Aurélie Jean : Très bien.

Paul Sugy : Il va se poursuivre avec nous. En tous les cas, merci, Aurélie.
Face à vous Étienne de Rocquigny. Vous êtes aussi scientifique, vous êtes mathématicien, vous avez été vice-doyen de l’École centrale de Paris, vous êtes le président donc de Blaise Pascal Advisors, le fondateur aussi d’un think tank, qui liejustement l’espérance et la question des algorithmes, Espérance et algorithmes. Vous êtes aussi un auteur prolifique. Vous avez publié notamment Entreprendre à l’ère des algorithmes pour servir sans asservir, c’est un livre blanc, je crois, que vous avez fait avec l’aide des Bernardins et du Centre Sèvres. Et si je peux divulguer ce petit secret, je crois que vous vous apprêtez à publier un livre, cette fois-ci sur Pascal, dont le titre sera Le sens de l’IA à l’école de Pascal entrepreneur [Publié le 7 novembre 2023]. Juste avant qu’on rentre sur ce plateau, vous me disiez, avec un air taquin, qu’au fond c’était Pascal qui avait inventé l’intelligence artificielle. J’avoue que je suis tombé de ma chaise.

Étienne de Rocquigny : À de nombreux égards, certains connus par ChatGPT, d’autres non, et je vais commencer par les choses qui sont connues par ChatGPT, Pascal a construit le premier ordinateur mécanique, dont on pourrait dire que c’était une calculatrice, et Pascal disait qu’il permettait aux sots de calculer, qu’il donnait des pouvoirs arithmétiques ou algébriques à des sots. On peut faire la métaphore aujourd’hui avec ChatGPT. Pascal est aussi l’un des co-inventeurs de la théorie des probabilités. L’intelligence artificielle, aujourd’hui dominante, est une gigantesque machine probabiliste. Mais une chose que ChatGPT ne sait pas, c’est que Pascal a été aussi un entrepreneur en série, ça sera l’objet de mon livre, et c’est très intéressant, parce que je pense que l’aventure de l’intelligence artificielle est une aventure qui est profondément entrepreneuriale, que Pascal a vécue et, pour entreprendre, il faut d’abord faire preuve de rhétorique et Pascal est le maître inconsidéré de la rhétorique. Il parle du roseau pensant. L’intelligence artificielle est aussi un oxymore magnifique qui a été inventé dans les années 50, qui a permis de lever des milliards sur la base de la rhétorique et on va voir que la rhétorique c’est très important dans l’intelligence artificielle.

Paul Sugy : En tout cas, merci à tous les deux d’avoir accepté de confronter vos intelligences, vos visions sur ce sujet. Peut-être que, au fur et à mesure de la discussion, on verra à la fois les points communs que vous pouvez avoir, cette passion, cet intérêt commun pour l’intelligence artificielle et pour tout ce qu’on peut faire de beau et grand avec, et puis, en même temps, on essaiera de voir aussi ce qui peut peut-être différencier vos regards.
D’abord, ce que j’aimerais, c’est que vous m’aidiez à comprendre pourquoi, au fond, on en fait autant autour de l’intelligence artificielle. Ce que je veux dire, c’est que, inventer de nouveaux outils, le génie humain l’a toujours fait. L’intelligence artificielle est probablement quelque chose de plus grandiose que tout ce qui a été fait jusqu’ici, mais c’est justement l’histoire du progrès des sciences et des arts qui veut ça.
Pourquoi, aujourd’hui, a-t-on le sentiment d’être au bord d’une révolution ? Est-ce que l’intelligence artificielle est vraiment une révolution ? C’est la question que j’ai envie de vous poser et peut-être tout simplement et pour commencer, si vous êtes un peu honnête avec vous-même, Aurélie, vous répondrez comme vous voulez.

Aurélie Jean : Je suis toujours honnête !

Paul Sugy : Je n’en doute pas une seule seconde ! La question que je veux vous poser, c’est celle-ci : est-ce que vous auriez imaginé, il y a 10 ou 15 ans qu’on en serait là aujourd’hui ? C’est-à-dire que face à la puissance technologique des outils que l’intelligence artificielle propose aujourd’hui, est-ce ce que c’est une révolution qui était imaginable, anticipable, ou est-ce que vous avez été surprise ?

Aurélie Jean : Pas surprise, mais je l’ai saisie et je l’ai accueillie, on va plutôt dire ça comme ça. Disons qu’à 15 ans, je commençais ma thèse de doctorat, un peu plus en avant. J’avais des limitations de calculateur quand j’ai fait ma thèse, c’est-à-dire que j’étais limitée par la taille des calculateurs sur lesquels je pouvais faire mes calculs, donc j’étais limitée sur la taille des calculs que je pouvais faire, limitée par mon algorithme, en fait, et je savais que, dans le futur, ça allait être possible. Quand je vois aujourd’hui la taille des calculateurs et l’amélioration des algorithmes avec lesquels j’aurais pu faire ma thèse, j’aurais pu aller plus loin. Donc, je le savais.
Maintenant, tout ce qui concerne les évolutions algorithmiques sur les réseaux neuronaux, on avait déjà des débuts dans les années 90, c’est là que ça a commencé et, dans les années 2000/2010, ça a été un grand boom. C’était juste après ma soutenance de thèse en 2009.

Paul Sugy : Vous êtes arrivée au bon moment.

Aurélie Jean : Je suis arrivée au bon moment, mais, disons que c’est davantage tout ce qui est applications qui m’étonne, qui m’intrigue et qui m’intéresse. Je n’aime pas le mot intelligence artificielle – on pourra revenir dessus, j’aime bien parler d’algorithmes et de données, parce que, à la fin, c’est comme ça qu’on fait, on crée des algorithmes, on les entraîne, on les calibre sur des jeux de données pour pouvoir répondre à une question.

Paul Sugy : L’intelligence artificielle n’est jamais rien d’autre qu’un algorithme.

Aurélie Jean : Je le dis souvent, parce que, dans l’intelligence artificielle, il y a plusieurs domaines : vous avez le domaine algorithmique, donc le domaine modélisation, représentation de la réalité à travers un modèle qui va justement simuler une certaine réalité ; vous avez aussi la partie robotique, qui va être plutôt une partie hardware. Il y a aussi des gens qui vont aussi travailler sur l’interaction homme-machine, ce qui peut s’éloigner de l’aspect purement algorithmie.

Paul Sugy : On incorpore l’algorithme par exemple dans un robot humanoïde, des choses comme ça.

Aurélie Jean : Exactement et plein d’autres choses. Il y a des gens qui s’intéressent à l’intelligence artificielle sous l’angle sociologique et anthropologique. C’est donc vraiment très général. Moi, je parle d’algorithmique et de données parce que c’est ce que je fais au quotidien, d’ailleurs, si je peux me permettre, je conseille aux gens de lire le livre de Luc Julia, qui a cocréé Siri, qui a été directeur de recherche chez Samsung, qui est un ami, qui a écrit un livre qui s’appelle L’intelligence artificielle n’existe pas. Je pense que ça résume assez justement les réelles capacités de ce qui se fait réellement au sein de l’intelligence artificielle, qui n’est qu’une reproduction, une modélisation de l’intelligence analytique humaine et non pas l’intelligence pratique et créative ; on pourra revenir là-dessus.

Paul Sugy : D’accord. Donc, au fond, c’est une intelligence qui reste cantonnée à son rôle, qui est en fait celui d’être un supercalculateur.

Aurélie Jean : Exactement. Et qui a des capacités de comparaison statistique et d’analogie, d’aller trouver des signaux faibles et des analogies que nous, humains, nous ne pouvons pas détecter. C’est là la force de ces modèles, mais il faut toujours bien indiquer de quel type d’intelligence on parle. Je pense que c’est important.

Paul Sugy : Êtes-vous d’accord avec ça, Étienne de Rocquigny, l’intelligence artificielle, ce n’est que du calcul.

Étienne de Rocquigny : Ça dépend du point de vue dont on parle. Encore une fois, l’innovation technologique, c’est très risqué, il faut lever beaucoup d’argent. Si je cherche à lever de l’argent, je vais parler d’intelligence artificielle, parce qu’il faut emmener les gens sur Mars ! On connaît un entrepreneur talentueux qui, d’ailleurs, veut aller sur Mars. Si vous voulez aller chercher de l’argent, il faut promettre Mars. Les mauvaises start-ups vont ensuite livrer un escabeau de jardin.
Ce terme-là a une puissance de communication inégalée.

Paul Sugy : Il fait partie de notre imaginaire.

Étienne de Rocquigny : Je suis tout à fait d’accord avec Aurélie, il est plus juste de parler d’algorithmes. D’ailleurs, notre think tank s’appelle « Espérance et algorithmes » et non pas « intelligence artificielle ». Espérance – on pourra y revenir – pseudo-messianique, ça n’est pas là que gît l’essentiel. L’essentiel, c’est plutôt à travers le mot d’algorithmes dans des machines qui vont permettre d’automatiser, de manière stupéfiante, un certain nombre de processus au service, si possible, du bien commun, pas toujours. C’est donc bien cette machine qui est importante, c’est l’algorithme, et non pas la représentation. Là encore, j’ai mentionné à dessein le mot « messianique », parce que derrière cette communication-là, beaucoup de gens vont placer derrière les avancées technologiques une espérance de type messianique, c’est-à-dire qu’on croit qu’avec ça, on va effectivement résoudre tous les problèmes dans le monde, on va résoudre les pestes, les famines, les problèmes de discrimination, etc., qui sont des problèmes effectivement considérables et, je vais revenir à Pascal, le cœur humain désire l’infini. Au fond du cœur, il y a effectivement cette soif humaine pour l’infini et un certain nombre de gens vont placer derrière ces technologies, effectivement stupéfiantes, une espérance messianique. Il est bon de dire qu’on peut douter un petit peu de cette espérance messianique.
Encore une fois, j’aime beaucoup ce qu’a dit Aurélie sur les algorithmes, on peut, il est même salutaire de revenir sur terre, donc de regarder de manière objective ce que font ces machines, comment elles sont utilisées et comment elles peuvent servir le bien commun. C’est ça le plus important et non pas, même si ça fait vendre des livres, s’attarder sur ces promesses presse eschatologiques

Paul Sugy : Pour revenir sur terre, justement, je voulais vous soumettre à un petit jeu. C’est une vidéo de l’INA qui circulait ces derniers jours. On y voyait un chercheur du MIT, il y a un demi-siècle, qui s’appelait Nicholas Negroponte, qui disait que dans 50 ans, donc aujourd’hui, l’intelligence artificielle serait capable de comprendre une plaisanterie. Au fond, c’était ça la question. Quand on a commencé à développer l’informatique moderne, on s’est dit « finalement, l’humour résistera toujours à l’algorithmique ». ChatGPT n’est peut-être pas drôle et si vous lui demandez de l’être, il ne vous fera peut-être pas rire. Mais si vous vous entrez une blague dans le robot conversationnel ChatGPT, il est capable de vous expliquer quel est le ressort comique. Il a cette intelligence-là de comprendre ce qui fait rire les gens. Donc, on y est quasiment, si vous voulez.

Aurélie Jean : Non, c’est plus subtil que ça.

Paul Sugy : C’est plus subtil que ça, alors dites-moi !

Aurélie Jean : J’aime beaucoup Nicholas Negroponte qui, par ailleurs, a fait le premier ??? [13 min 30] en 84, dans lequel il a dit que dans le futur, on n’aurait plus de clavier, qu’on taperait sur un écran. Donc, Nicholas Negroponte est un homme visionnaire, il faut le savoir.

Paul Sugy : Il avait inventé la iPad il y a 30 ans.

Aurélie Jean : Je trouve que c’est quelqu’un de visionnaire. Il a inventé le MIT Media Lab.
Concernant les blagues, je pense que c’était une extrapolation un peu forte, puisque, en fait, l’humour, c’est de l’ordre de la créativité, de l’intelligence émotionnelle et du bon sens, donc l’intelligence pratique. Je pense qu’il faut revenir à la théorie triarchique de l’intelligence.

Paul Sugy : Donc, l’algorithmique ne peut pas en faire du tout.

Aurélie Jean : Non, l’algorithmique ne va pas pouvoir générer un humour from scratch, à partir de rien. Par contre, ce que vous dites là, à savoir qu’il y a des blagues et il peut expliquer pourquoi c’est drôle, pour la simple et bonne raison, c’est qu’il y a une logique sous-jacente à des blagues qui sont propres à la manière dont les gens les utilisent. C’est-à-dire que si vous donnez un jeu d’entraînement de blagues, de textes de blagues, et que vous allez regarder comment les gens réagissent à ces blagues au regard du nombre de likes, de commentaires ou s’ils les utilisent, tout simplement, à partir de ce moment-là, l’algorithme va pouvoir, éventuellement – je ne l’ai pas fait – capturer des signaux faibles ou des signaux forts des raisons pour lesquelles cette blague est trouvée drôle, en fonction du contexte dans lequel elle a été utilisée, mais aussi en fonction des gens qui vont partager cette blague. Donc, ces différences sont plutôt des méta-informations sur les raisons pour lesquelles la blague est drôle.

Paul Sugy : C’est analyser la récurrence d’un comportement.

Aurélie Jean : Par exemple, plus que la substante moelle de l’humour, qui est, pour le coup, purement humaine, c’est important à retenir.

14’ 56[modifier]

Paul Sugy : Du coup, je vais quand même vous faire un tout petit peu jouer au jeu Nicholas Negroponte. Vous allez me dire si vous pensez que c’est une chose qui est vraie ou si ça vous paraît complètement fantasque, parce que c’est un petit peu ça la question, on parle de l’intelligence artificielle aujourd’hui, on voit bien que les choses vont très vite : dans 50 ans, qu’est-ce que l’intelligence artificielle aura encore changé ou apporté à notre monde ? Est-ce qu’on peut imaginer que, dans un demi-siècle, l’intelligence artificielle pourra trancher un litige au tribunal ? Est-ce qu’elle en serait capable ?

Aurélie Jean : Pas strictement. Par contre, elle pourra apporter des éléments en particulier dans les systèmes judiciaires comme le système américain, qui est basé beaucoup sur la jurisprudence, donc sur l’analyse, après, elle pourra apporter des éléments de comparaison avec des affaires antérieures. Mais attention, il va falloir qu’il y ait un revirement judiciaire possible à tout moment qui fait qu’une jurisprudence peut être basculée. C’est très important. Ça existe déjà d’avoir des éléments éclairants, mais le fait de trancher, de décider à la place d’un juge, sûrement pas parce que la justice est avant tout une histoire d’êtres humains, d’histoires, mais on peut tout à fait aller chercher des éléments dans le passé, au regard du système judiciaire, comme un système judiciaire de jurisprudence.

Paul Sugy : Donc l’algorithme peut, en fait, amasser une quantité de documents en mémoire.

Aurélie Jean : Exactement. Des décisions passées de pourquoi on a décidé ainsi, mais on ne peut pas se baser que là-dessus, parce que, en face de vous, chaque procès, chaque affaire est unique, C’est très important, pour en avoir parlé des juges et des avocats, premièrement. Et deuxièmement, vous avez le revirement judiciaire qui est fondamental dans un système quel qu’il soit, même dans notre système de droit, qui n’est pas strictement de jurisprudence, bien évidemment vous le savez, mais on a besoin d’avoir des revirements, des décisions qui n’ont jamais été prises et qui renversent, en fait, renversent toutes les décisions passées.

Étienne de Rocquigny : Je suis tout à fait d’accord et je pense qu’il faut aussi s’ouvrir. Je vais faire deux ouvertures, une scientifique et une plutôt spirituelle.
La première ouverture scientifique, c’est que le domaine des algorithmes, de la raison prédictive, est un domaine d’inférences, on pourrait dire de règles de décision. Aujourd’hui, les règles qui sont très à la mode parce qu’elles ont effectivement remporté à court terme le match, ce sont les règles probabilistes. Pascal est-il coupable ? Je ne sais pas. Je parie. Je regarde les enchaînements passés la plupart du temps, c’est ça, bon, je dis ça. Et la logique promise, qui est bête et méchante, qui consiste juste à compter le nombre de fois où j’ai observé quelque chose, mais, en fait, qui marche mieux qu’une logique beaucoup plus construite, qui va construire des raisonnements à partir d’informations sur ce qu’est que la justice, dans quels cas je…, etc. Bon.
Néanmoins ces machines prédictives, qu’elles se basent sur une raison probabiliste ou alors sur une modélisation plutôt phénoménologique et logique, sont limitées aux observations, c’est-à-dire que si vous n’avez pas tous les faits, si, pour un certain nombre de raisons, il y a des circonstances de l’accident ou de l’assassinat qui vous échappent, alors le meilleur modèle du monde, si vous enlevez des données en entrée, ne va pas vous donner la bonne réponse.

Paul Sugy : Cela est vrai aussi pour intelligence humaine, si les jurys populaires n’ont pas accès à tous les éléments, le jugement n’est pas le bon.

Étienne de Rocquigny : C’est tout à fait vrai, d’ailleurs, quand on fait le procès des algorithmes – j’aime bien la position d’Aurélie qui dit que ce sont vraiment des algorithmes, ceux qui ont conçu les algorithmes – il faut toujours raisonner de manière un peu différentielle, c’est-à-dire que oui, il y a des biais dans les algorithmes, mais est-ce qu’il y en a dans les décisions humaines qu’ils les remplacent et finalement quel est le pire ?
Je voudrais quand même revenir sur les limites de la raison qui seront vraies dans le futur. C’est-à-dire que si je n’observe pas l’intégralité du réel, alors j’ai beau avoir un modèle fantastique, je vais faire des erreurs. Or, il est permis de douter que l’on puisse, même dans 50 ans, observer l’intégralité du réel. Il y a d’ailleurs des raisons physiques fondamentales. Si vous faites de la physique quantique, vous savez que les relations d’incertitude d’Heisenberg prévoient qu’à l’échelle microscopique, vous ne pourrez jamais mesurer, au même moment, la vitesse et la position d’un électron. C’est comme si la réalité, d’une certaine manière, échappait fondamentalement à la mesure humaine. Et ça, c’est de la physique théorique, ce n’est pas une limitation d’énergie ou de technologie de mesure, c’est de la physique théorique. C’est comme si, au fond, le réel échappait, le réel était, d’une certaine manière, plus libre que la réalité de l’observation. C’est la première limite.
La deuxième limite, c’est celle du jugement de Salomon, qui est un grand texte biblique. Vous vous souvenez de l’histoire du jugement de Salomon : deux femmes se battent pour savoir de qui est l’enfant. Que va faire Salomon ?

Paul Sugy : Couper l’enfant en deux !

Étienne de Rocquigny : Est-ce qu’un algorithme aurait pu, dans ce cas-là, faire exactement cela ? Évidemment, si on a proposé à salomon.com 17 observations de la même situation, peut-être va-t-il proposer ça ! Mais cette intelligence, cette sagesse humaine dans l’instant, voilà quelque chose aussi qui échappe, finalement, et la justice se fait de manière dynamique. La justice ne se fait pas une manière statique : je prends les observations, je juge. Non ! Je vais discuter avec les accusés, je vais laisser quelque chose se passer et on ne pourra pas entrer cela dans une boîte algorithme.

Aurélie Jean : D’ailleurs, pour rebondir sur l’aspect observation, c’est très important parce qu’en fait, ça nous concerne tous au quotidien, pas que l’intelligence artificielle ou les algorithmes, c’est de se demander : est-ce qu’on a tout observé ? Il faut avoir de l’humilité, et je pense que quand on développe des algorithmes, on peut aussi devenir très humble. Les sciences, en général, nous font devenir très humbles, parce qu’on reconnaît qu’on ne sait pas tout et on reconnaît qu’on n’observe pas tout. Il y a un paradoxe dans l’observation : je pense qu’on ne saura jamais si on a tout observé. Pourquoi ? Parce que pour savoir si on est tous observé, il faut déjà avoir l’ensemble observable et cet ensemble observable est, par définition, une inconnue. C’est pour cela que la science donne cette humilité à celui qui l’a fait, qui l’a construit et qui l’utilise, parce qu’on est toujours dans le doute. Je pense qu’il est très important de garder à l’esprit qu’il faut être très critique et garder un œil critique, en tout cas sur les modèles qu’on va développer ou qu’on va utiliser, parce qu’on se dit qu’on n’a peut-être pas tout observé, et c’est fondamental dans la suite.

Paul Sugy : C’est intéressant. Finalement, vous vous rejoignez tous les deux, l’un et l’autre, pour dire que ce qui limite l’intelligence artificielle, c’est la connaissance, parce qu’elle tire sa puissance justement de l’ensemble de connaissances qu’elle a ou qu’elle acquiert. Est-ce ce que c’est vrai aussi pour l’intelligence humaine ? Au fond, est-ce qu’il y a ce parallèle entre l’intelligence algorithmique et l’intelligence humaine, qui est que la valeur de notre jugement dépend justement de l’intelligence qu’on a, de la connaissance qu’on a d’une situation donnée.

Aurélie Jean : Considérant le fait que la connaissance et l’intelligence que vous développez se fait à partir de votre histoire, de qui vous êtes, de qui vous a élevé, de comment vous avez été élevé, des études que vous avez faites, des gens que vous avez rencontrés, etc., bien évidemment, vous avez un égo qui se modèle et que vous essayez dompter autant que vous pouvez après, au fur et à mesure des années de votre vie. Vous avez aussi une personnalité qui va se dessiner, donc, forcément, vous allez avoir un prisme d’observation du monde qui est le vôtre, avec ses biais, ses biais cognitifs, avec toutes ces choses-là. Il faut justement, encore une fois, reconnaître qu’on a une vision prismatique du monde et de la vie et, à partir de là, faire un pas vers l’autre, un pas vers le monde qu’on ne connaît pas avec prudence et humilité pour pouvoir apprendre sans faire de jugements tranchés. C’est aussi cela qu’on observe aujourd’hui concernant les algorithmes, vous allez sûrement en parler, nous avons tous tendance à avoir des avis tranchés, à vouloir avoir un avis sur tous les sujets, sans faire ce pas de côté qui va nous permettre de modifier légèrement le prisme et de le voir sous un autre angle. Et on a tendance, en plus, à être très égocentriques aujourd’hui, on pourra peut-être en reparler, mais je crois beaucoup à ça.
Eva Illouz a fait un livre là-dessus, il y a des années, Happycratie – Comment l’industrie du bonheur a pris le contrôle de nos vies où, justement, elle raconte que par cette collecte continue de data à caractère personnel et par le fait qu’on va faire des algorithmes et des outils qui vont nous servir, nous et seulement nous, avec des services personnalisés, on a tendance, en fait, à davantage centrer la vie autour de nous et je ne rajoute même pas la psychologie positive et le développement personnel où, en fait, le bonheur ne passe que par nous, donc on a perdu l’amour de l’autre et lagapè, la figure de l’amour de l’autre, inconditionnel, désintéressé.
Je suis très intéressée par ces sujets parce que je pense que c’est ce qui explique beaucoup de choses aujourd’hui, du rapport à l’autre. Je pensais que la crise Covid et le confinement allaient changer les choses. Ça les a très peu changées parce qu’en fait, nous sommes revenus à cette société très égocentrique.

Paul Sugy : Voire on a même augmenté la part du soin et du développement personnel, l’accomplissement de soi.
Je voulais vous confronter à une autre hypothèse : est-ce que c’est possible d’imaginer, est-ce que ça même du sens d’imaginer qu’un jour l’intelligence artificielle puisse croire en Dieu ?

Étienne de Rocquigny : Quelle question ! Il faudrait commencer à découper, comme va le faire ChatGPT, on va découper, le verbe croire, je vais faire ??? [23 min 34] pour demander ce que veut dire croire.

Aurélie Jean : Je pense qu’il faut déjà définir ce que c’est que croire être, tout à fait.

Étienne de Rocquigny : Qu’est-ce que veut dire croire en Dieu ? Je pense qu’on sera d’accord avec Aurélie pour dire qu’il y a cette tentation, qui est déraisonnable, que de mettre une personnalité sur un algorithme. Les algorithmes sont des machines, sont des artefacts faits de main d’homme. L’homme est effectivement, pour les croyants, cocréateur, créé à l’image de Dieu et cocréateur, mais l’homme ne crée que des artefacts. Les machines sont des artefacts, il est donc déraisonnable, même si certains avocats et d’autres ont fait du lobbying pour mettre une notion de personne, c’est évidemment un abus de langage et c’est un piège un peu paresseux que de dire « la machine veut faire ça, la machine croit ça. » Non ! On a affaire à des artefacts.

Aurélie Jean : En général ces personnes sont dangereuses.

Paul Sugy : La machine ne peut pas croire.

Étienne de Rocquigny : La machine n’est pas une personne. Après, il y a quand même des choses intéressantes. Un théologien un peu hors normes a sorti un livre disant que, après tout, dans une vision biblique, le salut concernait l’intégralité de la création, il n’était donc pas impossible qu’il y ait un salut pour les machines. Quelqu’un a écrit un truc comme ça.

Paul Sugy : La question s’est déjà posée pour les animaux ! On ne fait qu’élargir le problème.

Étienne de Rocquigny : C’est la création dans sa totalité, donc, bien sûr les personnes humaines, tous les animaux – ce qui est réjouissant, par ailleurs, si effectivement on croit, ce qui est mon cas, que la création est une merveille qu’il faut contempler, qu’il faut servir et qu’il faut soigner, les algorithmes peuvent nous aider, aujourd’hui, à être de meilleurs écolos, il y a du travail à faire. Ce théologien va même plus loin, en disant que tous les artefacts, la cathédrale de Chartres, les œuvres de Bach à l’orgue et même aussi les machines comme œuvres magnifiques de l’intelligence humaine créées à l’image de Dieu pourraient presque être sauvées. Je ne dis pas que c’est ma position, mais c’est peut-être une façon un peu détournée de répondre à votre question.

Paul Sugy : Finalement, vous me répondez en me disant qu’on ne sait toujours pas si l’intelligence artificielle peut croire en Dieu, mais Dieu peut croire en l’intelligence artificielle, en quelque sorte, en tout cas elle a une place dans le dessein.

Étienne de Rocquigny : Je pense que ce qui est stimulant – en tout cas, c’est la façon dont je le vis –, c’est de se dire que nous sommes créés pour être cocréateurs et, à ce titre-là, nous avons des moyens incroyables pour faire des choses exceptionnelles et qu’il faut mettre du meilleur de nous-mêmes pour que ces machines soient magnifiques et qu’elles soient au service du bien commun. À ce titre-là, si, en plus, on peut penser que nos œuvres, si elles sont vraiment magnifiques eh bien, elles sont amenées à parfaire, pour un croyant, finalement la vie éternelle, alors il faut vraiment bien travailler, faire des algorithmes absolument magnifiques. Pour moi, c’est plutôt une façon un peu détournée que de chercher l’excellence et de chercher qu’on ne se détourne pas de ces algorithmes, mais qu’on y mette le meilleur de nous-mêmes et la plus haute exigence humaine pour que ces machines soient effectivement des réalisations magnifiques comme Le Clavecin bien tempéré de Bach ou d’autres œuvres humaines.

Aurélie Jean : Pour répondre à cette question, je pense qu’on peut la découpler, on peut séparer la partie Dieu de la partie croire. Comme vous l’avez dit, une machine ne peut pas croire, un algorithme ne peut pas croire, donc, croire en Dieu, sûrement pas. Donc, Dieu, ça pourrait être n’importe quoi d’autre, il pourrait croire en n’importe quoi. Ça pourrait être une spiritualité laïque, ça pourrait une croyance quelle qu’elle soit. En fait, peu importe, la machine ne peut pas croire, donc, je dis non.

Paul Sugy : Très bien. Entendu, c’est une réponse claire.
Je viens d’entendre avec délectation tous les jolis mots que vous avez eus, Étienne de Rocquigny, sur, finalement, la merveille de l’intelligence artificielle qui, comme artefact humain, enrichit l’humanité elle-même en soulignant cette capacité qu’a l’homme d’être créateur, d’ailleurs, vous vous accordez tous les deux pour dire que, au fond, l’intelligence artificielle est quelque chose de merveilleux et de fascinant. Mais on voit bien qu’aujourd’hui ce n’est pas forcément le ton qu’on emploie pour ce débat, c’est plutôt, au contraire, une forme d’inquiétude qui semble prédominer, qui fait peut-être aussi le jeu de ceux qui, derrière, à grand renfort de livres, de scénarios catastrophes, etc., essayent peut-être de grossir un peu le trait. On voit bien, en tous les cas, qu’il y a aujourd’hui une façon inquiète d’aborder la question de l’intelligence artificielle, qui justifie tout un tas de débats comme celui qu’on est précisément en train d’avoir. J’aimerais, avec vous, faire le point sur les raisons qu’il y a de s’inquiéter ou non.
Si on regarde un petit peu les choses objectivement, il y a quelques grandes thématiques qui se dégagent. La première d’entre elles, c’est la question de la liberté. On assiste à la montée d’une crainte de plus en plus prononcée, celle que, au fond, le génie humain et, en particulier, l’invention de l’intelligence artificielle, va finir par nous asservir, c’est d’ailleurs ce que vous mentionnez dans le titre même de votre livre blanc, il faut que l’intelligence artificielle serve sans nous asservir. Donc, au fond, à terme, nous pourrions devenir prisonniers de notre propre intelligence, c’est donc notre liberté qui serait ainsi réduite.
Est-ce que vous comprenez cette inquiétude et est-ce que, d’une certaine manière, elle vous paraît féconde pour envisager le futur de l’intelligence artificielle ?

29’ 17[modifier]

Aurélie Jean : Oui, parce que, en fait, à partir du moment où vous utilisez des technologies pour faire des choses à votre place, forcément, ces choses vous n’avez plus à les apprendre, mais en soi, ça a toujours existé dans l’histoire de l’humanité. La différence, aujourd’hui, c’est qu’on va très loin pour faire beaucoup de choses. Par exemple, on a des calculatrices et pourtant on a tous appris, petits, à faire des opérations, des multiplications, des divisions. Je pense qu’on n’en fait plus vraiment à nos âges, mais ça nous a permis de faire beaucoup de choses et ça nous a permis de créer cette plasticité cérébrale dont on a besoin aujourd’hui.

Paul Sugy : Là, c’est aussi la peur d’être remplacés. Vous parlez de la question de savoir si, effectivement, ils vont faire les choses à notre place

Aurélie Jean : Il y a plusieurs sujets. Il y a le sujet de l’apprentissage – dans notre roman, nous parlons de cet apprentissage –, si vous déléguez complètement l’apprentissage à la machine, vous ne savez plus apprendre, donc vous ne savez pu apprendre à apprendre, donc vous ne savez plus avoir un œil critique sur les sujets qu’on vous apporte. Il faut avoir ce recul. Vous parliez de rhétorique. En fait, le fait de savoir penser contre soi-même, c’est aussi apprendre à apprendre. Donc, premier point.
Il y a, plein de sujets, en fait, et souvent, comme vous le dites très bien, je trouve que beaucoup de gens s’emparent de ces sujets avec peu de connaissances scientifiques et techniques, avec parfois un regard très stigmatisé et stigmatisant pour faire du buzz, vendre et je le déplore. Il y a aussi plein de gens qui parlent, qui écrivent et qui sont extraordinaires. J’ai parlé de Luc Julia, mais il y en a plein d’autres, il y a Yann Le Cun, il y en a plein d’autres, côté français en tout cas, et côté américain aussi.
Concernant, par exemple, le grand emplacement, on parle du remplacement des hommes par les machines, oui, il va y avoir des dizaines de millions de jobs qui vont disparaître ou qui vont être remplacés par des machines. Mais j’ai envie de dire que la différence entre aujourd’hui et avant, c’est qu’aujourd’hui, ça se fait sur des temps très courts, alors qu’avant cette évolution a été beaucoup plus longue. Donc, l’homme, l’humain a pu se préparer. Il y a plusieurs choses à comprendre.

Paul Sugy : On a quand même de sérieuses raisons d’être inquiets.

Aurélie Jean : Complètement, je suis entièrement d’accord et c’est là où faut que chacun prenne ses responsabilités.
Premièrement, des jobs vont disparaître, des jobs vont réapparaître.
Deuxièmement, il faut bien se rendre compte que déjà, depuis les années 50, on a diminué, en tout cas en France, le temps hebdomadaire de travail de 30 %. Je pense profondément qu’on va moins travailler dans le futur pour le même salaire, j’entends. Je dis ça, peut-être pas moi, peut-être pas vous, je ne sais pas, en tout cas, globalement, on va moins travailler dans le temps.

Paul Sugy : C’est une idée qui peut être discutée. C’est ce dont on a justement débattu autour de cette même table, cette question de la réduction du travail. En réalité, on voit aussi que même si, peut-être, l’activité professionnelle est un peu moins longue dans le temps, finalement d’autres travaux qui se sont ajoutés, d’ailleurs l’intelligence artificielle nous donne du travail.

Aurélie Jean : C’est pour cela, par exemple, au sujet de la réforme de la retraite, je regrette qu’on n’ait pas eu de discussions – d’ailleurs il n’y a pas eu de débats –, de débats sur la réforme du travail et de l’emploi, parce que c’est de cela dont il faut parler. Qu’est-ce que veut dire de travailler ? Aujourd’hui, une part conséquente du travail n’est pas assimilée comme du travail, parce que non rémunérée. Nous avons tous aidé des membres malades de notre famille, nous nous sommes tous occupés de nos enfants, nous nous sommes tous occupés d’un voisin, et ce n’est pas pris en considération dans le travail. Je pense qu’il y a toute une réflexion beaucoup plus complexe que le simple fait de dire « on va être remplacé ou pas », qui va définir, en fait, quel va être le travail de demain. C’est pour cela, je pense, qu’il faut avoir une discussion sur le travail.
Maintenant, concernant le travail rémunéré, remplacé en partie par des machines, des jobs vont être créés, des jobs vont disparaître, on va moins travailler dans le futur, j’y crois profondément, et, surtout, ça va être aussi une responsabilité des États et des chefs d’entreprise. C’est-à-dire qu’à un moment donné, un chef d’entreprise va décider de lui-même d’avoir une position. Je prends le cas de Jeff Bezos qui, lorsqu’il a monté Amazon, n’a jamais menti, il a clairement dit « je veux des usines sans êtres humains ». Du coup, il a complètement robotisé ses entrepôts ; il l’a dit, il l’a fait. D’ailleurs, je pense que tous ses robots ont été une révolution pour plein d’aspects.
Maintenant, il y a aussi les chefs d’entreprise qui disent « nous voulons des êtres humains à tel endroit, à telle position, parce qu’on pense que ça a une valeur ajoutée différente, contrairement à une machine. » L’entrepôt n’est peut-être pas le bon exemple, mais, il y a plein de domaines, par exemple au Japon des cas d’hôtels où on a mis des robots pour accueillir les gens pour qu’ils puissent s’enregistrer. Au bout d’une semaine, ils ont enlevé les robots, ils ont remis des êtres humains, parce que la personne qui revient d’un voyage en avion, en train ou en voiture, lorsqu’elle arrive à l’hôtel, elle a besoin d’avoir un contact humain pour diminuer son niveau de stress avant d’arriver dans la chambre. L’accueil, l’enregistrement est une transition.
Ce que je veux dire, c’est que c’est un truc très complexe où chacun va prendre ses responsabilités, et les États aussi. Pourquoi ? Parce qu’ils vont devoir s’assurer qu’on puisse former et à adapter l’école. On parle souvent de l’école élémentaire, collège, lycée, on parle très peu des études supérieures qui, à mon sens, doivent aussi revoir leurs programmes et leurs manières d’enseigner. J’entends souvent le terme « il faut professionnaliser une formation ». Non ! Il faut apprendre aux gens à réfléchir, à penser contre eux-mêmes et à apprendre à apprendre.
Il y a donc plein de choses. Et puis il y a des métiers qui sont des métiers d’avenir. Je pense sincèrement que le métier de journaliste, votre métier, et ce n’est pas de la démagogie, est un métier d’avenir. On va parler de ChatGPT qui génère des articles, mais ça a déjà été le cas : en 2017, à Bloomberg, les gens l’on fait, ce n’est pas le problème. Le problème c’est que le travail du journaliste c’est d’investiguer.

Paul Sugy : Le problème, c’est que les articles de ChatGPT sont parfois meilleurs que les nôtres. Il y là un problème.

Aurélie Jean : Je ne sais pas. En tout cas, il faut absolument que les gens se définissent, se distinguent de la machine. Je vais reprendre une phrase que m’a souvent dite Amanda Sthers, ma coautrice de Résistance 2050. Quand on écrivait, elle me demandait souvent : « Qu’est-ce qui fait de nous qu’on est humains ? », elle me posait souvent cette question. Je pense que si vous arrivez à répondre à cette question, vous arriverez à mettre sur la table votre valeur ajoutée purement humaine et vos intelligences émotionnelles, pratiques et créatives, qui sont, encore une fois, purement humaines.
Je ne sais pas dans votre cas, mais je vois bien qu’on manque profondément de lien dans la société et dans pas mal d’institutions. Je prends le cas de l’hôpital. L’hôpital est un endroit qui peut paraître, je suis désolée, profondément pas humain en fait. Il faut donc remettre de l’humanité à l’hôpital. Un hôpital, à Montréal, l’a fait, le CHUM, ils ont complètement transformé l’hôpital.
Je pense qu’il y a des choses sur lesquelles il faut qu’on réfléchisse et ça va être la responsabilité de chacun.

Paul Sugy : J’entends ce que vous me dites et je vais vous lancer là-dessus, après, Étienne, je vous laisserai répondre. Une inquiétude me vient en vous écoutant. Vous nous dites que, au fond, il faut que l’on montre que le futur a besoin de nous et pas simplement d’algorithmes.

Aurélie Jean : Ça a toujours été l’histoire de l’humanité.

Paul Sugy : C’est, en quelque sorte, comme si la charge de la preuve, finalement, était sur nos épaules. La question, c’est une des inquiétudes : est-ce que tout le monde a des choses à faire valoir par rapport à l’intelligence artificielle ? Vous dites que ce qui nous distingue, c’est notamment la création, le génie créatif, mais précisément, est-ce qu’il n’a pas une forme d’élitisme qui se dessine ?

Aurélie Jean : Il y a aussi, l’intelligence émotionnelle et pratique.

Paul Sugy : Est-on sûr que tous les êtres humains, dans ces cas-là, auront des supériorités à faire valoir par rapport à l’algorithme ?

Aurélie Jean : C’est quand même notre devoir de faire que chacun ait sa place.

Étienne de Rocquigny : Je suis parfaitement d’accord. Je voudrais quand même revenir sur un point. Dans l’histoire, on s’est toujours trompé sur l’impact des technologies sur l’emploi, toujours ! En 2013, une étude a fait grand bruit, Oxford, qui a dit, je crois, que 47 % des emplois étaient menacés.

Aurélie Jean : C’est énorme 47 %.

Étienne de Rocquigny : Dix ans plus tard, que s’est-il passé ? En fait, il y a des tensions accrues sur le marché de l’emploi, notamment aux États-Unis. Et s’il y a eu des destructions d’emplois, c’est probablement à cause de la guerre en Ukraine ou des circonvolutions autour du prix des énergies, certainement pas à cause de l’intelligence artificielle. Pourquoi ? Parce que dans l’histoire, en fait, ça prend beaucoup de temps de changer les organisations humaines et on l’a déjà dit. Dans les années 80, avec l’informatisation, on disait « les métiers d’avant vont disparaître. » Il a fallu 30 ou 40 ans. Je l’ai vécu comme entrepreneur et, aujourd’hui, comme advisor d’entrepreneurs. Quand bien même vous avez un processus qui est extrêmement efficace, ça va vous prendre des années de changer d’équipe. Pourquoi ? Parce qu’on ne travaille pas uniquement pour l’efficacité. Certes beaucoup gens, tous, nous sommes pris par l’efficacité, notamment quand on est père de famille avec des enfants jeunes, comme c’est mon cas, on court toute la journée, nous sommes tous à rechercher de l’efficacité. Néanmoins, ce n’est pas uniquement par souci d’efficacité qu’on travaille. Le travail, c’est beaucoup plus que l’efficacité, ce sont aussi des relations humaines, ce sont des habitudes, ce sont des fidélités, ce sont des amitiés, c’est toutes sortes de choses. Donc, si vous voulez changer l’organisation d’une entreprise avec des nouvelles technologies, ça prend des années.
Je pense que, comme ça s’est passé en 2013, qu’il va falloir beaucoup de temps pour que les promesses stupéfiantes de l’IA générative changent les organisations. Donc, on a du temps. Néanmoins, ça va venir, ça c’est sûr. De la manière qu’il n’y a plus aucune sténo aujourd’hui, homme ou femme sténo, et qu’il y a beaucoup moins de postes d’assistantes, il y a effectivement beaucoup de métiers qui vont disparaître, mais ils ne vont pas disparaître en six mois. C’est encore l’effet rhétorique des gens qui veulent lever des millions auprès de VC, de fonds capital-risque, qui disent « c’est génial ! ». Non !, ce n’est pas vrai, ça, c’est de la rhétorique.
On a donc du temps et il faut se servir de ce temps-là pour adapter l’organisation humaine.
Je pense profondément que nous allons tous continuer à travailler. Je me permets d’être en désaccord, je ne crois pas que nous allons travailler moins.

Aurélie Jean : L’évolution temporelle, depuis les années 50, démontre qu’on travaille de moins en moins, en moyenne.

Étienne de Rocquigny : Si on appelle le travail, la franche qui est salariée, sur laquelle il y a un paiement et des cotisations sociales.

Aurélie Jean : Exactement et c’est pour cela que je dis que le travail va devoir être repensé dans l’avenir.

Étienne de Rocquigny : Dans un certain nombre de traditions spirituelles, dont les traditions judéo-chrétiennes, on a ora et labora. Que veut dire aura ora et labora ? « Prie et travaille ». On pourrait dire, en des termes plus modernes, « médite et rend service », si je veux avoir une version laïque de ora et labora. Qu’est-ce que ça veut dire ? Ça veut dire que pour remplir une vie humaine, il faut des temps pour s’émerveiller, pour aimer, pour contempler et il faut rendre service. Et qu’est-ce que le travail ? C’est rendre service aux autres personnes humaines et, on peut dire, à la planète, à la création.
La question, c’est de réinventer, grâce à l’intelligence artificielle, c’est l’un des 14 [???] principes du Manifeste : l’intelligence artificielle et les algorithmes présentent de grandes promesses pour réinventer la façon de se servir, de servir ses frères et de servir la planète. C’est ça l’entreprise du travail, on a besoin de travailler, c’est en travaillant qu’on devient une personne humaine et si vous empêcher quelqu’un de travailler, il devient complètement fou. Dans tous les camps de prisonniers, pendant la Seconde Guerre mondiale, que faisaient les gens faisaient ? Ils travaillaient pour ne pas mourir. Dans le célèbre roman de Soljenitsyne, Une journée d’Ivan Denissovitch, au fin fond du goulag, que vont-ils faire ? Il va motiver toute une équipe à creuser un trou qui, le soir même, va être rebouché. Mais on creuse ce trou et qu’est-ce que c’est que ce trou ? Eh bien, c’est l’aventure humaine, c’est le travail, et c’est comme ça qu’on est êtres humains.
Je pense donc profondément qu’il faut travailler.
Et ce grand débat qui n’a pas eu lieu, comme l’a dit Aurélie, sur les retraites, c’est : qu’est que c’est que le travail ? Ce n’est pas le sujet des cotisations sociales et de la comptabilité des points de retraite, ce n’est pas ça le sujet. C’est comment pouvons-nous, grâce à ces technologies qui, par ailleurs, ont des promesses magnifiques, mieux se servir les uns les autres.

Aurélie Jean : Mais c’est aussi revoir tout un système. Ayant aidé une personne de ma famille malade et l’ayant accompagnée, ça a pris 50 % de mon temps, donc j’ai eu 50 % de revenus en moins, c’est important de le dire. D’ailleurs, ce sont souvent les femmes qui s’occupent des gens malades dans leur famille. Je trouve inadmissible, quelque part, que tout ce travail ne soit pas pris en considération dans les indices économiques de pays, par exemple, je trouve que c’est un problème.
Il faut donc absolument repenser le travail et c’est pour cela que j’ai une frustration par rapport à la réforme des retraites parce qu’on n’a pas repensé le travail. C’est le travail qu’il faut repenser dans le futur.

Paul Sugy : L’intelligence artificielle, et c’est intéressant, nous oblige à repenser nos organisations, d’abord pour l’intégrer d’une manière qui ne soit pas écrasante pour les personnes humaines et ensuite pour finalement repenser la notion même de service et de travail.

Aurélie Jean : Exactement.

Étienne de Rocquigny : Et il y a des grandes promesses. Je vais prendre un cas que je vois concrètement. Je vais chez la généraliste qui est une femme fantastique, très sympa, très bon médecin, etc. Pendant les 20 minutes de notre entretien, elle passe 17 minutes à remplir des formulaires administratifs, 17 minutes ! Elle me parle trois minutes et encore ! Elle est organisée, elle est jeune, elle est assidue et efficace. Donc, aujourd’hui, le métier de médecin traitant, je ne parle pas des grands spécialistes, je parle du médecin de toujours, celui qui est là pour vous écouter, pour être dans l’empathie, etc., est complètement phagocyté par des tâches administratives. Si l’intelligence artificielle peut faire passer de 17 minutes à 5 minutes et avoir 15 minutes d’échange avec le patient, alors elle est bienvenue.
Et ça me permet de refaire une deuxième publicité pour notre Manifeste. On dit « les intelligences artificielles, les algorithmes, ont de grandes promesses pour renouveler la qualité des relations humaines. »

Paul Sugy : Au fond, cette promesse c’est de nous libérer d’un travail servile pour nous recentrer sur un travail humain, en tous cas, qui valorise en nous notre humanité.

Étienne de Rocquigny : Je dirais plutôt pour automatiser certaines tâches répétitives, plutôt que libérer d’un travail, parce que libérer d’un travail supposerait que le travail est une peine.

Paul Sugy : Vous avez quand même l’air de suggérer que les tâches administratives de votre médecin, c’est une peine.

Étienne de Rocquigny : Oui, mais ce sont des tâches, ce n’est pas le travail. Le travail est humanisant. Je dis ça, c’est facile pour moi, je ne suis pas dans une mine, mais je pense profondément que le travail est une façon de devenir personne humaine. Ce travail est blessé. Il y a des conditions épouvantables, il y a des gens qui subissent des harcèlements, bien sûr, mais fondamentalement, je pense que le travail est une façon de devenir une personne humaine.

Paul Sugy : Il y a des travaux, et c’est ce que vous suggériez, qui sont quand même aliénants.

Étienne de Rocquigny : Il y a des tâches qu’il faut intelligemment automatiser et il faut, et c’est là le piège, que les 15 minutes qui sont économisées dans le trajet de ??? [43 min 05] ne soient pas réduits. Il faudrait les garder. Il faut donc trouver des modèles économiques et, là, il faut des entrepreneurs, dans lesquels je peux, finalement, me servir des bénéfices dégagés par l’automatisation pour donner du temps de relation entre les personnes humaines, et je pense que c’est possible. C’est possible – et c’est un gros effort – notamment si je ne conçois pas une intelligence artificielle comme un média systématique. Demain, le patient va s’adresser un ordinateur pour avoir les préconisations de santé, mais comme un outil pour un travail en triangle entre le médecin, le patient et l’IA. Selon moi, il faut garder le plus intéressant. On peut dire que c’est l’automatisation équilibrée, c’est un travail d’équilibre homme/machine qui met fondamentalement deux personnes en relation.

Aurélie Jean : Juste pour finir, je ne crois pas, par exemple au revenu universel sans travailler, parce que je crois que le travail donne du lien, donne de la dignité humaine, lorsqu’on enlève ces tâches aliénantes, comme vous le dites, mais surtout, il permet de comprendre qu’on contribue à un système social qui développe la cohésion.
Reparlons de la créativité, de l’automatisation. J’ai moi-même investi dans une entreprise qui développe, en fait qui fait de l’IA générative mais de vidéos, et qui, justement, est partie d’un postulat : 40 à 60 % des tâches journalières d’un créatif, aujourd’hui, est consacré à des tâches non créatives, des tâches automatiques. Ces créatifs n’ont donc qu’une envie, c’est de se libérer de ces tâches, parce qu’en fait, en théorie, la créativité évolue de manière exponentielle, puisqu’elle est son propre catalyseur. Je pense qu’on n’a pas de limites sur la créativité, et aller chercher d’automatiser certaines tâches, c’est plutôt une bonne nouvelle pour aller s’évader dans un monde de créativité qu’on n’aurait pas exploré.

Paul Sugy : Au fond, si je résume, vous vous retrouvez tous les deux dans cette idée que l’intelligence artificielle ne va pas nous libérer du travail, elle va nous permettre de mieux travailler. Ce travail reste indispensable pour notre existence humaine. Je me permets de citer Saint-Exupéry, je crois que cette phrase résume assez bien les choses : « Finalement, être homme, c’est sentir, en posant sa pierre, que l’on contribue à bâtir le monde », que ce travail-là sert l’humanité.

Étienne de Rocquigny : Exactement. D’ailleurs, c’est ce qui nous impose aujourd’hui – là je parle comme entrepreneur – de penser fondamentalement la raison d’être. Ça tombe bien, en France ou dans d’autres pays, la loi 2018 permet maintenant d’inscrire la raison d’être aux côtés de la raison sociale. Mais, derrière ce mécanisme juridique, il y a fondamentalement « quel est le sens de cette entreprise ? ». Je pense qu’avec ce choc technologique, avec ce choc d’automatisation qui perturbe tout le monde, c’est une invitation à redéfinir collectivement le sens, et ça tombe bien : la dignité du travail humain, notamment dans la tradition judéo-chrétienne, est liée à la connaissance de ses finalités. Quand je suis en train de tailler une pierre qui va servir à construire la cathédrale Notre-Dame, j’ai beau être un ouvrier tailleur de pierres et même celui qui porte la pierre, même pas celui qui la taille, je fais partie d’une œuvre collective qui est construire une merveille de l’art humain. Je suis conscient donc des finalités du travail, le travail prend du sens, donc je vais tous les matins travailler dans une démarche qui m’humanise.
La contrepartie, la contraposée, c’est évidemment de tomber dans l’esclavage de la machine. Et je suis là à modérer des clics, intermédié par cinq ou six organisations et je ne sais plus pourquoi, je ne sais plus quel est le sens. D’ailleurs, si, aujourd’hui on cherche à recruter les data scientists, qui sont des talents dont on a beaucoup besoin, il faut donner du sens. Ce n’est pas juste avec des salaires que vous allez chercher des data scientists. Il faut donner du sens : pourquoi est-ce que je viendrais travailler chez toi ?

47’ 05[modifier]

Paul Sugy : Cette question du sens, précisément, semble échapper à l’empire de la machine, peut-être pour une raison que je vous propose comme une hypothèse, c’est que l’intelligence artificielle, ou l’algorithme en tous les cas, c’est une intelligence qui n’a pas de corps, et peut-être même, je vous sais très pascalien, donc attaché à cette notion, peut-être même qu’elle n’a pas de cœur.

Aurélie Jean : Qui n’a pas d’âme.

Paul Sugy : Mais même plus, vraiment dans la perspective pascalienne, de facultés de connaître, en fait, puisque c’est nous-mêmes qui programmons cette intelligence. N’y a-t-il pas, justement, quelque chose de très inquiétant à imaginer cette intelligence libérée, au fond, des contraintes de notre incarnation, puisque c’est précisément par ces contraintes-là que nous nous sentons responsables du monde qui nous entoure, responsabilité qui, du coup, échappe à l’empire de la machine.

Étienne de Rocquigny : Question très riche. Il y a beaucoup de sujets.
Je voudrais d’abord revenir sur un point que vous avez ouvert tout à l’heure. Ma crainte fondamentale, aujourd’hui, c’est le sujet de la liberté. Effectivement, nous nous asservissons de manière volontaire par rapport à ces machines, là où, justement, nous sommes appelés à les dominer. Nous nous asservissons de manière volontaire et, tout particulièrement, et c’est une crainte très forte comme ancien enseignant, le choc épistémologie de ChatGPT par rapport à Internet avant : vous n’avez plus de sources. Vous n’avez plus, en fait, d’éducation de la raison critique. Je commence à être historien quand je me suis rendu compte que, sur le même événement historique, j’ai trois discours qui sont différents et que je vais faire une nouvelle découverte archéologique qui va remettre en question. C’est pareil en sciences : si je suis poppérien, je dis que je sors de la magie pour faire de la science à partir du moment où je sais réfuter ma théorie parce que j’ai des observations qui viennent la contredire. Ça veut donc dire que la construction de l’esprit critique dépend fondamentalement de la connaissance et de la recherche des sources.
Alors, comment je fais pour rester libre, et libre dans la recherche de la vérité, si je commence, comme ma nièce, qui est en fac de droit, comme 98 % des étudiants, à faire tous ses devoirs de droit en utilisant ChatGPT. Pour moi, c’est dramatique, c’est une très grande question. Comment est-ce que je vais éduquer des personnes à rester libres à partir du moment où elles succomberont, elles s’asserviront effectivement par paresse à cette machine qui leur délivre un discours tout cuit ?
Je vais faire un autre clin d’œil biblique, puisque nous sommes aux Bernardins, c’est le mythe de la tour de Babel, qui est un des grands mythes aujourd’hui pour penser la révolution algorithmique. La tour de Babel, qu’est-ce que c’est ? Je vais chercher de la brique, je vais la cuire, je vais prendre du bitume – le bitume est un hydrocarbure non renouvelable qui va tenir les étages de la tour de Babel. J’empile donc des réseaux de deep learning, je monte, je monte, j’arrive à 100 milliards de paramètres, 10 000 milliards de paramètres, je suis sur cette construction infinie, où est-ce qu’elle va ? En fait, cette construction ne va nulle part. Elle ne va nulle part ! C’est une construction complètement insensée. Une autre chose intéressante avec la tour de Babel, il y a ce rêve d’avoir une seule langue, parce qu’avec une seule langue toute l’humanité va être ensemble. Qu’est-ce que c’est qu’une seule langue ? En fait, c’est un peu ce qui se passe aujourd’hui avec ChatGPT. Si un petit nombre de personnes de la Silicon Valley vont décider de la vérité qui va être présentée dans ChatGPT, qui vont modérer par eux-mêmes, qui vont exclure, qui vont censurer un certain nombre de choses parce qu’ils considèrent que ça n’est pas conforme, alors c’est une seule langue, c’est donc le totalitarisme dont parlent Hannah Arent, Simone Weil, Tocqueville, un certain nombre de gens, c’est cela qui nous guette. C’est donc, pour moi, une grande interrogation et je cherche à savoir comment, aujourd’hui, au temps de l’IA générative, remporter ce défi de l’éducation pour continuer à donner goût aux gens d’être à la recherche de la vérité et, de ce point de vue-là, de sauvegarder leur liberté.

Aurélie Jean : Quand vous parlez des sources concernant les réponses de ChatGPT, vous parliez du fait qu’il ne faut pas être dominé par la machine mais reprendre le pouvoir sur la machine, ChatGPT est un excellent exemple, puisque nous ne connaissons pas les jeux de données, nous ne connaissons pas exactement les bases de données sur lesquelles ChatGPT a été entraîné, donc, nous ne connaissons pas les sources. C’est quelque chose que les scientifiques et les ingénieurs reprochent, j’en fais partie, parce que, en fait, ça nous éloigne d’une certaine transparence du contenu qu’il est nécessaire de connaître quand on utilise un outil. Les jeux de données, surtout sur ce genre d’outil, sont très importants à connaître, surtout quand on sait qu’il peut y avoir des biais, des approximations, des réponses faussées. Toutes ces choses-là sont donc importantes.
Je dis cela parce que j’ai un stagiaire, je l’ai vu avant de venir vous voir. Il a 20 ans, il a fait des recherches sur ChatGPT concernant des choses que je lui ai demandées. Je l’ai challengé, je l’ai défié sur l’origine de ses réponses – une réponse était approximative, voire fausse. En fait, j’ai réalisé qu’il n’avait pas connaissance du processus de la façon dont ChatGPT fournit une réponse. Alors que, par exemple, quand vous ouvrez un dictionnaire, que vous faites une recherche sur Google, Yahoo, peu importe, un moteur de recherche, vous avez la source puisqu’on vous donne le lien vers le document et vous savez qui l’a écrit.

Paul Sugy : ChatGPT n’est pas open source.

Aurélie Jean : Le code, je ne crois pas ; vous pouvez utiliser les bases de données, il y a des ??? [52 min 19] et tout. Ce qui m’embête, ce sont vraiment les bases de données, ne pas savoir ce sur quoi l’algorithme a été entraîné me bloque, parce que ça ne permet pas d’avoir un œil critique juste sur la réponse fournie. C’est donc cela qui me dérange.
Encore une fois, je ne veux pas qu’on interdise ChatGPT, je pense que c’est une bêtise, parce que c’est une révolution dans la manière dont on va ordonner le savoir, la connaissance, la transmettre. Par contre, il faut vraiment mettre la pression sur les gens qui vont développer d’avoir des pratiques de développement et d’explication beaucoup plus élevées que ce qu’on a aujourd’hui, et puis former les gens, les jeunes qui utilisent ces outils justement à questionner la réponse. On l’a tous vu. Des gens, pas forcément jeunes, qui quand ils me disent quelque chose et que je leur demande « où est-ce que tu l’as vu ? – Je l’ai vu sur Facebook ». Facebook n’est pas une source, il faut essayer de creuser. Quand je disais, tout à l’heure, qu’il ne fallait pas chercher à tout prix à professionnaliser, c’est le terme que j’entends souvent, professionnaliser une formation. Non, il faut créer des bons esprits, des têtes bien faites. Je pense que c’est fondamental. Souvent on dit qu’il faut commencer à l’école élémentaire, je dis qu’il faut commencer à la maternelle, voire à la crèche, il faut réformer la crèche. Nous sommes tous des êtres intelligents.

Paul Sugy : Il nous reste quelques minutes, Il va rester une minute à chacun pour conclure là-dessus. Ça m’amène à reposer une question que, au fond, Étienne de Rocquigny formule très bien lorsqu’il propose, finalement, de faire un pari. Vous dites qu’il ne faut pas interdire ChatGPT, en somme qu’il faut lui faire confiance.

Aurélie Jean : Pas lui faire confiance. Il faut apprendre à l’utiliser.

Paul Sugy : Il faut miser dessus et se dire que, collectivement, il y a plus à gagner à l’utiliser de façon intelligente et raisonnable ??? [54 min]

Aurélie Jean : De toute façon, les gens l’utiliseront, il faut être pragmatique, Paul. De toute façon les gens l’utiliseront.

Paul Sugy : Du coup, c’est ma question : est-ce qu’on fait le pari de ChatGPT, de l’intelligence artificielle en général, parce qu’on n’a pas le choix, c’est-à-dire que l’on est poussé par un progrès inarrêtable, en quelque sorte ? Du moment que quelques savants, dans leurs laboratoires, vont concevoir les outils, alors ils s’imposent à nous, mais, dans ces cas-là, on n’est pas vraiment libre, puisque, dans ces cas-là, on est finalement prisonnier de ces outils que l’élite intellectuelle de l’humanité nous impose, plutôt qu’elle nous propose. Ou alors est-ce que, démocratiquement, il y a une vraie capacité aujourd’hui à décider, si l’on va utiliser ces outils, de la façon dont on va les utiliser et, surtout, de la façon dont on va organiser notre société – puisque c’est une question sur laquelle on s’est longtemps arrêté – pour les utiliser de la façon la plus optimale qui soit ?
Tout à l’heure, Étienne de Rocquigny, vous avez prononcé le mot de bien commun, qui n’est jamais anodin dans votre bouche. C’est-à-dire que le but de tout cela, contrairement à la tour de Babel qui ne va nulle part, c’est bien de faire grandir le bien commun.
Est-ce qu’on peut faire ce pari ? Est-ce qu’on est libre de faire ce pari.

Aurélie Jean : C’est une excellente question, parce que tout ce qui existe ne doit pas forcément être utilisé.

Paul Sugy : Et pourtant, vous disiez que du moment que ça existe…

Aurélie Jean : Ce n’est pas ce que je disais. Je pense que c’est une bêtise d’interdire ChatGPT, de toute façon les étudiants l’utiliseront, les gens l’utiliseront.
Il y a un risque d’analyser la pertinence du contenu, mais il y a un risque bien plus dont on parle très peu, parce que le vrai bouleversement n’est pas sur l’algorithme lui-même, il est sur l’interface graphique qui donne l’impression qu’on parle à un être humain. Et c’est ça qui est beaucoup plus dangereux, parce qu’on rentre dans ce point de singularité, dans cette intelligence générale apparente, où on aurait l’impression qu’on parle avec une âme, quelqu’un qui aurait une âme.

Paul Sugy : Un anthropomorphisme.

Aurélie Jean : Un anthropomorphisme vraiment dangereux et je pense que c’est encore plus dangereux que la pertinence de l’information reçue.

Paul Sugy : Cela a conduit à des drames, le suicide d’une personne qui, finalement, s’était liée d’amitié avec l’outil conversationnel et qui a fini par se suicider sur le conseil de cet ami imaginaire.

Aurélie Jean : Je ne l’ai pas vu, mais c’est dingue. Des gens se sont mariés avec leur agent conversationnel et leur robot au Japon, en Chine et dans un pays d’Afrique sub-saharienne.
Vous posez une excellente question, parce que c’est quel est le rôle de chacun, le rôle des États, le rôle des acteurs économiques ?
Je pense qu’on a toujours le choix, mais il faut que ce choix puisse être infusé, protégé, encadré par pas mal de choses qui sont, certes, la morale, mais aussi la loi. Je m’explique. Je pense sincèrement que ChatGPT est une bonne chose, ça nous permet de faire beaucoup de choses. Cela étant dit, il faut que ce soit bien fait, bien encadré. Par exemple, et ça, pour le coup, je pense que ça a été bien fait : lorsque vous demandez ChatGPT « est-ce que tu as un cœur ? » ChatGPT répond « je ne suis qu’une intelligence artificielle, je n’ai pas d’émotions ». Encore heureux qu’il réponde ça ! Par contre, il y a parfois des tournées de tournures de phrases qui, je pense auraient pu être évitées et davantage encadrées pour éviter un anthropomorphisme systématique.

Paul Sugy : Il faut plus d’humilité de la part par des créateurs de l’algorithme.

Aurélie Jean : Il faut qu’il y ait des règles. L’anthropomorphisme est utilisé à des fins marketing. Il peut être utilisé à des fins thérapeutiques. Par exemple, quand vous avez une alarme d’incendie qui se met en marche, vous avez une petite voix féminine très sympa qui vous rassure. C’est normal, c’est fait pour vous rassurer. Si maintenant vous avez des choses qui sont là pour vous manipuler et vous faire racheter, vous orienter, ça devient un problème.
C’est un sujet très complexe. Je pense qu’on n’a jamais un choix complètement libre, il faut le savoir, mais il faut optimiser cette liberté et, pour cela, il faut qu’il y ait une morale, des lois et une pression sur les acteurs. Il y a plein de choses à dire, mais, en fait, il y a beaucoup d’hypocrisie de tous les côtés sur ce sujet.

Paul Sugy : Cet anthropomorphisme, au fond, c’est ce qui fait que, parfois, l’algorithme est utilisé comme un divertissement.

Étienne de Rocquigny : On va reparler de Pascal. Juste avant de parler de Pascal, une chose à laquelle je crois de plus en plus c’est que, finalement, ces IA génératives sont en train de devenir des médias. Et, face aux tentations de pouvoir, la concurrence est absolument indispensable. De la même manière que la liberté de la presse est vraiment une garantie fondamentale dans un État de droit, je pense, notamment au niveau européen, qu’il faudrait renforcer les garanties antitrust et promouvoir la liberté d’expression, car je ne crains personnellement rien de plus qu’un algorithme dominant, par exemple ChatGPT, qui aurait un tampon de la part d’une autorité française, européenne ou américaine, qui garantisse, à mon insu, que c’est du bien et du mal. Pour moi, c’est le cauchemar absolu. Je pense qu’il faut absolument avoir une diversité, une pluralité et qu’il y ait plusieurs entreprises concurrentes qui soient en quête de la vérité, de la même manière que Le Figaro a un certain nombre de concurrents et ça vous stimule pour être en recherche de la vérité. Pour moi, c’est un élément indispensable de la régulation des algorithmes, c’est l’anti trust et une préservation renforcée de la liberté d’expression. C’est un premier point.
Il y a un deuxième point, effectivement, pour revenir à Pascal et, de ce point de vue-là, à nouveau prophète de ce qui se passe aujourd’hui, Pascal est le penseur du divertissement. Et qu’avons-nous sous les yeux si ce n’est une gigantesque opération de divertissement. Beaucoup de modèles économiques sont construits sur le fait que vous passiez beaucoup de temps à consommer le produit.

Paul Sugy : C’est ce qui produit du cash.

Étienne de Rocquigny : Que dit Pascal sur le divertissement ? il dit, en fait, que c’est déraisonnable de vouloir le supprimer, parce que le divertissement est fondamental dans l’âme humaine. L’âme humaine est tellement à la recherche de l’immense qu’on va tous se divertir. En revanche, ce qu’il faut faire, c’est convertir ce divertissement, c’est-à-dire le temps qu’on passe sur ces plateformes, le temps qu’on passe à s’échapper de notre misérable condition, suivant Pascal, il faut le passer au service du bien commun.
Pour moi, l’intelligence artificielle est là, elle est là comme, autrefois, il y avait le marteau pour construire la tour de Babel ou le temple de Salomon. Ce qu’il faut faire avec l’IA, c’est construire le bien commun et non pas des usines asservissantes. Il faut s’en servir et garantir autant possible la concurrence, la liberté d’expression, et que le meilleur gagne.

Paul Sugy : Merci beaucoup à tous les deux, Merci Aurélie jean. Merci Étienne de Rocquigny. Vous nous avez apporté une lecture à la fois pleine d’espérance et d’enthousiasme et, en même temps, je crois, assez réaliste, mus par ce souci de remettre les choses à leur place, loin des fantasmes, loin des idées reçues sur la question de l’intelligence artificielle, mot que j’ose à peine employer maintenant que je sais qu’Aurélie nous propose simplement de parler d’algorithme pour ne pas exagérer les choses.
Aurélie, on vous retrouve en librairie parce qu’on a toujours le plaisir de pouvoir retrouver votre roman Résistance 2050 pour ceux qui veulent approfondir ces questions sous une approche plus fictionnelle.
Étienne de Rocquigny, je crois que vous revenez aux Bernardins en novembre pour nous parler aussi de la question de la parcimonie, de la modération, de la sobriété dans l’intelligence artificielle.
Merci à vous tous qui avez suivi ce débat jusqu’ici. Vous savez que votre nouveau rendez-vous, maintenant, c’est sur la chaîne YouTube des Bernardins, c’est ici, sur Les débats des Bernardins. N’hésitez pas à faire connaître ces conversations, elles sont faites pour vous, sur des thématiques d’actualité que l’on veut regarder avec notre regard, éclairés par, évidemment, une vision chrétienne, mais en même temps avec ce souci d’apporter de l’espérance dans ce monde sur tous les grands enjeux qui nous concernent.
Abonnez-vous, partagez, faites connaître cette chaîne et à bientôt, ici, pour plein de nouveaux rendez-vous. Merci à tous.