L' Intelligence Artificielle peut-elle remplacer l'homme

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : L'Intelligence Artificielle peut-elle remplacer l'homme ?

Intervenant·e·s : Aurélie Jean - Étienne de Rocquigny - Paul Sugy

Lieu : Podcast Les débats des Bernardins

Date : 1er mars 2023

Durée : 1 h 02 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Voix off : L’écoute, le respect, la capacité à se mettre à la place de l’autre, à changer de regard ou d’avis, autant d’éléments indispensables dans une société hyper-médiatisée qui ne sait plus débattre.
Le Collège des Bernardins propose ce débat afin de rendre possible un vrai dialogue sur les interrogations de notre temps et renouer ainsi avec l’art de la contradiction.
Bonne écoute.

Paul Sugy : Chers amis, il faut bien reconnaître, ça va beaucoup trop vite. À peine découvrions-nous, il y a quelques semaines, quelques mois, ChatGPT, ce nouveau robot conversationnel avec qui on peut entretenir une discussion pendant des heures, que l’on apprend que la deuxième, la troisième, désormais je crois la quatrième version sont déjà prêtes. Bref !, ça va beaucoup plus vite encore que l’iPhone, vous savez, quand vous en avez acheté un, le nouveau modèle est déjà disponible.
On a l’impression que l’intelligence artificielle est en train de nous bousculer, qu’elle va plus vite que ce que l’on peut suivre. Et puis, face à cela, les ingénieurs eux-mêmes semblent parfois pris de court, les innovations se multiplient à un rythme effréné. Et pourtant, nous avons cette conviction profonde que ce qui se joue autour de l’intelligence artificielle nous concerne et que notre avenir est déterminé par cette révolution technologique. Alors il faut bien en parler et, quand on en parle, c’est peut-être souvent l’inquiétude qui prédomine. Combien de fois n’avons-nous pas entendu dans le débat public, ces peurs face donc à une intelligence artificielle qui pourrait demain nous remplacer, qui risquerait de supprimer tous les emplois, qui pourrait aggraver les inégalités, augmenter les biais dans nos interactions humaines, voire complètement nous asservir et réduire définitivement notre liberté ? Sommes-nous en train de devenir bel et bien, comme dans les pires cauchemars de la science-fiction, les esclaves de la machine et de l’intelligence artificielle ? Nous allons voir. En tous les cas, il faut parler de ce sujet, il faut en parler aux Bernardins, c’est notre conviction, pour l’éclairer peut-être avec toutes la nuance que nos invités sauront y mettre, mais aussi avec ce regard d’espérance qui nous caractérise dans ces débats et qui est précieux pour nous.
Nous savons que notre génération est en train de vivre, finalement, un saut dans l’inconnu, en entrant, peut-être, dans ce qui était réservé autrefois au domaine de l’imagination. Ce que nous n’avions pas osé imaginer il y a quelques dizaines d’années est aujourd’hui en train de se produire sous nos yeux.
Et puis peut-être cette question aussi, pour paraphraser un petit peu la Genèse : l’homme est en train de créer l’intelligence artificielle à son image. On voit bien que le but est que cette intelligence ressemble le plus possible à la nôtre. Au fond, quel avenir pour l’humanité, si l’on est capable de dupliquer cette humanité, mais en est-on seulement capable ?
v Voilà un peu toutes les questions dont on va discuter dans ce nouveau débat.
Pour ceci, j’ai le plaisir de recevoir Aurélie Jean. Bonjour, Aurélie.

Aurélie Jean : Bonjour.

Paul Sugy : Et Étienne de Rocquigny. Bonjour Étienne.

Étienne de Rocquigny : Bonjour Paul.

Paul Sugy : Merci à tous les deux d’avoir accepté de vous plier à cette conversation. Vous avez beaucoup de points communs, à commencer par celui-ci : vous êtes tous les deux scientifiques et c’est d’autant plus précieux que le débat qui nous intéresse, évidemment philosophique, anthropologique, peut-être même théologique en un sens, reste d’abord un débat scientifique.
Aurélie Jean, vous êtes scientifique, spécialiste du numérique. Vous êtes aussi entrepreneuse. Vous avez notamment fondé et vous dirigez la société In Silico Veritas qui s’occupe de modélisation numérique. Vous avez aussi fondé une start-up qui est spécialisée dans les applications – tout ce qu’on peut faire de magnifique avec l’intelligence artificielle – qui s’intéresse notamment à l’application dans la santé et qui permet de s’intéresser au cancer du sein. Vous êtes classée par le magazine Forbes comme l’une des 40 Françaises, cocorico, qui seraient les plus influentes au monde. Rien que ça, rendez-vous compte ! Et puis, vous avez écrit plusieurs ouvrages, le dernier en date, Résistance 2050, avec votre coauteur, Amanda Sthers ; c’est un roman de science-fiction. Avant cela, vous avez écrit cet ouvrage dont le titre est une question, Les algorithmes font-ils la loi ? aux Éditions de l’Observatoire, ou encore De l’autre côté de la machine : voyage d’une scientifique au pays des algorithmes. Le voyage se passe-t-il bien ?

Aurélie Jean : Très bien.

Paul Sugy : Il va se poursuivre avec nous. En tous les cas, merci, Aurélie.
Face à vous Étienne de Rocquigny. Vous êtes aussi scientifique, vous êtes mathématicien, vous avez été vice-doyen de l’École centrale de Paris, vous êtes le président donc de Blaise Pascal Advisors, le fondateur aussi d’un think tank, qui liejustement l’espérance et la question des algorithmes, Espérance et algorithmes. Vous êtes aussi un auteur prolifique. Vous avez publié notamment Entreprendre à l’ère des algorithmes pour servir sans asservir, c’est un livre blanc, je crois, que vous avez fait avec l’aide des Bernardins et du Centre Sèvres. Et si je peux divulguer ce petit secret, je crois que vous vous apprêtez à publier un livre, cette fois-ci sur Pascal, dont le titre sera Le sens de l’IA à l’école de Pascal entrepreneur [Publié le 7 novembre 2023]. Juste avant qu’on rentre sur ce plateau, vous me disiez, avec un air taquin, qu’au fond c’était Pascal qui avait inventé l’intelligence artificielle. J’avoue que je suis tombé de ma chaise.

Étienne de Rocquigny : À de nombreux égards, certains connus par ChatGPT, d’autres non, et je vais commencer par les choses qui sont connues par ChatGPT, Pascal a construit le premier ordinateur mécanique, dont on pourrait dire que c’était une calculatrice, et Pascal disait qu’il permettait aux sots de calculer, qu’il donnait des pouvoirs arithmétiques ou algébriques à des sots. On peut faire la métaphore aujourd’hui avec ChatGPT. Pascal est aussi l’un des co-inventeurs de la théorie des probabilités. L’intelligence artificielle, aujourd’hui dominante, est une gigantesque machine probabiliste. Mais une chose que ChatGPT ne sait pas, c’est que Pascal a été aussi un entrepreneur en série, ça sera l’objet de mon livre, et c’est très intéressant, parce que je pense que l’aventure de l’intelligence artificielle est une aventure qui est profondément entrepreneuriale, que Pascal a vécue et, pour entreprendre, il faut d’abord faire preuve de rhétorique et Pascal est le maître inconsidéré de la rhétorique. Il parle du roseau pensant. L’intelligence artificielle est aussi un oxymore magnifique qui a été inventé dans les années 50, qui a permis de lever des milliards sur la base de la rhétorique et on va voir que la rhétorique c’est très important dans l’intelligence artificielle.

Paul Sugy : En tout cas, merci à tous les deux d’avoir accepté de confronter vos intelligences, vos visions sur ce sujet. Peut-être que, au fur et à mesure de la discussion, on verra à la fois les points communs que vous pouvez avoir, cette passion, cet intérêt commun pour l’intelligence artificielle et pour tout ce qu’on peut faire de beau et grand avec, et puis, en même temps, on essaiera de voir aussi ce qui peut peut-être différencier vos regards.
D’abord, ce que j’aimerais, c’est que vous m’aidiez à comprendre pourquoi, au fond, on en fait autant autour de l’intelligence artificielle. Ce que je veux dire, c’est que, inventer de nouveaux outils, le génie humain l’a toujours fait. L’intelligence artificielle est probablement quelque chose de plus grandiose que tout ce qui a été fait jusqu’ici, mais c’est justement l’histoire du progrès des sciences et des arts qui veut ça.
Pourquoi, aujourd’hui, a-t-on le sentiment d’être au bord d’une révolution ? Est-ce que l’intelligence artificielle est vraiment une révolution ? C’est la question que j’ai envie de vous poser et peut-être tout simplement et pour commencer, si vous êtes un peu honnête avec vous-même, Aurélie, vous répondrez comme vous voulez.

Aurélie Jean : Je suis toujours honnête !

Paul Sugy : Je n’en doute pas une seule seconde ! La question que je veux vous poser, c’est celle-ci : est-ce que vous auriez imaginé, il y a 10 ou 15 ans qu’on en serait là aujourd’hui ? C’est-à-dire que face à la puissance technologique des outils que l’intelligence artificielle propose aujourd’hui, est-ce ce que c’est une révolution qui était imaginable, anticipable, ou est-ce que vous avez été surprise ?

Aurélie Jean : Pas surprise, mais je l’ai saisie et je l’ai accueillie, on va plutôt dire ça comme ça. Disons qu’à 15 ans, je commençais ma thèse de doctorat, un peu plus en avant. J’avais des limitations de calculateur quand j’ai fait ma thèse, c’est-à-dire que j’étais limitée par la taille des calculateurs sur lesquels je pouvais faire mes calculs, donc j’étais limitée sur la taille des calculs que je pouvais faire, limitée par mon algorithme, en fait, et je savais que, dans le futur, ça allait être possible. Quand je vois aujourd’hui la taille des calculateurs et l’amélioration des algorithmes avec lesquels j’aurais pu faire ma thèse, j’aurais pu aller plus loin. Donc, je le savais.
Maintenant, tout ce qui concerne les évolutions algorithmiques sur les réseaux neuronaux, on avait déjà des débuts dans les années 90, c’est là que ça a commencé et, dans les années 2000/2010, ça a été un grand boom. C’était juste après ma soutenance de thèse en 2009.

Paul Sugy : Vous êtes arrivée au bon moment.

Aurélie Jean : Je suis arrivée au bon moment, mais, disons que c’est davantage tout ce qui est applications qui m’étonne, qui m’intrigue et qui m’intéresse. Je n’aime pas le mot intelligence artificielle – on pourra revenir dessus, j’aime bien parler d’algorithmes et de données, parce que, à la fin, c’est comme ça qu’on fait, on crée des algorithmes, on les entraîne, on les calibre sur des jeux de données pour pouvoir répondre à une question.

Paul Sugy : L’intelligence artificielle n’est jamais rien d’autre qu’un algorithme.

Aurélie Jean : Je le dis souvent, parce que, dans l’intelligence artificielle, il y a plusieurs domaines : vous avez le domaine algorithmique, donc le domaine modélisation, représentation de la réalité à travers un modèle qui va justement simuler une certaine réalité ; vous avez aussi la partie robotique, qui va être plutôt une partie hardware. Il y a aussi des gens qui vont aussi travailler sur l’interaction homme-machine, ce qui peut s’éloigner de l’aspect purement algorithmie.

Paul Sugy : On incorpore l’algorithme par exemple dans un robot humanoïde, des choses comme ça.

Aurélie Jean : Exactement et plein d’autres choses. Il y a des gens qui s’intéressent à l’intelligence artificielle sous l’angle sociologique et anthropologique. C’est donc vraiment très général. Moi, je parle d’algorithmique et de données parce que c’est ce que je fais au quotidien, d’ailleurs, si je peux me permettre, je conseille aux gens de lire le livre de Luc Julia, qui a cocréé Siri, qui a été directeur de recherche chez Samsung, qui est un ami, qui a écrit un livre qui s’appelle L’intelligence artificielle n’existe pas. Je pense que ça résume assez justement les réelles capacités de ce qui se fait réellement au sein de l’intelligence artificielle, qui n’est qu’une reproduction, une modélisation de l’intelligence analytique humaine et non pas l’intelligence pratique et créative ; on pourra revenir là-dessus.

Paul Sugy : D’accord. Donc, au fond, c’est une intelligence qui reste cantonnée à son rôle, qui est en fait celui d’être un supercalculateur.

Aurélie Jean : Exactement. Et qui a des capacités de comparaison statistique et d’analogie, d’aller trouver des signaux faibles et des analogies que nous, humains, nous ne pouvons pas détecter. C’est là la force de ces modèles, mais il faut toujours bien indiquer de quel type d’intelligence on parle. Je pense que c’est important.

Paul Sugy : Êtes-vous d’accord avec ça, Étienne de Rocquigny, l’intelligence artificielle, ce n’est que du calcul.

Étienne de Rocquigny : Ça dépend du point de vue dont on parle. Encore une fois, l’innovation technologique, c’est très risqué, il faut lever beaucoup d’argent. Si je cherche à lever de l’argent, je vais parler d’intelligence artificielle, parce qu’il faut emmener les gens sur Mars ! On connaît un entrepreneur talentueux qui, d’ailleurs, veut aller sur Mars. Si vous voulez aller chercher de l’argent, il faut promettre Mars. Les mauvaises start-ups vont ensuite livrer un escabeau de jardin.
Ce terme-là a une puissance de communication inégalée.

Paul Sugy : Il fait partie de notre imaginaire.

Étienne de Rocquigny : Je suis tout à fait d’accord avec Aurélie, il est plus juste de parler d’algorithmes. D’ailleurs, notre think tank s’appelle « Espérance et algorithmes » et non pas « intelligence artificielle ». Espérance – on pourra y revenir – pseudo-messianique, ça n’est pas là que gît l’essentiel. L’essentiel, c’est plutôt à travers le mot d’algorithmes dans des machines qui vont permettre d’automatiser, de manière stupéfiante, un certain nombre de processus au service, si possible, du bien commun, pas toujours. C’est donc bien cette machine qui est importante, c’est l’algorithme, et non pas la représentation. Là encore, j’ai mentionné à dessein le mot « messianique », parce que derrière cette communication-là, beaucoup de gens vont placer derrière les avancées technologiques une espérance de type messianique, c’est-à-dire qu’on croit qu’avec ça, on va effectivement résoudre tous les problèmes dans le monde, on va résoudre les pestes, les famines, les problèmes de discrimination, etc., qui sont des problèmes effectivement considérables et, je vais revenir à Pascal, le cœur humain désire l’infini. Au fond du cœur, il y a effectivement cette soif humaine pour l’infini et un certain nombre de gens vont placer derrière ces technologies, effectivement stupéfiantes, une espérance messianique. Il est bon de dire qu’on peut douter un petit peu de cette espérance messianique.
Encore une fois, j’aime beaucoup ce qu’a dit Aurélie sur les algorithmes, on peut, il est même salutaire de revenir sur terre, donc de regarder de manière objective ce que font ces machines, comment elles sont utilisées et comment elles peuvent servir le bien commun. C’est ça le plus important et non pas, même si ça fait vendre des livres, s’attarder sur ces promesses presse eschatologiques

Paul Sugy : Pour revenir sur terre, justement, je voulais vous soumettre à un petit jeu. C’est une vidéo de l’INA qui circulait ces derniers jours. On y voyait un chercheur du MIT, il y a un demi-siècle, qui s’appelait Nicholas Negroponte, qui disait que dans 50 ans, donc aujourd’hui, l’intelligence artificielle serait capable de comprendre une plaisanterie. Au fond, c’était ça la question. Quand on a commencé à développer l’informatique moderne, on s’est dit « finalement, l’humour résistera toujours à l’algorithmique ». ChatGPT n’est peut-être pas drôle et si vous lui demandez de l’être, il ne vous fera peut-être pas rire. Mais si vous vous entrez une blague dans le robot conversationnel ChatGPT, il est capable de vous expliquer quel est le ressort comique. Il a cette intelligence-là de comprendre ce qui fait rire les gens. Donc, on y est quasiment, si vous voulez.

Aurélie Jean : Non, c’est plus subtil que ça.

Paul Sugy : C’est plus subtil que ça, alors dites-moi !

Aurélie Jean : J’aime beaucoup Nicholas Negroponte qui, par ailleurs, a fait le premier ??? [13 min 30] en 84, dans lequel il a dit que dans le futur, on n’aurait plus de clavier, qu’on taperait sur un écran. Donc, Nicholas Negroponte est un homme visionnaire, il faut le savoir.

Paul Sugy : Il avait inventé la iPad il y a 30 ans.

Aurélie Jean : Je trouve que c’est quelqu’un de visionnaire. Il a inventé le MIT Media Lab.
Concernant les blagues, je pense que c’était une extrapolation un peu forte, puisque, en fait, l’humour, c’est de l’ordre de la créativité, de l’intelligence émotionnelle et du bon sens, donc l’intelligence pratique. Je pense qu’il faut revenir à la théorie triarchique de l’intelligence.

Paul Sugy : Donc, l’algorithmique ne peut pas en faire du tout.

Aurélie Jean : Non, l’algorithmique ne va pas pouvoir générer un humour from scratch, à partir de rien. Par contre, ce que vous dites là, à savoir qu’il y a des blagues et il peut expliquer pourquoi c’est drôle, pour la simple et bonne raison, c’est qu’il y a une logique sous-jacente à des blagues qui sont propres à la manière dont les gens les utilisent. C’est-à-dire que si vous donnez un jeu d’entraînement de blagues, de textes de blagues, et que vous allez regarder comment les gens réagissent à ces blagues au regard du nombre de likes, de commentaires ou s’ils les utilisent, tout simplement, à partir de ce moment-là, l’algorithme va pouvoir, éventuellement – je ne l’ai pas fait – capturer des signaux faibles ou des signaux forts des raisons pour lesquelles cette blague est trouvée drôle, en fonction du contexte dans lequel elle a été utilisée, mais aussi en fonction des gens qui vont partager cette blague. Donc, ces différences sont plutôt des méta-informations sur les raisons pour lesquelles la blague est drôle.

Paul Sugy : C’est analyser la récurrence d’un comportement.

Aurélie Jean : Par exemple, plus que la substante moelle de l’humour, qui est, pour le coup, purement humaine, c’est important à retenir.

14’ 56

Paul Sugy : Du coup, je vais quand même vous faire un tout petit peu jouer au jeu Nicholas Negroponte. Vous allez me dire si vous pensez que c’est une chose qui est vraie ou si ça vous paraît complètement fantasque, parce que c’est un petit peu ça la question, on parle de l’intelligence artificielle aujourd’hui, on voit bien que les choses vont très vite : dans 50 ans, qu’est-ce que l’intelligence artificielle aura encore changé ou apporté à notre monde ? Est-ce qu’on peut imaginer que, dans un demi-siècle, l’intelligence artificielle pourra trancher un litige au tribunal ? Est-ce qu’elle en serait capable ?

Aurélie Jean : Pas strictement. Par contre, elle pourra apporter des éléments en particulier dans les systèmes judiciaires comme le système américain, qui est basé beaucoup sur la jurisprudence, donc sur l’analyse, après, elle pourra apporter des éléments de comparaison avec des affaires antérieures. Mais attention, il va falloir qu’il y ait un revirement judiciaire possible à tout moment qui fait qu’une jurisprudence peut être basculée. C’est très important. Ça existe déjà d’avoir des éléments éclairants, mais le fait de trancher, de décider à la place d’un juge, sûrement pas parce que la justice est avant tout une histoire d’êtres humains, d’histoires, mais on peut tout à fait aller chercher des éléments dans le passé, au regard du système judiciaire, comme un système judiciaire de jurisprudence.

Paul Sugy : Donc l’algorithme peut, en fait, amasser une quantité de documents en mémoire.

Aurélie Jean : Exactement. Des décisions passées de pourquoi on a décidé ainsi, mais on ne peut pas se baser que là-dessus, parce que, en face de vous, chaque procès, chaque affaire est unique, C’est très important, pour en avoir parlé des juges et des avocats, premièrement. Et deuxièmement, vous avez le revirement judiciaire qui est fondamental dans un système quel qu’il soit, même dans notre système de droit, qui n’est pas strictement de jurisprudence, bien évidemment vous le savez, mais on a besoin d’avoir des revirements, des décisions qui n’ont jamais été prises et qui renversent, en fait, renversent toutes les décisions passées.

Étienne de Rocquigny : Je suis tout à fait d’accord et je pense qu’il faut aussi s’ouvrir. Je vais faire deux ouvertures, une scientifique et une plutôt spirituelle.
La première ouverture scientifique, c’est que le domaine des algorithmes, de la raison prédictive, est un domaine d’inférences, on pourrait dire de règles de décision. Aujourd’hui, les règles qui sont très à la mode parce qu’elles ont effectivement remporté à court terme le match, ce sont les règles probabilistes. Pascal est-il coupable ? Je ne sais pas. Je parie. Je regarde les enchaînements passés la plupart du temps, c’est ça, bon, je dis ça. Et la logique promise, qui est bête et méchante, qui consiste juste à compter le nombre de fois où j’ai observé quelque chose, mais, en fait, qui marche mieux qu’une logique beaucoup plus construite, qui va construire des raisonnements à partir d’informations sur ce qu’est que la justice, dans quels cas je…, etc. Bon.
Néanmoins ces machines prédictives, qu’elles se basent sur une raison probabiliste ou alors sur une modélisation plutôt phénoménologique et logique, sont limitées aux observations, c’est-à-dire que si vous n’avez pas tous les faits, si, pour un certain nombre de raisons, il y a des circonstances de l’accident ou de l’assassinat qui vous échappent, alors le meilleur modèle du monde, si vous enlevez des données en entrée, ne va pas vous donner la bonne réponse.

Paul Sugy : Cela est vrai aussi pour intelligence humaine, si les jurys populaires n’ont pas accès à tous les éléments, le jugement n’est pas le bon.

Étienne de Rocquigny : C’est tout à fait vrai, d’ailleurs, quand on fait le procès des algorithmes – j’aime bien la position d’Aurélie qui dit que ce sont vraiment des algorithmes, ceux qui ont conçu les algorithmes – il faut toujours raisonner de manière un peu différentielle, c’est-à-dire que oui, il y a des biais dans les algorithmes, mais est-ce qu’il y en a dans les décisions humaines qu’ils les remplacent et finalement quel est le pire ?
Je voudrais quand même revenir sur les limites de la raison qui seront vraies dans le futur. C’est-à-dire que si je n’observe pas l’intégralité du réel, alors j’ai beau avoir un modèle fantastique, je vais faire des erreurs. Or, il est permis de douter que l’on puisse, même dans 50 ans, observer l’intégralité du réel. Il y a d’ailleurs des raisons physiques fondamentales. Si vous faites de la physique quantique, vous savez que les relations d’incertitude d’Heisenberg prévoient qu’à l’échelle microscopique, vous ne pourrez jamais mesurer, au même moment, la vitesse et la position d’un électron. C’est comme si la réalité, d’une certaine manière, échappait fondamentalement à la mesure humaine. Et ça, c’est de la physique théorique, ce n’est pas une limitation d’énergie ou de technologie de mesure, c’est de la physique théorique. C’est comme si, au fond, le réel échappait, le réel était, d’une certaine manière, plus libre que la réalité de l’observation. C’est la première limite.
La deuxième limite, c’est celle du jugement de Salomon, qui est un grand texte biblique. Vous vous souvenez de l’histoire du jugement de Salomon : deux femmes se battent pour savoir de qui est l’enfant. Que va faire Salomon ?

Paul Sugy : Couper l’enfant en deux !

Étienne de Rocquigny : Est-ce qu’un algorithme aurait pu, dans ce cas-là, faire exactement cela ? Évidemment, si on a proposé à salomon.com 17 observations de la même situation, peut-être va-t-il proposer ça ! Mais cette intelligence, cette sagesse humaine dans l’instant, voilà quelque chose aussi qui échappe, finalement, et la justice se fait de manière dynamique. La justice ne se fait pas une manière statique : je prends les observations, je juge. Non ! Je vais discuter avec les accusés, je vais laisser quelque chose se passer et on ne pourra pas entrer cela dans une boîte algorithme.

Aurélie Jean : D’ailleurs, pour rebondir sur l’aspect observation, c’est très important parce qu’en fait, ça nous concerne tous au quotidien, pas que l’intelligence artificielle ou les algorithmes, c’est de se demander : est-ce qu’on a tout observé ? Il faut avoir de l’humilité, et je pense que quand on développe des algorithmes, on peut aussi devenir très humble. Les sciences, en général, nous font devenir très humbles, parce qu’on reconnaît qu’on ne sait pas tout et on reconnaît qu’on n’observe pas tout. Il y a un paradoxe dans l’observation : je pense qu’on ne saura jamais si on a tout observé. Pourquoi ? Parce que pour savoir si on est tous observé, il faut déjà avoir l’ensemble observable et cet ensemble observable est, par définition, une inconnue. C’est pour cela que la science donne cette humilité à celui qui l’a fait, qui l’a construit et qui l’utilise, parce qu’on est toujours dans le doute. Je pense qu’il est très important de garder à l’esprit qu’il faut être très critique et garder un œil critique, en tout cas sur les modèles qu’on va développer ou qu’on va utiliser, parce qu’on se dit qu’on n’a peut-être pas tout observé, et c’est fondamental dans la suite.

Paul Sugy : C’est intéressant. Finalement, vous vous rejoignez tous les deux, l’un et l’autre, pour dire que ce qui limite l’intelligence artificielle, c’est la connaissance, parce qu’elle tire sa puissance justement de l’ensemble de connaissances qu’elle a ou qu’elle acquiert. Est-ce ce que c’est vrai aussi pour l’intelligence humaine ? Au fond, est-ce qu’il y a ce parallèle entre l’intelligence algorithmique et l’intelligence humaine, qui est que la valeur de notre jugement dépend justement de l’intelligence qu’on a, de la connaissance qu’on a d’une situation donnée.

Aurélie Jean : Considérant le fait que la connaissance et l’intelligence que vous développez se fait à partir de votre histoire, de qui vous êtes, de qui vous a élevé, de comment vous avez été élevé, des études que vous avez faites, des gens que vous avez rencontrés, etc., bien évidemment, vous avez un égo qui se modèle et que vous essayez dompter autant que vous pouvez après, au fur et à mesure des années de votre vie. Vous avez aussi une personnalité qui va se dessiner, donc, forcément, vous allez avoir un prisme d’observation du monde qui est le vôtre, avec ses biais, ses biais cognitifs, avec toutes ces choses-là. Il faut justement, encore une fois, reconnaître qu’on a une vision prismatique du monde et de la vie et, à partir de là, faire un pas vers l’autre, un pas vers le monde qu’on ne connaît pas avec prudence et humilité pour pouvoir apprendre sans faire de jugements tranchés. C’est aussi cela qu’on observe aujourd’hui concernant les algorithmes, vous allez sûrement en parler, nous avons tous tendance à avoir des avis tranchés, à vouloir avoir un avis sur tous les sujets, sans faire ce pas de côté qui va nous permettre de modifier légèrement le prisme et de le voir sous un autre angle. Et on a tendance, en plus, à être très égocentriques aujourd’hui, on pourra peut-être en reparler, mais je crois beaucoup à ça.
Eva Illouz a fait un livre là-dessus, il y a des années, Happycratie – Comment l’industrie du bonheur a pris le contrôle de nos vies où, justement, elle raconte que par cette collecte continue de data à caractère personnel et par le fait qu’on va faire des algorithmes et des outils qui vont nous servir, nous et seulement nous, avec des services personnalisés, on a tendance, en fait, à davantage centrer la vie autour de nous et je ne rajoute même pas la psychologie positive et le développement personnel où, en fait, le bonheur ne passe que par nous, donc on a perdu l’amour de l’autre et lagapè, la figure de l’amour de l’autre, inconditionnel, désintéressé.
Je suis très intéressée par ces sujets parce que je pense que c’est ce qui explique beaucoup de choses aujourd’hui, du rapport à l’autre. Je pensais que la crise Covid et le confinement allaient changer les choses. Ça les a très peu changées parce qu’en fait, nous sommes revenus à cette société très égocentrique.

Paul Sugy : Voire on a même augmenté la part du soin et du développement personnel, l’accomplissement de soi.
Je voulais vous confronter à une autre hypothèse : est-ce que c’est possible d’imaginer, est-ce que ça même du sens d’imaginer qu’un jour l’intelligence artificielle puisse croire en Dieu ?

Étienne de Rocquigny : Quelle question ! Il faudrait commencer à découper, comme va le faire ChatGPT, on va découper, le verbe croire, je vais faire ??? [23 min 34] pour demander ce que veut dire croire.

Aurélie Jean : Je pense qu’il faut déjà définir ce que c’est que croire être, tout à fait.

Étienne de Rocquigny : Qu’est-ce que veut dire croire en Dieu ? Je pense qu’on sera d’accord avec Aurélie pour dire qu’il y a cette tentation, qui est déraisonnable, que de mettre une personnalité sur un algorithme. Les algorithmes sont des machines, sont des artefacts faits de main d’homme. L’homme est effectivement, pour les croyants, cocréateur, créé à l’image de Dieu et cocréateur, mais l’homme ne crée que des artefacts. Les machines sont des artefacts, il est donc déraisonnable, même si certains avocats et d’autres ont fait du lobbying pour mettre une notion de personne, c’est évidemment un abus de langage et c’est un piège un peu paresseux que de dire « la machine veut faire ça, la machine croit ça. » Non ! On a affaire à des artefacts.

Aurélie Jean : En général ces personnes sont dangereuses.

Paul Sugy : La machine ne peut pas croire.

Étienne de Rocquigny : La machine n’est pas une personne. Après, il y a quand même des choses intéressantes. Un théologien un peu hors normes a sorti un livre disant que, après tout, dans une vision biblique, le salut concernait l’intégralité de la création, il n’était donc pas impossible qu’il y ait un salut pour les machines. Quelqu’un a écrit un truc comme ça.

Paul Sugy : La question s’est déjà posée pour les animaux ! On ne fait qu’élargir le problème.

Étienne de Rocquigny : C’est la création dans sa totalité, donc, bien sûr les personnes humaines, tous les animaux – ce qui est réjouissant, par ailleurs, si effectivement on croit, ce qui est mon cas, que la création est une merveille qu’il faut contempler, qu’il faut servir et qu’il faut soigner, les algorithmes peuvent nous aider, aujourd’hui, à être de meilleurs écolos, il y a du travail à faire. Ce théologien va même plus loin, en disant que tous les artefacts, la cathédrale de Chartres, les œuvres de Bach à l’orgue et même aussi les machines comme œuvres magnifiques de l’intelligence humaine créées à l’image de Dieu pourraient presque être sauvées. Je ne dis pas que c’est ma position, mais c’est peut-être une façon un peu détournée de répondre à votre question.

Paul Sugy : Finalement, vous me répondez en me disant qu’on ne sait toujours pas si l’intelligence artificielle peut croire en Dieu, mais Dieu peut croire en l’intelligence artificielle, en quelque sorte, en tout cas elle a une place dans le dessein.

Étienne de Rocquigny : Je pense que ce qui est stimulant – en tout cas, c’est la façon dont je le vis –, c’est de se dire que nous sommes créés pour être cocréateurs et, à ce titre-là, nous avons des moyens incroyables pour faire des choses exceptionnelles et qu’il faut mettre du meilleur de nous-mêmes pour que ces machines soient magnifiques et qu’elles soient au service du bien commun. À ce titre-là, si, en plus, on peut penser que nos œuvres, si elles sont vraiment magnifiques eh bien, elles sont amenées à parfaire, pour un croyant, finalement la vie éternelle, alors il faut vraiment bien travailler, faire des algorithmes absolument magnifiques. Pour moi, c’est plutôt une façon un peu détournée que de chercher l’excellence et de chercher qu’on ne se détourne pas de ces algorithmes, mais qu’on y mette le meilleur de nous-mêmes et la plus haute exigence humaine pour que ces machines soient effectivement des réalisations magnifiques comme Le Clavecin bien tempéré de Bach ou d’autres œuvres humaines.

Aurélie Jean : Pour répondre à cette question, je pense qu’on peut la découpler, on peut séparer la partie Dieu de la partie croire. Comme vous l’avez dit, une machine ne peut pas croire, un algorithme ne peut pas croire, donc, croire en Dieu, sûrement pas. Donc, Dieu, ça pourrait être n’importe quoi d’autre, il pourrait croire en n’importe quoi. Ça pourrait être une spiritualité laïque, ça pourrait une croyance quelle qu’elle soit. En fait, peu importe, la machine ne peut pas croire, donc, je dis non.

Paul Sugy : Très bien. Entendu, c’est une réponse claire.
Je viens d’entendre avec délectation tous les jolis mots que vous avez eus, Étienne de Rocquigny, sur, finalement, la merveille de l’intelligence artificielle qui, comme artefact humain, enrichit l’humanité elle-même en soulignant cette capacité qu’a l’homme d’être créateur, d’ailleurs, vous vous accordez tous les deux pour dire que, au fond, l’intelligence artificielle est quelque chose de merveilleux et de fascinant. Mais on voit bien qu’aujourd’hui ce n’est pas forcément le ton qu’on emploie pour ce débat, c’est plutôt, au contraire, une forme d’inquiétude qui semble prédominer, qui fait peut-être aussi le jeu de ceux qui, derrière, à grand renfort de livres, de scénarios catastrophes, etc., essayent peut-être de grossir un peu le trait. On voit bien, en tous les cas, qu’il y a aujourd’hui une façon inquiète d’aborder la question de l’intelligence artificielle, qui justifie tout un tas de débats comme celui qu’on est précisément en train d’avoir. J’aimerais, avec vous, faire le point sur les raisons qu’il y a de s’inquiéter ou non.
Si on regarde un petit peu les choses objectivement, il y a quelques grandes thématiques qui se dégagent. La première d’entre elles, c’est la question de la liberté. On assiste à la montée d’une crainte de plus en plus prononcée, celle que, au fond, le génie humain et, en particulier, l’invention de l’intelligence artificielle, va finir par nous asservir, c’est d’ailleurs ce que vous mentionnez dans le titre même de votre livre blanc, il faut que l’intelligence artificielle serve sans nous asservir. Donc, au fond, à terme, nous pourrions devenir prisonniers de notre propre intelligence, c’est donc notre liberté qui serait ainsi réduite.
Est-ce que vous comprenez cette inquiétude et est-ce que, d’une certaine manière, elle vous paraît féconde pour envisager le futur de l’intelligence artificielle ?