Les algorithmes sont-ils sournois, avec Luc de Brabandere
Titre : Les algorithmes sont-ils sournois avec Luc de Brabandere
Intervenants : Luc de Brabandere - Jean-Philippe Clément
Lieu : Émission Parlez-moi d’IA- Radio Cause commune
Date : 23 décembre 2023
Durée : 29 min 33
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription (relu sans audio Véro)
Diverses voix off : Parlez-moi d’IA.
Mesdames et Messieurs, bonjour. Je suis un superordinateur Karl, cerveau analytique de recherche et de liaison.
C'est une machine qui ressent les choses.
On nous raconte n’importe quoi sur l’IA !
Qu’est-ce que tu en dis ?
Moi je n’en dis, je n’en dis rien du tout.
La créativité, elle reste du côté humain.
Jean-Philippe Clément : Bonjour à toutes et à tous. Jean-Philippe Clément. Bienvenue sur Parlez-moi d’IA sur Cause Commune, la radio pour débattre, transmettre et comprendre. Transmettre et comprendre, c’est aussi l’objectif que se fixe cette émission sur le sujet spécifique des data, des algorithmes et des intelligences artificielles. Nous avons 30 minutes pour essayer de mieux comprendre ces nouveaux outils.
Merci à Jérôme, notre réalisateur, toujours à mes côtés même s’il me laisse faire des choses, aujourd'hui, à la console, pour m'apprendre toujours plus de techniques radiophoniques. Je suis vachement fier parce qu'en fait Jérôme dans son émission Rayons Libres de cette semaine, sur le vélo bien sûr, a cité un extrait de la dernière émission Parlez-moi d’IA. C'était pour faire réagir son invité, je suis hyper-fier.
Merci à Olivier Grieco, notre directeur d'antenne. Merci à vous, chers auditrices et chers auditeurs, pour votre écoute de cette émission et pour l'écoute que vous avez sur notre radio Cause Commune. Cause Commune, que vous pouvez retrouver sur le Web, cause-commune.fm, sur la bande FM, à Paris, sur le 93.1 et, bien entendu, le DAB+, en podcast sur votre plateforme préférée. Merci d'être de plus en plus nombreux et nombreuses à nous écouter.
Maintenant que vous êtes là, n'hésitez pas avec vos likes, vos étoiles, vos commentaires, ce sont nos seules récompenses.
C'est notre seule récompense et cela manipule l'algorithme. La manipulation d'algorithmes, nous allons d'ailleurs en parler aujourd'hui, avec un ingénieur, dont le premier livre est Les Infoducs: Un nouveau mot, un nouveau monde, paru en 1985, avait déjà l'intuition de relier les sources d'information, l'intuition d'Internet. Un ingénieur visionnaire, donc, mais pas uniquement, car il est aussi philosophe et, quand on veut prendre du recul vis-à-vis de l'IA, quand on veut creuser les concepts et s'assurer que l'on va dans le bon sens, quoi de mieux que la philosophie ?
Je reçois donc aujourd'hui, pour l'un de ses derniers livres, Petite Philosophie des algorithmes sournois, un ingénieur philosophe. Bonjour Luc de Brabandere.
Luc de Brabandere : Bonjour.
Jean-Philippe Clément : Merci d'être avec nous à distance.
Luc de Brabandere : Avec plaisir. Ingénieur philosophe belge.
Jean-Philippe Clément : Si vous voulez, je peux aussi rajouter « belge » comme qualificatif, il n’y a pas de souci.
Luc de Brabandere : Les gens le réaliseront très vite.
Jean-Philippe Clément : Très bien. Parlez-moi d’IA. Luc, pourquoi consacrer ce septième tome, si j'ai bien compté, de votre série Petite Philosophie aux algorithmes ?
Luc de Brabandere : Parce que le philosophe se pose toujours la même question face à un monde qui, lui, est toujours différent. Et quand il se passe un grand événement, que ce soit la mondialisation ou quoi que ce soit d'important qui se passe, il prend la posture du philosophe, alors aujourd'hui, bien sûr, il parle des algorithmes.
Jean-Philippe Clément : Il va falloir que vous expliquiez un petit peu à ma grand-mère. C'est quoi un algorithme, Luc ?
Luc de Brabandere : Un algorithme, c'est une méthode qui permet d'atteindre un but dans un nombre fini d'étapes. Par exemple, il n’y a pas d'algorithme pour apprendre à jouer au piano, c'est infini. Par contre, il y a un algorithme pour permettre de choisir le meilleur endroit de vacances, etc. C'est simplement une recette. Je dirais même qu’une recette de cuisine est un algorithme : on a une séquence et, si on respecte bien les étapes, on atteint le but que l'on voulait avoir. Mais bien sûr, avec les machines, les algorithmes ont une ampleur qui dépasse la recette de cuisine.
Jean-Philippe Clément : On va y revenir. D'ailleurs, dès l'avant-propos, vous rentrez dans le vif du sujet et vous qualifiez ces algorithmes de sournois. Pourquoi un tel qualificatif ?
Luc de Brabandere : J'ai cherché longtemps. D'abord, je crois que l'adjectif est important et je ne voulais mettre aucun adjectif du genre « pernicieux » ou je ne sais quoi qui donnerait à l'algorithme une espèce d'existence humaine qu'il n'a évidemment pas. Un algorithme n'a pas d'intention, n'a pas de plan, n'a rien de tout cela. Sournois m'a paru parfaitement adéquat, pourquoi ? Dans la définition du dictionnaire, je cherchais un adjectif qui ne connote en rien l'humain : dire d'un algorithme qu'il est pernicieux, par exemple, serait lui donner une personnalité qu'il n'a pas. Sournois, si vous regardez la définition dans le dictionnaire, c'est « ne se dévoile pas totalement » et c'est exactement ce que je veux. Par exemple, on dit d’une maladie qu'elle est sournoise quand on ne comprend pas tout. Je crois que sournois est vraiment l'adjectif adéquat pour parler des algorithmes.
Jean-Philippe Clément : Il y a une partie un peu cachée, une partie un peu boîte noire.
Luc de Brabandere : Une partie un peu cachée, absolument, un côté boîte noire et délibéré, c'est clair. On parle beaucoup de la protection des données et pas assez, selon moi, de la transparence des algorithmes. Et bien sûr, les algorithmes sont mystérieux parce qu'ils sont cachés. Google, par exemple, a un argument très important, il dit « je ne donne pas la recette, je ne dévoile pas mon algorithme, parce que, si je le faisais, les gens pourraient en profiter et détourner ». C'est un peu byzantin comme explication.
Jean-Philippe Clément : Oui, c’est ça. Ils n'aiment pas qu'on aille manipuler leur algorithme. C'est ce que je disais dans l'introduction : en demandant des likes et des étoiles, ça influence l'algorithme et eux n'aiment pas qu'on sache trop ce qui va influencer et manipuler leur algorithme.
Luc de Brabandere : Eh non ! Imaginez que l’algorithme ne soit pas sournois, que vous le compreniez de A à Z, vous pourriez le détourner dans un but qui pourrait être le vôtre. Or, Google ne veut pas du tout ça ! Il veut l'utiliser à son profit.
Jean-Philippe Clément : Bien sûr. Également dans l'avant-propos, vous rentrez très rapidement dans le vif du sujet avec ces IA génératives. Ça fait maintenant un an qu'elles ont pris le devant de la scène avec, notamment, ChatGPT. Vous dites – et je vous ai lu aussi, par ailleurs, dans quelques interviews – que, pour vous, les algorithmes ne sont pas créatifs. Ils ont une sorte de logique propre, mais ils n’ont rien de créatif. Que pouvez-vous dire sur ce sujet ?
Luc de Brabandere : Tout dépend, bien sûr, de la définition qu'on donne à la créativité. Je définis la créativité comme la capacité de sortir de son programme, ce qu’un programme ne peut évidemment pas faire. Les algorithmes récents, surtout, qui sont tellement puissants, donnent l'impression de la créativité tellement ils sont puissants et, forcément, ils vont arriver avec des idées auxquelles vous n'aviez pas pensé. Imaginez que vous écriviez un roman et vous cherchez un bon titre, vous demandez à l'algorithme « quel est le meilleur titre ? », il n'y a pas d’algorithme pour dire le meilleur titre. Mais l'algorithme va en donner tellement, il va offrir des centaines de possibilités et peut-être que vous direz « tiens, je n'avais pas pensé à ça » et, finalement, vous allez profiter de quelque chose qui ressemble à de la créativité, c’est simplement de la puissance de calcul, pour vous décider « je prends celui-là ou je prends celui-là ».
Jean-Philippe Clément : J'allais, justement, vous soumettre cette étude récente qui vient de sortir où, finalement, les chercheurs ont mis ChatGPT 4 un peu à la preuve. Ils l'ont soumis aux tests de créativité de Torrance qui sont des tests à la fois verbaux, au sens de l’écrit, et figuratifs au sens création d'images, et ils se sont aperçus que sur certaines questions précises, quand on le met en parallèle avec certains étudiants, cette créativité était au moins au même niveau et, en tout cas, indétectable en termes de créativité virtuelle, on va dire ça comme ça.
Luc de Brabandere : Oui. Selon le test de Torrance, ça c'est sûr. Mais que vaut ce test ? Je dirais qu’il y a toujours un moyen de sortir de tout et inventer des autres tests. Le test de Torrance, dont on parle beaucoup, est un test d'imitation. Il a défini l'intelligence comme la capacité d'imiter l'homme, mais c’est toute la différence entre être intelligent et paraître intelligent ou être créatif et paraître créatif. Je crois que les algorithmes paraissent créatifs, mais ne le sont pas, en tout cas pas avec ma définition.
Jean-Philippe Clément : Votre propos, finalement, c'est de dire « attention, on n'a pas le bon thermomètre pour mesurer cette intelligence et cette créativité ». On utilise un test qui est un peu…
Luc de Brabandere : Exactement. Je crois qu'il est important de remettre « intelligence »s au pluriel. En fait, le mot est devenu un objet de recherche académique il y a 200 ans. À l'époque du quotient intellectuel, des travaux de Binet, on parlait d'intelligence au singulier et ça connotait d'ailleurs un peu l'intelligence génétique, génie, génétique, il y avait même des côtés un peu bizarres. Excellente nouvelle, après la Seconde Guerre mondiale, on met intelligence au pluriel. Il y a d'ailleurs de multiples théories d'intelligences multiples, ce qui est une excellente nouvelle, et que constate-t-on ? Avec les algorithmes, patatras !, on remet intelligence au singulier, mais non ! Toutes les intelligences restent présentes. L'une d'entre elles, celle qui, par hasard, avait le monopole il y a 200 ans, c'est-à-dire hypothético-déductive, l'intelligence mathématique, je crois que celle-là sera bien sur les machines. Mais toutes les autres ? L’intelligence émotionnelle, l'intelligence relationnelle, artistique, non ! Parce qu'il n'y a pas d'algorithme pour les choses essentielles.
Jean-Philippe Clément : D'ailleurs, pour revenir sur ces aspects-là, à un moment de la Petite Philosophie des algorithmes sournois, vous parlez justement de cette façon d'aborder : il y a des postures pour comprendre un peu ce qui nous entoure, il y a une posture active ou passive, une posture rationnelle et irrationnelle, et, de fait un cycle s'est produit. Pensez-vous qu'on a commencé par de l'actif rationnel et, aujourd'hui, on revient un petit peu sur ce positionnement ?
Luc de Brabandere : De manière schématique. En fait, la philosophie antique est née avec la raison. On a commencé à se poser des questions : comment se passent les choses ? À la Renaissance et au siècle des Lumières, la raison est passée du statut d’outil au statut de valeur. On a décidé de réfléchir, l'audace ??? [ 10 min 11], etc. Aujourd'hui on constate, en fait, qu'il y aurait comme une énorme marche arrière, parce qu'on revient à l'époque de la mythologie, c'est-à-dire des croyances non fondées, mais avec un outil qui semble raisonnable, qui permet de penser. Et la combinaison de la raison et du déraisonnable est effectivement inquiétante, on le voit bien. Moi je suis très inquiet de l'évolution des États-Unis, c’est le pays du monde qui me fait le plus peur, parce qu’on sent bien qu'il y a quelque chose qui est ébranlé : des choses fondamentales comme la séparation des pouvoirs, etc. Si ce pays-là ne tient pas le coup, il y a de quoi s'inquiéter.
Jean-Philippe Clément : Vous évoquez d'ailleurs, dans le livre également, une étude ; ça m'a marqué, je ne connaissais pas cette étude de Marten Scheffer qui a compilé des millions de livres et des articles publiés de 1850 à 2019, au passage, pour compiler autant de livres je pense qu'un petit peu d'IA quand même, malgré tout !
Luc de Brabandere : C’est sûr !
Jean-Philippe Clément : Il observe une inflexion dans l'évolution du vocabulaire qui passe de mots plutôt liés, justement ce que vous disiez, à la raison et la rationalité, des mots comme « conclure, démontrer, déduire », et il y a un basculement en 1975 pour plus de mots émotionnels « sentir, croire, blâmer ». Du coup, on change la manière d'aborder les sujets dans nos livres, dans nos objets de savoir, en fait.
Luc de Brabandere : Absolument. L'étude est impressionnante, parce qu'elle a été faite sur un corpus de millions de bouquins et on voit bien que, je dirais, la place de l'argumentation, dans le sens noble du terme, a diminué au profit de la place des émotions, du ressenti, des injonctions. C'est un petit peu dangereux de décider sur la base des émotions. Revenons à la raison !
Jean-Philippe Clément : Il ne faut pas oublier que ces productions constituent aussi Internet et Internet est le corpus d'entraînement des nouveaux algorithmes et des nouvelles IA.
Luc de Brabandere : Exactement. En fait, qu'est-ce ChatGPT ? C’est le plus grand hold-up de l'histoire ! C'est le méga hold-up ! On peut pas voler plus, d'un coup, que ce qu'ils ont fait ! Je dirais qu’au temps t = 0 de l'IA générative, ils ont pris Wikipédia, ils ont pris tout l'Internet. Et petit à petit, ce que ChatGPT produit devient partie de l'internet. Il y a donc un phénomène où le serpent se mord un peu la queue. Si vous demandez à ChatGPT d'écrire un roman, il le fera, mais peut-être que ce roman deviendra input, comme on dit dans mon métier, deviendra l'entrée. Où va-t-on ? Quand ChatGPT va se nourrir de lui-même, tout est possible. Et, par rapport à ça, il y a une urgence, c’est la pensée critique. La machine a pris son envol, d'une certaine manière. Beaucoup de gens comparent Oppenheimer et ChatGPT ; je crois effectivement qu'en termes d'ampleur ce sont des choses comparables. La grosse différence dans le film Oppenheimer, on le voit bien, il y a des militaires, des gouvernements, des hommes, des avocats qui discutent et, finalement, on décide de faire exploser une bombe atomique. Avec ChatGPT, c’est exactement l'inverse. Le premier moment, la bombe explose et puis tout le monde se dit « mais qu'est ce qui se passe ? Qui sait ? Pourquoi, comment ? » et c'est un peu la bombe atomique à l'envers. Donc l'ampleur est la même, mais la posture est complètement différente.
Jean-Philippe Clément : Vous pensez, comme Luc Julia, qu'on n'aurait pas dû donner cet outil au grand public tout de suite ?
Luc de Brabandere : D'une certaine manière, ça ne sert à rien de le dire, mais je pense un peu comme lui. Puisque c'est fait maintenant, que va-t-on faire ? Je dirais qu’il aurait été plus logique et meilleur pour tout le monde d'avoir une progression de gens qui discutent entre eux « vous croyez que…, comment va-ton faire pour que ça reste juste ?, etc. » On vit la bombe atomique à l'envers : elle a explosé alors que personne ne savait que ça existait !
Jean-Philippe Clément : Après, une étude récente montre que ChatGPT est plutôt progressiste, parfois quelques-uns disent « rock ». De l'autre côté, d'ailleurs, c'est ce qui a valu la création de Grok, le ChatGPT d’Elon Musk. On voit bien qu'il y a quand même des fondations quasi idéologiques dans certains des modèles d'IA.
Luc de Brabandere : C’est évident.
Jean-Philippe Clément : C’est sournois d'avoir une fondation idéologique pour ce type d’outil ?
Luc de Brabandere : C'est sournois si on ne la connaît pas. Je crois qu’il n’est pas possible de ne pas avoir des principes, des valeurs. Aujourd'hui, on peut dire que ChatGPT, c'est une langue de bois parce que les concepteurs n’ont pas voulu pencher ; vous posez n'importe quel sujet un peu compliqué, elle dira « y a a des gens qui pensent que, des gens qui pensent que ». Mais le même outil dans d’autres mains pourrait devenir une langue de vipère, parce qu’orientée pour donner une réponse sur toutes les questions. Donc qui est là-derrière ? C'est ça la sournoiserie. Qui sont les maîtres qui décident ? Il y a maintenant un ChatGPT chinois dont le nom est Ernie ou quelque chose comme ça, peu importe ! Je ne comprends pas le chinois, mais je crois que si je posais des questions fondamentales, je serais un petit peu saisi.
Jean-Philippe Clément : Oui sûrement. Merci.
Luc de Brabandere : Je crois, par exemple, que si tous les grands avaient été programmés uniquement par des femmes, rien que ça, depuis le début, Amazon, Facebook, tous les autres, eh bien ce seraient d’autres algorithmes parce que le programmeur est dans son programme.
Jean-Philippe Clément : On va en reparler juste après la pause musicale. Les biais des concepteurs est un sujet très intéressant. On va écouter un petit morceau énergique, sélectionné par notre programmateur musical, Garlaban, que je remercie au passage. On écoute donc The end has No End par The Strokes, de l’album Room of fire.
Pause musicale : The end has No End par The Strokes, de l’album Room of fire.
18’ 17 (relu sans audio Véro)
Jean-Philippe Clément : Merci The Strokes. Merci à notre programmateur musical, Garlaban.
Vous êtes toujours sur Cause Commune en FM 93.1 à Paris, toujours Parlez-moi d’IA, toujours l'épisode qui se demande si les algorithmes sont sournois et pourquoi, avec Luc de Brabandere, philosophe d'entreprise et auteur de Petite Philosophie des algorithmes sournois.
Luc, juste avant la pause, vous nous avez évoqué un point très intéressant aujourd'hui des algorithmes : c'est effectivement leurs concepteurs. À un moment vous dites « finalement, le problème ce ne sont pas les algorithmes, ce sont les concepteurs et puis les biais des concepteurs ». Est-ce que vous voulez développer cette proposition ?
Luc de Brabandere : Il n'est pas possible de ne pas avoir de biais. L'être humain, qui est à la base des algorithmes, il a une vie, il a des valeurs, il a des préférences, il a sa représentation du monde et, consciemment ou non elle se retrouve nécessairement dans son travail. Les catégories dans lesquelles il va organiser ses données ne sont pas aléatoires, mais elles ne sont pas scientifiques, il n'y a pas une science de la catégorie. On ne peut pas ne pas être un être humain. L'être humain n'est pas 100 % rationnel. D’ailleurs, il ne serait pas rationnel d’être 100 % rationnel, il ne passerait jamais à l'action.
Jean-Philippe Clément : C'est vrai. D'ailleurs, vous revenez un peu longuement sur ce sujet. Vous dites qu’une des questions centrales des algorithmes aujourd’hui, c'est la question philosophique du vrai et du faux. Vous faites tout un panel de tous les philosophes qui ont essayé d'étudier cette question du vrai et du faux, de la vérité. D'ailleurs, quel est aujourd'hui le philosophe qui a votre préférence dans sa façon d'aborder la question du vrai et du faux ?
Luc de Brabandere : J'aime beaucoup Popper, c'est sûr, en tant qu'ingénieur. Popper a eu, au siècle passé, un impact assez énorme parce qu’on a toujours cru qu’on pouvait construire la science sur base d’expériences, etc., des théories et tout et lui dit « non pas du tout. La science se construit quand on teste ». Le fameux exemple du cygne noir : vous pouvez voir 1000 cygnes blancs, vous ne pourrez jamais dire, avec certitude, « les cygnes sont blancs » ; par contre, si vous voyez un jour un cygne noir, alors vous pouvez dire avec certitude « tous les cygnes ne sont pas blancs ».
Je suis très influencé par lui et je crois que cette idée du test de la pensée critique, du doute méthodique, est la posture adéquate par rapport à tous ces écrans dans lesquels il y a des choses incroyables, c'est sûr. Le problème de la vérité est vieux comme le monde, le premier, mais les outils du faux sont aujourd'hui inouïs. Par exemple, les rumeurs ont toujours existé, simplement, aujourd'hui, je peux cibler les rumeurs, donc je peux envoyer une rumeur donnée sur une population et une rumeur différente sur une autre population. Avant, on ne pouvait pas faire ça. Je peux aussi construire et intégrer les biais qu’on connaît bien, les préférences : on sait bien qu'on aura plus confiance dans les amis, etc. Tout ça peut-être mis dans l'algorithme, donc l'outil du faux est aujourd'hui d'une puissance telle que la pensée critique est une urgence absolue.
Jean-Philippe Clément : À propos du faux, à un moment donné vous qualifiez les sciences cognitives de pirates de l'attention qui se sont fait associer aux ingénieurs. Vous dites qu’il y a une association des ingénieurs qui font des IA et des spécialistes des sciences cognitives, ces pirates de l'attention, et vous décrivez ça comme, finalement, un réel danger.
Luc de Brabandere : À un moment donné, comme on dit, c'est trop. Vouloir attirer l’attention de quelqu’un, le métier de la publicité c'était déjà ça. Quand on va, pratiquement, dans le subliminal, dans l'inconscient, dans des volumes de données gigantesques, on peut arriver, je ne dirais pas à prendre le contrôle de l'attention des gens, en tout cas à leur enlever une partie du contrôle qu'ils avaient. Maintenant c’est étudié, c’est programmé. D’ailleurs, il y a un livre important, qui s’appelle Le capitalisme de l’attention ??? [22 min 21], qui dit que la véritable bataille n'est pas pour les data, c'est pour l'attention : combien de minutes d'attention je vais avoir de telle ou telle personne et tous les coups sont bons pour augmenter ce temps.
Jean-Philippe Clément : Vous évoquez cette stratégie, cet objectif des algorithmes de nous rendre, finalement, addicts à leur propre contenu.
Luc de Brabandere : Évidemment. Si vous allez dans un restaurant, qu'on vous appelle par votre nom et qu’on vous dit « aujourd'hui on a rentré du homard parce que le restaurateur sait... », dans un premier temps tout est bien, on est content et tout. Mais il y a un moment où le restaurateur sait tellement de choses sur vous que c'est trop. Aujourd’hui, avec les algorithmes, on a passé ce cap-là, on sait. Mais nous sommes tous coupables, parce que, en permanence, nous laissons de l'information sans nous en rendre compte. Quand on accepte les conditions d'un logiciel, on dit oui, eh bien, en faisant ça, on laisse de l'information. Il y a des tas de gens qui donnent de l'information sur vous. Si tout le monde vous envoie un mail à propos de l’Italie, ça veut dire que l’Italie c'est important pour vous, donc, c'est de nouveau de l'information à votre sujet. On a un peu perdu le contrôle de tout ça.
Il y a 40 ans j'avais lu un livre sur l'enseignement assisté par ordinateur et la dernière phrase du livre c'était « la question est qui programme ? Est-ce que c'est l'enfant qui, avec sa souris, actionne l’ordinateur ? Ou bien est-ce l'ordinateur qui, par un message, fait en sorte que l'enfant l’actionne ? » Le problème est le même aujourd'hui : est-ce que nous utilisons Internet ou bien est-ce que c'est Internet qui nous utilise ? Eh bien, je crois qu’aujourd'hui Internet nous utilise beaucoup plus qu'on ne le pense. La pensée critique c'est de prendre conscience de ce qui se passe. On ne va pas faire marche arrière.
Jean-Philippe Clément : Quand vous dites ça, c'est parce qu'on nourrit Internet ? C'est pour cela que vous dites ça.
Luc de Brabandere : On le nourrit consciemment, inconsciemment, sans s’en rendre compte. En fait, le hasard n'existe pas. Le moindre message qui apparaît sur n'importe quelle plateforme a une raison d'être ; il vient d'un algorithme : on a repéré des passions, ??? [ 24 min 20] , peu importe, rien n'est au hasard. Ce n'est pas mal en soi. Le problème c'est qu'on ne se rend pas compte de la manière dont ça marche.
Jean-Philippe Clément : Vous revenez aussi sur un point important : aujourd’hui, les algorithmes sont faits de 0 et de 1, comme vous le disiez, ce sont des choses logiques et ils ont du mal, finalement, à avoir les nuances émotionnelles des humains. Vous revenez notamment sur deux notions importantes pour vous, le fait que les algos ne savent pas tout de nous parce qu’ils comprennent mal notre identité plurielle et nos émotions. Est-ce que vous pouvez revenir sur ces deux notions-là, l'identité et les émotions, et cette difficulté pour l’algorithme ?
Luc de Brabandere : Commençons par l'identité. L'identité peut s'entendre de manière logique – lui n'est pas un autre, il y a un vainqueur à la loterie, ce n'est pas l'autre –, ça peut aussi s'entendre de manière psychologique. Notre identité est faite de rires, de passions, de beaucoup d'autres choses. Par ailleurs, quand on dit une carte d'identité, je crois qu’on devrait dire une carte d'identification, parce qu’elle ne dit rien de vous, elle dit qui vous êtes. Bon ! Je dirais qu’il y a une espèce de paradoxe dans l'identité qui est inclassable, chaque individu est unique.
D’ailleurs, un journaliste américain a mis un test incroyable sur Facebook : il a tout liké pendant 48 heures, tout !, donc vous aimez le jour, la nuit, la viande, le poisson, le végétarien, tout !, et l'algorithme a été complètement perdu. Pourquoi ? Parce que cette personne était inclassable et que le but des algorithmes c'est de vous mettre dans des catégories, de vous identifier, de cerner votre identité autant que faire se peut et puis de vendre, bien sûr, le fichier. Il y a a bien sûr une limite ; notre identité évolue au cours du temps ; vous n'êtes pas le même qu’il y a 10 ans ou qu’il y a 20 ans, il y a quelque chose de mouvant là-dedans, donc on ne peut pas être mis dans des boîtes. Bien sûr, on peut le mettre un peu, il y a ce qu'on appelle des profils, il y a des zones. Ce qui fait l’être humain, son identité, je dirais que ce sont aussi ses émotions. C'est impressionnant comme ChatGPT, ou d'autres logiciels, imite les émotions.
Jean-Philippe Clément : Il y a de gros travaux su l'IA, sur les émotions, sur leur capacité à...
Luc de Brabandere : Un ordinateur n'a pas d'émotions ! Rien que le rire. Prenons le rire. On n’en parle pas assez. Un ordinateur ne peut pas faire rire et ne rit pas, et rien que ça c'est épouvantable ! Imaginez ne jamais rire, mais c'est l'horreur ! Un ordinateur ne peut pas faire rire, il ne comprend pas, il ne comprend pas le second degré. Si vous faites une grosse bêtise et je vous dis « bravo », ce n'est pas la même chose que si vous réussissez quelque chose d’extraordinaire et que je vous dis « bravo ». Eh bien, à un moment donné, justement, ce second degré, ce contexte, échappe complètement aux machines. Il faut arrêter de parler de guerre des intelligences, l'ordinateur ! Non, la raison d'être d'un outil, c'est d'être plus puissant que l'homme ou de la femme, c'est sa raison d'être. Personne ne va faire des lunettes pour voir moins ! Si on fait des lunettes c'est pour voir mieux. La seule chose, c'est qu'il faut laisser à l'ordinateur son statut d'outil. Tout est là. C’est un petit peu énervant. On dit beaucoup de bêtises sur le sujet.
Jean-Philippe Clément : Oui. Vous l'avez entendue, c'est une des phrases de notre générique. On dit beaucoup de bêtises sur ce sujet-là et c'est pour cela qu’on aime entendre des personnes comme vous. Encore une fois, je le redis pour ceux qui réfléchissent à l'IA, pour ceux qui sont passionnés par ce que ça peut provoquer, effectivement, en termes d'outils, votre livre apporte vraiment la capacité à prendre du recul, à se remettre dans les concepts philosophiques et, du coup, à mieux cerner, finalement, ce à quoi on a affaire et ce avec quoi on travaille aujourd'hui.
Luc de Brabandere : Je vous remercie beaucoup parce que je me sens très à l'aise dans ce sujet.
Jean-Philippe Clément : On voit bien, je pense que tout le monde l’entend.
Luc, c'est déjà fini, c'est l'heure de conclure. Nous avons fait un beau voyage en philosophie.
Luc de Brabandere : On ne va pas conclure, on va s'arrêter, si vous permettez. Ne concluons surtout pas !
Jean-Philippe Clément : On va s’arrêter, vous avez raison. D'accord.
Nous nous sommes interrogés avec vous sur la créativité des algorithmes, sur la réalité même de la créativité. On a compris que l'IA réinterroge aujourd'hui les notions de vrai et de faux. On n'a pas parlé, on aurait pu aussi en parler, de réel et virtuel, qu’il y a des postures plus ou moins actives et rationnelles face à cette situation actuelle. C'est important, encore une fois, de penser les concepts de la philosophie pour s'interroger sur nos actions avec l'IA.
Merci beaucoup Luc de Brabandere, philosophe, auteur de Petite Philosophie des algorithmes sournois, pour ce voyage que vous nous avez fait faire en philosophie.
Luc de Brabandere : Avec plaisir. Merci à vous.
Jean-Philippe Clément : N'oubliez pas, encore une fois, de liker, de manipuler cet algorithme sur les différentes plateformes, c'est ce qui nous motive et c'est toujours cool, on l'a bien vu, de manipuler un algorithme.
Restez sur 93.1, sur Cause Commune. Je vous laisse entre de bonnes mains sur les émissions de Cause Commune, par exemple Rayons Libres pour le vélo, Libre à vous ! pour le logiciel libre, et tout de suite c'est sans doute Sous les lapsus de l’actu. À bientôt.