Philosophie de l'Intelligence artificielle - Une introduction

De April MediaWiki
Révision datée du 13 avril 2020 à 16:04 par Scotshy (discussion | contributions) (Transcription complète à relire)
Aller à la navigationAller à la recherche


Titre : Une introduction à la Philosophie de l'intelligence artificielle

Intervenants : Eric Lefevre-Ardant et Sonia Ouchtar

Lieu : Palais des Congrès, Salle Maillot

Date : 7 avril 2017

Durée : 38 min 56

la vidéo sur youtube

Licence de la transcription : Verbatim

Illustration :

Statut :En cours de transcription par scotshy

Description

Une conférence qui s'adresse à priori a des informaticiens. Un peu de jargon parfois mais ça reste compréhensible pour un large public.

Transcription

Bonjour, je suis Eric Lefevre-Ardant, je suis développeur chez leboncoin. Il ne vous a pas échappé que l'intelligence artificielle est le sujet du moment et un magazine aussi auguste que "The Economist", début de cette année, disait que le futur de Didi, le concurrent de Uber en Chine, c'est l'intelligence artificielle. Le New York Times en décembre dernier parlait du grand réveil de l'intelligence artificielle. Dans cette présentation, nous voulons vous aider à porter un regard critique sur ces déclarations. Notre objectif est de vous donner du vocabulaire. Nous allons utiliser des termes que l'on trouve dans la littérature sur le sujet. Nous allons aussi vous donner des noms de philosophes qui peut-être vous donnerons envie de lire plus de choses ensuite. Nous allons vous donner un survol à peu près chronologique de différents concepts, principalement de la deuxième moitié du vingtième siècle. Et on insistera beaucoup sur deux expériences de pensée qui ont énormément influencé la réflexion sur le sujet. On ne parlera pas de certains sujets comme l'éthique qui ont déjà été couverts aujourd'hui par d'autres personnes ni la singularité, ce genre de choses. Et dernier point, un petit peu technique, dans cette présentation nous utilisons indifféremment les termes de intelligence, conscience, compréhension, intention, intentionnalité. Tout ça, ça va être à peu près la même chose dans le contexte de cette introduction.

[01:30]

Bonjour, moi je m'appelle Sonia Ouchtar, je suis aussi développeuse à leboncoin. Bon, ça a pas grand chose à voir avec l'intelligence artificielle, mais c'est un sujet qui nous tenait à cœur donc on a voulu partager ça avec vous. Dans les termes qui sont importants de connaître aussi dans cette présentation, il y a ce qu'on appelle l'I.A. au sens fort et l'I.A. au sens faible. Au-delà de l'intelligence artificielle, au sens fort c'est ce qu'on pourrait s'imaginer de plus logique quand on parle d'intelligence. C'est un système qui peut penser, qui peut avoir des états mentaux. Et l'I.A. au sens faible ou au sens restreint, c'est juste quelque chose qui va agir comme un système intelligent mais qui va juste savoir résoudre certains problèmes dans un domaine particulier. Donc pour commencer vraiment cette présentation, on sait que la philosophie de l'intelligence artificielle est très liée à la philosophie de l'esprit. Donc on va vous présenter d'abord les grands courants de philosophie de l'esprit qui ont existé avant l'avènement de l'informatique.

Donc on va commencer par le dualisme de substance, c'est des termes qui font un peu peur bien sûr. C'est une des grandes théories s'affrontent en philosophie de l'esprit. Ça existe depuis au moins l'Antiquité, on en a des exemples dans Platon, Aristote, il y avait quelques écoles en Inde qui également l'évoquaient, mais ça a été formulé plus précisément par Descartes au 17ème siècle. Donc le principe, c'est que le corps et l'esprit dont deux objets complètement différents et de natures complètement différentes. Le corps est un objet physique et l'esprit est un objet non-physique, quelque chose de complètement immatériel. Mais les deux néanmoins interagissent. Donc même si extérieurement on a l'impression d'être un seule chose, on est en fait composé de deux choses de natures différentes : le corps et l'esprit. Donc qu'est ce qu'il y a comme conséquences ? Le corps, on va considérer qu'il agit causalement sur l'esprit. On peut prendre l'exemple de la douleur, quand le corps va être blessé, l'esprit va ressentir une douleur en passant par le canal nerf, puis cerveau, puis finalement le message qui va être envoyé à l'esprit, et c'est l'esprit qui va connaître de la douleur, ça va pas être le cerveau. Donc c'est comme ça que [cette théorie] voit les choses. Et dans le sens inverse, quand l'esprit agit causalement sur le corps, par exemple si je décide de lever ma main comme ça, ça va être l'esprit qui va donner la volonté de commencer cet acte là, qui va envoyer un signal au cerveau, qui lui va envoyer des signaux aux muscles. Donc il y a plusieurs problèmes avec cette théorie, le premier a été évoqué par la princesse Elisabeth de Bohême. C'est en gros par quel moyen est-ce que l'esprit pourrait diriger le corps et par quel moyen le corps pourrait diriger l'esprit, puisqu'ils sont complètement de natures différentes. Donc malheureusement, il n'y a pas eu de très bonnes réponses par Descartes, donc ça en restera là.

Il y a aussi des théories, qu'on va évoquer juste après, qui présument que finalement l'être humain est complètement physique, et donc est-ce que c'est nécessaire de maintenir la distinction entre le corps et l'esprit alors que finalement on pourrait tout expliquer en disant juste que tout est purement physique dans l'être humain.

Et un dernier point, un peu dommage avec cette théorie, c'est qu'elle affirme (en fait) la dualité corps/esprit sans vraiment donner d'argument pour expliquer pourquoi, comment, etc ... Donc c'est un petit peu dommage.

[04:51]

Donc voilà la théorie du "tout-physique", l'identité esprit/cerveau. Donc c'est pareil, ça a commencé au 17ème siècle et ça a surtout été développé dans les années cinquante du 20ème siècle. Donc le principe c'est quoi, c'est que tout état mental ça va être un genre d'activité du cerveau. Donc on va pouvoir avoir une correspondance très exacte entre un état mental et une configuration du cerveau. Donc cette théorie donne vraiment beaucoup de place à l'esprit dans le monde physique, ce qui peut paraître un peu contre-intuitif. Et les gens qui défendent cette théorie pensent que, à terme, avec toutes les recherches qu'on va faire sur le cerveau etc, on va pouvoir vraiment mapper très exactement tous les états mentaux avec tous les états physiques du cerveau. Donc pour reprendre l'exemple de la douleur, l'état du cerveau en souffrance par la douleur, c'est l'état mental de la douleur. Voilà, il n'y a pas d'idée de non-physique. Donc le problème de cette théorie, c'est qu'elle est vraiment centrée sur l'humain, sur le cerveau humain. Du coup ça parait un peu difficile de parler d'un état mental qui serait uniquement définit par la configuration du cerveau humain. On peut penser que des êtres non-humains comme les pieuvres par exemple pourraient aussi ressentir de la douleur même si leur configuration de cerveau n'a rien à voir puisque on sait par exemple que la pieuvre a un cerveau central, a des systèmes nerveux dans chacune de ses tentacules, mais pourtant on suppose qu'elle ressent de la douleur.

Une autre chose, rien à voir dans cette présentation, c'est pas directement lié à la philosophie mais c'est quand même important de l'évoquer. En 1930, il y a eu la thèse d'Alonzo Church et Alan Turing qui disait que toute forme de raisonnement mathématique pouvait être mécanisé. Donc, ça c'était les débuts de l'informatique au sens théorique et ça a donné la machine de Turing qui est un modèle abstrait du fonctionnement des appareils mécaniques de calcul. Donc en gros, ce genre de machine, ce que ça représente c'est une personne virtuelle qui va exécuter des procédures bien définies en remplissant les cases d'un tableau infini, là modélisé par le ruban, et qui va choisir à chaque fois le contenu à mettre dans chaque case par des symboles. Et aussi un certain nombre de procédures qui définissent comment passer de case en case. Donc ça c'est une représention purement physique, c'est bien y a une mémoire infinie puisque tu peux mettre un ruban infini. Mais il y a ce qu'on appelle une machine de Turing qui aurait le potentiel de calculer tout ce qui est calculable, et dans ce cas-là on parle de machine "turing-complete", vous avez déjà entendu parler de ce terme je pense. À l'époque on considère que le cerveau humain pourrait être un appareil "turing-complet" donc c'est là qu'on rejoint un peu la philosophie de l'intelligence artificielle. Pour continuer avec Turing, en 1950, 20 ans après cette thèse-là, il créé le jeu de l'imitation, également appelé le test de Turing. Donc le contexte c'est quoi ? C'est est-ce qu'on peut parler d'intelligence quand on pense à des êtres complètement simplistes ? Par exemple des nouveaux-nés, des insectes, des organismes uni-cellulaires, est-ce qu'on peut vraiment considérer qu'ils sont intelligents ? En fait on peut facilement se dire qu'il y va y avoir une forme d'intelligence mais en fait ce qui nous intéresse vraiment c'est la complexité de cette intelligence. Donc Turing a voulu savoir comment est-ce qu'on pourrait évaluer facilement cette intelligence. Surtout dans le contexte des machines, est-ce qu'un machine peut réellement penser. Donc c'est là qu'il a créé ce test. Donc le principe du test, que vous connaissez sûrement, c'est de mettre un humain en confrontation avec un autre humain et un ordinateur. Ils vont pouvoir discuter librement pendant une durée définie et à la fin si l'humain n'a pas réussi à déterminer qui était l'ordinateur et qui était l'autre humain on considère que le software de l'ordinateur a réussi le test de Turing. Donc qu'est-ce que ça sous-entend ce setup-là ? Que à la fois la machine et l'humain vont parler en termes sémantiques complètement humains, que les réponses doivent être données à intervalles définis, parce que sinon c'est facile : on pose une question mathématique et forcément la machine répondra plus vite que l'humain. Donc ça c'est bien défini. Après ça c'est une liberté complètement totale. Donc la machine peut décider de dire "non mais à côté le gars il ment, c'est moi l'humain" ou au contraire l'humain peut dire "mais non c'est moi l'humain". Ça peut donner des situations assez intéressantes. Mais toujours c'est par des messages textuels. Je fais une petite parenthèse. C'est à différencier de ce qu'on peut avoir avec les chatbots qu'on peut avoir par exemple sur IRC. Ça c'est pas des tests de Turing puisqu'on n'a pas de raison de suspecter qu'on parle à une machine. Donc en fait c'est pas comme dans le test de Turing où on sait qu'on a une machine, un humain et on veut savoir la différence.

[10:14]

Donc il y a eu plusieurs objections au test de Turing. La première c'est que c'est trop anthropomorphique. Vu que tout le langage et toutes les expressions sont du langage humain, on ne va pas être capable d'évaluer si un système qui est non-humain va être intelligent. Par exemple dans le livre Solaris, il y a une planète complètement recouverte d'eau. Cette eau est intelligente mais elle n'est pas humaine. Du coup est-ce qu'elle passerait le test de Turing, à priori non, ce qui serait dommage parce que finalement elle est intelligente. Pour reparler des pieuvres, elles aussi sont extrêmement intelligentes, mais elles ne se comportent pas comme des humains, elles ne communiquent pas comme des humains du coup ce ne serait pas possible à déterminer avec ce test-là.

Il y a aussi un problème c'est que c'est basé sur le langage. Donc ça pose plusieurs problèmes. Comment on fait pour les gens qui n'ont jamais appris à lire. Est-ce qu'on considère que parce qu'on est analphabète on est stupide, ce serait un petit peu dommage. Il y a aussi le fait que les chatbots peuvent utiliser des tics de langage ou des fausses fautes d'orthographe pour nous induire en erreur, ça c'est un petit peu dangereux. Il y a aussi le fait qu'on peut converser avec ces engins-là avec une langue autre que notre langue maternelle. Dans ce cas-là on va être complètement perdu car on ne saura pas si c'est parce que c'est un manque de compréhension de notre part ou de leur part, etc... Ça peut induire en erreur. Il y a aussi un autre fait, comme c'est basé sur le langage, ça ne parle que d'un seul type d'intelligence, l'intelligence verbale, qui est vraiment très très limitée. Et quand on pense à l'intelligence on pense à quelque chose d'un peu plus large que ça.

Dernier problème, c'est qu'on n'a rien sur l'état interne de cette machine. Ça peut être d'un vide consternant sans que vraiment on le sache. Il y a un exemple qui a été donné par ??netblock??, avec une base de données hypothétique qu'il appelle ??Lockhead??? qui n'aurait pas d'état du tout, ce serait juste une immense base de données de toutes les conversations faites, à faire, de tous les êtres humains. Dans ce cas-là ça passerait probablement le test de Turing, ça pourrait répondre correctement mais on ne dirait probablement pas que ce système est intelligent. C'est un système qui est complètement gouverné par des lois, qui est complètement prévisible, est-ce qu'on va considérer qu'il est intelligent ? C'est d'autant plus vrai avec une base de données. On peut mettre ça en différenciation par rapport au test de Lovelace. Je ne sais pas si vous en aviez entendu parlé. Ce test-là est basé sur le fait que l'intelligence est jugée par la créativité. Donc le principe c'est qu'une machine va être considérée intelligente quand elle arrive à surprendre le programmeur qui l'a créé. Ça donnerait probablement des résultats internes beaucoup plus intéressants qu'il ne pourrait y en avoir avec une simple base de données.

Donc pour tirer une conclusion sur le test de Turing. Finalement on ne devrait pas prendre le test de Turing comme une fin en soi mais plutôt comme une base de la réflexion. Déjà ça donne une base de réflexion sur les machines puisqu'on peut considérer que ça peut être une première étape. Et qu'ensuite si une machine qui a passé le test de Turing on peut lui faire passer d'autres tests pour savoir si vraiment il y a une intelligence, qu'est-ce qu'il se passe à l'intérieur, etc. Ça permet aussi de lancer des réflexions sur nous-même puisque finalement le test de Turing montre comment nous, en tant qu'êtres humains, on va être prêts à dire que quelque chose a de la conscience. Le problème c'est qu'on va juger de la conscience d'autre chose à partir de notre propre conscience. Est-ce que c'est légitime, est-ce que c'est pertinent, etc. Ça lance plein de discussions. Donc voilà, le test de Turing, il vaut ce qu'il vaut, mais il a lancé plein d'autres discussions dans le domaine de la philosophie et ça c'est déjà pas mal en soi.

[14:11 Eric L.A.]

Donc nous sommes dans les années 50. On a le test de Turing sous la main, les philosophes vont s'en emparer, mais aussi dans la continuité des théories sur l'intelligence humaine, sur la conscience... De l'esprit pardon. Dans les années 50, 60, 70 on voit apparaître la théorie du computationnalisme qui est due à Jerry Fodor ainsi que Hilary Putnam L'idée dans le computationnalisme c'est qu'on conçoit l'esprit comme un système de traitement de l'information. Un système formel. C'est donc quelque chose qui prend des entrées et qui fournit des sorties : la suite de la conversation, une sortie comportementale. Dans cette théorie la pensée fait appel à un raisonnement qui est gouverné par un système de règles, un système formel. Alors ça nous arrange bien dans l'intelligence artificielle parce que si notre pensée, notre intelligence est un système formel, alors puisque les machines sont elles-mêmes, à priori, des systèmes formels, ça va être relativement facile, bon il faut du travail mais ça peut être faisable, d'implémenter quelque chose qui ressemble à la pensée humaine dans une machine. Malheureusement, ça a été réfuté assez rapidement par le théorème d'incomplétude, en tout cas à l'aide du théorème d'incomplétude de Kurt Gödel. Petite parenthèse sur Kurt Gödel, c'est un mathématicien du début du 20ème siècle, (première moitié du 20ème siècle) et au début du 20ème siècle, il y a un grand espoir dans la communauté des mathématiciens, c'est de définir la totalité des mathématiques avec un faible nombre d'axiomes, un nombre d'axiomes fini. Des personnes comme Bertrand Russel par exemple, ou White Head, consacrent une vingtaine d'années à écrire "???Principium Mathematica???" où ils essayent de redéfinir la totalité des mathématiques avec un faible nombre d'axiomes, en partant du nombre 1, le concept du "plus", et construisent tout un tas de choses. Alors ils se rendent bien compte au bout de 20 que c'est du travail. Et ils commencent à anticiper l'idée de... (ils ont fait un tome en 20 ans, une première partie) ils se disent "on est reparti pour 20 ans pour la suite et finir notre grand œuvre". Sur ce, arrive en 1931, Kurt Gödel, jeune mathématicien autrichien, et il démontre avec des outils mathématiques que tout système formel, en particulier les mathématiques, mais c'est vrai pour tout système formel, il y aura toujours des formules indémontrables. C'est à dire que soit notre système formel sera incomplet, soit il sera incohérent. Dès qu'on a un système formel suffisamment riche, suffisamment intéressant, on va forcément tomber là-dessus. Alors pour vous donner un exemple dans le langage naturel, en supposant que le langage naturel soit un système formel. Imaginons que je dise la phrase suivante : "je suis en train de dire un mensonge". Si je dis suis en train de dire un mensonge c'est que cette phrase elle-même est un mensonge et donc en fait c'est plutôt "je suis en train de dire une vérité". Évidemment c'est un paradoxe, on connaît tous ça. Mais ce qui est intéressant c'est comment en tant qu'être humain je peux manipuler ce paradoxe. Je peux vous en parler, ça ne me pose pas problème particulier, je suis capable de dire c'est à la fois faux et pas faux, enfin ça dépend du contexte, etc. Dans un système formel c'est pas tellement possible, le système formel il est fait pour déterminer si c'est faux ou pas faux. Ou d'une autre façon s'il essaye d'évaluer, il va tomber dans une régression infinie, il ne va jamais s'en sortir, il n'aura pas de réponse. Pour résumer le théorème d'incomplétude de Göbel, s'applique à tout système formel, donc dans tout système formel il va y avoir des formules indémontrables. Or nous êtres humains nous sommes capables de manipuler des formules indémontrables, donc nous n'arriverons jamais à implémenter l'esprit humain dans un système formel, dans une machine basée sur les concepts des systèmes formels tels que c'est le cas aujourd'hui. C'est un petit peu troublant tout de même pour les personnes qui s'intéressaient à ça. Je précise que de nos jours on a du mal à dire si finalement l'esprit humain il ne serait pas finalement un petit peu formel ou si peut-être on pourrait simuler quelque chose d'un peu plus complexe, un système formel à partir d'un système formel. Finalement ça a été un peu remis en cause, mais si vous lisez la littérature vous allez tomber assez vite sur le théorème d'incomplétude de Kurt Gödel qui fait partie de la discussion. Même dans les années 80 on en parlait encore.

[18:45]

1960, Hilary Putnam, qui a travaillé avec Jerry Fodor que l'on vient de mentionner, nous propose le fonctionnalisme. C'est une réaction assez directe à la théorie de l'identité esprit-cerveau. Donc "esprit-cerveau" : Il n'y a pas vraiment de distinction entre l'esprit et le cerveau, en fait notre esprit est simplement une configuration de notre cerveau à un instant T. Lui ce qu'il dit c'est que la relation entre le physique et le mental n'est pas le bon problème. Ce qui est intéressant c'est comment fonctionnent les états mentaux. Donc pour lui, des êtres hypothétiques, comme des extra-terrestres ou des robots intelligents, on n'a pas de raison de supposer qu'ils ne pourraient pas connaître la douleur simplement parce qu'ils n'utilisent pas la même neuro-chimie que les êtres humains, les pieuvres ou les êtres vivants actuels. Il n'y a aucune de raison de supposer ça. Lui il parle de réalisabilité multiple. La douleur peut être implémentée par différentes configurations physiques.

Quel est l'intérêt ? C'est ce quelque chose qu'il appelle l'isomorphisme fonctionnel (j'avais prévenu qu'il y avait des gros mots). L'isomorphisme fonctionnel c'est quand deux systèmes sont isomorphes si le séquencement des états d'un des système est le même séquencement des états d'un autre système.

Il y a des états et il se comportent de la même façon. Plus concrètement, si on arrive à avoir un système formel, ou une machine artificielle dont les états sont les mêmes que les états d'un être humain, on aura effectivement simulé un être humain. Nous aurons un système intelligent parce que ce seront les mêmes états. (Il n'a pas trop expliqué comment on pourrait le faire).

En d'autres termes, il ne suffit d'avoir un comportement intelligent, il faut aussi que le comportement intelligent vienne des bonnes procédures ou des bons calculs. Lui c'est ce qu'il propose, mais très rapidement ça va être réfuté par John Searle. Nous sommes en 1980, John Searle va attaquer violemment le fonctionnalisme et d'autres théories également.

Imaginons (c'est ce que nous propose John Searle) que nous avons à notre disposition une machine qui passe le test de Turing. Avons-nous envie de dire qu'elle est intelligente. Il va nous proposer une expérience de pensée qui s'appelle la chambre chinoise, qui a donné lieu à d'intenses débats dans les années qui ont suivi.

Imaginons que John Searle est enfermé dans une pièce, il a à sa disposition un gros livre dans lequel se trouvent des symboles, ainsi que des règles pour manipuler ces symboles. Dans cette pièce, il y a également une porte d'entrée, par laquelle passent des feuilles avec des symboles écrits dessus. John Searle prend cette feuille, considère les symboles, peut-être des ronds avec une barre dedans, des barres, des cercles.. Il consulte les règles de son livre, les règles disent "lorsque tu as ce rond avec une barre dedans, écris un carré avec 3 petits points au dessus, écris ça sur une feuille, et passe la feuille par la porte de sortie. Nous avons donc quelque chose qui ressemble à une machine de Turing. Il se trouve que ces symboles sont des signes du langage chinois. John Searle ne parle pas chinois et ne réalise même pas qu'il s'agit de signes de l'alphabet chinois. Néanmoins il arrive, en appliquant les règles de son livre, à considérer les symboles et à fournir des réponses en sortie. S'il dispose d'un livre suffisamment riche il va pouvoir maintenir une conversation cohérente. Donc un expérimentateur à l'extérieur de la chambre chinoise, de langue chinoise, pourra poser des questions en langue chinoise, à cette chambre chinoise et recevoir des réponses qui feront sens. Et lui, n'aura pas de raison de supposer que ça n'est autre qu'un autre locuteur de la chambre chinoise. Donc cette machine passe le test de Turing. Tout cela évidemment n'est qu'une expérience de pensée.

Pourtant John Searle dans la pièce ne fait qu'exécuter les commandes qui sont à sa disposition. John Searle regarde les symboles, reconnaît qu'il y a des cercles, ne comprend pas du tout le sens des signes chinois. Tout ce qu'il fait c'est appliquer des règles complètement mécaniquement. John Searle ne comprend pas la conversation qui a lieu. Dans le reste de la chambre chinoise, nous avons une gros livre. C'est un simple livre composé de règles, de symboles. Le livre n'est pas intelligent. Personne dans cette salle ne va dire que ce livre est intelligent. Et qu'est ce qui nous reste ? une porte d'entrée, une porte de sortie, c'est tout. Rien dans la chambre chinoise n'a d'intelligence, n'a de conscience de ce qui se passe.

Conclusions de John Searle. On ne peut pas dire que la chambre chinoise ait une réelle compréhension du chinois. Et de même, on ne peut pas dire que le test de Turing nous permet de juger cette chambre chinoise comme intelligente.

Même si elle a un comportement intelligent, elle n'est pas intelligente.

Comme je vous le disait ça a donné lieu à d'intenses débats et en particulier à de nombreuses objections. On va en parcourir quelques unes.

Première objection : l'objection du système

Les personnes qui présentent cette objection sont d'accord. Effectivement, aucun des composants de la chambre chinoise n'est intelligent individuellement. John Searle ne comprend pas le chinois, le lit ne comprend pas le chinois, les portes ne peuvent pas comprendre le chinois. Néanmoins, ce serait comme dire que dans notre cerveau, un neurone tout seul a la compréhension du chinois ou du français. Évidemment, un neurone n'aura pas la compréhension du français. Ça n'est pas ça qui est important. Pour ces personnes, ce qui est important, c'est que le système dans son entier a bien cette compréhension. Donc pour ces personnes, il faut toujours considérer le système complet. Et c'est le système complet qui est intelligent. D'ailleurs, il arrive à supporter cette conversation.

Réponse de John Searle. Imaginons que la personne qui se trouve dans la pièce apprenne par cœur les règles qui se trouvent dans le livre. C'est un très gros livre mais la personne a une très bonne mémoire. La personne sort de la pièce, on lui propose une feuille avec de nouveaux signes chinois. La personne, par cœur applique les règles, et mécaniquement toujours, écrit sur une nouvelle feuille des nouveaux symboles chinois pour la réponse. Ça parait évident pour tout le monde que cette personne n'a toujours pas de compréhension du chinois. Elle ne sait toujours pas qu'elle manipule des symboles chinois. Elle ne sait toujours pas qu'on lui a demandé "bonjour comment ça va ?" et qu'elle a répondu "je vais bien". Elle n'en a strictement aucune conscience.

Donc pour John Searle, le fait de considérer le système dans son entier ne change rien. Ce n'est pas parce qu'on arrive à avoir un seul élément qui fait tout qu'on a une intelligence par miracle. En fait plus généralement, son argument c'est que la chambre chinoise arrive à manipuler la syntaxe des symboles (elle arrive à reconnaître des ronds avec des barres, à écrire des carrés avec des traits dessus) mais la syntaxe ce n'est pas la sémantique. Comprendre la syntaxe, comprendre la forme des choses n'est pas comprendre le sens des choses. La syntaxe qui est la seule chose que nos ordinateurs savent manipuler, des zéros et des uns, ce sont des symboles, même s'il n'y en a que deux. La syntaxe n'est pas suffisante pour obtenir la sémantique, pour obtenir la compréhension.

Autre objection, qui nous vient plutôt du canal historique de la recherche en intelligence artificielle, en particulier proposée par Marvin Minsky. Pour lui, et d'autres personnes, ce n'est pas important de savoir ce qui est intelligent. L'important c'est de savoir s'il y a création d'intelligence, s'il y a création de compréhension. L'idée c'est que le système contient une intelligence virtuelle de la même façon que nos ordinateurs contiennent des fichiers virtuels, des fenêtres virtuelles. En fait, on pourrait même imaginer que notre chambre chinoise simule 2 esprits virtuels. Par exemple, si on avait 2 livres, un en chinois et un en coréen, on aurait 2 esprits virtuels, un qui serait capable de converser en chinois et un autre en coréen. En d'autres termes, ce n'est pas la chambre chinoise elle-même qui a l'intelligence mais la chambre chinoise créé quelque chose, une intelligence virtuelle, le réceptacle de l'intelligence mais non pas le système physique lui-même. Le système n'est pas l'esprit.

Pour John Searle, c'est bien joli mais ça n'est qu'une simulation. Or, la simulation d'un orage par exemple, aussi parfaite soit-elle, chaque goutte, chaque molécule, chaque atome, tous ce que vous voulez, aussi parfaite soit-elle, ne va jamais mouiller qui que ce soit. Donc on peut avoir une simulation parfaite, ça n'est pas pour ça qu'on a quelque chose de réel.

Évidemment, son objection a eu d'autres objections. Certaines personnes comme Nicholas Fern avancent l'argument que "oui, d'accord ça ne marche pas pour les ouragans mais si on simule une calculatrice par exemple, ça marche très bien". On rentre les valeurs et on obtient une valeur en sortie qui s'affiche sur l'ordinateur. C'est aussi bien qu'un calculatrice.

Alors la question c'est "est-ce que notre esprit est plus proche d'un ouragan ou plus proche d'une calculatrice" ? Ils ne se sont pas encore permis de répondre à cette question.

Un argument un petit peu similaire à la simulation de l'esprit virtuel c'est la simulation du cerveau physique. Supposons que nous arrivions à simuler parfaitement le cerveau physique d'un locuteur de la chambre chinoise (donc chaque neurone, chaque synapse, chaque déclenchement électrique entre les neurones) et ce simulateur de personne qui parle chinois comprendrait lui-même le chinois. Inversement si on disait que le cerveau de quelqu'un qui parle chinois ne comprend pas le chinois... De la même façon si on dit que ce cerveau simulé ne comprend pas le chinois alors une personne composée d'un cerveau comprenant le chinois, on devrait dire que cette personne non plus ne comprend pas le chinois. C'est le même argument. Si on a un simulateur de cerveau et on dit qu'il ne comprend pas le chinois alors le cerveau lui-même ne devrait pas non plus comprendre le chinois. L'argument est le même.

Il n'y aura pas de différence entre le programme implémenté par la chambre chinoise et le programme implémenté par un locuteur de la chambre chinoise.

[29:00]

Évidement pour John Searle ça ne change rien. Imaginons que la personne dans la chambre ait à sa disposition une machine de Turing. Par exemple composée de tuyaux, de valves, et d'eau qui passe dans les tuyaux. Cet ensemble de tuyaux imiterait parfaitement les neurones, les synapses, déclenchements de signaux présents dans notre cerveau, ce n'est que des tuyaux avec de l'eau qui passe. Le livre à la disposition de la personne dans la pièce ne décrirait plus comment manipuler les symboles mais comment ouvrir les valves au bon endroit pour que l'eau parcoure les tuyaux d'une certaine façon et nous donne une réponse à la fin. Il est toujours évident pour John Searle que la personne qui lit les livres et bouge les vannes, ne comprend pas le chinois. Encore une fois, elle ne fait qu'appliquer mécaniquement des règles. Les tuyaux d'eau eux-mêmes sont des tuyaux d'eau, ils ne comprennent pas le chinois. Ce n'est pas parce que nous disposons d'une simulateur de quelque chose de physique que nous allons créer de l'intelligence. Le simulateur ne fait que simuler la structure formelle de la séquence de déclenchement des neurones et avec des tuyaux d'eau c'est sûr qu'on n'a pas quelque chose d'intelligent.

Donc encore une fois en d'autres termes, la simulation n'est pas la réalité. De la même façon que notre simulateur de tempête ne va jamais mouiller les vêtements de qui que ce soit.

Autre argument qui nous vient de Jerry Fodor, de computationnalisme, mais également de Daniel Dennett??? et encore d'autres personnes, pour eux le problème c'est que la chambre chinoise décrit un simple ordinateur de bureau, comme nous en disposons nous-même. On lui donne des données en entrée, ça fournit des données en sortie. Cet ordinateur ne dispose pas d'organes lui permettant de manipuler et ressentir les choses autour de lui. Or, ce ne serait pas complètement négligeable. Imaginons que j'entretiens une conversation avec un autre être humain, des canards entrent dans la pièce, la discussion déraille complètement, on n'arrive plus à s'entendre... quelque chose se passe. Les canards se pose sur l'ordinateur, l'ordinateur s'en fiche complètement, il est toujours en train de dire "si si, je vais bien ne vous inquiétez pas"

L'argument n'est pas complètement négligeable tout de même, parce que de nombreuses théories pensent que la compréhension vient aux enfants en particulier en associant des mots à des choses qu'ils peuvent manipuler dans la vie réelle. Peut-être que en mentionnant le mot "canard" on montre des photos de canards aux enfants, ou alors ils visitent une ferme, ils regardent un film, ils entendent des canards dans la nature, l'intelligence viendrait aux enfants comme ça. C'est une théorie qui s'appelle l'externalisme sémantique. C'est l'idée que nous attribuons un sens à un mot par une connexion causale entre ce mot et un objet du monde physique. En d'autres termes, pour ces personnes, un robot plus sophistiqué disposant d'organes sensoriels n'aurait pas les problèmes que soulève John Searle.


    • relu jusqu'ici


John Searle a une réponse... Imaginons que en plus des questions qui sont posées à la personne dans la chambre chinoise, il y ait également d'autres dispositifs, peut-être des rubans de papier infini, sur lesquels seraient affichés des symboles. Ces symboles, sans que ne le sache la personne dans la pièce, représenteraient des résultats obtenus par des capteurs à l'extérieur, peut-êter un microphone ou une caméra, et le livre de règles serait enrichi de règles prenant en compte ces symboles. "Si tu reçois le symbole rond avec une barre en question mais que tu as vu passer un carré avec 3 petits points en dessous sur une des feuilles, ou peut-être un enchaînement de symboles, alors donne cette nouvelle réponse" Il n'y a pas de différence de nature entre ce ruban de symboles infini et les questions qui sont posées. Tout le monde sera d'accord pour dire que c'est à peu près la même chose. Même si ces symboles sont toujours de langue chinoise. Pour la personne dans la pièce, ces symboles n'ont toujours aucun sens. Elle est simplement capable de les associer mécaniquement aux d'autres symboles. Donc John Searle estime que cette objection n'apporte absolument rien à son argument, c'est simplement une reformulation du même problème.

L'objection des autres esprits, qui a été anticipée par Alan Turing dans son papier sur le jeu de l'imitation... Supposons que je parle à une personne humaine, je vais supposer que la personne avec qui je converse est intelligente. Et pourtant je ne sais pas ce qui se passe à l'intérieur. J'utilise cette convention parce que je ne peux pas faire vraiment faire autrement. Je converse avec quelqu'un, j'ai des réponses, je finis par supposer que cette personne est intelligente. Si j'applique ce principe aux être humains je devrais aussi utiliser le même principe pour des êtres artificiels, il n'y a pas de raison que ce soit très différent. Alan Turing parle de convention polie. C'est plus poli de supposer que les gens sont intelligents.

Réponse de Searle, le problème n'est pas tellement de savoir comment nous savons que quelque chose est intelligent, est-ce qu'on l'ouvre ou simplement par le comportement. Pour lui le problème c'est de savoir ce qu'on veut dire quand on associe de l'intelligence à quelque chose ou à quelqu'un. Quelle est la chose que j'associe à cette entité quand je dis qu'elle est intelligence. Or ça ne peut pas être simplement que cette entité est capable de manipuler des données en entrée et de me fournir des données en sortie. Ça on l'a déjà avec des systèmes non-intelligents. Nos ordinateurs font ça, personne ne va dire que nos ordinateurs sont intelligents. Or si on se contente de dire que lorsque je donne des choses en entrée ça me donne des choses en sortie, on ne fait que décrire la même chose. Donc un système qui n'est pas intelligent, comme un système intelligent, ce serait la même définition, ça ne nous avancerait pas beaucoup.

Enfin l'objection de la combinaison. Imaginons que nous ayons à notre disposition un robot, un androïd, composé d'un ordinateur peut-être capable de simuler un cerveau parfaitement, avec des organes sensoriels et avec une apparence en tout point indistincte d'un autre être humain. Alors John Searle est d'accord : il serait face à ce robot, il dirait c'est un être humain et attriburait de l'intelligence à cet être humain. Néanmoins, le mystère est levé dès qu'il obtient plus d'informations sur ce qui se passe. Si quelqu'un lui dit : "en fait, ce n'est qu'un ordinateur qui manipule des zéros des uns" ben là, la magie va disparaître. Il va dire "non c'est pas possible, si je sais que c'est un appareil qui ne fait que manipuler des zéros et des uns, qui n'a pas de compréhension, alors je vais arrêter moi-même d'attribuer de l'intelligence, de l’intentionnalité à cet appareil.

Que conclure de la chambre chinoise. Alors d'abord on voit bien que John Searle attaque très directement l'hypothèse comportementale de Turing. Le fait que le comportement est suffisant. Pour lui clairement la chambre chinoise démontre que ce n'est pas suffisant. Il attaque aussi le fonctionnalisme de Hilary Putnam. L'idée que simuler une procédure d'un cerveau intelligent serait suffisant. Donc clairement pour lui il a démontré que ça ne suffirait pas.

Finalement il ne resterait peut-être que quelque chose comme la théorie de l'identité esprit-cerverau, ou peut-être une variante de la théorie du dualiste. La position de John Searle c'est que la conscience, la compréhension, nécessitent une certaine machinerie biologique, telle que celle trouvée dans nos cerveaux (il ne va pas jusqu'à pointer du doigt ce qu'elle est, il dit qu'il y a quelque chose d'autre) et que cette machinerie a un pouvoir causal qui permet aux êtres humains de posséder la conscience. Donc finalement pour John Searle c'est le cerveau qui est cause de la conscience. Position qu'on appelle le naturalisme biologique.

L'argument de la chambre chinoise est très très controversé, il a divisé les opinions sur sa pertinence mais aussi sur les réponses apportées (je vous en ai donné un aperçu, il y a des réponses aux réponses aux réponses aux réponses) et même encore aujourd'hui c'est encore sujet à discussion. Et certains philosophes comme Daniel Denett??? ont été très agressifs contre John Searle qui s'est permis de répondre aussi agressivement.

Pour la fin je voudrais citer à nouveau Alan Turing et John Searle. Alan Turing dans son papier sur le jeu de l'imitation nous dit : "Je ne voudrais pas donner l'impression que je pense qu'il n'y a pas de mystère en ce qui concerne la conscience. Il y a par exemple un paradoxe dans les tentatives de la localiser. Mais je ne pense pas que ces mystères ont besoin d'être résolus pour nous permettre de répondre à la question "une machine peut-elle penser". Pour John Searle, ce sont précisément ces mystères qui sont intéressants, il n'est pas impossible que nous créerons un jour un système qui se comporte intelligemment mais il lui apparaît que nous ne pourrons pas créer une intelligence qui a sa propre conscience avec les bases théoriques telles que la machine de Turing.

Vous avez compris que le philosophie de l'intelligence artificielle est un sujet fertile, récent, qui a des liens forts avec de nombreuses autres disciplines, la philosophie de la conscience, la neurobiologie, l'informatique, la robotique,.. Nous espérons que vous allez continuer la lecture à la suite de cette présentation... Merci de votre attention.