Philosophie de l'Intelligence artificielle - Une introduction

De April MediaWiki


Titre : Une introduction à la Philosophie de l'intelligence artificielle

Intervenants : Eric Lefevre-Ardant et Sonia Ouchtar

Lieu : Palais des Congrès, Salle Maillot

Date : 7 avril 2017

Durée : 38 min 56

la vidéo sur youtube

Licence de la transcription : Verbatim

Illustration :

Statut :En cours de transcription par scotshy

Description[modifier]

Une conférence qui s'adresse à priori a des informaticiens. Un peu de jargon parfois mais ça reste compréhensible pour un large public.

Transcription[modifier]

Bonjour, je suis Eric Lefevre-Ardant, je suis développeur chez leboncoin. Il ne vous a pas échappé que l'intelligence artificielle est le sujet du moment et un magazine aussi auguste que "The Economist", début de cette année, disait que le futur de Didi, le concurrent de Uber en Chine, c'est l'intelligence artificielle. Le New York Times en décembre dernier parlait du grand réveil de l'intelligence artificielle. Dans cette présentation, nous voulons vous aider à porter un regard critique sur ces déclarations. Notre objectif est de vous donner du vocabulaire. Nous allons utiliser des termes que l'on trouve dans la littérature sur le sujet. Nous allons aussi vous donner des noms de philosophes qui peut-être vous donnerons envie de lire plus de choses ensuite. Nous allons vous donner un survol à peu près chronologique de différents concepts, principalement de la deuxième moitié du vingtième siècle. Et on insistera beaucoup sur deux expériences de pensée qui ont énormément influencé la réflexion sur le sujet. On ne parlera pas de certains sujets comme l'éthique qui ont déjà été couverts aujourd'hui par d'autres personnes ni la singularité, ce genre de choses. Et dernier point, un petit peu technique, dans cette présentation nous utilisons indifféremment les termes de intelligence, conscience, compréhension, intention, intentionnalité. Tout ça, ça va être à peu près la même chose dans le contexte de cette introduction.

[01:30]

Bonjour, moi je m'appelle Sonia Ouchtar, je suis aussi développeuse à leboncoin. Bon, ça a pas grand chose à voir avec l'intelligence artificielle, mais c'est un sujet qui nous tenait à cœur donc on a voulu partager ça avec vous. Dans les termes qui sont importants de connaître aussi dans cette présentation, il y a ce qu'on appelle l'I.A. au sens fort et l'I.A. au sens faible. Au-delà de l'intelligence artificielle, au sens fort c'est ce qu'on pourrait s'imaginer de plus logique quand on parle d'intelligence. C'est un système qui peut penser, qui peut avoir des états mentaux. Et l'I.A. au sens faible ou au sens restreint, c'est juste quelque chose qui va agir comme un système intelligent mais qui va juste savoir résoudre certains problèmes dans un domaine particulier. Donc pour commencer vraiment cette présentation, on sait que la philosophie de l'intelligence artificielle est très liée à la philosophie de l'esprit. Donc on va vous présenter d'abord les grands courants de philosophie de l'esprit qui ont existé avant l'avènement de l'informatique.

Donc on va commencer par le dualisme de substance, c'est des termes qui font un peu peur bien sûr. C'est une des grandes théories s'affrontent en philosophie de l'esprit. Ça existe depuis au moins l'Antiquité, on en a des exemples dans Platon, Aristote, il y avait quelques écoles en Inde qui également l'évoquaient, mais ça a été formulé plus précisément par Descartes au 17ème siècle. Donc le principe, c'est que le corps et l'esprit dont deux objets complètement différents et de natures complètement différentes. Le corps est un objet physique et l'esprit est un objet non-physique, quelque chose de complètement immatériel. Mais les deux néanmoins interagissent. Donc même si extérieurement on a l'impression d'être un seule chose, on est en fait composé de deux choses de natures différentes : le corps et l'esprit. Donc qu'est ce qu'il y a comme conséquences ? Le corps, on va considérer qu'il agit causalement sur l'esprit. On peut prendre l'exemple de la douleur, quand le corps va être blessé, l'esprit va ressentir une douleur en passant par le canal nerf, puis cerveau, puis finalement le message qui va être envoyé à l'esprit, et c'est l'esprit qui va connaître de la douleur, ça va pas être le cerveau. Donc c'est comme ça que [cette théorie] voit les choses. Et dans le sens inverse, quand l'esprit agit causalement sur le corps, par exemple si je décide de lever ma main comme ça, ça va être l'esprit qui va donner la volonté de commencer cet acte là, qui va envoyer un signal au cerveau, qui lui va envoyer des signaux aux muscles. Donc il y a plusieurs problèmes avec cette théorie, le premier a été évoqué par la princesse Elisabeth de Bohême. C'est en gros par quel moyen est-ce que l'esprit pourrait diriger le corps et par quel moyen le corps pourrait diriger l'esprit, puisqu'ils sont complètement de natures différentes. Donc malheureusement, il n'y a pas eu de très bonnes réponses par Descartes, donc ça en restera là.

Il y a aussi des théories, qu'on va évoquer juste après, qui présument que finalement l'être humain est complètement physique, et donc est-ce que c'est nécessaire de maintenir la distinction entre le corps et l'esprit alors que finalement on pourrait tout expliquer en disant juste que tout est purement physique dans l'être humain.

Et un dernier point, un peu dommage avec cette théorie, c'est qu'elle affirme (en fait) la dualité corps/esprit sans vraiment donner d'argument pour expliquer pourquoi, comment, etc ... Donc c'est un petit peu dommage.

[04:51]

Donc voilà la théorie du "tout-physique", l'identité esprit/cerveau. Donc c'est pareil, ça a commencé au 17ème siècle et ça a surtout été développé dans les années cinquante du 20ème siècle. Donc le principe c'est quoi, c'est que tout état mental ça va être un genre d'activité du cerveau. Donc on va pouvoir avoir une correspondance très exacte entre un état mental et une configuration du cerveau. Donc cette théorie donne vraiment beaucoup de place à l'esprit dans le monde physique, ce qui peut paraître un peu contre-intuitif. Et les gens qui défendent cette théorie pensent que, à terme, avec toutes les recherches qu'on va faire sur le cerveau etc, on va pouvoir vraiment mapper très exactement tous les états mentaux avec tous les états physiques du cerveau. Donc pour reprendre l'exemple de la douleur, l'état du cerveau en souffrance par la douleur, c'est l'état mental de la douleur. Voilà, il n'y a pas d'idée de non-physique. Donc le problème de cette théorie, c'est qu'elle est vraiment centrée sur l'humain, sur le cerveau humain. Du coup ça parait un peu difficile de parler d'un état mental qui serait uniquement définit par la configuration du cerveau humain. On peut penser que des êtres non-humains comme les pieuvres par exemple pourraient aussi ressentir de la douleur même si leur configuration de cerveau n'a rien à voir puisque on sait par exemple que la pieuvre a un cerveau central, a des systèmes nerveux dans chacune de ses tentacules, mais pourtant on suppose qu'elle ressent de la douleur.

Une autre chose, rien à voir dans cette présentation, c'est pas directement lié à la philosophie mais c'est quand même important de l'évoquer. En 1930, il y a eu la thèse d'Alonzo Church et Alan Turing qui disait que toute forme de raisonnement mathématique pouvait être mécanisé. Donc, ça c'était les débuts de l'informatique au sens théorique et ça a donné la machine de Turing qui est un modèle abstrait du fonctionnement des appareils mécaniques de calcul. Donc en gros, ce genre de machine, ce que ça représente c'est une personne virtuelle qui va exécuter des procédures bien définies en remplissant les cases d'un tableau infini, là modélisé par le ruban, et qui va choisir à chaque fois le contenu à mettre dans chaque case par des symboles. Et aussi un certain nombre de procédures qui définissent comment passer de case en case. Donc ça c'est une représention purement physique, c'est bien y a une mémoire infinie puisque tu peux mettre un ruban infini. Mais il y a ce qu'on appelle une machine de Turing qui aurait le potentiel de calculer tout ce qui est calculable, et dans ce cas-là on parle de machine "turing-complete", vous avez déjà entendu parler de ce terme je pense. À l'époque on considère que le cerveau humain pourrait être un appareil "turing-complet" donc c'est là qu'on rejoint un peu la philosophie de l'intelligence artificielle. Pour continuer avec Turing, en 1950, 20 ans après cette thèse-là, il créé le jeu de l'imitation, également appelé le test de Turing. Donc le contexte c'est quoi ? C'est est-ce qu'on peut parler d'intelligence quand on pense à des êtres complètement simplistes ? Par exemple des nouveaux-nés, des insectes, des organismes uni-cellulaires, est-ce qu'on peut vraiment considérer qu'ils sont intelligents ? En fait on peut facilement se dire qu'il y va y avoir une forme d'intelligence mais en fait ce qui nous intéresse vraiment c'est la complexité de cette intelligence. Donc Turing a voulu savoir comment est-ce qu'on pourrait évaluer facilement cette intelligence. Surtout dans le contexte des machines, est-ce qu'un machine peut réellement penser. Donc c'est là qu'il a créé ce test. Donc le principe du test, que vous connaissez sûrement, c'est de mettre un humain en confrontation avec un autre humain et un ordinateur. Ils vont pouvoir discuter librement pendant une durée définie et à la fin si l'humain n'a pas réussi à déterminer qui était l'ordinateur et qui était l'autre humain on considère que le software de l'ordinateur a réussi le test de Turing. Donc qu'est-ce que ça sous-entend ce setup-là ? Que à la fois la machine et l'humain vont parler en termes sémantiques complètement humains, que les réponses doivent être données à intervalles définis, parce que sinon c'est facile : on pose une question mathématique et forcément la machine répondra plus vite que l'humain. Donc ça c'est bien défini. Après ça c'est une liberté complètement totale. Donc la machine peut décider de dire "non mais à côté le gars il ment, c'est moi l'humain" ou au contraire l'humain peut dire "mais non c'est moi l'humain". Ça peut donner des situations assez intéressantes. Mais toujours c'est par des messages textuels. Je fais une petite parenthèse. C'est à différencier de ce qu'on peut avoir avec les chatbots qu'on peut avoir par exemple sur IRC. Ça c'est pas des tests de Turing puisqu'on n'a pas de raison de suspecter qu'on parle à une machine. Donc en fait c'est pas comme dans le test de Turing où on sait qu'on a une machine, un humain et on veut savoir la différence.

[10:14]

Donc il y a eu plusieurs objections au test de Turing. La première c'est que c'est trop anthropomorphique. Vu que tout le langage et toutes les expressions sont du langage humain, on ne va pas être capable d'évaluer si un système qui est non-humain va être intelligent. Par exemple dans le livre Solaris, il y a une planète complètement recouverte d'eau. Cette eau est intelligente mais elle n'est pas humaine. Du coup est-ce qu'elle passerait le test de Turing, à priori non, ce qui serait dommage parce que finalement elle est intelligente. Pour reparler des pieuvres, elles aussi sont extrêmement intelligentes, mais elles ne se comportent pas comme des humains, elles ne communiquent pas comme des humains du coup ce ne serait pas possible à déterminer avec ce test-là.

Il y a aussi un problème c'est que c'est basé sur le langage. Donc ça pose plusieurs problèmes. Comment on fait pour les gens qui n'ont jamais appris à lire. Est-ce qu'on considère que parce qu'on est analphabète on est stupide, ce serait un petit peu dommage. Il y a aussi le fait que les chatbots peuvent utiliser des tics de langage ou des fausses fautes d'orthographe pour nous induire en erreur, ça c'est un petit peu dangereux. Il y a aussi le fait qu'on peut converser avec ces engins-là avec une langue autre que notre langue maternelle. Dans ce cas-là on va être complètement perdu car on ne saura pas si c'est parce que c'est un manque de compréhension de notre part ou de leur part, etc... Ça peut induire en erreur. Il y a aussi un autre fait, comme c'est basé sur le langage, ça ne parle que d'un seul type d'intelligence, l'intelligence verbale, qui est vraiment très très limitée. Et quand on pense à l'intelligence on pense à quelque chose d'un peu plus large que ça.

Dernier problème, c'est qu'on n'a rien sur l'état interne de cette machine. Ça peut être d'un vide consternant sans que vraiment on le sache. Il y a un exemple qui a été donné par ???netblock???, avec une base de données hypothétique qu'il appelle ???Lockhead??? qui n'aurait pas d'état du tout, ce serait juste une immense base de données de toutes les conversations faites, à faire, de tous les êtres humains. Dans ce cas-là ça passerait probablement le test de Turing, ça pourrait répondre correctement mais on ne dirait probablement pas que ce système est intelligent. C'est un système qui est complètement gouverné par des lois, qui est complètement prévisible, est-ce qu'on va considérer qu'il est intelligent ? C'est d'autant plus vrai avec une base de données. On peut mettre ça en différenciation par rapport au test de Lovelace. Je ne sais pas si vous en aviez entendu parlé. Ce test-là est basé sur le fait que l'intelligence est jugée par la créativité. Donc le principe c'est qu'une machine va être considérée intelligente quand elle arrive à surprendre le programmeur qui l'a créé. Ça donnerait probablement des résultats internes beaucoup plus intéressants qu'il ne pourrait y en avoir avec une simple base de données.

Donc pour tirer une conclusion sur le test de Turing. Finalement on ne devrait pas prendre le test de Turing comme une fin en soi mais plutôt comme une base de la réflexion. Déjà ça donne une base de réflexion sur les machines puisqu'on peut considérer que ça peut être une première étape. Et qu'ensuite si une machine qui a passé le test de Turing on peut lui faire passer d'autres tests pour savoir si vraiment il y a une intelligence, qu'est-ce qu'il se passe à l'intérieur, etc. Ça permet aussi de lancer des réflexions sur nous-même puisque finalement le test de Turing montre comment nous, en tant qu'êtres humains, on va être prêts à dire que quelque chose a de la conscience. Le problème c'est qu'on va juger de la conscience d'autre chose à partir de notre propre conscience. Est-ce que c'est légitime, est-ce que c'est pertinent, etc. Ça lance plein de discussions. Donc voilà, le test de Turing, il vaut ce qu'il vaut, mais il a lancé plein d'autres discussions dans le domaine de la philosophie et ça c'est déjà pas mal en soi.

[14:11]

Donc nous sommes dans les années 50. On a le test de Turing sous la main, les philosophes vont s'en emparer, mais aussi dans la continuité des théories sur l'intelligence humaine, sur la conscience... De l'esprit pardon. Dans les années 50, 60, 70 on voit apparaître la théorie du computationnalisme qui est due à Jerry Fodor ainsi que Hilary Putnam. L'idée dans le computationnalisme c'est qu'on conçoit l'esprit comme un système de traitement de l'information. Un système formel. C'est donc quelque chose qui prend des entrées et qui fournit des sorties : la suite de la conversation, une sortie comportementale. Dans cette théorie la pensée fait appel à un raisonnement qui est gouverné par un système de règles, un système formel. Alors ça nous arrange bien dans l'intelligence artificielle parce que si notre pensée, notre intelligence est un système formel, alors puisque les machines sont elles-mêmes, à priori, des systèmes formels, ça va être relativement facile, bon il faut du travail mais ça peut être faisable, d'implémenter quelque chose qui ressemble à la pensée humaine dans une machine. Malheureusement, ça a été réfuté assez rapidement par le théorème d'incomplétude, en tout cas à l'aide du théorème d'incomplétude de Kurt Gödel. Petite parenthèse sur Kurt Gödel, c'est un mathématicien du début du 20ème siècle, (première moitié du 20ème siècle) et au début du 20ème siècle, il y a un grand espoir dans la communauté des mathématiciens, c'est de définir la totalité des mathématiques avec un faible nombre d'axiomes, un nombre d'axiomes fini. Des personnes comme Bertrand Russel par exemple, ou White Head, consacrent une vingtaine d'années à écrire "???Principium Mathematica???" où ils essayent de redéfinir la totalité des mathématiques avec un faible nombre d'axiomes, en partant du nombre 1, le concept du "plus", et construisent tout un tas de choses. Alors ils se rendent bien compte au bout de 20 que c'est du travail. Et ils commencent à anticiper l'idée de... (ils ont fait un tome en 20 ans, une première partie) ils se disent "on est reparti pour 20 ans pour la suite et finir notre grand œuvre". Sur ce, arrive en 1931, Kurt Gödel, jeune mathématicien autrichien, et il démontre avec des outils mathématiques que tout système formel, en particulier les mathématiques, mais c'est vrai pour tout système formel, il y aura toujours des formules indémontrables. C'est à dire que soit notre système formel sera incomplet, soit il sera incohérent. Dès qu'on a un système formel suffisamment riche, suffisamment intéressant, on va forcément tomber là-dessus. Alors pour vous donner un exemple dans le langage naturel, en supposant que le langage naturel soit un système formel. Imaginons que je dise la phrase suivante : "je suis en train de dire un mensonge". Si je dis suis en train de dire un mensonge c'est que cette phrase elle-même est un mensonge et donc en fait c'est plutôt "je suis en train de dire une vérité". Évidemment c'est un paradoxe, on connaît tous ça. Mais ce qui est intéressant c'est comment en tant qu'être humain je peux manipuler ce paradoxe. Je peux vous en parler, ça ne me pose pas problème particulier, je suis capable de dire c'est à la fois faux et pas faux, enfin ça dépend du contexte, etc. Dans un système formel c'est pas tellement possible, le système formel il est fait pour déterminer si c'est faux ou pas faux. Ou d'une autre façon s'il essaye d'évaluer, il va tomber dans une régression infinie, il ne va jamais s'en sortir, il n'aura pas de réponse. Pour résumer le théorème d'incomplétude de Göbel, s'applique à tout système formel, donc dans tout système formel il va y avoir des formules indémontrables. Or nous êtres humains nous sommes capables de manipuler des formules indémontrables, donc nous n'arriverons jamais à implémenter l'esprit humain dans un système formel, dans une machine basée sur les concepts des systèmes formels tels que c'est le cas aujourd'hui. C'est un petit peu troublant tout de même pour les personnes qui s'intéressaient à ça. Je précise que de nos jours on a du mal à dire si finalement l'esprit humain il ne serait pas finalement un petit peu formel ou si peut-être on pourrait simuler quelque chose d'un peu plus complexe, un système formel à partir d'un système formel. Finalement ça a été un peu remis en cause, mais si vous lisez la littérature vous allez tomber assez vite sur le théorème d'incomplétude de Kurt Gödel qui fait partie de la discussion. Même dans les années 80 on en parlait encore.

[18:45]