Culture numérique - Hervé Le Crosnier - Paniques morales - Partie 2

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Culture numérique - Hervé Le Crosnier - Paniques morales - Partie 2

Intervenant : Hervé Le Crosnier

Lieu : Campus 1 - Caen - Amphi Poincaré

Durée : 55 min 39

Vidéo

Licence de la transcription : Verbatim

Illustration : À Prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

J'ai fait un petit peu d'histoire de l'intelligence artificielle, c’est toujours intéressant, surtout pour des gens qui sont en humanités numériques, de regarder comment les choses en arrivent là où elles en sont aujourd'hui.

2012 – reconnaissance d’objets

Il y a un point nodal, un moment un peu de bascule important, qui est en 2012. Jusqu'à présent les chercheurs en intelligence artificielle, en reconnaissance d'images, une sous-fraction de l’intelligence artificielle, qui consiste, quand on vous présente une image, à savoir quel est l'objet qui est présent dans l'image, pouvoir mettre un mot, un nom, sur l'objet qui est présent dans l'image.
Pour travailler à ça, ils avaient constitué, pour l'époque, une immense banque d'images de 15 millions d'images étiquetées, où la réponse était connue, et chaque équipe de recherche en intelligence artificielle faisait des taux d'essais et d'erreurs pour reconnaître. Globalement, en 2012, les systèmes existants marchaient avec 27/30 % de taux d'erreur, ce n'est quand même pas mal !

Arrive une conférence, la conférence sur la vision par ordinateur. Tous les cadors du milieu étaient dans la salle et, à un moment donné, arrive un jeune homme, tout jeune, à peine adolescent, qui présente un projet, complètement atypique, qui consiste à reconnaître les images à partir d'un réseau de neurones et non pas à partir d'un thésaurus avec des mots, avec des choses comme ça, juste faire tourner des machines à fond les gamelles pour faire de l'apprentissage et il dit « mon résultat c'est 17 % », il met d'un seul coup 10 % dans la vue. Pourquoi ? Parce qu'il avait une énorme machine, on avait fait tourner un algorithme pendant très longtemps pour entraîner la machine.
C'est donc un moment un peu de bascule où on voit revenir en tête l'IA dite connexionniste, celle par les réseaux de neurones, qui avait mis carrément de côté l'IA symbolique, celle des symboles.

Courte histoire de l’IA

J’ai essayé de vous expliquer un peu cette courte histoire de l'IA, qui, depuis le début, a été divisée en fait en deux groupes qu'on voit sur ce graphe-là. C’est un graphe des citations des articles scientifiques. Vous publiez un article scientifique, vous citez les gens qui vous ont inspiré ou qui ont fait une partie de l'expérience, etc. On a deux groupes complètement séparés : les symboliques se citent entre eux et les connexionnistes se citent entre eux. Ce sont deux groupes réellement séparés, donc c'est une analyse de graphe des citations

Le terme a été forgé en 56 par John McCarthy, un personnage important qu'on va revoir tout à l'heure. L'idée c'est d'avoir une méthode qui manipule des objets sémantiques, c'est-à-dire, quelque part, que la machine comprendrait le sens d'un objet qui lui est présenté, dans l'idée derrière « penser c'est structurer le monde en concepts », faire émerger des concepts, dans le monde, c'est ce qui veut dire penser. On a donc des concepts qui s'interpénètrent, qui s'opposent, etc.

Avant, on utilisait ce qu'on appelle le modèle cybernétique, c'est-à-dire l'idée que penser c'est être capable d'apprendre par essais et par erreurs. Les machines, les boîtes noires cybernétiques, avaient une entrée, une sortie, et si elles faisaient une erreur, hop !, ça bouclait, ça améliorait à nouveau, c'est le modèle dit homéostatique, qui essaye de retrouver un équilibre. Bien sûr, ce n'est pas une machine qui est une boîte noire, ce sont des milliers de machines entre les deux. Donc le monde est un monde d'échange d'informations et, quand quelque chose ne va pas, une boucle de rétroaction va faire changer ça. C'est ce qui a été fait, en fait, avec un des premiers systèmes « intelligents » avec tous les guillemets nécessaires, le suivi de balistique, un radar de DCA qui serait capable de prédire le chemin d'un obus, d’un missile, pour pouvoir le faire exploser en vol. Ou prédire le parcours d'un avion pour être capable de lancer une DCA dedans. C’est une des grandes études qui a été menée pendant la guerre et qui, justement, utilise ce qu'on appelle une heuristique. Imaginez qu’on joue au ballon, vous me lancez un ballon. Mon cerveau va se mettre à bouillonner pour savoir quelle est la parabole qui va être faite avec en fonction de l'angle de départ, de la force avec laquelle ça a été… Non, je vois le ballot arriver, je dis il va arriver là… Donc je fais une heuristique qui s'adapte, au fur et à mesure, à la situation.
Là on a bien les deux modèles : le modèle calculatoire et le modèle probabiliste, parce que si je ne suis pas très douée, personnellement je ne suis pas très doué avec les ballons, souvent je les rate. On voit qu'il y a plusieurs modes de raisonnement et qu'il n'y a pas que le mode conceptuel, symbolique.

Neurones

En 43, deux psychologues inventent l'idée de neurone artificiel. Un neurone artificiel c'est quelque chose qui va recevoir des entrées et calculer une sortie.
Là il y a un modèle très simple : le neurone d'entrée, celui de cette colonne-là, est animé, ou pas, on lui donne de l'énergie. Par exemple si c'est noir ça lui donne la valeur 1 et si c'est blanc ça lui donne la valeur 0. Et puis on a une influence faite par ce neurone B sur la sortie, faite par le neurone A sur la sortie, cette influence est ce qu'on appelle un poids, c'est 0,0 quelque chose ; le lien entre deux neurones est pondéré. Et si on change les valeurs de ces poids, alors on va changer les sorties.
Quand on a deux neurones en entrée et un neurone de sortie c'est facile, ça peut faire les valeurs et et ou de la logique booléenne. Les machines modernes de réseaux de neurones ont des milliers de neurones comme ça donc des milliers de poids à modifier en permanence, on va y revenir, ils vont être modifiés en fonction du résultat. S'il y a erreur dans le résultat, boucle de rétroaction, le fameux feed-back.

Le perceptron

Dès le début, ce modèle a été pensé pour la reconnaissance de formes, c'est-à-dire la perception, des modèles perceptibles, d'ailleurs le premier s'appelle le perceptron, c'est une machine physique qui avait 400 cellules photovoltaïques, des potentiomètres qui calculaient les poids entre les divers neurones qui étaient là. C'est un modèle qui ressemble beaucoup au modèle de Friedrich von Hayek. Friedrich von Hayek est connu comme étant l'inventeur du néolibéralisme, mais c'est aussi quelqu'un qui pratiquait la psychologie sociale, il étudiait un modèle, la salle de marchés. La salle de marchés est un jeu de négociations permanent qui va permettre, à partir de plusieurs entrées, plusieurs entreprises qui proposent un produit, de trouver le meilleur prix à la sortie.
On est sur un modèle qui est influencé aussi par des modèles économiques, des modèles psychologiques généraux.

Emballement médiatique

Le perceptron est mis en œuvre avec un financement de la marine américaine, la Navy, et dès ce moment-là les journaux commencent à parler d’electronic brain, un cerveau électronique qui apprend lui-même, qui va donc modifier ces systèmes, un outil qui apprend en faisant les choses. Typiquement, dès le début on a cherché à humaniser, on utilise le terme d'apprentissage. Vous avez remarqué que j'utilise le terme d'entraînement qui me paraît bien plus adéquat que de dire apprentissage.

Le courant symbolique

Le problème c'est que le Frank Rosenblatt va mourir jeune, il ne pourra pas continuer son travail et les tenants de l'IA symbolique, ceux qui pensent par concepts, qui imaginent que les machines ont besoin d'avoir des concepts pour pouvoir agir, vont remporter la partie à partir du début des années 60. Ils forment une équipe qui a beaucoup d'influence. Là aussi on s'aperçoit, quand on fait un peu de sociologie des sciences, que les idées c'est une chose, mais les personnes, leurs positions, leurs relations sont quelque chose de très important, par exemple, des gens comme McCarthy. McCarthy est celui qui, outre avoir créé le mot intelligence artificielle, est aussi celui qui a inventé l'informatique en temps partagé, le fait de pouvoir avoir une machine utilisée pendant quelques millisecondes par une personne, pendant quelques autres millisecondes par une suivante, qui rendait donc les ordinateurs, même centraux, disponibles à plein de terminaux en même temps, en simultané. C’étaient des gens importants et eux s'opposent au modèle connexionniste, ils ne veulent pas de cette idée de l'adaptation, mais ils vont capter la majeure partie des crédits, donc ils vont se développer à partir des années 60.

Penser avec des symboles

Penser c'est réagir au monde, mais c'est aussi posséder des symboles, être capable de construire, à l'intérieur de son cerveau, des symboles.
Là aussi on voit bien, j'y reviendrai dans ma toute conclusion, que derrière l'intelligence artificielle il y a tout un débat sur : qu'est-ce que c'est que penser pour un humain ? C'est quoi l'intelligence humaine ? C'est quoi notre modèle de pensée ? Les uns l’appellent neurones, ce n’est pas pour rien, les autres parlent de symboles, ce n'est pas pour rien, tous ces éléments. En fait, on ne sait pas trop comment on pense, pourquoi on pense, donc on a des idées sur notre pensée et on les applique à des modèles mécaniques en se disant « une fois que je sais faire un modèle mécanique qui s'approche de mon idée, ça veut dire que mon idée correspond bien à la pensée. »

Là c’est une photo de McCarthy qui va créer un langage pour l’intelligence artificielle. e premier calculateur, l’ENIAC, était câblé. On a des tas de photos où on voit des femmes, c’est un métier de femmes, qui allaient câbler et après, dès 46, on a séparé le matériel du logiciel. On pouvait donc créer des langages logiciels et, qui dit des langages logiciels, dit se rapprocher de l'intelligence humaine. Le terme langage n'est pas du tout innocent alors qu'en fait il s'agit d'un code.

Ingénierie des connaissances

Dans les années 80, cette intelligence symbolique va créer tout un secteur qu'on appelle l'ingénierie des connaissances. On va essayer de créer des graphes, un peu comme celui-ci, qui vont relier les divers éléments qu'on connaît du langage avec des règles simples – si/alors – en empilant toute une série de règles simples qu'on a demandé à un expert de verbaliser. Souvent l'expert ne sait pas pourquoi il est expert, il sait des choses, mais il ne sait pas forcément les expliciter, donc on avait tout un travail : prendre des experts, les mettre dans une pièce et leur dire : « Tu dis ça, pourquoi tu dis ça, quelle est la raison qui fait que dans ton métier de géologue, de médecin, dans le métier qui est le tien, comment tu fais un système expert en ayant beaucoup d'expertise accumulée ? »
On a eu des systèmes, comme ici, pour le diagnostic médical des maladies du sang ou PROSPECTOR qui permet d'étudier des cartes géologiques et l'expert dit : « Oui mais là, vu la faille, vu ceci, il risque d’y avoir des minerais intéressants ».
On raconte d'ailleurs que tout l'argent investi dans l'ingénierie des connaissances a été remboursé par le fait qu’un système expert géologue, je crois que c'est PROSPECTOR lui-même, a découvert un minerai, je crois que c'est l'antimoine, à un endroit et ça a remboursé toutes les choses investies.

14’29

Réseaux sémantiques

Pour arriver