Différences entre les versions de « Les enjeux éthiques et sociaux de l’intelligence artificielle »

De April MediaWiki
Aller à la navigationAller à la recherche
(Page créée avec « Catégorie:Transcriptions '''Titre :''' Les enjeux éthiques et sociaux de l’intelligence artificielle '''Intervenant·e·s :''' Laurence Devillers - Antoinette Ro… »)
 
Ligne 29 : Ligne 29 :
  
 
==Transcription==
 
==Transcription==
 +
 +
 +
<b>Caroline Lachowsky : </b>Bonsoir à toutes et à tous. Bienvenue dans ce petit auditorium de la BNF. D’abord merci à vous d’être là en vrai, en présentiel comme on dit, même masqués ça nous fait du bien. Merci aussi à tous ceux et toutes celles qui nous suivent sur la chaîne YouTube de la BNF.<br/>
 +
Pour ce deuxième épisode de nos débats Au cœur de la science consacrés cette année aux intelligences au pluriel, à commencer par ce qu’on appelle l’intelligence artificielle, l’IA. Y a-t-il une intelligence artificielle ? Nous en avons débattu le mois dernier. Nous allons plus loin ce soir en nous interrogeant et vous pourrez d’ailleurs nous poser vos questions à l’issue de ce débat, sur les enjeux éthiques et sociaux de l’intelligence artificielle. Jusqu’où l’IA va-t-elle transformer nos vies publiques et privées, nos emplois, nos interactions, nos conversations ? Quelle place les machines apprenantes, dites intelligentes, et désormais affectives, vont-elles prendre dans nos vies et nos sociétés ?, et surtout quelle place voulons-nous leur donner en toute connaissance de cause, c’est surtout ça le problème, et en toute responsabilité, en voilà un autre de problème, éthique, sociale et juridique ? Voilà ce que nous allons nous demander en tentant de dépasser les fantasmes, les peurs, les promesses, en compagnie de nos intervenants qui ont tous les trois le mérite de savoir de quoi ils parlent.<br/>
 +
Laurence Devillers, bonsoir.
 +
 +
<b>Laurence Devillers : </b>Bonsoir.
 +
 +
<b>Caroline Lachowsky : </b>Vous êtes professeure à l’université Paris Sorbonne, directrice de recherche au laboratoire interdisciplinaire des sciences du numérique du CNRS. Vos travaux, Laurence, portent sur les interactions homme/machine, notamment à travers la parole, la détection des émotions et la robotique affective. Vous êtes également membre du Comité national pilote d’éthique du numérique et également du partenariat mondial sur l’IA, auteure de plusieurs ouvrages, le dernier que vous dédicacerez d’ailleurs Laurence tout à l’heure, juste en sortant de cette conférence, s’intitule <em>Les robots « émotionnels ». Santé, surveillance, sexualité… : et l’éthique dans tout ça ? </em>.<br/>
 +
Face à ces toutes nouvelles questions éthiques, enfin nouvelles, oui, qui se renouvellent, soulevées par l’IA, face à ces formidables puissances de calcul de ces machines « apprenantes », toujours avec des guillemets, de ces robots « émotionnels », encore avec des guillemets, se posent évidemment des questions juridiques et de gouvernance sur lesquelles vous travaillez Antoinette Rouvroy. Bonsoir.
 +
 +
<b>Antoinette Rouvroy : </b>Bonsoir.
 +
 +
<b>Caroline Lachowsky : </b>Vous êtes philosophe du droit, chercheuse en sciences juridiques à Namur en Belgique, d’ailleurs merci d’avoir fait le voyage jusqu’à nous, et depuis quelques années vous travaillez sur ce que vous appelez la gouvernance algorithmique, ce nouveau mode de gouvernance qui se nourrit de données numériques massives. Comment ne pas se laisser calculer par tous ces algorithmes ? Vous vous interrogez notamment sur la convergence de toutes ces nouvelles technologies, <em>big data</em>, <em>machine learning</em> et vous n’hésitez pas à appeler à une vraie réflexion collective à la fois éthique, juridique et psychologique pour tous, citoyens que nous sommes, comme décideurs. Une réflexion et des interrogations que vous partagez, Dominique Cardon. Bonsoir.
 +
 +
<b>Dominique Cardon : </b>Bonsoir.
 +
 +
<b>Caroline Lachowsky : </b>Vous êtes professeur de sociologie. Vous dirigez le Medialab de Science Po qui interroge précisément les relations entre le numérique et nos sociétés. Vous êtes l’auteur de plusieurs ouvrages, <em>Culture numérique</em> aux Presses de Science Po et <em>À quoi rêvent les algorithmes : nos vies à l’heure des big data</em> paru Au Seuil en 2015. À quoi rêvent les algorithmes ? À quoi rêvent les robots ? Et comment reprendre la main sur nos rêves humains, justement, face au pouvoir grandissant des machines que nous avons rendues « intelligentesnous » avec tous les guillemets qui s’imposent, mais jusqu’où ?<br/>
 +
Pour ouvrir ce débat et relever les défis éthiques et sociaux de l’intelligence artificielle, un petit retour en arrière s’impose. Dans les trésors de la Bibliothèque nationale, consultables bien sûr sur le site Gallica, nous avons comme chaque fois déniché une perle, la voici, c’est la Une du numéro 31 de la revue <em>Le petit inventeur</em>, journal illustré paru le 1er janvier 1929. La couverture, en couleur vous le voyez, titrait « Ce que nous réserve l’électricité », montre le dessin de ce robot futuriste branché sur l’électricité en train de cirer les pompes, enfin les chaussures, excusez-moi, d’un homme confortablement installé dans son fauteuil. Il y a de quoi alimenter toutes nos questions, j’ai l’impression, sur les enjeux sociaux, éthiques et juridiques, mais aussi sur la manière dont nous nous les posons et dont nous pensons bien les poser.<br/>
 +
Dominique Cardon, j’ai envie de m’adresser au sociologue que vous êtes pour commenter cette image qui date donc du siècle dernier. Comme quoi ces questions sur le rôle des robots et des machines ont une histoire, une histoire fantasmée peut-être, une histoire qui s’est accélérée aujourd’hui. C’est ça ?
 +
 +
<b>Dominique Cardon : </b>Absolument. Je laisserai Laurence pour les robots.<br/>
 +
Le constat que je fais effectivement autour de l’IA c’est qu’il y a un énorme, un incroyable <em>hype</em> autour de ce mot, on en parle aujourd’hui. Ce mot a une histoire et le projet de mettre de l’intelligence dans des machines a une histoire. Je pense que cette histoire est très importante pour comprendre le contemporain et le décalage un peu mythologique qui s’est constitué. En réalité les gens qui ont lancé le projet de l’IA en 1956 avaient une idée symbolique de la machine qui est un peu figurée dans <em>Le petit inventeur</em>, dans ce dessin du <em>Petit inventeur</em> et aussi dans tous les films de science-fiction où on a des entités autonomes qui mèneraient des activités en fonction d’opérations dites intelligentes, c’est-à-dire qu’elles se donneraient à elles-mêmes leurs propres buts, leurs propres objectifs et qu’elles auraient un mode de raisonnement qui serait éventuellement logique, symbolique, interprétatif et, dans la science-fiction, auraient aussi une conscience.<br/>
 +
Ce projet de l’IA a été débuté au milieu des années 50, il a connu deux vagues successives et il n’a jamais vraiment très bien marché, je le dis de façon caricaturale, il n’a jamais vraiment très bien marché.<br/>
 +
Là on est dans une troisième vague de l’IA qui a une histoire longue, à laquelle Laurence a participé, qui est réapparue de façon forte avec des résultats extrêmement impressionnants à partir de 2010/2012. Le projet n’est pas du tout de rendre les machines intelligentes au sens de ce petit dessin, le projet est d’épouser la société en y prélevant plein de données avec une machine assez bête, extrêmement statistique, mais qui développe des modèles d’apprentissage. À la différence du modèle dit symbolique où la machine raisonne et, du coup, a une forme d’intelligence à laquelle on pourrait prêter éventuellement des attributs humains même si nous ne savons pas très bien ce qu’est l’intelligence humaine, là on a une machine qui perçoit. En fait elle perçoit des formes dans énormément de données, elle les apprend dans des modèles et ce modèle est dit connexionniste. Ce qui est en train de bouleverser beaucoup de champs de recherche puis d’applications, de services, etc., ce sont ces nouvelles techniques d’apprentissage, qu’on appelle réseaux de neurones profonds, qui sont en train de se mettre en place.<br/>
 +
Si j’ai fait ce petit rappel historique c’est pour dire qu’on a, je crois dans nos sociétés, un décalage entre la transformation scientifique qui est vraiment une sorte de big bang parce que ça modifie tout, les gens qui faisaient de la recherche avec des méthodes symboliques sont en train de se dire « il faudrait que je mette de l’apprentissage dans les laboratoires de recherche », et puis l’image publique qu’on a de l’IA où on a gardé cet imaginaire qui a été inventé, en fait, par les fondateurs de l’IA symbolique dans les années 50. Je rappelle toujours cette petite anecdote frappante mais qui est typique : Marvin Minsky, qui est un des pères de l’IA des années 50, était le conseiller scientifique de Stanley Kubrick pour <em>2001, l'Odyssée de l'espace</em>. En réalité, tout cet imaginaire de la machine à conscience, de l’intelligence à conscience, n’est pas ce qui est en train de se faire. En fait ces machines prennent des données dans nos sociétés, elles fabriquent des modèles avec ces données et elles font des probabilités sur les chances que tel évènement puisse apparaître dans le monde et puis elles corrigent leurs erreurs. En fait, elles viennent d’un modèle beaucoup plus cybernétique, donc on ne rend pas la machine intelligente, on produit des artefacts qui se déploient de plus en plus dans notre environnement pour fabriquer de l’intelligence à l’interaction avec les données – je pense qu’on va beaucoup débattre de données – que nous, les humains, nous produisons. La machine ne s’est pas isolée de nos sociétés, en réalité elle s’est encastrée et prélève, par une série d’extensions successives dans le temps, dans l‘espace, des données de plus en plus nombreuses pour essayer de fabriquer des modèles de plus en plus pertinents, mais qui sont des modèles de perception plutôt que des modèles de raisonnement même, si on le dira sûrement tout à l’heure avec Laurence, on peut évidemment mettre du raisonnement sur ces techniques d’apprentissage.
 +
 +
<b>Caroline Lachowsky : </b>Laurence Devillers, puisque vous travaillez justement sur ces interactions homme/machine, j’ai envie de vous demander ce que font véritablement ces machines et qu’est-ce qu’aujourd’hui ces robots, qui n’ont plus rien de ce robot sur la couverture du <em>Petit inventeur</em>, font vraiment, sont capables de faire vraiment ? Qu’est-ce qu’on leur apprend ? Ce n’est qu’une question de données, ce n’est qu’une question de calcul ? En plus les termes sont compliqués : intelligence artificielle, neurones. Précisez-nous tout ça, Laurence Devillers, puisque vous travaillez dessus et depuis de nombreuses années.
 +
 +
<b>Laurence Devillers : </b>En fait il faut reprendre l’histoire quand même. L’intelligence artificielle dont vous parlez, des années 50, se développe sur deux axes : l’axe symbolique qui va enrichir peut-être l’idée de science-fiction dont vous avez parlé, mais aussi un axe connexionniste. Cet axe vient aussi de la même époque, en fait c’est l’idée de faire du biomimétique c’est-à-dire de reproduire des neurones comme des neurones de notre cerveau. On en fait un modèle mathématique en 1943, ce n’est pas récent. Le premier système d’apprentissage à partir d’un réseau de neurones c’est le Perceptron de Rosenblatt qui date de 1957. Derrière, toute l’idée c’est que quand nous apprenons finalement nous apprenons par renforcement de certains liens entre nos neurones. On n’a pas des variables dans la tête, on a une intelligence qui apprend de façon distribuée. Toute l’idée de l’apprentissage machine c’est de simuler cela. Même si on prend des neurones artificiels, qu’on les met en réseau, on va essayer de faire un système multicouche capable d’adapter un certain nombre de paramètres qui sont finalement la sensibilité d’apprentissage qui peut exister dans le vivant. On a créé des machines qui, au début, ne marchaient pas. J’ai passé ma thèse en les utilisant pour faire de la reconnaissance de la parole, le bas niveau perceptif, disons que c’était pour passer du signal vocal représenté sous forme de vecteurs, de paramètres, en phonèmes qui sont les sons de la langue. Pour faire cela, j’utilisais ces modèles de neurones, mais ça mettait un mois sur un VAX parce qu’à l’époque je n’avais pas de machine qui puisse paralléliser les calculs. Or, derrière tout cela, ce sont des calculs mathématiques, des matrices, et en ce moment nous avons une puissance de calcul qui est révolutionnaire par rapport à ce qu’on avait à l’époque. On travaillait déjà sur les données, on travaillait déjà sur les ???, mais quand on parlait des données c’était un peu sale, à l’époque ce n’était pas le pétrole. On avait des difficultés pour monter des projets et faire financer la collecte de données.<br/>
 +
De la même façon, les mathématiciens considéraient que ce qu’on faisait c’était de la petite mathématique, c’est-à-dire que c’était des statistiques. On a révolutionné tout cela. Pourquoi ? Parce que depuis on a maintenant des machines qui parallélisent, des GPU sur des petits portables que vous avez chez vous, vous pouvez avoir une puissance de calcul que jamais on n’a eue à l’époque, on est capable de lancer des tâches qui apprennent, par exemple à reconnaître un chat d’un chien sur des photos, à partir du son, des images satellites. Pour la médecine, par exemple, on parle beaucoup de pouvoir détecter dans des images, des radios, des formes de cancer de façon assez rapide. Pourquoi ? Parce que la machine va regarder sans présupposer, donc sans sémantique. Elle va regarder les corrélations des points qui sont sur l’image.
 +
 +
<b>Caroline Lachowsky : </b>On lui montre une quantité incalculable de données.
 +
 +
<b>Laurence Devillers : </b>Vous avez raison. En quoi c’est révolutionnaire ? C’est que l’humain, par exemple le médecin, ne peut pas voir autant d’images dans toute sa vie que n’en pourrait voir la machine. Donc la machine un, a cette fulgurance de données à son actif, deux, elle va regarder à des niveaux que nous ne voyons pas, que nous ne percevons pas. Par exemple quand j’écoute des sons, je n’entends pas les ultrasons, les infrasons et la machine peut les entendre. Quand je regarde un visage je ne vois pas des micros phénomènes ; si je ralentis une vidéo, peut-être que je vais voir des micros mouvements que je n’avais pas vus, la machine peut voir tout ça. Elle est maintenant extrêmement rapide, elle va beaucoup plus vite que nous, donc c’est normal qu’elle gagne au jeu de go qui est un jeu fini qui est très simple.<br/>
 +
Maintenant j’en viens aux robots. Quel est l’intérêt du robot ? C’est de mettre sur une machine plusieurs de ces algorithmes d’intelligence artificielle capables de détecter des formes, d’apprendre en regardant quelqu’un faire une tâche, tout un tas de ces capacités qui sont liées à l’humain.<br/>
 +
Maintenant je dirais qu’il y a toujours pas de pilote dans l’avion, c’est-à-dire qu’on a beau mettre sur ces plateformes tout un tas de modules capables de reconnaître des formes, d’interpréter, de traduire, de faire beaucoup de choses qu’on imagine comme très performantes, eh bien ce pauvre robot a du mal à de se déplacer. Si le met dans un endroit comme ça, ça va être très compliqué pour lui parce qu’il y a des marches, parce qu’il y a des choses qu’il ne sait pas faire au premier niveau. On parle du paradoxe de Moravec, c’est-à-dire qu’il est capable de faire des tâches intellectuelles répétitives sur un grand nombre de données, faire le journaliste, faire de la synthèse, parler 23 langues, par contre, quand il s’agit de déboucher un évier, eh bien non ! Parce que c’est toujours différent dans la vraie vie. Cette variabilité, le fait que les choses soient un peu cachées, qu’on les devine, notre intuition, notre capacité à interpréter des choses qu’on ne voit pas, la machine n’a rien de tout ça, elle apprend très lentement. Même s’il commence à y avoir des robots maintenant et qu’on essaye, comme je le fais, de travailler sur l’affect, c’est-à-dire de détecter nos émotions, vouloir en générer à travers ces machines, la machine n’a absolument pas les mêmes capacités que nous. Il ne faut pas en avoir peur pour cela. Il faut bien comprendre ces concepts et je pousse pour qu’on éduque les enfants dès l’enfance sur ces systèmes : que sont-ils capables de faire ? En quoi ils peuvent nous apporter ? Ils peuvent effectivement nous apporter beaucoup si on sait les manipuler et si, évidemment, ce ne sont pas des leaders des géants du numérique qui font des monopoles autour de tout cela en essayant surtout de nous manipuler. Beaucoup de choses sur ces sujets-là.
 +
 +
==14’ 52==
 +
 +
<b>Caroline Lachowsky : </b>On va revenir

Version du 4 août 2022 à 11:43


Titre : Les enjeux éthiques et sociaux de l’intelligence artificielle

Intervenant·e·s : Laurence Devillers - Antoinette Rouvroy - Dominique Cardon - Pr*sentatrice

Lieu : Bibliothèque nationale de France - Débats au cœur de la science

Date : 10 février 2022

Durée :

[ Vidéo]

Présentation du débat

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit MO

Description

La deuxième saison du cycle « Débats au cœur de la science » explore les multiples facettes de l’intelligence à travers six rendez-vous avec des experts issus de différentes disciplines scientifiques. Le deuxième débat portera sur les enjeux sociaux et éthiques que fait émerger le développement de l’intelligence artificielle.

Transcription

Caroline Lachowsky : Bonsoir à toutes et à tous. Bienvenue dans ce petit auditorium de la BNF. D’abord merci à vous d’être là en vrai, en présentiel comme on dit, même masqués ça nous fait du bien. Merci aussi à tous ceux et toutes celles qui nous suivent sur la chaîne YouTube de la BNF.
Pour ce deuxième épisode de nos débats Au cœur de la science consacrés cette année aux intelligences au pluriel, à commencer par ce qu’on appelle l’intelligence artificielle, l’IA. Y a-t-il une intelligence artificielle ? Nous en avons débattu le mois dernier. Nous allons plus loin ce soir en nous interrogeant et vous pourrez d’ailleurs nous poser vos questions à l’issue de ce débat, sur les enjeux éthiques et sociaux de l’intelligence artificielle. Jusqu’où l’IA va-t-elle transformer nos vies publiques et privées, nos emplois, nos interactions, nos conversations ? Quelle place les machines apprenantes, dites intelligentes, et désormais affectives, vont-elles prendre dans nos vies et nos sociétés ?, et surtout quelle place voulons-nous leur donner en toute connaissance de cause, c’est surtout ça le problème, et en toute responsabilité, en voilà un autre de problème, éthique, sociale et juridique ? Voilà ce que nous allons nous demander en tentant de dépasser les fantasmes, les peurs, les promesses, en compagnie de nos intervenants qui ont tous les trois le mérite de savoir de quoi ils parlent.
Laurence Devillers, bonsoir.

Laurence Devillers : Bonsoir.

Caroline Lachowsky : Vous êtes professeure à l’université Paris Sorbonne, directrice de recherche au laboratoire interdisciplinaire des sciences du numérique du CNRS. Vos travaux, Laurence, portent sur les interactions homme/machine, notamment à travers la parole, la détection des émotions et la robotique affective. Vous êtes également membre du Comité national pilote d’éthique du numérique et également du partenariat mondial sur l’IA, auteure de plusieurs ouvrages, le dernier que vous dédicacerez d’ailleurs Laurence tout à l’heure, juste en sortant de cette conférence, s’intitule Les robots « émotionnels ». Santé, surveillance, sexualité… : et l’éthique dans tout ça ? .
Face à ces toutes nouvelles questions éthiques, enfin nouvelles, oui, qui se renouvellent, soulevées par l’IA, face à ces formidables puissances de calcul de ces machines « apprenantes », toujours avec des guillemets, de ces robots « émotionnels », encore avec des guillemets, se posent évidemment des questions juridiques et de gouvernance sur lesquelles vous travaillez Antoinette Rouvroy. Bonsoir.

Antoinette Rouvroy : Bonsoir.

Caroline Lachowsky : Vous êtes philosophe du droit, chercheuse en sciences juridiques à Namur en Belgique, d’ailleurs merci d’avoir fait le voyage jusqu’à nous, et depuis quelques années vous travaillez sur ce que vous appelez la gouvernance algorithmique, ce nouveau mode de gouvernance qui se nourrit de données numériques massives. Comment ne pas se laisser calculer par tous ces algorithmes ? Vous vous interrogez notamment sur la convergence de toutes ces nouvelles technologies, big data, machine learning et vous n’hésitez pas à appeler à une vraie réflexion collective à la fois éthique, juridique et psychologique pour tous, citoyens que nous sommes, comme décideurs. Une réflexion et des interrogations que vous partagez, Dominique Cardon. Bonsoir.

Dominique Cardon : Bonsoir.

Caroline Lachowsky : Vous êtes professeur de sociologie. Vous dirigez le Medialab de Science Po qui interroge précisément les relations entre le numérique et nos sociétés. Vous êtes l’auteur de plusieurs ouvrages, Culture numérique aux Presses de Science Po et À quoi rêvent les algorithmes : nos vies à l’heure des big data paru Au Seuil en 2015. À quoi rêvent les algorithmes ? À quoi rêvent les robots ? Et comment reprendre la main sur nos rêves humains, justement, face au pouvoir grandissant des machines que nous avons rendues « intelligentesnous » avec tous les guillemets qui s’imposent, mais jusqu’où ?
Pour ouvrir ce débat et relever les défis éthiques et sociaux de l’intelligence artificielle, un petit retour en arrière s’impose. Dans les trésors de la Bibliothèque nationale, consultables bien sûr sur le site Gallica, nous avons comme chaque fois déniché une perle, la voici, c’est la Une du numéro 31 de la revue Le petit inventeur, journal illustré paru le 1er janvier 1929. La couverture, en couleur vous le voyez, titrait « Ce que nous réserve l’électricité », montre le dessin de ce robot futuriste branché sur l’électricité en train de cirer les pompes, enfin les chaussures, excusez-moi, d’un homme confortablement installé dans son fauteuil. Il y a de quoi alimenter toutes nos questions, j’ai l’impression, sur les enjeux sociaux, éthiques et juridiques, mais aussi sur la manière dont nous nous les posons et dont nous pensons bien les poser.
Dominique Cardon, j’ai envie de m’adresser au sociologue que vous êtes pour commenter cette image qui date donc du siècle dernier. Comme quoi ces questions sur le rôle des robots et des machines ont une histoire, une histoire fantasmée peut-être, une histoire qui s’est accélérée aujourd’hui. C’est ça ?

Dominique Cardon : Absolument. Je laisserai Laurence pour les robots.
Le constat que je fais effectivement autour de l’IA c’est qu’il y a un énorme, un incroyable hype autour de ce mot, on en parle aujourd’hui. Ce mot a une histoire et le projet de mettre de l’intelligence dans des machines a une histoire. Je pense que cette histoire est très importante pour comprendre le contemporain et le décalage un peu mythologique qui s’est constitué. En réalité les gens qui ont lancé le projet de l’IA en 1956 avaient une idée symbolique de la machine qui est un peu figurée dans Le petit inventeur, dans ce dessin du Petit inventeur et aussi dans tous les films de science-fiction où on a des entités autonomes qui mèneraient des activités en fonction d’opérations dites intelligentes, c’est-à-dire qu’elles se donneraient à elles-mêmes leurs propres buts, leurs propres objectifs et qu’elles auraient un mode de raisonnement qui serait éventuellement logique, symbolique, interprétatif et, dans la science-fiction, auraient aussi une conscience.
Ce projet de l’IA a été débuté au milieu des années 50, il a connu deux vagues successives et il n’a jamais vraiment très bien marché, je le dis de façon caricaturale, il n’a jamais vraiment très bien marché.
Là on est dans une troisième vague de l’IA qui a une histoire longue, à laquelle Laurence a participé, qui est réapparue de façon forte avec des résultats extrêmement impressionnants à partir de 2010/2012. Le projet n’est pas du tout de rendre les machines intelligentes au sens de ce petit dessin, le projet est d’épouser la société en y prélevant plein de données avec une machine assez bête, extrêmement statistique, mais qui développe des modèles d’apprentissage. À la différence du modèle dit symbolique où la machine raisonne et, du coup, a une forme d’intelligence à laquelle on pourrait prêter éventuellement des attributs humains même si nous ne savons pas très bien ce qu’est l’intelligence humaine, là on a une machine qui perçoit. En fait elle perçoit des formes dans énormément de données, elle les apprend dans des modèles et ce modèle est dit connexionniste. Ce qui est en train de bouleverser beaucoup de champs de recherche puis d’applications, de services, etc., ce sont ces nouvelles techniques d’apprentissage, qu’on appelle réseaux de neurones profonds, qui sont en train de se mettre en place.
Si j’ai fait ce petit rappel historique c’est pour dire qu’on a, je crois dans nos sociétés, un décalage entre la transformation scientifique qui est vraiment une sorte de big bang parce que ça modifie tout, les gens qui faisaient de la recherche avec des méthodes symboliques sont en train de se dire « il faudrait que je mette de l’apprentissage dans les laboratoires de recherche », et puis l’image publique qu’on a de l’IA où on a gardé cet imaginaire qui a été inventé, en fait, par les fondateurs de l’IA symbolique dans les années 50. Je rappelle toujours cette petite anecdote frappante mais qui est typique : Marvin Minsky, qui est un des pères de l’IA des années 50, était le conseiller scientifique de Stanley Kubrick pour 2001, l'Odyssée de l'espace. En réalité, tout cet imaginaire de la machine à conscience, de l’intelligence à conscience, n’est pas ce qui est en train de se faire. En fait ces machines prennent des données dans nos sociétés, elles fabriquent des modèles avec ces données et elles font des probabilités sur les chances que tel évènement puisse apparaître dans le monde et puis elles corrigent leurs erreurs. En fait, elles viennent d’un modèle beaucoup plus cybernétique, donc on ne rend pas la machine intelligente, on produit des artefacts qui se déploient de plus en plus dans notre environnement pour fabriquer de l’intelligence à l’interaction avec les données – je pense qu’on va beaucoup débattre de données – que nous, les humains, nous produisons. La machine ne s’est pas isolée de nos sociétés, en réalité elle s’est encastrée et prélève, par une série d’extensions successives dans le temps, dans l‘espace, des données de plus en plus nombreuses pour essayer de fabriquer des modèles de plus en plus pertinents, mais qui sont des modèles de perception plutôt que des modèles de raisonnement même, si on le dira sûrement tout à l’heure avec Laurence, on peut évidemment mettre du raisonnement sur ces techniques d’apprentissage.

Caroline Lachowsky : Laurence Devillers, puisque vous travaillez justement sur ces interactions homme/machine, j’ai envie de vous demander ce que font véritablement ces machines et qu’est-ce qu’aujourd’hui ces robots, qui n’ont plus rien de ce robot sur la couverture du Petit inventeur, font vraiment, sont capables de faire vraiment ? Qu’est-ce qu’on leur apprend ? Ce n’est qu’une question de données, ce n’est qu’une question de calcul ? En plus les termes sont compliqués : intelligence artificielle, neurones. Précisez-nous tout ça, Laurence Devillers, puisque vous travaillez dessus et depuis de nombreuses années.

Laurence Devillers : En fait il faut reprendre l’histoire quand même. L’intelligence artificielle dont vous parlez, des années 50, se développe sur deux axes : l’axe symbolique qui va enrichir peut-être l’idée de science-fiction dont vous avez parlé, mais aussi un axe connexionniste. Cet axe vient aussi de la même époque, en fait c’est l’idée de faire du biomimétique c’est-à-dire de reproduire des neurones comme des neurones de notre cerveau. On en fait un modèle mathématique en 1943, ce n’est pas récent. Le premier système d’apprentissage à partir d’un réseau de neurones c’est le Perceptron de Rosenblatt qui date de 1957. Derrière, toute l’idée c’est que quand nous apprenons finalement nous apprenons par renforcement de certains liens entre nos neurones. On n’a pas des variables dans la tête, on a une intelligence qui apprend de façon distribuée. Toute l’idée de l’apprentissage machine c’est de simuler cela. Même si on prend des neurones artificiels, qu’on les met en réseau, on va essayer de faire un système multicouche capable d’adapter un certain nombre de paramètres qui sont finalement la sensibilité d’apprentissage qui peut exister dans le vivant. On a créé des machines qui, au début, ne marchaient pas. J’ai passé ma thèse en les utilisant pour faire de la reconnaissance de la parole, le bas niveau perceptif, disons que c’était pour passer du signal vocal représenté sous forme de vecteurs, de paramètres, en phonèmes qui sont les sons de la langue. Pour faire cela, j’utilisais ces modèles de neurones, mais ça mettait un mois sur un VAX parce qu’à l’époque je n’avais pas de machine qui puisse paralléliser les calculs. Or, derrière tout cela, ce sont des calculs mathématiques, des matrices, et en ce moment nous avons une puissance de calcul qui est révolutionnaire par rapport à ce qu’on avait à l’époque. On travaillait déjà sur les données, on travaillait déjà sur les ???, mais quand on parlait des données c’était un peu sale, à l’époque ce n’était pas le pétrole. On avait des difficultés pour monter des projets et faire financer la collecte de données.
De la même façon, les mathématiciens considéraient que ce qu’on faisait c’était de la petite mathématique, c’est-à-dire que c’était des statistiques. On a révolutionné tout cela. Pourquoi ? Parce que depuis on a maintenant des machines qui parallélisent, des GPU sur des petits portables que vous avez chez vous, vous pouvez avoir une puissance de calcul que jamais on n’a eue à l’époque, on est capable de lancer des tâches qui apprennent, par exemple à reconnaître un chat d’un chien sur des photos, à partir du son, des images satellites. Pour la médecine, par exemple, on parle beaucoup de pouvoir détecter dans des images, des radios, des formes de cancer de façon assez rapide. Pourquoi ? Parce que la machine va regarder sans présupposer, donc sans sémantique. Elle va regarder les corrélations des points qui sont sur l’image.

Caroline Lachowsky : On lui montre une quantité incalculable de données.

Laurence Devillers : Vous avez raison. En quoi c’est révolutionnaire ? C’est que l’humain, par exemple le médecin, ne peut pas voir autant d’images dans toute sa vie que n’en pourrait voir la machine. Donc la machine un, a cette fulgurance de données à son actif, deux, elle va regarder à des niveaux que nous ne voyons pas, que nous ne percevons pas. Par exemple quand j’écoute des sons, je n’entends pas les ultrasons, les infrasons et la machine peut les entendre. Quand je regarde un visage je ne vois pas des micros phénomènes ; si je ralentis une vidéo, peut-être que je vais voir des micros mouvements que je n’avais pas vus, la machine peut voir tout ça. Elle est maintenant extrêmement rapide, elle va beaucoup plus vite que nous, donc c’est normal qu’elle gagne au jeu de go qui est un jeu fini qui est très simple.
Maintenant j’en viens aux robots. Quel est l’intérêt du robot ? C’est de mettre sur une machine plusieurs de ces algorithmes d’intelligence artificielle capables de détecter des formes, d’apprendre en regardant quelqu’un faire une tâche, tout un tas de ces capacités qui sont liées à l’humain.
Maintenant je dirais qu’il y a toujours pas de pilote dans l’avion, c’est-à-dire qu’on a beau mettre sur ces plateformes tout un tas de modules capables de reconnaître des formes, d’interpréter, de traduire, de faire beaucoup de choses qu’on imagine comme très performantes, eh bien ce pauvre robot a du mal à de se déplacer. Si le met dans un endroit comme ça, ça va être très compliqué pour lui parce qu’il y a des marches, parce qu’il y a des choses qu’il ne sait pas faire au premier niveau. On parle du paradoxe de Moravec, c’est-à-dire qu’il est capable de faire des tâches intellectuelles répétitives sur un grand nombre de données, faire le journaliste, faire de la synthèse, parler 23 langues, par contre, quand il s’agit de déboucher un évier, eh bien non ! Parce que c’est toujours différent dans la vraie vie. Cette variabilité, le fait que les choses soient un peu cachées, qu’on les devine, notre intuition, notre capacité à interpréter des choses qu’on ne voit pas, la machine n’a rien de tout ça, elle apprend très lentement. Même s’il commence à y avoir des robots maintenant et qu’on essaye, comme je le fais, de travailler sur l’affect, c’est-à-dire de détecter nos émotions, vouloir en générer à travers ces machines, la machine n’a absolument pas les mêmes capacités que nous. Il ne faut pas en avoir peur pour cela. Il faut bien comprendre ces concepts et je pousse pour qu’on éduque les enfants dès l’enfance sur ces systèmes : que sont-ils capables de faire ? En quoi ils peuvent nous apporter ? Ils peuvent effectivement nous apporter beaucoup si on sait les manipuler et si, évidemment, ce ne sont pas des leaders des géants du numérique qui font des monopoles autour de tout cela en essayant surtout de nous manipuler. Beaucoup de choses sur ces sujets-là.

14’ 52

Caroline Lachowsky : On va revenir