IA & Robots : il faut voir comme ils nous parlent

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : IA & Robots : il faut voir comme ils nous parlent

Intervenante : Laurence Devillers

Lieu : Interview sur Trench Tech

Date : 6 octobre 2022

Durée : 1h08

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir. Sa photo sur Wikipedia ? https://fr.wikipedia.org/wiki/Laurence_Devillers

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s, mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit ED

Description

L'invitée de Trench Tech : Laurence Devillers, directrice de recherche au CNRS et auteure de « Des robots et des hommes ».

D’Internet à nos cuisines, les robots émotionnels sont omniprésents dans notre quotidien. Boostés à l’intelligence artificielle, ils posent de multiples questions éthiques. Au fil de nos échanges avec Laurence, nous explorons ces questions :

  • Intelligence artificielle, robots émotionnels : de quoi parle-t-on exactement ?
  • Éthique : quelle prise de conscience du grand public et des politiques ?
  • Réglementation, normes : quelles solutions ?

Conçu et animé par Cyrille Chaudoit, Thibaut le Masne et Mick Levy.

Les deux chroniques inclues dans l'émission, de Fabienne Billat sur « Du buzz à l’influence, une simple histoire de manipulation ? » et de Laurent Guérin « Web3 : La chasse aux licornes est ouverte », n'ont pas été retranscrites. Leur emplacement est indiqué par leur timeline respective.

Transcription

[Dialogue extrait du film « Ex Machina » d'Alex Garland.

- La programmer pour qu'elle flirte avec moi ? Si c'était le cas, ce serait de la triche.
- Est-ce que tu l'as programmée pour que je lui plaise, oui ou non ?
- Je l'ai programmée pour être hétérosexuel, ainsi que tu as été programmé pour être hétérosexuel.
- Personne ne m'a programmé pour être hétéro. C'est un choix délibéré, je t'en prie.
- Bien sûr que tu as été programmé, par nature ou culture, ou bien les deux, et, pour être franc, tu commences à m'énerver, parce que là, c'est ton insécurité que j'entends...

[Les 3 journalistes de Trench Tech, Cyrille Chaudoit, Thibaut le Masne et Mick Levy, vont échanger sur les différentes facettes du sujet, avant l'arrivée de Laurence Devillers. C'est le warm-up]

Trench Tech : esprits critiques pour tech éthique.

Warm up

Dans « Ex Machina », film d'Alex Garland, en 2014, Nathan, patron de Blue Book, sorte d'hybride entre Zuckerberg et Sergey Brin, est le génial créateur d'Ava, une IA prenant les traits d'un robot féminin aussi séduisant qu'inquiétant. C'est lui qui tient ces propos quand son employé, Caleb, lui demande s'il a programmé Ava pour le séduire. Serait-ce de la triche ? Au fond, si nous sommes nous-mêmes, en tant qu'humains, déterminés par un certain nombre de paramètres issus de notre éducation, de notre culture, nos expériences, etc., alors en quoi les modéliser afin de mieux nous comprendre et, in fine, nous offrir le bon produit ou la bonne expérience utilisateur serait de la triche ?

Hier, quand j'utilisais un mixeur pour me préparer un jus, j'avais conscience de faire appel à une machine dont la seule vocation était de me servir. Un simple objet capable d'automatiser une tâche physique pénible, quoi. Bref, j'avais conscience de faire appel à un outil. Mais prochainement, avec les robots dits émotionnels, aurai-je encore conscience de ne faire appel qu'à une machine ? Oserons-nous encore parler de machines, d'ailleurs ? Aurai-je encore conscience de ce qui nous différencie, ou aurai-je l'impression que cet autre fait de silicium et de silicone possède sa propre conscience, comme certains chercheurs et patrons de big tech le voudraient ?

Demain, quand mon mixeur sentira, à mon humeur matinale, qu'il faut me servir un jus plus réconfortant qu'hier et rajoutera un peu de persil parce que ma smart watch lui aura cafté que je manque de fer en ce moment : lui serais-je reconnaissant, comme envers une barista prévenante et doué d'empathie ? Et si, en plus, mon mixeur ressemble à Ava, il y a de quoi nager dans le bonheur.

Dit autrement : notre rapport à la machine est-il en train de changer ? Jusqu'où et avec quelles conséquences sur notre psychologie et nos rapports aux autres humains ? Car lorsque je préférerai mon robot mixeur émotionnel à ma barista du coin, cela en dira long sur nos relations interpersonnelles.

Mouais, tout ça, c'est du pipeau.

En êtes-vous bien sûr ? Demander son chemin, la météo ou le casting de « Ex Machina » à un assistant vocal aussi naturellement qu'on le demanderait à un copain : qui l'aurait imaginé crédible au début de ce siècle ?

Enfin, c'est un panneau marketing qui puise ses références dans la SF.

C'est vrai que les big tech ont l'art et la manière de nous faire prendre des vessies pour des lanternes connectées, à grand renfort de storytelling, de nudges et autres techniques d'influence. Mais là où autrefois les auteurs s'inspiraient des travaux de recherche en cours auxquels peu de personnes avaient accès, aujourd'hui ce sont les chercheurs qui s'inspirent de la science-fiction. « Pourquoi as-tu créé Ava ? » demande Caleb à Nathan, qui lui répond du tac au tac : « C'est une question étrange. Tu ne le ferais pas toi, si tu le pouvais ? ».

Et voilà la grande question éthique : pouvons-nous, au sens moral, faire quelque chose parce que nous pouvons le faire au sens technique, que l'on en ait la compétence, les moyens ou simplement l'occasion ? C'est ce que nous allons explorer dans cet épisode. Mais avant de lancer la grande interview avec Laurence Devillers, c'est l'heure du warm-up avec Mike, Thibaut et moi-même, pour vous servir.

Salut, Cyril, c'est cool de se retrouver pour ce nouvel épisode.

Salut.

Bonjour à tous, comment ça va ?

Je suis ravi qu'on reçoive Laurence Devillers qui me passionne, que je suis de longue date sur ces travaux. Donc, un vrai plaisir d'avoir l'occasion d'échanger avec elle aujourd'hui. Et on va parler en plus d'un domaine passionnant qui est celui de la robotique, de l'IA et des robots émotionnels. Globalement, c'est un sujet qui est très vaste : il est largement repris dans les cultures populaire et cinématographique. Ça fait longtemps qu'on en parle. On ne parle plus des séries type Westworld, on ne parle plus non plus du nombre de films qui nous parlent de tout ça et de la façon dont l'émotion joue un rôle très important dans notre rapport à la machine.

Oui, et c'est d'autant plus un vieux sujet que l'intelligence artificielle ne date pas d'hier. Ça a débuté il y a très, très, très longtemps : chacun sait maintenant, avec la machine de Turing, que c'était un peu les prémices des premiers algorithmes. Le fameux test de Turing, on en reparlera peut-être tout à l'heure, puisque certains disent qu'il est passé déjà depuis très longtemps finalement.

Il y a eu l'hiver de l'IA où, finalement, il n'y avait pas suffisamment de data, pas suffisamment de puissance de calcul. Il y a quand même des gens qui ont lutté dans cet hiver, je pense notamment au français Yann Le Cun [1], bien connu et qui, finalement, est devenu un des big boss de l'intelligence artificielle à travers le monde. D'ailleurs, ça serait intéressant d'interroger Laurence parce que, à chaque fois qu'on voit qu'il y a un big boss dans la big tech de l'IA, c'est un Français. On pourrait s'interroger : pourquoi tous nos cerveaux fuient comme ça ? Mais voilà, c'est un vieux sujet.

Pas tous quand même, mais tu as raison, il y a un sujet. Ce que je trouve chouette - j'ai fait un peu de recherche sur tous ces domaines là, les robots émotionnels - finalement, on va mixer deux domaines qui sont au départ assez différents : la robotique, c'est vraiment le monde de la mécanique, et puis tout le domaine de l'IA. Effectivement, ça ne remonte pas à hier. Le terme robot - je sais pas si vous le savez -, est apparu dans les années 20, dans une pièce de théâtre tchèque, c'est totalement inattendu. Je pensais que c'était un terme en fait encore plus ancien, mais il date de 1920, pour être précis. Et en 2020, on se retrouve avec 9 millions de robots sur terre. On se retrouvait, puisque en 2022, il y en a certainement encore plus.

9 millions, ça commence à faire beaucoup. Mais si on veut continuer dans les pages historiques, finalement, les premiers objets animés, des êtres même animés façon marionnettes, c'était en France, le système Vaucanson [2]. Tout ça va chercher très, très loin : le mythe du Golem [3] dans la culture hébraïque, qui a donné après le mythe de Frankenstein et qu'on retrouve finalement dans tous les films qu'on a cités, c'est-à-dire l'homme démiurge qui crée un objet, qui a sa créature qui finit par le dépasser. Tout ça vient convoquer une culture populaire qui fait que, encore aujourd'hui, quand on parle d'IA, de robot, en tout cas dans notre culture occidentale, on en a peur. Là où, dans d'autres cultures, on le verra peut-être tout à l'heure d'ailleurs, on n'a pas du tout le même rapport.

C'est cette quête de vouloir avoir un autre soi robotisé, et au lieu d'avoir l'individu, est-ce qu'on devient de plus en plus - et on va sortir les grands clichés - de plus en plus égoïstes, qu'on a besoin d'avoir un autre soi qui ne soit pas humain ? Ou est-ce qu'on se sent si seul qu'il nous faut un accompagnement ? En parlant de solitude, j'ai travaillé dans des maisons de retraite et ils avaient mis en place, justement, des robots pour aider les personnes âgées. On peut trouver ça complètement utopique et complètement ridicule. Chose curieuse, les personnes âgées commençaient à s'y attacher, ça faisait une présence. Alors, même s'ils étaient robotisés vraiment à l'ancienne, ça m'a interloqué de savoir que, pour les personnes âgées, c'était une présence et une présence intéressante. Il y a quelque chose autour de la robotique, de cette présence justement, qui nous fait nous sentir peut-être un peu moins seul.

Il y a un pays qu'il faut suivre de très près, sur tous ces sujets-là, c'est le Japon. Il a beaucoup développé les robots émotionnels pour assister les personnes âgées, pour accompagner les enfants, pour accompagner à chaque moment de la vie. Il faut savoir qu'au Japon, il y a vingt fois plus de robots qu'au Royaume-Uni - j'aurais adoré pouvoir vous dire combien pour la France. Mais ça montre bien à quel point le Japon, et c'est nourri visiblement par le shintoïsme, fait que c'est au cœur de leur culture et qu'il y a une acceptation du robot, et même une acceptation émotionnelle de la robotique dans la vie quotidienne pour accompagner les sentiments.

Oui, la robolution, effectivement, Astro Boy [4], etc. Sur la robotique sociale et sur son intérêt, ça fait quelques années déjà qu'on en a des éléments de preuve et là encore, dans la robotique en France, on a plein de chercheurs et chercheuses. On a une invitée de marque avec Laurence aujourd'hui, mais comment ne pas citer, puisqu'on est nantais, Sophie Saka, qui est extrêmement réputée aussi sur la robotique et qui a une superbe association qui s'appelle Rob' Autisme qui accompagne les enfants autistes grâce à la robotique [5]. Il y a plein de sujets hyper intéressants et porteurs d'avenir et d'espoir. En revanche, il y a aussi tout l'autre versant de la montagne, avec les craintes que l'on place dans la robotique, à tort ou à raison. C'est précisément ce qu'on va essayer d'explorer avec Laurence aujourd'hui.

Je crois qu'on a bien posé la problématique avec ce warm-up. Il me semble entendre arriver notre invitée. Je vais aller la chercher : il est temps d'accueillir Laurence Devillers pour explorer tout ça avec méthode, en suivant trois grands axes :

  • l'intelligence artificielle, robot émotionnel : de quoi parle-t-on exactement quand on associe ces termes qui semblent pourtant étrangers l'un à l'autre ?
  • nous regarderons ensuite quelle prise de conscience grand public et politique de la réalité, où nous en sommes, et les enjeux.
  • en troisième point, nous regarderons comment penser, organiser et s'organiser autour de ces enjeux.

Interview de Laurence Devillers 09:30

Trench Tech : Bonjour Laurence.

Laurence Devillers : Bonjour à toute l'équipe d'Esprit critique.

Trench Tech : On se tutoie ? c'est OK pour toi ?

Laurence Devillers : Évidemment.

Trench Tech : Super. Laurence, tu as un CV bien rempli, mais si on doit retenir l'essentiel, voici ce qu'on peut dire.

Tu es professeure d'informatique à Sorbonne Université et directrice de recherche sur les interactions effectives humain-machine au CNRS. Tu as publié de nombreux ouvrages grand public, en plus de tes publications scientifiques, bien sûr. On peut citer notamment Des robots et des hommes en 2017 chez Plon et plus récemment Les robot émotionnels : santé, surveillance, sexualité... Et l'éthique dans tout ça ?, en 2020, aux éditions de l'Observatoire. Tu te mobilises, et ce sont tes mots, pour donner un cadre méthodologique propice à l'observation de l'effet sur le public et sur le long terme de ces technologies que sont l'intelligence artificielle et les robots émotionnels.

Tu fais d'ailleurs partie, notamment, des comités d'éthique CNPEN [6], le PMIA, qui signifie le Partenariat mondial en IA [7] et qui regroupe, précisons-le, 25 démocraties et du groupe de travail JTC 21 au sein du CEN-CENELEC pour la normalisation de l'IA [8]. Tout est juste ?

Laurence Devillers : Tout est juste.

Trench Tech : On n'a eu recours à aucune IA, aucun robot pour préparer ta bio, et tout ce qu'il y a de synthétique ici, c'est ton résumé. Quant à nous, nous sommes bien réels et c'est non sans émotion que je te propose de nous lancer avec la première séquence de notre entretien : intelligence artificielle, robot émotionnel, de quoi parle-t-on exactement ?

Alors, comme souvent dans la tech, le champ lexical est parfois obscur, parfois cryptique, parfois poétique. Là, on fait un grand emploi d'oxymores : intelligence artificielle, robot émotionnel, pour désigner une approche technologique froide. Je te propose de revenir brièvement sur quelques notions-clés qui nous permettront de mieux nous approprier le reste de la réflexion. En gros, on veut s'assurer qu'on va bien parler le même langage pour la suite de l'épisode avec toi, Laurence.

Est-ce que tu peux nous expliquer ce qu'est l'affective computing, qui semble être la base de la gestion des émotions en IA et pour la robotique ?

Laurence Devillers : Affective computing, c'est un domaine dans l'intelligence artificielle où l'on cherche en fait à modéliser les émotions dans des machines. Ce sont trois grandes technologies : le fait de percevoir les émotions des humains à travers différents indices, que ce soit verbal, lié au paralangage, la tessiture de la voix, la prosodie, et puis peut être le visage, le mouvement, les actions. Ensuite, raisonner autour de ces informations qu'on a détectées, par exemple dans un système de dialogue, et puis enfin le dernier, générer des comportements de la machine qui ait une expressivité émotionnelle, que ce soit dans la voix, dans le visage, dans les traits dissimulés de la tête du robot. Ce sont ces trois grands domaines.

Cette discipline est née dans les années 97, au MIT, par les travaux de Rosalind Picard [9].

Trench Tech : Cette discipline a-t-elle des spécificités par rapport au reste des approches en IA, ou c'est de l'IA, mais appliquée aux émotions ?

Laurence Devillers : La spécificité forte, c'est la perception. Mais effectivement, ça pourrait être autre chose que de l'affect qu'on tente de percevoir sur lequel il y a une grande subjectivité.

Trench Tech : Pourquoi est-ce qu'on cherche absolument de l'affect avec un robot ?

Laurence Devillers : Il faut comprendre que, pour être rationnel, l'être humain est émotionnel. Les travaux d'Antonio Damasio [10], un neuroscientifique américain très connu sur ce sujet de l'affect, ont montré que l'interaction émotionnelle était nécessaire dans l'interaction sociale, toute interaction avec les humains dans la société. Si on crée des machines qui n'ont pas cette capacité à la fois d'interpréter et de, peut-être, jouer des émotions, on aura une interaction très peu naturelle, avec une compréhension faible de ce qui est en train de se passer. Donc, intrinsèquement, l'être humain est émotionnel, et sans être émotionnel, il ne peut pas avoir d'interaction sociale naturelle avec les autres.

Or c'est ce qu'on cherche à faire à travers ces machines qui sont des machines sociales, soit des agents conversationnels, les chat bots, soit des robots, qui embarquent donc ces capacités de langage et d'interaction avec des humains.

Trench Tech : Est-ce qu'on est en train de rendre des machines finalement plus capables de comprendre nos propres semblables que nous ne le sommes nous-mêmes en tant qu'humains ?

Laurence Devillers : On est en train de rendre les machines capables d'interpréter les signes que l'on émet, mais en aucune façon ces machines seront plus douées que nous dans l'interaction sociale. Elles ont des capacités différentes, et la confrontation entre les capacités de l'humain et les capacités de la machine sont, ce sens, assez fausses. On oublie, lorsqu'on ne connaît pas bien la technologie qui est embarqué dans ces systèmes, de comprendre en fait comment marche l'apprentissage machine. Lorsque une machine regarde une image, elle regarde un ensemble de pixels. Lorsqu'un humain regarde une image, il regarde des formes dans cette image : pour aller plus vite, pour des questions de sécurité et de survie, nous sommes câblés comme ça.

Donc, ça veut dire que ce qu'interprète la machine est différent. De temps en temps ça va nous aider, mais ce n'est en aucune manière la même chose. Elle aprends très différemment.

Trench Tech : Je suis d'accord, et sur un plan théorique, il est bon de le rappeler et de le savoir. Néanmoins, est-ce qu'on est capable de passer outre cette espèce de projection qu'on fait d'anthropomorphisme, ou est-ce que, finalement, on est condamné à ne voir dans ce robot en face de nous qu'une espèce de semblable ?

Laurence Devillers : De façon naturel, on anthropomorphise les objets autour de nous, mais très bêtement, juste par le mouvement, de temps en temps, ou par des capacités assez simples. On va projeter sur un ballon de foot : si vous vous rappelez un film, quelqu'un se retrouvait tout seul sur une île déserte et y vivait pendant deux ans tout seul. Sur un ballon de foot, il mettait des yeux simplifiés et un nez, une bouche, et il parlait au ballon. Fondamentalement, l'humain projette sur les objets. Alors maintenant, quand une machine anthropomorphique nous ressemble et émet des émotions, vous vous rendez bien compte que c'est encore plus fort.

Trench Tech : Oui, combien de personnes parlent de leur voiture en disant ma titine ou ce genre de choses. C'était un ballon de volley.

Laurence Devillers : Oui. On parle à sa montre, à sa voiture. Et puis les aspirateurs Dyson, chez vous, qui se baladent : on leur donne des noms et s'ils sont cassés on le ramène chez Darty en disant : je veux le même, il connaît ma maison, il a un nom, j'ai une espèce de relation affective avec. C'est extrêmement naturel et il n'est pas question de changer cet aspect-là : nous sommes empathiques vis-à-vis des autres.

Il ne faut absolument pas qu'on devienne moins empathiques, car on le serait aussi moins avec des êtres humains. Il est donc nécessaire de comprendre ce que ces systèmes font, d'obliger les constructeurs de ces systèmes à avoir un certain nombre de règles éthiques lorsqu'ils les construisent, et qu'on surveille cette relation avec les machines.

Je pense qu'il y a là un dilemme réel, qui est que, en tant qu'ingénieur, dans les sociétés, on va chercher à se rapprocher d'une imitation d'humain, sachant que la machine ne comprend rien, n'a pas d'émotion, n'a pas de sentiment, n'a pas de conscience, n'a pas d'intention propre, et c'est cela dont il faut parler. Et par contre, on va anthropomorphiser, parce que c'est notre nature.

Trench Tech : C'est très fort ce que tu dis, dans le sens où un robot n'a pas d'émotion et pas d'intention propre. C'est quelque chose qu'on a souvent tendance à lui prêter comme intention. Dans certaines écoles, la question qui se pose est : qui est le plus intelligent, la machine ou l'humain ? Ça m'interpelle un peu.

Laurence Devillers : C'est une question qui n'est pas pertinente, il ne faut absolument pas la poser comme ça, ne serait-ce qu'en terme de responsabilité. Lorsque je fais quelque chose, je suis responsable. Lorsque vous avez un chien chez vous, vous êtes responsable de votre chien. C'est un objet sensible pour la loi. Eh bien, lorsque vous utilisez un robot, vous êtes responsable, finalement, de cette interaction avec le robot. Sauf que ça n'est pas un objet neutre : il a été programmé par quelqu'un, il a appris avec des données qui viennent peut-être de vous ou d'autres. Donc, c'est cela qu'il faut surveiller.

Trench Tech : On en a de plus en plus des données, on est en train de mettre en données, littéralement, des pans entiers de nos vies quotidiennes, de nos vies réelles à tous et dans tous les échelons de la société. En parallèle de quoi, il y a une course à la puissance de calcul qui est gigantesque, avec des accélérations phénoménales, dictées par ce qu'on appelle la loi de Moore, donc, tous les deux ans, on multiplie par deux la puissance de calcul des ordinateurs. Jusqu'où tout ce progrès technique et cette documentation digitale des données vont-ils nous mener ? Est-ce que ça pourrait nous amener à l'émergence d'une conscience pour les intelligences artificielles ? Est-ce que ça pourrait les rendre tellement « intelligentes » - et je le mets entre guillemets - qu'on pourrait vraiment avoir une confusion forte avec les capacités humaines ?

[19:16]

Laurence Devillers : Je pense que c'est une fausse idée de penser que plus on a donné, puis on va créer quelque chose d'intelligent. Il y a là un paradoxe : on cherche à avoir de plus en plus, alors qu'en fait on devrait chercher à avoir des données les plus riches possibles, pas en termes de taille, mais en termes de richesse. Aussi parce que ça consomme de l'énergie, ce sera un écueil sur lequel il faut vraiment être conscient. Il ne faut pas dépenser cette énergie folle à sauver des données qui sont exactement toutes les mêmes.

Ensuite, si j'ai des données extrêmement riches, qui correspondent à une grande diversité, qu'est-ce que je fais avec une machine ? Je standardise, je crée des moyennes - j'utilise une image assez forte - donc j'élimine beaucoup d'informations. Cette idée de créer un super homme qui va au-delà de l'intelligence humaine, est-ce que ça correspond à ce que l'on en train de créer ? Je ne pense pas.

Ce qui est fondamental, c'est que ces machines n'ont pas de corps. Or notre intelligence vient aussi de beaucoup d'autres endroits que seulement de notre cerveau. Vouloir dans dix ans recopier l'intelligence des gens pour créer un cerveau artificiel est une aberration. Nous sommes cette entité duale qui correspond à une imbrication très, très fine, très, très bas niveau entre notre corps et notre cerveau. Et nous ne savons pas faire ça sur une machine. Donc le vivant n'est pas représenté tant qu'on n'aura pas du cyborg avec des cellules vivantes ; nous ne sommes pas du tout dans quelque chose qui a une conscience phénoménale, qui est capable de vivre, de ressentir ce qu'elle est en train de vivre, par des actions ou des émotions. Donc, on est vraiment à des années-lumières de ce qu'est l'humain.

Trench Tech : Mais alors où se positionnent les questions d'éthique quand on va parler de ces robots émotionnels ? Parce que c'est ça, l'objet de la suite de notre discussion.

Laurence Devillers : Elles se posent à de nombreux niveaux. Moi, je me base sur un triptyque qui est l'éducation. Il faut faire comprendre exactement ce que sont ces objets et ce qu'ils peuvent avoir comme conséquences négatives sur l'être humain : l'addiction, l'isolement, une discrimination, tout un tas de champs à expertiser sur le long terme. Et puis il faut pousser les industriels à suivre un certain nombre de normes qui permettent ensuite de mesurer des effets de cette machine dans le temps de l'usage, pas seulement lorsqu'il sort de l'usine, mais quand on l'utilise. Et puis il faut qu'il y ait des lois, c'est-à-dire une obligation en fait de suivre ces normes et standards et de vérifier le comportement des machines. Donc, il faut créer cet écosystème et c'est pour ça que je me suis engagée, comme vous l'avez dit dans ma bio, à aller vers la standardisation, à aller au-delà de la philosophie ou sociologie, autour des risques qu'amènent ces machines très performantes qui ont un pouvoir extrêmement positif pour moi - je suis vraiment technophile - mais c'est justement pour qu'on les utilise au mieux que je me penche sur les risques qui peuvent être avérés sur le court terme, sur le long terme. Et je pense que là, il faut être extrêmement vigilant.

Et ce n'est pas aux entreprises, notamment aux GAFAM, de proposer la vision de demain. C'est quelque chose qu'on doit gérer au sein d'une société, ce n'est pas non plus seulement au gouvernement, comme on le voit en Chine, de poser ses règles : c'est à la société entière de comprendre quels sont les enjeux et de se donner les moyens de surveiller ces machines.

Trench Tech : C'est ce qu'on va détailler ensemble sur les prochaines séquences. Je pense que le cadre est maintenant bien posé, mais pour l'heure, c'est le moment de passer à la rubrique de Fabienne Billat.

Chronique 1

[23:05 à 28:42] - Fabienne Billat, « Du buzz à l’influence, une simple histoire de manipulation ? »

28:44

Trench Tech : Merci, Fabienne, tâchons d'être un peu moins sous influence. Laurence, j'aimerais t'entendre sur l'un des constats qui nous a mené à créer Trench Tech. Nous pensons que les enjeux sociétaux de la tech sont trop peu présents dans le débat public et plus encore dans l'agenda politique. Nous avons connu une campagne présidentielle, suivi d'une campagne législative : les risques posés par le développement de l'IA, pour ne citer qu'eux, ont été totalement absents. Pourquoi, selon toi ?

Laurence Devillers : Merci d'insister sur ce point. J'ai écrit à ??? [29:15], à l'Élysée, avant l'élection, pour obtenir un débat dans la société. Or je pense qu'il y a non-connaissance de ces sujets de risque. C'est pour ça qu'ils n'ont pas émergé. Et les politiques ne s'intéressent qu'à ce qui peut faire débat dans la société. Tant que ça ne fait pas débat, je crois qu'on est endormi totalement dans la société : on va laisser ces données tranquillement sur les GAFAM américains, sans se poser de question, en voyant le plaisir, la satisfaction de ces objets à utiliser tous les jours.

Ces collectes de données devant notre nez, avec Amazon ou autres, ne sont pas vues comme des problèmes. Par contre, quand on demande dans Stop Covid à suivre si vous avez croisé votre voisin parce que peut-être vous l'avez contaminé, on dit : ouh là là, attention, c'est une question de liberté. C'est ce paradoxe, un manque de compréhension totale de ce qui se passe. Les politiques également.

Trench Tech : Avec des robots qui sont capables de « comprendre » - je mets des guillemets - les émotions de l'humain, on peut penser que, finalement, l'homme est à peu près complètement modélisable, c'est-à-dire objectivable au sens de l'objet, par des caractéristiques dénombrables et standardisables, comme le langage, le paralangage, etc. Et finalement devant ces robots émotionnels, ce constat-là fait que ça nous rend, nous humains, plus objet que sujet. En soi, c'est un sujet éminemment politique.

Laurence Devillers : C'est un sujet assez peu connu, mais aussi très utilisé par les gouvernements qui ont tous des commissions sur le nudge, par exemple. Cette dénomination est un concept qui vient de Richard Thaler [11], prix Nobel en économie en 2017, qui explique que si je connais les biais cognitifs des personnes, je peux facilement les manipuler. Ces biais cognitifs, c'est ce qu'on va aller détecter automatiquement, par exemple, avec des systèmes qui repèrent les émotions ressenties dans telles ou telles situations et qui vont permettre, soit de capturer l'attention, pour un projet market, soit une manipulation politique, pour faire changer d'avis.

Il y a en fait un sujet à la fois proche de l'individu et un sujet de société. Et ce sujet est extrêmement compliqué. C'est sur ce sujet que j'essaye de pousser des normes, sur ce qu'on appelle le nudge digital, l'incitation à changer d'avis grâce à des machines : c'est l'objet de tous les travaux que nous sommes en train de mener. Ils sont effectivement assez méconnus. Alors, les AI Act [12], cette volonté de créer une régulation des lois qui encadreraient l'IA au niveau européen, parlent de sujets comme cela. Mais en parlant de manipulation subliminale, en disant : il faut interdire la manipulation subliminale, c'est à dire non consciente. Mais je pense qu'il y a à la fois la définition ??? [32:15] consciente et non consciente dans l'utilisation à plus long terme de ces machines. Moi je parle de co-évolution humain-machine, et ça c'est à surveiller, et là, personne ne s'en préoccupe. Et quand j'en parle aux politiques, on me dit : ce n'est pas un sujet.

Donc cette ambiguïté est quelque chose qu'on veut absolument lever dans ce groupe qui progresse sur les régulations.

Trench Tech : Tu as déjà des exemples de problèmes, de cette ambiguïté mal vécue ?

Laurence Devillers : Oui. Je dirais qu'il y a eu tous ces problèmes sur Cambridge Analytica [13]. On a vu aussi Facebook - à l'époque, ça n'était pas encore Meta - travailler sur la manipulation additionnelle et démontrer que lorsqu'on change les propos des gens pour être plus positif ou plus négatif, on va changer la façon dont on perçoit les choses. En recherche, par exemple, vous faites un test où on vous demande si vous êtes heureux ou pas, on vous fait prononcer des phases, puis on modifie sans que vous le sachiez le timbre de la voix de la phrase que vous avez prononcé, en lui faisant atteindre un timbre plus joyeux : et bien vous allez vous sentir plus joyeux.

Trench Tech : Et plus on va généraliser les IA, qui sont déjà omniprésentes dans ce qu'on manipule. Tu as cité Facebook, que beaucoup d'entre nous utilisent au quotidien, mais Google et les smartphones embarquent tous des IA, et du coup, il y aurait un risque manipulatoire qui pourrait être à grande échelle.

Laurence Devillers : En fait le nudge est quand même fait, normalement, pour le bien-être de la population. Par exemple, on va utiliser ces théories de nudge pour éviter d'être en addiction, pour des pathologies. C'est important aussi de comprendre ce côté un peu paternaliste où quelqu'un décide d'aller dans un sens ou dans un autre. Donc il faut vraiment surveiller ces objets.

Duolingo, par exemple, pour apprendre l'anglais : il va vous inciter à faire des choses. Moi, j'ai des projets en ce moment en éducation, où on travaille sur des nudges. Comment faire pour capturer l'attention d'un enfant pour le pousser à mieux prononcer les phrases en anglais, à répéter des choses, pour le garder en attention et trouver comment on peut l'aider à mieux apprendre. Il y a des intérêts très positifs et il y a aussi une forte propension à avoir des conséquences de manipulation. Il faut étudier dans quelle mesure il y a des risques pour la population et rendre cela visible, compréhensible par tout le monde.

Trench Tech : Il y a finalement un vrai axe sur la finalité, un peu comme pour tout : pourquoi est-ce qu'on le fait ?

Laurence Devillers : Pas seulement. Même si c'est avec une finalité positive, on peut très bien avoir des conséquences qu'on n'a pas anticipé.

Trench Tech : L'important c'est la finalité bien exprimée.

Laurence Devillers : Oui, et la surveillance que l'objet final qu'on cherchait est bien celui...

Trench Tech : Oui, car tu peux dévier...

Laurence Devillers : En fait, on peut créer quelque chose de très éthique, de très neutre, qui aura une incidence en fait négative à long terme qu'on n'avait pas anticipé.

Je reviens sur les réseaux sociaux.Il faudrait absolument demander, c'est une nécessité, que lorsque je retweete quelque chose, je dise pourquoi. Il faut que j'aie une possibilité, dans ces messages, dans ces tweets qui sont extrêmement pauvres, d'expliquer d'où vient la source, pourquoi je dis cela. Tant qu'on n'aura pas cette capacité à élaborer le raisonnement qui est derrière, on sera sur cette espèce de grosse machine qui pollue et qui envoie la même chose un peu partout sans que quelqu'un qui contrôle.

Trench Tech : Il y a un point aussi sur la partie normalisation, c'est un peu un précepte que tu essayes de porter au sein de l'Europe. Mais on voit bien que les cultures sont différentes, l'appétence est différente en fonction des différentes nationalités. Comment est-ce que cette pratique et cette différence sont prises en considération au niveau des autres États et des autres pays ?

Laurence Devillers : On sait très bien qu'en Chine, par exemple, le gouvernement veut imposer ses réglementations. Il y a une manipulation forte pour suivre les lignes du Parti, on en est à l'extrême de la surveillance. De l'autre côté, on a la liberté totale : aux États-Unis, chacun fait ce qu'il veut. De plus en plus on ira quand même vers des régulations.

Je pense qu'il faut faire prendre conscience aux gens que c'est leurs enfants qui vont utiliser ce système. Que lorsqu'on est en train de manipuler pour faire qu'un enfant reste dans son jeu dans le métavers, et bien on l'empêche d'apprendre ??? [36:11] différent. Je pense qu'il y a une responsabilité des humains, il faut vraiment le faire comprendre, que l'on soit consommateur ou que l'on soit ingénieur, dans une société en train de créer ces systèmes.

Trench Tech : C'est bien de cela qu'on parle dans cette séquence. Effectivement, quelle prise de conscience grand public et politique ? Pour résumer, tu nous dis que le grand public n'a pas vraiment pris conscience du truc. Sauf quand c'est le gouvernement qui propose quelque chose : là tout le monde pousse des cris d'orfraie. Quand ce sont les GAFAM qui viennent nous manger la tête et notre temps de cerveau disponible, là, ça n'étonne plus personne. Tu nous l'as dit tout à l'heure, tu as sorti un manifeste qui s'appelait « Vague IA à l'Élysée », au moment de la présidentielle, justement pour sensibiliser les électeurs et probablement aussi les candidats. Quels ont été les retours ?

Laurence Devillers : Très peu de retours. J'ai entendu des choses, genre « le nudge n'existe pas dans les objets digitaux», alors que j'en ai énormément de preuves.

Trench Tech : Qui disais ça ? Plutôt des politiques ?

Laurence Devillers : Oui, oui, certains politiques disaient que ça n'est pas un sujet. Je pense qu'il y a une méprise par non-connaissance : il y a très peu de scientifiques, d'experts en IA au sein du gouvernement à l'heure actuelle. Nous sommes donc devant des personnes qui sont bienveillantes - je n'en doute pas - mais qui n'ont pas suffisamment de compréhension des mécanismes sous-jacents, C'est comme un garagiste : si vous n'ouvrez pas le capot pour aller voir comment la mécanique marche, vous ne pouvez pas réparer.

Trench Tech : C'est la fameuse déconnexion des élites dont on entend parler ? Comment ça se fait ? Que eux ne soient pas compétents, mais ils sont censés s'entourer, ces gens-là. On citait tout à l'heure des comités d'éthique, etc., le conseil national du numérique et compagnie. Comment expliquer qu'ils ne soient pas informés ? Est-ce que ça n'est pas le fait aussi que tant qu'on n'est pas dans le mur, on ne prend pas vraiment d'avance, un peu comme la crise climatique...

Laurence Devillers : Voilà. Il y a en fait cette histoire de temporalité : tout le monde imagine que c'est une vision après. On n'anticipe pas, on ne prévoit pas ce qui va se passer, on laisse faire, et après, c'est tentaculaire, comme les réseaux sociaux et les fake news, on dit ohlala, quelle horreur, comment on va faire pour faire cela. Si on s'était posé le problème avant en disant « éthique by design », c'est à dire que, quand je designe ces machines pour des sujets dans la société, je me préoccupe des conséquences. Je ne vais pas pouvoir tout anticiper, mais au moins je mets suffisamment d'informations accessibles afin de pouvoir contrôler ce qui est en train de se passer. Je pense que c'est le fait de penser aux conséquences : en même temps qu'on crée des experts en technologies de plus en plus complexes et de plus en plus d'experts, il faut former les gens pour avoir des experts pour cela, il faut absolument que ces comités soient écoutés. Nous avons des comités-vitrine, excusez-moi de le dire.

Trench Tech : Des comités-vitrine... Justement sur cette partie régulation, sur les normes, sur tout ce que ces comités peuvent apporter de connaissances, d'informations au grand public et aux politiques, c'est ce que l'on va aborder dans la toute prochaine séquence, mais pour le moment, nous accueillons Laurent Guérin pour partager avec lui l'un de ses nombreux moments d'égarement.

Chronique 2

[39:17 à 44:14] - Laurent Guérin « Web3 : La chasse aux licornes est ouverte »

44:15

Revenons à notre entretien avec Laurence. En lisant quelques-unes de tes nombreuses interviews, j'ai relevé ces quelques mots, je cite : « Le levier économique ne peut pas être le seul moteur du développement de ces technologies. Et pourtant, ce levier économique invoque la croissance et la création d'emplois, sans pour autant proposer des réflexions plus profondes sur des enjeux éthiques et environnementaux. » Pour continuer de te citer : « il ne s'agit pas de freiner les projets, mais de voir comment on y intègre des critères responsables et éthiques. Il faut débattre de ces questions. »

Alors, je te pose la première question : il nous faudrait commencer par quoi, pour mettre ou remettre les enjeux de l'IA et de la robotique au centre des débats publics ?

Laurence Devillers : Je pense qu'il faut parler d'éducation. On va avoir une déferlante sur notre éducation avec des outils de métavers, il y a des comités d'éthique qui sont en train de se monter, on m'a même demandé d'y participer et je pense que là, voir nos enfants, demain, dans un univers qui peut leur apprendre effectivement à mieux aimer les mathématiques ou à être meilleur en informatique ou à comprendre la philosophe de Socrate, c'est intéressant, mais en même temps, il faut comprendre aussi qu'il y a des risques et que ces risques, il faut les maîtriser. Vous en voyez à but d'éducation, parmi les licornes que vous avez énoncées tout à l'heure ? Non, on parle de TikTok, on parle de NFT, dans les objectifs, autour des dépenses d'argent pour plutôt du divertissement, et je pense que c'est là où il y a un énorme travail à faire de gouvernance, et je ne vois pas qui gouverne cela, à part les grandes entreprises qui décident de mettre beaucoup d'argent sur ce qui va être vendu à tout le monde. Nous sommes dans les jeux du cirque : on veut occuper la plupart des citoyens à ce genre de bêtises, et on oublie que, dans la santé, dans l'éducation, il faut absolument trouver comment, demain, on peut aller plus loin pour l'humain. Et là, il y a des facteurs économiques qu'on devrait développer plus fortement.

[46:13]

Trench Tech : Mais c'est là où tu mets bien le doigt, parce qu'effectivement, actuellement, les principales puissances technologiques et donc économiques sont étrangères. On a parlé de TikTok, on peut reparler aussi de tous les Big Tech. Comment l'Europe compte-t-elle s'imposer aujourd'hui dans cet écosystème-là ?

Laurence Devillers : Effectivement, quand on parle de licorne, en ce moment, avec les montants que vous avez donnés, il faut savoir que ce sont des montants étrangers, même lorsque ce sont des licornes françaises. On devrait dévoiler en fait d'où viennent les différentes prises de risque. On ne risque pas assez en Europe pour l'instant pour aller vers des entreprises de ce niveau-là. Et moi je voudrais qu'on soit conscient de cela. Sur la cybersécurité, on a commencé à faire quelque chose, il y a un campus cyber ; sur la santé, il y a un campus santé... Moi je réclame un campus green dans lequel on mette aussi énormément d'efforts, qui serait utile pour beaucoup d'autres pays que les pays européens, avec un marché énorme à prendre, il faut le prendre. Donc, il faut créer un métavers européen avec les capacités d'emmener les gens co-travailler avec des mesures sur l'environnement.

Il y a plein d'idées autour de l'éducation, la santé, l'environnement. Il faut absolument s'accaparer, avec nos valeurs. Et je pense que, en allant délivrer ce genre de choses, le PMIA dont vous avez parlé tout à l'heure, c'est 25 démocraties dont le Japon, Singapour, l'Inde, etc. Et les pays autour, qui ne sont ni la Chine, ni les États-Unis, vont consommer demain ce genre de techno. Ils sont en train aussi de les faire. Donc, il faut créer des univers au-delà de l'Europe, peut-être plus largement, pour trouver les moyens d'être représentés avec nos valeurs dans ce système.

Trench Tech : Tu le dis toi-même, des idées on n'en manque pas. Ça a d'ailleurs donné un très bon slogan. On ne manque pas d'idées ni de talent, tu le dis toi-même, on manque plutôt de ressources, de prise de risques et donc de moyens, d'argent, disons les choses.

Laurence Devillers : Oui, c'est clair.

Trench Tech : Et d'ailleurs, c'est un phénomène que la science et la recherche fondamentale connaissent très bien. J'ai évoqué tout à l'heure la fuite des cerveaux : pourquoi tous nos grands chercheurs en IA, qui sont parmi les meilleurs dans le monde, sont partis bosser pour les GAFAM ?

Laurence Devillers : Parce qu'il y a une manne financière énorme.On a finalement des très bons chercheurs, mais qui iront tous à l'étranger, c'est évident. Si on ne revalorise pas assez ce travail, si on ne met pas l'accent sur l'importance de revaloriser aussi les professeurs en éducation, on va baisser en niveau d'intelligence et en talent, c'est évident.

Trench Tech : Du coup, c'est quoi? C'est une décision politique et des financements publics ? Ou c'est une prise de risque privée, avec des entrepreneurs français, européens, qui comprennent enfin qu'il y a du très, très gros business à faire et qui mettent ??? [48:57] sur la table ?

Laurence Devillers : Je pense que c'est une alliance privé public qu'il faut faire. Il ne faut absolument pas que ça soit juste le gouvernement qui soit à la tête de ça.

Trench Tech : Et on est où ? C'est en discussion ?

Laurence Devillers : Ça commence pour le campus cyber. C'est vraiment une alliance privé public, avec plus d'action du privé que du public. Ces différents pôles qu'on veut monter, sur la santé également, c'est extrêmement important d'aller chercher les talents industriels, et qu'ils risquent effectivement et qu'on crée de la valeur, en Europe, sur ces sujets.

Trench Tech : Les chercheurs, dont tu fais partie, avaient autrefois une avance considérable sur les entreprises et même sur l'art, finalement, on l'a dit en intro : on avait pioché ce qui se passait dans les laboratoires. Aujourd'hui, les chercheurs n'ont plus que trois à cinq ans d'avance sur les industriels, notamment à cause d'un certain nombre de dispositifs qui financent les études de chercheurs en herbe, je dirais, dans les entreprises. Et tous ou presque vont bosser plutôt pour les GAFAM. Est-ce que ça ne commence pas là, finalement, sur le financement de la recherche ?

Laurence Devillers : C'est évident. La recherche en France était extrêmement en avance, en avance aussi dans la santé, pas qu'en physique ou en informatique, dans d'autres domaines, et je trouve qu'on a perdu énormément. On est en train de perdre peut-être le CNRS. Je ne sais pas si on va réussir à sauver la recherche fondamentale. Quand j'ai dit à trois, cinq ans, c'est sur la techno. On est très en avance dans d'autres domaines à plus long terme, il faut préserver cette recherche fondamentale à long terme et investir absolument en recherche : c'est nécessaire.

Sur la technologie qui est une recherche à plus court terme, on voit arriver galopant des sociétés qui font de la recherche. Mais elles ne font pas de la recherche de la même façon, et je pense qu'on va arriver vers des choses qui sont de la répétition. On voit surtout utiliser beaucoup plus de données avec les mêmes algorithmes, qui viennent tous de laboratoires, que ce soit en Allemagne, en Italie, en France. Et des découvertes fondamentales, il n'y en a pas tant que ça. Il y a surtout « j'ai beaucoup plus de puissance de calcul, je peux agréger plus de données et j'ai une force de frappe ouvrière, c'est à dire d'ingénieurs qui sont là et sont capables de travailler tous en même temps ». Mais ça n'est pas ça, le talent. C'est la sérendipité aussi, et c'est aller plus loin. Et je pense qu'on se trompe lorsqu'on pense que le privé peut aller beaucoup plus loin. Et en plus, ce privé, en ce moment, récupère tous les talents qui étaient en recherche fondamentale.

Donc, il y a besoin d'équilibrer.

Trench Tech : Finalement, tu me donnes déjà quelques pistes pour qu'on arrive à mieux reprendre la main, peut-être faire entendre une voix plus éthique dans tous ces sujets de la robotique et de l'IA. Tu as déjà donné des pistes autour du réglementaire, on en a parlé avec le AI Act européen qui est en train d'arriver et qu'on a déjà évoqué. Tu nous as donné une piste sur le fait qu'il faille beaucoup plus investir dans cette technologie, renforcer la recherche aussi. Mais on sait que tu portes un autre combat, qui est celui autour des normes. Peux-tu nous rappeler ce qu'est une norme ? Et que pourrait être une norme en IA ?

Laurence Devillers : Il y aura plusieurs normes en IA : par exemple sur les risques, sur le traitement automatique de la langue, Ce sont en fait des définitions extrêmement précises des objets qu'on manipule. Et ensuite un encadrement de l'élaboration de ces objets, avec des mesures qu'on peut demander aux industriels sur la façon dont l'objet finalement réagit dans une interaction. Ça peut être , par exemple, sur un chatbot, de vérifier que le chatbot ne vous nudge pas. Et s'il a la capacité de nudger, qu'il n'y a pas des incidences négatives, des suicides chez des jeunes ou d'autres aspects extrêmement négatifs qu'on pourrait imaginer. Je fais exprès d'aller assez loin. Il faut se représenter ça comme pour un médicament. Prenons cette métaphore : lorsque j'achète un médicament, j'ai une posologie, et puis j'ai des effets secondaires, d'accord. Et donc, si je vois un effet secondaire, je réagis, et puis je peux aller vérifier ce qui se passe dans l'usage de ce médicament, est-ce qu'il y a des effets secondaires indésirables sur le cardiaque, sur autre chose, l'arrivée de cancer, etc.

Eh bien, ces objets ont potentiellement des conséquences et vont engendrer des risques. Il est nécessaire de les encadrer, de surveiller ce qui va se passer et de collecter auprès des personnes qui les utilisent les effets que l'on peut voir, et de raisonner pour améliorer le produit, voire l'enlever du marché, comme on fait avec un médicament.

Trench Tech : Et quels seraient les avantages d'avoir défini des normes en plus d'avoir des règlements ? On le sait, en Europe, on est plutôt bien pourvus en la matière de règlements.

Laurence Devillers : Pour mettre les règlements en place, il y a des zones de gris, si vous voulez. Si on dit : j'interdis la manipulation subliminale, ça s'arrête où, le subliminal ? Ça dépend bien de l'individu, il est plus ou moins conscient de ce qui est en train de se passer. Donc, là, je dirais qu'il faut une norme à côté, qui encadre de façon plus pragmatique, au plus près de la technologie, pour qu'on puisse avoir des mesures sur les effets de la technologie quand on l'utilise, et quand on l'utilise en continu. Ça demande de tracer des choses et de vérifier des choses.

Trench Tech : Je vous avais entendu expliquer aussi qu'une grande différence entre un règlement et une norme, c'est que le règlement est amené par un État ou un groupe d'États, comme l'Europe, et s'impose à tous. Une norme, ce sont des industriels qui se mettent ensemble pour définir comment ils vont travailler. Donc, quelque part, c'est aussi très riche, parce que c'est eux qui se donnent un certain nombre de règles.

Laurence Devillers : Voilà. Et les normes, en fait, il peut y en avoir qui ne sont jamais utilisées. Une norme a une valeur, effectivement, non seulement elle est créée par un ensemble d'industriels et de chercheurs et de personnes de gouvernements, mais c'est un ensemble de personnes qui réfléchissent à comment on pourrait normer une certaine technologie, et après elle est utilisée ou pas. Et c'est le nombre de personnes qui vont l'utiliser qui va finalement décider de l'importance de cette norme, et c'est pour aider les industriels finalement à développer leur projet. Donc une manne économique derrière, parce que ça veut dire que les gens auront confiance en ces technologies et seront à même de les utiliser beaucoup plus que d'autres technologies qui vont arriver de Chine sans aucun garde-fou, ou des États-unis, et c'est à cela qu'il faut penser demain. On a besoin de développer ces systèmes.

Trench Tech : J'ai une dernière question, qui est un peu provoqu', Laurence. Est-ce que ce n'est pas un paradoxe de vouloir confier à une poignée de personnes, notamment des industriels, la responsabilité de fixer des normes, ce qui revient à peu près à la même chose que de laisser une poignée d'entrepreneurs Big Tech faire ce qu'ils veulent, et quelque part, imposer des normes qui n'en portent pas le nom ?

Laurence Devillers : Non, parce qu'en fait quand on crée un écosystème comme cela, il y a des mesures, il y aura aussi des comités d'éthique qui donneront des avis sur ces mesures. On ne peut pas tout rationaliser, on ne peut pas tout transformer en un objet quantifié et donc on a la nécessité de se doter, au niveau international, de comités d'éthique capables de raisonner sur des mesures qu'on pourrait faire grâce à ces avancées de régulation sur des produits industriels. Donc, on a besoin des deux. Il y aura des humains dans la boucle, experts et, en même temps, de plus en plus de normes que les industriels vont mettre en oeuvre. Et on vérifiera lorsque c'est nécessaire. Et les citoyens ont aussi leur rôle à jouer. C'est à eux aussi de faire remonter que tel ou tel système présente des problèmes, a eu tel impact. Et donc, à partir de tous ces éléments, la nécessité de réguler et de vérifier ce que fait un industriel, des citoyens qui disent « ça ne va pas, ce système-là a des effets négatifs sur mes enfants », ou à l'école, ou je ne sais quoi. C'est grâce à cela que l'on pourra mettre en œuvre des comités d'éthique qui vont aussi vérifier ce qui se passe et donner un avis, de retirer du marché certaines choses ou de demander de modifier les algorithmes dans ces systèmes où les données telles quelles sont utilisées. C'est l'éthique by design.

Trench Tech : Éthique by design. Merci beaucoup, Laurence.

Laurence Devillers : Je rajouterai juste un mot. Il faut absolument éduquer sur ces sujets. Je suis présidente de la fondation Blaise Pascal, comme vous l'avez dit, pour aller prêcher dans ce sens-là et faire que les enfants de demain - puisque l'école ne prend pas encore cela en charge - soient à même de comprendre qu'ils peuvent être en addiction dans un jeu, dépenser beaucoup trop, et qu'ils ne sont pas conscients de ce que c'est que la vie privée ou de ce qu'il faut garder encore comme idée de la vie privée devant une machine.

C'est important d'aller sur ces sujets dans l'éducation.

Trench Tech : Et tu parles à nos cœurs de père, directement. Une fois de plus, c'est coup double, c'est-à-dire que c'est les normes pour protéger les consommateurs et citoyens, comme il y a des normes sur les jouets pour les enfants, mais c'est aussi de la pédagogie, et c'est aussi de l'accompagnement et de la transmission de la part des chercheurs, des citoyens comme nous. Mais voilà, c'est le job aussi de Trench Tech.

Laurence Devillers : Et c'est en intelligence collective.

Trench Tech : L'intelligence collective, l'information, et nous serons bons. Merci beaucoup, Laurence, d'avoir partagé cette heure avec nous. Rappelons le titre de ton dernier livre : Les robots émotionnels : santé, surveillance, sexualité. Et l'éthique dans tout ça ?, paru aux éditions de l'Observatoire. À bientôt, Laurence, on te raccompagne.

[58:09 à 1:08:34] Debriefing de l'interview

Par les 3 journalistes de Trench Tech = non transcrit.