Différences entre les versions de « IA & Robots : il faut voir comme ils nous parlent »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 35 : Ligne 35 :
  
 
==Transcription==
 
==Transcription==
[Dialogue du film
+
[Dialogue du film « Ex Machina », d'Alex Garland.<br>
- La programmer pour qu'elle flirte avec moi? si c'était le cas, ce serait de la triche.  
+
- La programmer pour qu'elle flirte avec moi? si c'était le cas, ce serait de la triche.<br>
- Est-ce que tu l'as programmée pour que je lui plaise, oui ou non ?  
+
- Est-ce que tu l'as programmée pour que je lui plaise, oui ou non ? <br>
- Je l'ai programmée pour être hétérosexuel, ainsi que tu as été programmé pour être hétérosexuel.  
+
- Je l'ai programmée pour être hétérosexuel, ainsi que tu as été programmé pour être hétérosexuel. <br>
- Personne ne m'a programmé pour être hétéro. C'est un choix délibéré, je t'en prie.
+
- Personne ne m'a programmé pour être hétéro. C'est un choix délibéré, je t'en prie.<br>
 
- Bien sûr que tu as été programmé, par nature ou culture, ou bien les deux, et, pour être franc, tu commences à m'énerver, parce que là, c'est ton insécurité que j'entends, c'est pas pour nous.
 
- Bien sûr que tu as été programmé, par nature ou culture, ou bien les deux, et, pour être franc, tu commences à m'énerver, parce que là, c'est ton insécurité que j'entends, c'est pas pour nous.
  
Frenchtech esprit critique, cortex critique.
+
Frenchtech, esprit critique, cortex critique.
 
Bienvenue dans ce nouvel épisode de the frenchtech. Vous voulez exercer votre esprit critique pour une taille critique, vous êtes au bon endroit. French tech, c'est le talk-show qui décortique les impacts de la tech sur notre société. Dans ex machina, film d'alex garland, en deux mille quatorze, nathan, patron de blue book, sorte d'hybride entre hulkenberg et sergueï.
 
Bienvenue dans ce nouvel épisode de the frenchtech. Vous voulez exercer votre esprit critique pour une taille critique, vous êtes au bon endroit. French tech, c'est le talk-show qui décortique les impacts de la tech sur notre société. Dans ex machina, film d'alex garland, en deux mille quatorze, nathan, patron de blue book, sorte d'hybride entre hulkenberg et sergueï.
 
Breen est le génial créateur d'ava unia, prenant les traits d'un robot féminin aussi séduisant qu'inquiétant. Celui qui tient ces propos quand son employé, caleb, lui demande s'il a programmé pour le séduire. Serait-ce de la triche? au fond, si nous sommes nous-mêmes, en tant qu'humain déterminé par un certain nombre de paramètres,
 
Breen est le génial créateur d'ava unia, prenant les traits d'un robot féminin aussi séduisant qu'inquiétant. Celui qui tient ces propos quand son employé, caleb, lui demande s'il a programmé pour le séduire. Serait-ce de la triche? au fond, si nous sommes nous-mêmes, en tant qu'humain déterminé par un certain nombre de paramètres,

Version du 31 octobre 2022 à 17:46


Titre : IA & Robots : il faut voir comme ils nous parlent

Intervenante : Laurence Devillers

Lieu : Interview sur Trench Tech

Date : 6 octobre 2022

Durée : 1h08

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir. Sa photo sur Wikipedia ? https://fr.wikipedia.org/wiki/Laurence_Devillers

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s, mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit ED

Description

L'invitée de Trench Tech : Laurence Devillers, directrice de recherche au CNRS et auteure de « Des robots et des hommes ».

D’Internet à nos cuisines, les robots émotionnels sont omniprésents dans notre quotidien. Boostés à l’intelligence artificielle, ils posent de multiples questions éthiques. Au fil de nos échanges avec Laurence, nous explorons ces questions :

  • Intelligence artificielle, robots émotionnels : de quoi parle-t-on exactement ?
  • Éthique : quelle prise de conscience du grand public et des politiques ?
  • Réglementation, normes : quelles solutions ?

Les deux chroniques inclues dans l'émission, de Fabienne Billat sur « Du buzz à l’influence, une simple histoire de manipulation ? » et de Laurent Guérin « Web3 : La chasse aux licornes est ouverte », n'ont pas été retranscrites. Leur emplacement est indiqué par leur timeline respective.

Transcription

[Dialogue du film « Ex Machina », d'Alex Garland.
- La programmer pour qu'elle flirte avec moi? si c'était le cas, ce serait de la triche.
- Est-ce que tu l'as programmée pour que je lui plaise, oui ou non ?
- Je l'ai programmée pour être hétérosexuel, ainsi que tu as été programmé pour être hétérosexuel.
- Personne ne m'a programmé pour être hétéro. C'est un choix délibéré, je t'en prie.
- Bien sûr que tu as été programmé, par nature ou culture, ou bien les deux, et, pour être franc, tu commences à m'énerver, parce que là, c'est ton insécurité que j'entends, c'est pas pour nous.

Frenchtech, esprit critique, cortex critique. Bienvenue dans ce nouvel épisode de the frenchtech. Vous voulez exercer votre esprit critique pour une taille critique, vous êtes au bon endroit. French tech, c'est le talk-show qui décortique les impacts de la tech sur notre société. Dans ex machina, film d'alex garland, en deux mille quatorze, nathan, patron de blue book, sorte d'hybride entre hulkenberg et sergueï. Breen est le génial créateur d'ava unia, prenant les traits d'un robot féminin aussi séduisant qu'inquiétant. Celui qui tient ces propos quand son employé, caleb, lui demande s'il a programmé pour le séduire. Serait-ce de la triche? au fond, si nous sommes nous-mêmes, en tant qu'humain déterminé par un certain nombre de paramètres, Issu de notre éducation, de notre culture, nos expériences, etc. Alors en quoi les modéliser afin de mieux nous comprendre et, in fine, nous offrir le bon produit ou la bonne expérience utilisateur serait de la triche. Hier, quand j'utilisais un mixeur pour me préparer un jus, j'avais conscience de faire appel à une machine dont la seule vocation était de me servir. Un simple objet capable d'automatiser une tâche physique pénible, quoi? bref, j'avais conscience de faire appel à un outil, mais prochainement, avec les robots dits émotionnels. Aurais-je encore conçu. Science de ne faire appel qu'à une machine. Aurons-nous encore parlé de machines d'ailleurs? aurais-je encore conscience de ce qui nous différencie ou aurais-je l'impression que cet autre fait de silicium et de silicone possède sa propre conscience, comme certains chercheurs et patrons de big tech le voudrait? Demain, quand mon mixeur sentira, à mon humeur matinale, qu'il faut me servir un jus plus réconfortant cuillère et rajoutera un peu de persil parce que ma smart watch lui aura capté que je manque de fer en ce moment. Lui serais-je reconnaissant, comme envers une barista prévenante et doué d'empathie. Et si, en plus, mon mixeur ressemble à avant. Il y a de quoi nager dans le bonheur. Non, dit autrement. Notre rapport à la machine est-il en train de changer? Jusqu'où et avec quelles conséquences sur notre psychologie et nos rapports aux autres humains, car lorsque je préférerais mon robot mixeur émotionnel à ma barista du coin, cela en dira long sur nos relations interpersonnelles. Moi et tout ça, c'est du pipeau, en êtes-vous, bien sûr, demander son chemin, la météo ou le casting de smash. China a un assistant vocal, comme aussi naturellement qu'on le demanderait à un copain qui l'aurait imaginé crédible au début de ce siècle. Enfin, c'est un panneau marketing qui puise ses références dans la s f. Que les big tech ont l'art et la manière de nous faire prendre des vessies pour des lanternes connectées à grand renfort de storytelling de nogent et autres techniques d'influence. Mais là où autrefois les auteurs s'inspirer des travaux de recherche en cours auquel peu de personnes avaient accès, aujourd'hui ce sont les chercheurs qui s'inspirent de la science-fiction. Pourquoi as-tu créé ava? demande caleb à nathan, qui lui répond du tac au tac. C'est une question étrange. Tu ne le ferais pas toi, si tu le pouvais. Et voilà la grande question éthique: pouvons-nous, au sens moral, faire quelque chose? parce que nous pouvons le faire au sens technique, que l'on en ait la compétence, les moyens ou simplement l'occasion. C'est ce que nous allons explorer dans cet épisode. Mais avant de lancer la grande interview avec laurence devillers, c'est l'heure du warm-up avec mike tyson. Maud et moi-même pour vous servir. State of fighter pour pathétique. C'est l'unique. Salut, cyril, c'est cool de se retrouver pour ce nouvel épisode. Salut. Bonjour à tous, comment ça va? Écoute, moi j'étais un peu malade sur toute la semaine, mais aujourd'hui, c'est parce qu'on vient. Vous en parlez. On est sur le point. Santé de la chaussée. Puis on est sur les émotions aussi. Donc, ça tombe bien. Exactement là, c'est la grande forme. Je suis ravie qu'on reçoive laurence devillers. Qui me passionne, que moi, je suis de longue date sur sur ces travaux. Donc, un vrai plaisir d'avoir l'occasion d'échanger avec elle aujourd'hui. Et on va parler en plus d'un, d'un domaine passionnant qui est celui de la robotique de l'ia et des robots émotionnels. Globalement, c'est un sujet qui est très vaste. On voit qu'il est largement aussi repris. Dans les cultures hobbies. Populaire, pardon, et cinématographique en principal. Ça fait longtemps qu'on en parle, ça fait longtemps qu'on a des choses autour de tout ça. On parle plus des séries type westworld, où on parle plus non plus de nombre de films, dont l'ia et d'autres, j'en passe, et des meilleurs. Qui nous parle de tout ça et de la façon dont l'émotion joue un rôle très important dans notre rapport à la machine? oui, et c'est d'autant plus un un vieux sujet que l'intelligence artificielle, ça ne date pas d'hier. Ça a débuté il y a très Très, très longtemps. Alors, chacun sait maintenant, avec la machine de turing, que c'est un peu les prémices des premiers algorithmes, etc. Le fameux test de turing, on en reparlera peut-être tout à l'heure, puisque certains disent que il est passé déjà depuis très longtemps finalement. Il y a eu l'hiver de l'ia où, finalement, il n'y avait pas suffisamment de data, il y avait pas suffisamment de puissance de calcul. Donc, il y a quand même des gens qui ont lutté dans cet hiver, notamment, je pense aux français yann le cun, qui est bien connu et qui, finalement, est devenu un des big boss de l'intelligence artificielle à travers le monde. D'ailleurs, ça sera intéressant d'interroger laurence parce que, en gros, à chaque fois qu'on voit qu'il y a un big boss, Chez big tech de l'ia. C'est un français. Interrogé sur pourquoi tous nos cerveaux fuites comme ça. Mais voilà, c'est un vieux sujet féculent. Pas tous quand même, mais c'est t'as raison. Il y a un sujet. Ce qui est ce que je trouve chouette. J'ai fait un peu de recherche sur tous ces domaines là, les robots émotionnels. Finalement, on va venir mixer deux choses de deux domaines qui sont au départ assez différents. La robotique, c'est vraiment le monde de la mécanique, et puis tout le domaine de l'ia. Effectivement, ça remonte pas à hier. Quand même. Le terme robot- je sais pas si vous le savez, il est apparu dans les années vingt- était dans une pièce. De théâtre tchèque. C'est totalement inattendu. Moi je pensais même que c'était un terme en fait encore plus ancien. Date date de mille neuf cent vingt pour être précis, et en deux mille vingt, on se retrouve avec neuf millions de robots sur terre. On se retrouver, puisque en enregistrant en deux mille vingt deux, il y en a certainement encore encore plus de neuf millions. Ça commence à faire beaucoup. Mais si on veut continuer dans les pas, Page historique, finalement, les premiers objets animés, des êtres même animés façon marionnettes. C'était en français le système vaucanson. Tout ça va chercher très, très loin le mythe du golem dans la culture hébraïque, qui a donné après le mythe de frankenstein et qu'on retrouve finalement dans tous les films qu'on a, qu'on a cité, c'est-à-dire l'homme démiurge qui crée un objet, enfin qui qui a sa créature, qui finit par le dépasser. Tout ça, ça vient convoquer une culture populaire qui fait que encore. Or, aujourd'hui, quand on parle d'ia, quand on parle de robot, en tout cas dans notre culture occidentale, on en a peur là où, dans d'autres cultures, on le verra peut-être tout à l'heure d'ailleurs. On n'a pas du tout le même rapport, si c'est cette quête de vouloir avoir un autre soi. Robotisé et au lieu d'avoir l'individu, et ce qu'on devient de plus en plus- et on va sortir des clichés- de plus en plus égoïste, qu'on a besoin d'avoir un autre qui soit pas humain, ou est-ce qu'on se sent si seul qu'il nous faut un accompagnement? en parlant de solitude? J'avais travaillé dans dans des maisons de retraite et il avait mis en place, justement, des robots pour aider les personnes âgées. On peut trouver ça complètement utopique et complètement ridicule. Chose curieuse, c'est que les personnes âgées commençaient à s'y attacher. Ça faisait une présence, alors, même s'ils étaient robotisés. Vraiment, à l'ancienne, c'est moi, ça m'a vraiment interloqué de savoir que même pour les personnes âgées, c'était une présence et une présence intéressante. Il y a quelque chose autour de de la robotique, de cette présence justement, qui nous fait revenir peut-être un peu moins seul, peut-être. Il y a un pays qu'il faut suivre de très près, sûre, sur tous ces sujets-là, c'est le japon, qui a beaucoup développé, effectivement, les robots émotionnels pour assister les personnes âgées, pour accompagner les enfants, pour accompagner à chaque, à chaque moment de la vie. Alors qu'au japon, il y a vingt fois plus de robots que en au royaume-uni. J'ai trouvé ce chiffre là. J'aurais adoré vous me dire combien pour la france, mais ça montre bien à quel point le le le japon et s'est nourrie visiblement par le shintoïsme- fait que c'est au cœur de leur culture et qui est une acceptation du robot, et même une acceptation émotionnelle. De la robotique dans la vie quotidienne pour accompagner les sentiments. Oui, la, la revolution, effectivement, astro, astro boy, etc. Sûr sur la robotique sociale et sur son intérêt. C'est vrai que ça fait quelques années déjà qu'on en a des éléments de preuve et là encore, dans la, dans la robotique, en france, on a plein de chercheurs et chercheuses. Comment alors, on a une invitée de marque avec laurence aujourd'hui, mais comment ne pas citer, puisqu'on est nantais, sophie saka, qui est extrêmement réputée aussi sur sur la robotique et notamment, qui est une superbe association? S'appelle rob autisme et non, qui accompagne les enfants autistes grâce à la robotique. Il y a plein de sujet hyper intéressant et porteur d'avenir et d'espoir. En revanche, il y a aussi donc, toute l'autre, tout l'autre versant de la montagne, avec ses craintes que l'on place dans la robotique, à tort ou à raison. C'est précisément ce qu'on va essayer d'explorer avec avec laurence aujourd'hui. Non, je crois qu'on a bien. Poser la problématique avec ce warm-up. Il me semble entendre arriver notre invité. Je vais aller chercher- il est temps d'accueillir laurence devillers- pour explorer tout ça avec méthode, en suivant trois grands axes: l'intelligence artificielle, robot et moto émotionnel. De quoi parle-t-on exactement quand on associe ces termes qui semblent pourtant étrangers l'un à l'autre? Autre et ensuite, nous allons regarder quelle prise de conscience grand public et politique de la réalité où nous en sommes et de ses enjeux. Et, en troisième point, nous regarderons comment penser et organiser et s'organiser autour de ces enjeux. Dream state. Bonjour laurencin. Bonjour à nicky. Descriptif. On se tutoie. C'est ok pour toi, vraiment super alors, laurent, sur un cv bien rempli. Mais si on doit retenir l'essentiel, voici ce qu'on peut dire. Alors, tu es professeur d'informatique à sorbonne, université et directrice de recherche sur les interactions effectives humain- machine- océane. Tu as publié de nombreux ouvrages grand public, en plus de tes publications scientifiques, bien sûr. On peut citer notamment des robots et des hommes en deux mille dix sept chez plon et plus récemment, robot émotionnel de point. Santé, surveillance, sexualité, trois petits points. Et l'éthique dans tout ça, et ça, c'était en deux mille vingt, aux éditions de l'observatoire d'ailleurs, et ce sont tes mots. Tu te mobilise pour donner un cadre méthodologique propice à l'observation de l'effet sur le public et sur le long terme de ces technologies que sont l'intelligence artificielle et les robots émotionnels. Tu fais d'ailleurs partie, notamment, des comités d'éthique cnpp. N b amiens, qui signifie le partenariat mondial en iaa et qui regroupe, précisons le vingt cinq, démocratie et du groupe de travail- j t, c'est vingt et un- au sein du cen senelec pour la normalisation de l'ia. Tout est juste, tout est juste. Bon, on a eu recours à aucune. Il n'y a aucun robot jusque-là pour préparer ta bio, et tout ce qu'il y a de synthétique ici, c'est ton résumé. Quant à nous, nous sommes bien réels et c'est non sans émotion que je te propose de nous lancer avec la première séquence de notre entretien. Intelligence artificielle, robot émotionnel: de quoi parle-t-on exactement? Lake. Esprit critique pour pathétique. Alors, comme souvent dans la tech, le champ lexical est parfois obscur, parfois cryptique, parfois poétique. Là, on fait quand même un grand emplois d'aussi mort. Intelligence artificielle, robot émotionnel, pour désigner une approche technologique froide. Alors, je te propose de revenir brièvement sur quelques notions clés qui nous permettront de mieux nous approprier le reste de la réflexion. En gros, on veut s'assurer qu'on va bien parler même langage pour la suite de l'épisode avec Alors, est-ce que tu peux nous expliquer un peu ce qu'est l'affectif computing, qui semble être la base, un deux de ce qui est de la gestion des émotions en iaa et pour la robotique? affective computing, c'est un domaine dans l'intelligence artificielle où on cherche en fait à modéliser les émotions dans des machines. Ces trois grandes technologies. Le fait de percevoir les émotions des humains à travers Différentes, différents indices. Que ça soit verbal, léopard, elle engage la tessiture de la voix, la prosodie, et puis peut être le visage, le mouvement, les actions. Ensuite, raisonner autour de ces informations pour détecter. Comparaison dans un système de dialogue, et puis enfin le dernier, générer des comportements de la machine qui soit. Une expressivité émotionnelle suède dans la voix pétrin. Dans le visage, dans le, les traits dissimulés de la tête du robot. Et ce sont ces trois grands domaines et cette discipline est née dans les années. Quatre-vingt-dix-sept, hum, hum, par les travaux de rosalind picard. Et et du coup, cette discipline a des spécificités par rapport au reste des approches en nya, ou c'est finalement de l'ia, mais appliquée aux émotions, à la spécificité forte, c'est la perception. Mais effectivement, ça pourrait être autre chose que de la fact qu'on tente de percevoir ce Lequel d'une grande subjectivité. Pourquoi est-ce qu'on cherche absolument un de l'affect avec un robot? En fait. Il faut comprendre que, pour être rationnel, l'être humain est émotionnel. Donc, les travaux de antonio damasio, neuroscientifique américain très connu, sur ce sujet de l'affect, a montré que, effectivement, les émotions à l'interaction émotionnelle étaient nécessaire dans l'interaction sociale toute inté. Réaction avec les humains dans la société. Du coup, si on crée des machines qui n'ont pas cette capacité à la fois d'interpréter et de, peut-être, jouer des émotions, et bien on aura à une interaction très peu naturelle, avec une compréhension faible, en fait, de ce qui est en train de se passer. Donc, intrinsèquement, l'être humain est émotionnel, et sans être émotionnel, il peut pas être ses intérêts. Action sociale naturelle avec les autres. Or, c'est ce qu'on cherche à faire à travers ces machines, qui sont des machines sociales, soit des agents conversationnels, cette boîte, ou des robots, qui embarquent donc ses capacités de langage et d'interaction avec des humains, parce qu'on est en train de de rendre des machines finalement plus capables de comprendre. Rendre nos propres semblables que nous ne le sommes nous-mêmes en tant qu'humains. On est en train de rendre les machines capables de d'interpréter les signes que on aimait, mais en aucune façon ces machines seront plus doués que nous. Dans l'interaction sociale. Elles sont, elles ont des capacités différentes et la confrontation entre rester l'humain et les capacités de la machine sont, ce sens, assez fausse. On oublie, lorsqu'on connaît pas bien la technologie qui est embarqué dans ces systèmes, de comprendre en fait comment marche l'apprentissage machine. Lorsque une machine regarde une image, elle regarde. Un nom de pixel, un ensemble de pixels. Lorsqu'un humain regarde une image, y regarde des formes pour cette image, pour aller plus vite, pour des questions de sécurité et de survie. Ne sommes câblés comme ça. Donc, ça veut dire que ce que interprète cinq et qu'interprète la machine est différent, ou de temps en temps ça va nous aider, mais c'est en aucune manière la même chose. Elle n'a. Prends très différents. Je suis d'accord sur un plan théorique, il est bon de le rappeler et de le savoir. Néanmoins, cette espèce de projection qu'on fait d'entrepôt mort, fismes, est-ce qu'on est capable de passer outre cet anthropomorphisme ou est-ce que, finalement, on est condamné à voir dans ce robot en face de nous que une espèce de semblable, de façon non? Hurel, en fait un anthropomorphisme: les objets autour de nous, mais très bêtement, juste par le mouvement de temps en temps ou par des capacités assez simples. On va projeter sur un ballon de foot. Si vous vous rappelez bien un film, quelqu'un se retrouver tout seul sur une île déserte et y vivait pendant deux ans tout seul. Un ballon de foot mettait des yeux. Simplifié et un nez bouché parlé au ballon, comme, fondamentalement, l'humain y projette sur les, sur les objets. Alors maintenant, quand sexe, machine anthropomorphique qui nous ressemble et qui émet des émotions, vous vous rendez bien compte que les immenses grenouilles. Oui, parce que combien de personnes parlent de leur voiture maintenant, ma titine ou ce genre de choses nous attend. Juste un ballon vole à la servante, sa voiture, etc. C'est un ballon volley. Et puis les aspirateurs dyson, chez vous, qui se balade. On leur donne des noms et s'y sont cassés. On la ramène chez darty en disant: je veux le même connait ma maison. Il a un autre aspect des relations fit-il avec? donc, ça, c'est extrêmement naturel et il n'est pas question de changer. Aspect-là nous sommes empathiques. Vis-à-vis des autres. Il faut absolument pas qu'on devienne moins rabattit, son rêve: six mois avec des êtres humains. Donc, il est nécessaire de comprendre ce que ces systèmes font, d'obliger les constructeurs de ces systèmes à avoir attente de règles éthiques lorsqu'ils construisent, et qu'on surveille cette relation avec les machines. Donc, je pense qu'il y a là un dilemme réel, qui est que, en tant qu'ingénieur, dans les sociétés, on va chercher à se rapprocher d'une imitation d'humain: sasuke. La machine ne comprend rien, n'a pas d'émotion, n'a pas de sentiment, n'a pas conscience, n'a pas d'intention, pas, et c'est cela dont il faut parler. Et par contre, on va anthropomorphisme, parce que c'est notre nature. C'est très fort ce que tu dis, dans le sens où un robot n'a pas d'émotion et il n'a pas d'intention propre, fin. C'est quelque chose qu'on a souvent tendance à à lui prêter comme intention quand on a sur certaines écoles. La question qui se pose: qui est le plus intelligent, la machine ou l'humain? Moi, ça m'interpelle un petit peu. On essaye de mettre sur le sites, cliquez dessus tout. Cette question, qui est ie relevant. Il ne faut absolument pas la poser comme ça, ne serait-ce qu'en termes de responsabilité, que lorsque je fais quelque chose, je suis responsable. Lorsque j'avais un chien chez, vous êtes responsable de votre chien. Fine, un objet sensible pour la loi vient: lorsque vous avez un robot qui veut utiliser, vous êtes responsable, finalement, de cette interaction clairvaux. Sauf que c'est pas un objet neutre. Il a été programmé par quelqu'un, il a appris avec des données qui viennent peut-être de vous, d'autres. Donc, c'est cela qu'il faut surveiller avec toutes ces données. On en a de plus en plus de données en train de mettre en données, littéralement, des pans entiers de nos vies quotidiennes, de nos vies réelles à tous et dans tous les échelons de la société. En parallèle de quoi, il y a une course à la puissance de calcul qui est qui est gigantesque, avec des accélérations qui sont phénoménales et dictées par ce qu'on appelle la loi de moore, non globalement, tous les deux ans. On multiplie par deux. La puissance de calcul des ordinateurs. Du coup, tout ce progrès technique et cette documentation digitale des données va nous mener? est-ce que ça, ça pourrait nous amener à l'émergence d'une conscience pour pour les intelligences artificielles que ça pourrait rendre tellement intelligente- et je le mets entre guillemets- que que qu'on pourrait vraiment avoir une confusion extrait? Forte avec les capacités humaines. Alors je pense que c'est une fausse idée de penser que plus on a donné, puis on va créer quelque chose d'intelligent. Y a un paradoxe là. On cherche à avoir de plus en plus. On s'attendrait à chercher à avoir des données les plus riches possibles, pas en termes de de taille, mais en termes de richesse, d'ailleurs aussi parce que ça consomme de l'énergie. Un, ce sera un aussi un écueil sur lequel il faut vraiment être conscient. Il faut pas dépenser cette énergie folle à sauver des données, soit Actuellement en plein air. Ensuite, si j'ai du lait extrêmement riche, qui correspondent à une grande diversité, qu'est-ce que je fais avec une machine? je standardise. Je crée des moyennes si je l'utilise, une une image assez, assez forte. Donc j'élimine simuler beaucoup d'informations au gaz. Que de cette idée-là de créer un super homme qui va au-delà d'intelligence humaine, est-ce que c'est ça qui correspond à ce que l'on en train de créer? je ne pense pas. Il y a quelque chose de fondamental, c'est que ces machines n'ont pas de corps. Or, notre intelligence vient aussi de beaucoup d'autres endroits que seulement notre cerveau. Vouloir recopier l'intelligence des gens dans dix ans pour recopie et pour créer un cerveau artificiel est une aberration. Nous sommes cette entité duale. Qui correspond à une imbrication très, très fine, très, très bas niveau entre notre corps et notre cerveau, et cela ne savons pas le faire sur machine. Donc le vivant n'est pas représenté. Tant qu'on n'aura pas du cyborg avec des cellules vivantes, nous ne sommes pas du tout dans quelque chose qui a une conscience phénoménale. Qui qui est capable de de vivre, de ressentir ce qu'elle est en train de? De vivre à part par des actions ou des émotions. Donc, on est vraiment à des années lumières de ce qu'est l'humain. Mais alors, du coup, on se positionne des questions d'éthique. Parce que ça va être ça. L'objet de la suite de notre discussions, donc faut qu'on le repose. Sonne, on positionne les questions d'éthique quand on va parler de ces robots émotionnels. Bien, se pose à de nombreux niveaux, mais je pense que moi, je me base sur un triptyque qui est l'éducation. Donc, il faut faire comprendre exactement qu'est-ce que sont ces objets et qu'est-ce qui peuvent faire avoir comme conséquences négatives. Sur l'être humain: l'addiction, isolement. Une discrimination. Tout un tas de champs à expertiser sur le long terme. Et puis, il faut pousser les industriels à suivre un stand d'europe, norme qui permettent à ensuite de mesurer des effets de cette machine dans le temps de l'usage, pas seulement lorsqu'il sort de l'usine, mais quand on l'utilise. Et puis, il faut donc des lois, c'est-à-dire une obligation en fait de suivre ces Normes et standards et de vérifier le comportement des machines. Donc, il faut créer cet écosystème et c'est pour ça que je me suis engagé, comme vous l'avez dit, dans ma bio. Aller vers la standardisation, d'aller au-delà de la philosophie autour des risques, philosophie et sociologie autour des risques qu'amène ces machines très performantes qui ont un pouvoir extrêmement positif pour moi. Je suis vraiment technophile, mais c'est justement pour qu'on les utilise au mieux que je me penche sur les risques que les Peuvent être avérés sur le court terme, sur le long terme. Et je pense que là, il faut être extrêmement vigilant. Et ce n'est pas aux entreprises, notamment aux gafa, de proposer la vision de demain. C'est à quelque chose qu'on doit gérer au sein d'une société, c'est pas non plus seulement un gouvernement pour le venger de poser ses règles. A la société entière de comprendre quels sont les enjeux et de se donner les moyens de surveiller ces machines. Ce qu'on va détailler ensemble sur les prochaines séquences. Là, je pense que le cadre est bien posé, mais pour l'heure, c'est le moment de passer aux pastèques. Le patch steak, alors fabienne. Aujourd'hui, dans le patch steak, on a un pépin. Tu vas nous parler d'un sujet bouillant, celui de l'influence, et tu vas nous montrer que, de ma cousine influenceuse sur insta à magali berdah, jusqu'à la manipulation de masse, il n'y a qu'un pas votre objectif. Vingt mille followers avec des gains de cinq mille euros par mois. Si vous êtes présent sur les réseaux sociaux, vous vous êtes peut-être amusé de cette promesse présentant la société en baza, la première école d'influenceurs française. Au delà du buzz plutôt bad de l'annonce de l'ouverture de cette formation de vingt huit heures pour mille deux cents euros, reconnaissons l'ampleur de la tendance et de l'intérêt pour l'influence dans toute son envergure. Récemment, bloomberg a partagé un sondage. Il en ressort qu'un européen sur dix est prêt à quitter son emploi actuel dans les six prochains mois pour tenter de faire carrière d'influenceur sur tiktok. Et pour reprendre les mots de cyril attias, fondateur de l'une des toutes premières agences en social media, je le cite en deux mille vingt: l'influence digitale n'est pas un sujet à la mode. C'est une vraie transformation sociétale de consommation et d'usage intergénérationnel. Dans cet emballement, la viralité des technologies doit donc tenir un rôle clé, essentielle, puisque les plateformes en ont permis l'avènement. Considérer qu'avec une seule publication sur une plateforme digitale, les prescripteurs peuvent partager une information: un avis politique recommandé. Un produit ou un service auprès de milliers, voire des millions de personnes, selon la viralité, et ce seulement en quelques secondes. Nous sommes presque tous impliqués, car soixante deux pour cent des consommateurs réagissent au moins une fois par jour aux publications d'un leader d'opinion. Derrière ces activités fructueuses se cache un vice, un concept moins vertueux. Celui de la manipulation. Alors, où peut-on situer la frontière entre l'influence et la manipulation? nous y sommes et c'est robert cialdini, psychologue social américain, qui détaille ses frontières de la manipulation. Il explique pourquoi certaines personnes sont douées d'un remarquable talent de persuasion et comment il est possible de les battre. Sur leur propre terrain. Ils délivrent donc six secrets psychologiques dans un large panorama de techniques et théories en tout genre pour obtenir quelque chose de nous, sans que nous ne nous y opposons. Ces moyens peuvent se mettre en place grâce à notre dangereuse tendance à nous laisser influencer, car nos comportements humains se répètent automatiquement et fréquemment, et le virtuel valide ce postulat. La numérisation de l'information fait aussi exploser les volumes de publication de contenu. Dès lors, comment, dans cette info obésité à laquelle nous sommes tous exposés, On peut distinguer les contenus qui sont à visée manipulatoire. Le recours à l'influence n'est que la partie émergée et visible de tout un champ de proposition. Or, à la capacité d'influence répond la compétence d'écoute, d'audit des flux et des conversations des communautés. On propose ici le triptyque de l'intelligence économique: veille, protection. Sion et influence, car, selon carlo rovelli, chercheur en sciences de l'information à l'université paris dix et auteur de plusieurs articles sur le sujet, tout organisme doit apprendre à maîtriser les flots informationnel avant de prendre une quelconque décision stratégique. Grâce au partage, aux commentaires et aux likes sur les plateformes. L'écoute des réseaux sociaux permet d'identifier des signaux faibles. La détection de signaux faibles est le point fort des résultats de la veille. Cette notion de signal faible remonte aux années soixante dix. Mise en perspective dans un contexte précis, ils peuvent s'avérer extrêmement instructif. Et apporter un décryptage et des analyses positives pour nourrir les stratégies économiques des entreprises et les soutenir dans leur performance. Cela offre la vision de comment s'organise le monde autour de nous, la société connectée, et c'est un monde qui évolue très vite. Cette écoute, cette inférence sociale est maîtrisée par quelques agents. Agence comme bloom, avec des outils technologiques élaborés sur mesure qui permettent de découvrir dix à cent fois plus de contenu et de personnes pertinentes qu'une recherche par mots-clés. Or, la puissance de la boucle peut être un formidable moyen de glisser vers la manipulation et la désinformation, voire la surveille. Lance. On conçoit alors que cette écoute active est le terreau de l'influence des influenceurs, comme on l'a vu, mais du coup celui de risques qui sont beaucoup plus fortes, portées par des entreprises très puissantes. Oui, d'autres business très profitable se font jour. Mediapart a dénoncé récemment l'une des plus grandes entreprises de manipulation de l'information intervenue en france. Et révèle tout un écosystème qui partage les démarches pour promouvoir les intérêts de leurs clients, mais aussi dézinguer la concurrence, leurs méthodes, tromper le public en publiant des articles semblant rédigés par des journalistes indépendants sur des sites et des plateformes rassemblant plus ou moins à ceux de journaux ou médias. Dans le cadre de mes activités de communication d'influence, j'ai moi-même été approché par avisa partners pour ne pas les citer, laurent et l'entreprise à l'origine du scandale. A l'issue de l'entretien, je reconnais ne pas avoir du tout identifié l'usage dévoyé et répréhensible de leur offre de collaboration. J'avais, comme à l'accoutumée, carte blanche pour rédiger des articles sur mes sujets de prédilection et la possibilité de signer des billets auxquels j'adhère. J'ai toutefois refusé leur proposition, car ce procédé, bien que confortable, ne répondait ni à mon éthique ni à mes besoins d'investigation. En conclusion, le zoom est souvent fait sur l'influence, mais cet angle sape les étapes précédentes, le déroulé de l'équation gagnante. Pour toute entreprise, la courbe vertueuse serait: veille et écoute. Inférence sociale, analyse, production et, en cerise sur le gâteau, l'influence. Frenchtech est très critique pour t'écouter. Merci, fabienne. Tâchons d'être un peu moins sous influence. Laurence. J'aimerais t'entendre sur l'un des constats qui nous a mené à créer french tech. Nous, on pense que les enjeux sociétaux de la tech sont trop peu présents dans le débat public et plus encore dans l'agenda politique. Nous avons connu une campagne présidentielle, suivi d'une campagne législative. Lequel les risques posés par le développement de l'ia, pour ne citer qu'eux, ont été totalement absents. Pourquoi, selon toi, merci d'insister sur ce point- j'ai écrit à bryce était nadia l'elysée, justement avant l'élection pour enseigner un débat associé aux jeux pour filles, à ma connaissance de ces sujets de nice. C'est pour ça qu'il n'a pas émergé objectifs intéressent que pour faire débat dans la société. Vous ne savez pas des déjà. Je crois qu'on est endormi totalement sur la société. Laisser ces données tranquillement au sureau. Gafa ou méritant cette compétition en envoyant un plaisir satisfaction de ces objets. À utiliser. J'en ai trois. Pour ces collectes de données devant être menées avec amazon word. Ce ne sont pas vus comme des problèmes. Par contre, dans son demande dans ce covid à suivre, si n'avait croisé votre voisin. As-tu vu la décontaminer, la dioulasso? c'est une question de la liberté. C'est ce paradoxe, un manque de compréhension totale de souffrance. Les politiques également. Avec des robots qui sont capables de comprendre- je avec des guillemets- les émotions de l'humain, on peut penser que, finalement, l'homme est à peu près complètement modélisé: able, c'est-à-dire objectivable au sens de l'objet, par des caractéristiques dénombrable et standard, disable, comme le langage, le langage. Et tiens donc finalement ces robots émotions. Quel est ce qu'on cela fait, que ça nous rend, nous humains, plus objet que sujet. En soi, c'est un sujet éminemment politique. Pour le coup, c'est un sujet. S'il est assez peu connu, mais aussi très utilisé, par les gouvernements également qui agissent à des conditions. Magie, par exemple. C'était l'élimination en service cette tisane. Richard thaler, prix nobel en italien en deux mille dix sept. Qui exclu que si je connais les biais cognitifs des personnes, je peux facilement le manipuler. Cet effectif, c'est ce qu'on va les détecter, agression à avance, avec des systèmes qui réparent des émotions ressenties dans certaines situations et qui vont permettre de soi de capturer l'attention. Un projet marketing, soit manipulation politique pour son nouvel an. Gêné. A là, en fait, un sujet à la fois proche- l'individu- et c'est un sujet de société et c'est un sujet qui est extrêmement compliqué. C'est sources sur ce sujet que j'essaye de pousser grandement sur ce qu'on appelle le nih, digital marketing, la manipulation, l'incitation à changer d'avis. Ou par grâce à des machines, qui est l'objet de tous les travaux que l'enfant consomme par parvenus. Ils sont effectivement assez connus. Alors, les acomptes, si cette volonté de créer une régulation des lois qui encadrent aurélia au niveau européen, parlent de sujets comme cela. Mais en disant la même, en parlant de Manipulation subliminale. En disant: il faut interdire la manipulation subie laser mot conscience. Mais je pense que à la fois d'admission conscient et l'inconscient dans l'utilisation à plus long terme de ces machines, Coévolution, vu la machine, et ça c'est à surveiller, et la personne, son coach. J'en parle politique. On me dit: ce n'est pas un sujet pour cette ambiguïté. Elle est quelque chose qu'on veut absolument lever dans son groupe pour progression de longue date. A déjà des exemples de problèmes, de cette ambiguïté mal vécue, ou je dirais que j'ai eu ce problème sur cambridge analytica en a aussi. Facebook- à l'époque, c'était encore métal- avait surgi la manipulation additionnelle et démontré que lorsque homer change les propos des gens pour être plutôt et négatif, on va changer la façon dont on perçoit les choses. Quand vous pensez aux recherches, si vous faites un test mouvement, si vous êtes heureux ou pas, c'est promis. Les phases, puis on modifie son sachet. Le timbre de la voix de la france va commencer en faisant pas voir plus joyeux, viens, vous allez vous sentir joyeux. Quand on sait à quoi s'en va généraliser des iaa qui sont déjà omniprésentes. Un dans ce qu'on manipule. Tu as citer facebook, que beaucoup d'entre nous utilisent au quotidien. Mais google, mais les smartphones embarquent tous désir et du coup, il y aura un risque manipulatoire de kiki qui pourrait être à grande échelle. En faite le net, j'ai commencé- coule normalement le bien-être pour la population. Par exemple, pour éviter d'être en addition pour des pathologies, on va utiliser ces théories de la vie et c'est important aussi de comprendre que, secrétaire de paternaliste où quelqu'un décide d'aller dans un sens, dans un mot, qu'il faut vraiment surveiller ces objets pour voir, par exemple, vueling. Hall pour apprendre l'anglais va vous inciter à faire des choses. Moi, j'ai des projets autrement en éducation, où on travaille sur menage. Comment faire ou capturer l'attention d'un enfant pour le pousser à mieux prononcer les phrases en anglais, à répéter des choses, le garder l'attention et à trouver comment on peut l'aider à mieux apprend tôt. Il y a des intérêts très positives et ça. Y a aussi une forte propension à avoir des conséquences de manipulation. Il faut étudier dans quelle mesure denise va pour la population et rendre cela visible, compréhensible par tout le monde. Donc, il y a finalement un vrai axe sur sur la finalité. Un peu comme pour tout le monde. C'est pourquoi est-ce qu'on le fait? mais même, pas seulement même si c'était avec une finalité positive, on peut très bien, par conséquent, son intensive. La constance et la fidélité- bien exprimé, hum, et la surveillance que l'objet final qu'on cherchait est bien celui que tu peux. Tu peux, tu peux dévier, aider au fêtes, on peut créer une chose très éthique, de très neutre, qui aura une incidence en fait négatives à long terme. Si je reviens sur les réseaux sociaux. Stella disait en fait, il faudrait absolument demander, c'est une nécessité, cette planche que je retrouve quelque chose contre les influences. Je dise pourquoi. L'info que je j'ai une possibilité, dans ces messages, tweets qui sont extrêmement pauvres, d'expliquer d'où vient la source, pourquoi je dis cela, ou tant qu'on n'aura pas cette capacité à élaborer le raisonnement qui derrière on sera sur cette espèce de grosse machine qui pollue et qui envoie la même chose. Avoir consenti aucun concours. Il y a un pont aussi sur la partie normalisation. Non que c'est un peu un précepte que t'essayes de de porter au sein de l'europe, mais on voit bien que les cultures sont différentes, l'appétence est différent en fonction des différentes nationalités. Comment est-ce que cette pratique et cette différence est prise en considération au niveau des des autres? Etats et des autres pays. Sait très bien qu'en chine, par exemple, le gouvernement veut imposer ses réglementations. Une manipulation forte pour suivre les lignes party d'halloween, l'extrême de la surveillance de leurs enfants. De l'autre côté, vers la liberté totale. Aux états-unis, chacun fils, neveu ou de plus en plus, on ira quand même vers d'annulation. Je pense qu'il faut faire prendre conscience aux gens. Que c'est leurs enfants qui vont utiliser ce système. Que lorsqu'on est en train de manipuler, faire qu'un enfant reste dans son jeu dans l'état va et vient, on l'empêche d'apprendre de depuis sa naissance, indifférent, voit qu'il y a une responsabilité des humains. Il faut vraiment faire comprendre, que ce soit consommateur ou que ce soit ingénieur dans une société entend faire ces systèmes. C'est bien de de de sa compagne dans cette séquence. Effectivement, c'est quelle prise de conscience grand public et politique. Pour résumer, jusque-là, tu nous dises: le grand public a pas vraiment pris conscience du truc. Sauf quand c'est le gouvernement qui propose quelque chose, là tout le monde pousse des cris d'orfraie. Quand ce sont des gafam qui viennent nous manger la tête et notre temps de cerveau disponible, la zone étonne. Plus personne. Toi, tu, nous, tu nous le dis tout à l'heure. Tu as sorti un manifeste qui s'appelait wagner à l'elysée au moment de présidentielle, justement pour sensibiliser les électeurs et probablement aussi les candidats. Quelques-uns étaient de retour. Grossir. J'ai entendu ce genre, le neutre, n'existe pas. Une série d'objets digitaux à l'armée énormément. Je disais ça. Le politique qui disait ça utilisées vont se partager. Je pense qu'il y a une maîtrise par vos connaissances, via très peu scientifique, de connaissances d'experts en ia sont au sein du gouvernement américain et donc nous sommes devant des personnes qui sont bienveillantes- je n'en veux pas- n'ont pas suffisamment compréhension des mécanismes sous-jacents, c'est comme un garagiste ne veut pas le cas. Cours pour aller voir comment la mécanique marche. Monarque, c'est la fameuse danette, c'est la fameuse déconnexion des élites dont on entend parler. Comment ça se fait que soit pas compétents, mais ils sont censés s'entourer ce jour-là. Il y a bien des justement. Tu ont cité tout à l'heure des comités, d'éthique, etc. Le conseil national du numérique et compagnie. Comme, oui, comme on peut expliquer qu'il soit pas informé. Ce n'est pas le fait aussi que tant qu'on n'est pas dans le mur, on prend pas vraiment, prend pas vraiment d'avance, comme un peu comme la crise climatique. Un voilà, génial en fait, cette histoire de temporalité, monde magique, une vision après, et n'anticipe pas ça, ou qu'on ne prévoit pas s'il va se passer, vous connaissez, et après, c'est tentaculaire, comme les réseaux sociaux. Pour nous, on dit ohlala, kilos. Horreur. Comment faire pour faire cela, en si on s'était posé le problème avant? en éthique by design. C'est-à-dire quand je design ces machines courrier sujet dans la société, je me préoccupe des conséquences. G va voir son authenticité, mais au moins je mets suffisamment d'informations accessibles afin de pouvoir contrôler, voire transgresser. Je pense que c'est cette, on me le fait, de penser aux conséquences en même temps qu'on est en fait. Différentes technologies sont de plus en plus complexes et de plus en plus. Dessert, tort. Il faut former les gens pour avoir des experts. Pour cela, il faut absolument, c'est comme désinfecter, ils ne sont pas écoutés. Nous avons des comités vitrines, excusez-moi de dire comité vitrine. Justement sur cette partie régulation, sur les normes, sur tout ce que ces comités peuvent apporter de de connaissance, d'informations au grand public et aux politiques. C'est ce que l'on va aborder dans la toute prochaine séquence, mais pour le moment, nous accueillons laurent guérin pour partager avec lui l'un de ses nombreux moments d'égarement. On va bien baiser. A la fraîche. Décontracté, de course, un moment d'égarement. Alors le rendent en ce moment d'égarement. Nous allons te suivre dans un univers féérique qui ont fait rêver plus d'un, aujourd'hui, le pays des licornes. Et oui, lorsque j'étais enfant, j'étais fasciné par la série télévisée l'homme, qui valait trois milliards. Il faut dire que le pitch envoyait du lourd à la top gun. Steve austin- quel superbe nom est- pilote d'essai. Il se crash en avion et meurt ou presque. Grâce à la technologie grave avancée des années soixante dix, le voile est équipé de prothèses bioniques qui lui confère des pouvoirs dignes d'un super-héros. Plus que les milliards, j'étais soufflée par le design sonore et la musique originale dans la cour de récré. Je reproduisait les tu, tu, tu, tu, tu, tu, tu, tu, tu, tu tu de son oeil bionique et la ligne mélodique des cuivres tard. Je découvris seulement plus tard que la série originale s'appelait, de sexe féminin, dolmen et que, pour passer de six millions de dollars à trois milliards de francs, on avait multiplié un dollar par cinq cents anciens francs. Le cours du dollar devait se situe aux alentours de cinq nouveaux francs, mais comme les gens comptaient encore en anciens francs, ils ont pensé que trente millions de français étaient trois cent mille francs. L'homme qui valait trois cent mille francs. C'est pas super excitant maintenant que le dollar américain, l'euro sont à parité techniquement. Un dollar vaut six, virgule cinquante cinq neuf cent cinquante sept francs, finalement, pas loin des cinq balles de mille neuf cent soixante quinze, évidemment, avec six millions de dollars ou d'euros. Aujourd'hui n'achète pas les mêmes trucs que jadis et là où je vis, tu t'achètes même pas une maison. Je plaisante à peine les prix de l'immobilier au ghana. Ou quadruplé en vingt ans. Fois-ci s'est mis à toronto sur la même période: ta cabane, acheter trois cent mille dollars en deux mille et trois cent mille francs. Tu leur vends de patates aujourd'hui et si t'as cinq cents cabanes, tu peux te payer une licorne à une licorne- oui, cette créature légendaire qui ressemble à un cheval, mais avec une corne et qui, mêlant une licorne, c'est une start-up qui vaut un milliard de dollars. Euros ou qui vaut un sixième de steve austin. Une start-up, c'est souvent une boîte qui gagne pas assez de blé pour être rentable, et quand on vaut mille patates et qu'on n'a pas de blé, c'est déroutant. Mais pourquoi les licornes va-t-elle autant d'argent si elle n'en gagne pas assez? parce que, pour financer leur développement, elles trouvent des investisseurs qui leur file des sous en échange d'une partie du capital, évidemment. Ainsi, si tu achètes vingt pour cent des parts de french tech pour deux cents millions de dollars, on peut rêver. Ce podcast sera valorisé à un milliard de dollars. Vingt pour cent multiplié par cinq et cent pour cent. Deux cents millions. Un sixième de steve austin. Règle de trois milliards, basic trois milliards. Et la france compte actuellement vingt cinq licornes, sachant que manu, le chef, en veut cent, en deux mille trente, c'est donc l'homme qui valait cent licorne. Dans mon monaco, a noter que les licornes ne sont pas cotées en bourse. La plus grosse entreprise française en termes de valorisation et totale énergie, qui est valorisée à cent vingt six milliards, n'est donc pas une licorne, pas plus que bnp, paribas, sanofi, lvmh, l'oréal et consorts. Il n'est ainsi sans doute pas anodin que, parmi les cent licornes de deux mille tr, Entre. Notre président vise vingt-cinq licorne verte, alors que total énergie trace la pole position du cac quarante. Évidemment, le web trois compte déjà bon nombre de licornes et si tu veux mon avis, ce n'est que le début. Apple, société créée par steve jobs et steve wozniak à l'époque de steve ostyn, vos deux virgule. Trois trillions de dollars, un thriller. Sept, douze zéro. Après le un er méta, facebook, créé en deux mille quatre, vaut quatre cent quarante milliards. Autant dire que chaque époque voit ses petites licornes devenir des gros monstres. La france, elle, compte déjà de licornes dans le web, trois sur une totale d'une petite centaine dans le monde. Ces sociétés du web, trois ayant un rapport avec la blockchain, les cryptomonnaies, sont parfois appelées crypto unicorn. Cool, c'est bon à savoir. Mais alors, qui sont ces licornes françaises? alors, c'est qui? c'est qui qui roulement de tambours et musique de l'homme qui valait trois milliards. Il s'agit de sora et ledger saura moderniser le principe de la collection de cartes, vignettes de foot, panini, vous vous souvenez- mais en créant un jeu de fantasy football basé sur la blockchain, dans lequel tu peux acheter des neufs t- valorisation quatre virgule trois, milliards de dollars. Les joueurs, quant à elles, fabriquent des portefeuilles électroniques physiques pour possesseurs de cryptomonnaies- ça ressemble à des clés usb- valorisation: un milliard et demi. Le jeu de sandbox, parfois également appelé un méta verse, pourrait bien devenir la troisième licorne française, tout en sachant que, si elle a bien été créée en france, c'est désormais une filiale de animaux qu'à brande une licorne de hong-kong qui vaut six milliards en date. Dans un an, il se murmure que cette box pourrait lever de l'argent sur une base de valorisation de quatre milliards. Si tu te passionnes pour les licornes, le cycle Base répertorie les mille trois cent soixante douze licornes mondiale dans tous les domaines et pas seulement dans le web. Trois: la plus chère de toute biden en chine, c'est l'éditeur de tiktok, valorisation cent quatre vingt milliards. Steve austin peut aller se rhabiller. Et puisqu'il est question de s'habiller, je ne peux pas te laisser. Sont informés que les termes licorne est également utilisé pour désigner une femme qui a des relations sexuelles avec Des couples hétérosexuels, un plan à trois donc, le plus souvent dans un contexte homme plus femme, plus femme. On les appelle licornes parce qu'elles sont difficiles à trouver. Alors, bonne chance. Conflit. C'était peut-être à quel moment d'égarement au pays des rêves des licornes et steve austin. Revenons à notre entretien, avec laurence. En lisant quelques-unes des nombreuses interviews, j'ai relevé ces quelques mots. Je cite: le levier économique ne peut pas être le seul moteur du développement de ces technologies. Dji. Et pourtant, ce levier économique invoque la croissance et la création d'emplois sans pour autant proposer des réflexions plus profondes sur des enjeux éthiques et environnementaux. Pour continuer de te citer. Il ne s'agit pas de freiner les projets, mais de voir comment on y intègre des critères responsables et éthiques. Il faut débattre de ces questions. Alors, je te pose la première question: il nous faudrait commencer par quoi pour mettre ou remettre les enjeux de l'ia et de la robotique au centre des débats publics français et fait parler d'éducation, on va voir. Déferlant sur notre éducation avec des outils de métal, comité d'éthique sans trop se doutait qu'il m'a même demandé d'y participer et je pense que la voir nos enfants demain, dans un univers qui peut leur apprendre effectivement à mieux aimer les mathématiques ou à être meilleur en informatique, ou à comprendre la philosophe. Sophie socrate. C'est intéressant, mais en même temps, il faut comprendre aussi qu'il y a des risques et que ces risques qu'il fallait maîtriser. Donc, abus d'éducation, vous envoyer parmi les licornes. Vous avez deux énoncés tout à l'heure. Non, on parle de tiktok, on parle de naiveté dans des objectifs, autour des dépenses d'argent pour. Pour plutôt du divertissement, et je pense que c'est là où a un énorme travail à faire de gouvernance, et je ne vois pas qui gouverne cela, à part les grandes entreprises qui décident de mettre beaucoup d'argent sur ce qui va être vendu à tout le monde. Nous sommes dans les jeux du cirque. On veut occuper la plupart des citoyens à ce genre de bêtises. Et on oublie que dans la santé, dans l'éducation, il faut absolument se. Trouver comment, demain, on peut aller plus loin pour l'humain. Et là, il y a des facteurs économiques qu'on ne devrait développer plus plus forte. Mais mais c'est là où tu mets bien le doigt, parce qu'effectivement, actuellement, les principales puissances technologiques et donc économiques sont étrangères. On parle, on a parlé tiktok, on peut reparler aussi de tous les les big tech. Et comment l'europe, aujourd'hui, compte s'imposer dans cet écosystème là. Effectivement, quand on parle de licorne, en ce moment, avec l'ue, Les montants que vous avez donné, il faut savoir que ce sont des montants étrangers incarcérés comme française. Quand on devrait dévoiler en fait d'où viennent les différentes prises de risque. On ne risque pas assez en europe pour l'instant pour aller vers des entreprises de ce niveau-là et moi, je voudrais qu'on soit conscient de cela et qu'on aille sur la cellule cybersécurité. On a commencé par chose: il y a un campus cyber sur la santé et un campus santé, mais je réclame un campus green. Dans lequel on met aussi énormément d'efforts, qui serait utile pour beaucoup d'autres pays que les pays européens. Avec un marché énorme à prendre, il faut le prends. Donc, il faut créer un méta vert européen avec les capacités d'emmener les gens, co travailler avec des mesures sur l'environnement, avec il y a plein d'idées autour de l'éducation, la santé, l'environnement. Il faut absolument s'accaparer avec nos valeurs et je pense que, en allant délivrer ce genre de choses, le pays mien, dans et par l'extérieur, c'est vingt-cinq démocratie dans le jeu. Pont, dont singapour, l'inde, etc. Et les pays autour, qui ne sont ni la chine, ni les etats-unis qui vont demain consommer ce genre de techno. Ils sont en train aussi de les faire. Donc, il faut créer des univers au-delà de l'europe, peut être plus largement, pour trouver les moyens d'être représentés avec nos valeurs. Alors tu tu le dis toi-même, des idées on n'en manque pas. Ça a d'ailleurs donné un très, très bon. Mais il est des talents. On manque pas d'idées. On ne manque pas de talent, tu dis toi-même, on manque plutôt de ressources, de prise de risque et donc de moyens d'argent. Disons des, disons des choses. Et d'ailleurs, c'est quand même un phénomène que la science et la recherche fondamentale connais très bien, parce que, justement, j'ai évoqué tout à l'heure la fuite des cerveaux. Pourquoi tous nos grands chercheurs en ia et qui sont parmi les meilleurs dans le monde? Finalement, sont plutôt partis bosser pour les gafam lorsqu'ils émanent de financière, qui est énorme. Et donc, du coup, c'est ce qui va nous manquer en arrière chercheurs en france, si on a, ou on a finalement, des très bons chercheurs, mais qui iront tous à l'étranger, c'est évident, si on ne revalorise pas assez ce travail, si on met pas l'accent sur l'important. Danse, de revaloriser aussi les professeurs en éducation, où on va baisser en niveau d'intelligence et un talent hors du coup. C'est quoi? c'est une télévision, une décision politique, et c'est des financements publics, ou c'est, de celle-ci, une prise de risque privée, avec des entrepreneurs français, européens, qui comprennent enfin qu'il y a comment dire du business à sphère et du très, très gros business à faire et qui mettent qui Leur vie sur la table. Je pense que c'est une alliance privée publique qui fait ça. Je veux absolument pas que ça soit juste le gouvernement qui soit à la tête. Non, non, mais c'est, c'est, c'est, c'est en discussion, c'est un sacrement commence, ça commence pour le campus sida. Vous, c'est vraiment une alliance privée publique, avec plus d'action du privé et du public. Ces différents pôles qu'on veut monter. Sur la santé également. C'est extrêmement important d'aller chercher les talents industriels, est-il, risquent effectivement et qu'on crée de la valeur. En europe se situent les chercheurs, dont tu fais partie. Autrefois, avaient une avance considérable sur les entreprises et même sur l'art. Quoi, finalement, on a dit? on intro, on avait. Piochez ce qui se passe dans les laboratoires aujourd'hui. Les chercheurs n'ont plus que trois, cinq ans d'avance sur les industriels. Notamment à cause d'un certain nombre de dispositifs qui financent justement les études de de de deux chercheurs en herbe, je dirais dans les entreprises, et tous ou presque vont bosser plutôt pour les gafam. Est-ce que ça commence pas là, finalement, sur le financement de la recherche? c'est évident. La recherche en france était dieu ex. Extrêmement en avance. On est en avance aussi dans la santé, n'est pas que physique, ou en informatique, dans d'autres domaines, et je trouve que on a perdu énormément. On est en train de perdre peut-être le sénat. Je sais pas si on va réussira à sauver la recherche fondamentale. Quand j'ai dit à trois, cinq ans sur la techno. Avance dans d'autres domaines à plus long terme, il faut préserver cette recherche fondamentale à long terme et investir absolument en recherche- c'est nécessaire- sur la technologie qu'ils recherchent à plus court terme. On voit arriver galopant des sociétés qui font de la recherche, mais ils font pas de la recherche. La même façon. Je pense qu'on va moins. Où on va arriver vers des choses qui sont: De la répétition. On va, surtout si j'utilise beaucoup plus de données avec les mêmes algorithmes, seront gardés les algorithmes qui viennent tous de laboratoire, ce soit en allemagne, en italie, en france, et les découvertes fondamentales. Il n'a pas ton ça. Là surtout, j'ai beaucoup plus de puissance de calcul, je peux agréger plus de données et j'ai une force de frappe ouvrière d'un ingénieur qui sont là, sont capables de Travailler à tous en même temps, c'est pas ça, le talent. C'est la sérendipité aussi, et c'est allé plus loin. Et je pense qu'on se trompe lorsqu'on pense que le privé peut aller beaucoup plus loin. Et en plus, ce prix, en ce moment, récupère tous les talents entités en recherche fondamentale. Donc, il a besoin de d'équilibrer. Finalement, tu me donne déjà quelques pistes pour qu'on arrive à mieux reprendre la main, peut-être faire entendre une voix plus éthique. Dans tous ces sujets de la robotique et de l'ia. T'as déjà donné des pistes autour du réglementaire. On a parlé avec les live act européen qui est en train d'arriver et qu'on a déjà évoqué. Tu nous as donné une piste sur le fait qu'il faille beaucoup plus investir dans cette technologie, renforcer la recherche aussi. Mais on sait que tu portes un autre combat, qui est celui autour des des normes. D'abord, parce que peut peux nous rappeler Un peu ce stocker une norme. Et puis, qu'est ce que pourrait être une norme? en y a l'ordre, y aura plusieurs normes. On y a, par exemple, sur les risques, sur le traitement automatique de la langue, c'est en fait. Une définition extrêmement précise des objets qu'on manipule. Et puis ensuite un encadrement de l'élaboration de de ces objets avec des mesures qu'on peut demander. Aux industriels sur la façon dont l'objet finalement réagi dans une interaction. S'appelle, par exemple, sur chaque botte, de vérifier que le tchad botte ne vous ne dure pas aussi, et à la capacité de nage en tout cas. Il va des incidences négatives, des suicides chez des jeunes ou d'autres aspects extrêmement négatifs qu'on pourrait imaginer, angeli chef. Exprès d'aller assez loin: stimuler. Il faut se représenter ça comme pour un médicament. Ou prenons cette métaphore: lorsque j'achète un médicament, j'ai une posologie, et puis j'ai des effets secondaires, d'accord. Et donc, si je vois un effet secondaire, déjà je réagis, et puis je peux aller vérifier ce qui se passe dans l'usage de ce médicament. Un scanner: Des effets sur les effets. Secondaires indésirables sur le cardiaque, sur autre chose. L'arrivée de cancer. Eh bien, ces objets ont potentiellement des conséquences y et vont engendrer des risques. Il est nécessaire de les encadrer sévère, de surveiller ce qui va se passer et de collecter auprès des personnes qui les utilisent les effets que l'on peut voir et de raisonner pour améliorer le produit, voire l'enlever du marché, comme on fait avec un médicament. Les avantages d'avoir défini des normes en plus d'avoir des règlements. On le sait, en europe, on est, on est plutôt bien pourvu en la matière de règlement, faite pour mettre les règlements en place via des zones de gris, si vous voulez. On peut pas. Si on dit: voilages interdit la manipulation subliminale, bon alors ça s'arrête, ou le subliminal, ça dépend bien de l'individu. D'accord, il est conscient plus ou moins de ce qui est en train de se passer. Donc, là, je dirais que il faut une. Armes à côté qui encadrent de façon plus pragmatique au plus près de la technologie, pour qu'on puisse avoir des mesures sur les effets de la technologie quand on l'utilise, et quand on l'utilise en continu seulement de tracer des choses et de vérifier les jeux. J'avais entendu expliquer aussi qu'une grande différence entre un règlement énorme, c'est que le règlement, il est amené par un état ou un groupe d'états, comme, comme l'europe s'impose à tous une norme. C'est des industriels qui se mettent ensemble pour définir comment, comment ils vont travailler et donc, quelque part, c'est aussi très riche, parce que c'est eux qui se donnent un certain nombre de règles. Helena en fête, puis nowak, sont jamais utilise. Une norme a une valeur, effectivement, non seulement elle est créée par un ensemble d'industriels et de chercheurs et de personnes de produits, gouvernement, mais c'est un ensemble de personnes qui réfléchissent à comment pourrais-je dormaient, incertains, une certaine technologie, et après elle est utilisée par essais. Le nombre de personnes qui vont Utiliser qui vont finalement décider de l'importance de cette mort, et c'est pour aider les industriels finalement à développer leur projet. Donc une manne économique derrière, parce que ça veut dire que les gens auront confiance en ces technologies et sont à même de les utiliser beaucoup plus que d'autres technologiques pour arriver de chine sans aucun garde-fou. Ou des états-unis, et c'est cela qu'il faut penser demain. La besoin de développer ces systèmes, mais justement, je j'ai une dernière question. Un peu provoque un lance. Ce n'est pas un paradoxe à vouloir confier à une poignée de personnes, notamment des industriels, la responsabilité de fixer des normes, ce qui revient à peu près la même chose que de laisser une poignée d'entrepreneurs big tech faire ce qu'ils veulent quelque part, imposer des normes qui n'en portent pas le nom. Quoi alors? non, parce que qu'en fait leur compte? Crée un écosystème de cela, il y a des mesures, il y aura aussi des comités d'éthique qui donneront des avis sur ces mesures, qu'on ne peut pas tout rationaliser. On va tout transformer en un objet quantifié et donc, on a la nécessité de se doter, au niveau international, de comité d'éthique capable de raisonner sur des mesures qu'on pourrait faire. Oh, ces avancées de régulation. Auprès de produits industriels, sur des produits rincés. Donc, on a besoin des deux. Il y aura des humains dans la boucle expert et, en même temps, de plus en plus de normes. Que les industriels vont mettre en oeuvre, et on vérifiera lorsque c'est nécessaire. Et là, les citoyens aussi, leur nuage en a joué. C'est à eux aussi de faire remonter que tel ou tel système présente des problèmes à un tel impact. Et donc, à partir de tous ces éléments, La nécessité de réguler et de vérifier comment ce que fait un industriel, des citoyens qui disent ça ne va pas, ce système-là a des effets négatifs sur mes enfants. Ou dans l'île, à l'école, je ne sais quoi. C'est grâce à cela que l'on pourra mettre en œuvre des comités d'éthique qui vont aussi vérifier ce qui se passe et donner un avis, de retirer du marché certaines choses ou de demander de modifier les algorithmes dans ces systèmes où les données tels quels sont-ils, c'est l'éthique by design. Éthique by design. Merci beaucoup, laurence. Je rajouterai juste un mot. Il faut absolument éduquer sur ces sujets. Donc, je suis président de la fondation blaise pascal, comme vous l'avez dit, pour aller prêcher dans ce sens-là et faire que les enfants de demain- puisque l'école ne prend pas encore cela en charge- sont à même de comprendre que l'être en addiction dans un jeu d pensez-vous. Plus trop et qui sont pas conscients de ce que c'est que la vie privée ou qu'est-ce qu'il faut garder encore comme idée de la vie privée devant humain, une machine. Donc, c'est important d'aller sur ces sujets dans l'éducation et tu parle à nos coeurs de père incessamment. Depuis, depuis, depuis, c'est une fois de plus, c'est sur ce coup double, c'est-à-dire que c'est l'énorme pour protéger les consommateurs et citoyens, comme il y a des normes sur les jouets pour les enfants, mais c'est aussi de la pédagogie, et c'est aussi de l'accompagnement et de, et de combien. De la transmission de la part des chercheurs, des deux citoyens que nous quittons. Mais voilà, c'est le job aussi de stock essayé en l'intelligence collective. L'intelligence collective, l'information, et nous serons bons. Merci beaucoup, laurence, d'avoir partagé cette heure avec nous. Rappelons le titre de ton dernier livre: les robots émotionnels: santé, surveillance, sexualité et l'éthique dans. Tout ça a paru aux éditions de l'observatoire. A bientôt, laurence, on te raccompagne. Pour celles et ceux qui nous écoutent, restez avec nous. On garde un temps privilégié entre nous. C'est le débrief. Merci, laurence en silence à. Frenchtech esprit critique pour tech éthique. Eh ben, voilà un échange à nouveau bien intéressant avec laurence devillers. Moi je leur dis: je suis tellement content qu'on ait pu avoir laurence. C'est quelqu'un que je suis, tous les trois qu'on suit d'assez près. Donc c'est quand même un vrai plaisir, ce podcast, pour nous trois aussi, que de pouvoir recevoir et échanger directement avec des personnes aussi brillantes. Gaston a pensé: toi, clairement, moi, je, je retiens un point qui m'a qui m'a bien fait, qui m'a bien parlé, pour le coup, c'est que on a souvent tendance avec, avec la culture cinématographique, pour boucler avec l'introduction. A vouloir faire que la robotique soit un humain. Le fait qu'elle nous a dit est assez fort, c'est. Il faut arrêter de dire que c'est un humain afin de se projeter sur l'humain. C'est autre chose. C'est pas un super humain, c'est autre chose dont il ne faut pas avoir peur. Mais ça reste autre chose pour lui retrouver un autre nom. Mais les méta humains ou les choses où on essaye au fur et à mesure de l'air Rocher de l'homme. Je trouve que c'est tout le problème du, du marketing des mots. On aimerait déjà parlé à coller le mot intelligence, qui devrait être totalement réservé à l'humain, quelque chose d'artificiel derrière, déjà ça, ça, ça, ça amène une contradiction. Le robot émotionnel, c'est pareil. Voilà, c'est ça, c'est viens parce que, hum, j'ai déjeuné à la base. Intelligent, c'est déjà trop. Discutable, on a bien compris avec laurence que il était capable, ces robots, de d'analyser, d'interpréter un certain nombre de choses, ne fait pas des êtres intelligents. De là à parler de robot émotionnel, on passe encore un cap. Le gars de chez google qui s'est fait virer cet été parce qu'il avait entraîné une ia et qu'il lui avait trouvé une. Sensibilité d'un enfant de sept à huit ans. Bon, ben voilà, on est là aussi. En revanche, c'est pas nouveau du tout non plus ce truc-là. C'est mon intro, on en parlait tout à l'heure. Rien de nouveau finalement. Vous connaissez peut-être ce phénomène, l'effet eliza. Il date de mille neuf cent soixante cinq et c'était le premier tchad, beau donc, agent conversationnel, qui était complètement trivial, vous en doutez, par rapport aux technos d'aujourd'hui. En bref. Sa stratégie de transformer des affirmations en question pour relancer les conversations. Et depuis cette époque, on parle de l'effet leader parce que déjà à l'époque, les gens disaient: waouh, mais j'ai l'impression que c'est véritablement un humain qui me parle. Alors, sachez que elisa est encore en ligne et que lisa a été lancée. D'ailleurs, Sur deux, deux, deux, deux de la psy et il disait: c'est comme ça, tu peux, tu peux faire un psychanalyste direct. Ce qui est très long. Polka, polka, c'est encore en ligne et lisa allait aller jouer avec. C'est amusant. Justement c'est le terme si on veut reprendre les notions psychanalystes sur. Je mets les guillemets sur l'ia. Et au final, c'est, on s'aperçoit qu'avec ce temps-là, c'est toujours les choses qui ont progressé, c'est la volonté, toujours, de de rapprocher de quelque chose à l'humain. On parlait de psychanalyse, on parle d'intelligence artificielle, on parle d'émotion sur quelque chose qui, au final, n'a rien de tout ça. Quoi? c'est ça que j'ai bien aimé dans le discours de laurence. Et arrêtons avec ces discours-là. Mais parce que oui, mais mais parce que voilà, on l'a dit. Il y a une forme d'entrepôt, morphine, mais surtout associé à notre culture, qui nous a menés aussi à tous ces mythes- qu'on a également évoqué- du golem de frankenstein et qui donc nourrit une culture et une perception du robot qui est l'autre, qui est presque notre double, mais diabolique ou qui devient diabolique parce qu'il. Nous échappent, faut jamais oublier que c'est nous qui l'avons incréée et, dans le cadre des ziad, qui les avons entraînés, qui l'avons nourri avec nos propres data. Et c'est peut-être là qu'est le véritable problème, parce que quand on se dit: notre créature risque de nous échapper, c'est qui cette créature? en fait? c'est nous exacerber avec nos dataset, avec nos propres comportements et nos pans. On sait, limitantes, et c'est d'ailleurs pour ça qu'un certain nombre d'ia qui ont été mis en ligne ont été débranché très, très vite parce qu'ils devenaient racistes, xénophobes, misogynes, etc. Et attention quand même au discours. Tout était là avant. On en parle depuis très longtemps, etc. Etc. Les, les, les problèmes très forts liés à l'ia. On voit qu'ils sont quand même très récents grâce à l'explosion de la capacité de calcul, donc grâce à l'explosion de l'usage, grâce à l'explosion des données qu'on a aujourd'hui. C'est ça qui fait que tout ça, même si c'était en veille, si ça se est en sommeil. On pourrait dire que c'était déjà là, effectivement, depuis depuis un moment, mais c'est ça qui fait que ça devient une actualité et un rapport assez technique, la cambridge analytica, on pourrait citer tout un tas d'éléments de de neige dans tout ce qui nous entoure et dans toutes les iaa qu'on utilise au quotidien sans même s'en rendre compte. C'est pour ça que les questions d'éthique, elles, deviennent brûlantes aujourd'hui, et quand on dit, il faut s'en préoccuper. Puis pour demain, mais il faut même s'en préoccuper aujourd'hui. Pour aujourd'hui, parce que j'ai des problèmes. Très, très fort qui se posent, liées à l'éthique, mais c'est de l'usage de l'ia. Elle a donné aussi un autre point que j'ai retenu, mike. Je pense que ça, ça doit nous parler énormément, et je pense qu'on est pas les seuls à le dire. Mais c'est pas le volume de données qui est important, mais c'est la richesse de ces données, la frugalité, et, dans l'efficacité, dans la variété, ou l'efficacité est plutôt dresse la variété. C'est justement pour éviter les dataset très wasp qui ont été d'ailleurs, qui ont fait Très, très, très, très blanc catholique homme quadragénaire. C'est ce que les anglo-saxons, c'est ce qui a fait que l'ia d'amazon. Blacklister un certain nombre de candidatures, parce que c'était ni de ressources humaines et qui n'a pas du tout embauché. Côté, volontairement tous laisser des femmes parce que le dataset était composé essentiellement d'ingénieurs qui étaient masculins, blancs, trente ans, etc. Donc, effectivement la variété. Je reviens sur ce que dit mike. Il a raison: la technique en elle-même de l'intelligence artificielle est suffisamment aboutie aujourd'hui pour nous placer au pied du mur, exactement comme avec le. Le réchauffement climatique dans les années soixante, les premiers scientifiques nous a alertés. On a attendu, il y a à peine quelques années pour que ça devienne un vrai sujet politique et ça, il y en a marre. Combien de temps il va nous falloir pour que ça devienne un sujet de débat public. L'intelligence artificielle, la robotique, etc. Mais tu as raison sur la technique. Mais ce qui est intéressant- je ne sais pas si c'est rassurant, mais c'est que les fondamentaux, les questions fondamentales, finalement, Elles datent de l'antiquité, elles ont présidé à la réflexion humaine depuis toujours et on semble les découvrir une fois de plus aujourd'hui. C'est clair. C'est ce que nous dit emmanuel gauchy dans sa chronique philo tech, qu'on n'a pas eu à cet épisode que vous retrouverez au prochain, de chronique en chronique. Mais mais c'est d'ailleurs le le point qui est intéressant, puisqu'il fait aussi le parallèle avec avec un épisode sur sur les smart city. Mr. Au fait, il faut être vigilant dans notre façon d'aborder et c'est plutôt une réflexion sociétale qu'il faut avoir. Et je pense que c'est ça qu'on a un peu oublié, c'est qu'on a tendance à se laisser porter par les événements plutôt que d'en avoir une réflexion sociétale. Et c'est ce qu'elle essayait d'apporter aussi dans le, dans le débat. Mais c'est un débat public. J'espère que c'est ce qu'on essaie de porter avec french tech, c'est de ne pas être un podcast sur la technique. Mais sur les enjeux de cette technique dans la société. Les enjeux sociétaux. Tout à fait taire. Peut-être, pour boucler un peu. Ce débrief de l'épisode. La laurence, esquisser quelques, quelques solutions. Elle nous a parlé de solutions autour du règlement des réglementaires, notamment européens, autour des normes, dont des des des des industries qui se mettent d'accord ensemble sur la manière dont elles vont travailler, tout en ayant une supervision extérieure pour être sûr qu'on ne fasse pas n'importe quoi. C'était, c'est une des questions qu'on a vu. Autour de la recherche, qu'il faut renforcer autour de l'investissement aussi dans les entreprises qui vont être les entreprises de l'ia de demain. Et, forcément, si on investit dedans, alors on va avoir des leviers pour influer sur la politique et les usages qui vont avoir de lien. Ça fait beaucoup de solutions explorées aussi à l'éducation et l'éducation de la région, qui est l'une des bases, en estimant être Le moins à gérer en parallèle les lois et les normes, pouvons paradoxalement être peut être plus rapides à mettre en place. Mais j'entends d'ici les gens- certains en tout cas, ou certaines- hurler derrière leurs oreillettes en écoutant ce podcast: quoi encore des régulations, des normes? Les contradicteurs- il y en a quand même beaucoup sur ce point là- parce qu'ils disent: oui, alors pour réguler, pour empêcher de développer, etc. Enfin, c'est anticoncurrentiel, c'est ceci, c'est cela, jacques prieur. Dans l'épisode sur la smart city, nous disons: oui, mais bon sang l'air, j'ai pédé. C'est là pour nous protéger en tant que citoyen. C'est à vous, entreprises européennes et françaises, de trouver comment, dans ce cadre-là, être plus innovant. Et donc vous, Vous créerez un marché et qui se fera au détriment, à la limite, des des gafam. Mais là, c'est pareil. Si c'est exactement ça, c'est, c'est tout à fait. C'est le point qui est juste différenciant, c'est qu'on l'est. Ces normes, la porte lancée sur la valeur éthique, c'est pour protéger les citoyens. Non, quelque part, c'est pas. Si on fait plaisir aux citoyens, quelque part, on fait aussi. Plaisir. Potentiel des entreprises fin, du moins je l'espère a priori. Quand tu achètes une paire de une paire de lunettes de soleil qui est à la norme, c'est euh, tu sais que tu as pas de cramer la rétine, juste quand tu vas sortir, et donc, t'es bien content qu'une norme existe. Fait, cinquante achètent des jouets en bois ou je ne sais quoi. T'es gamin, t'es content qu'il y ait des normes et que, justement, les entreprises- elle a répondu à un cahier des charges pour protéger, pour faire en sorte que ton Ton, ton gosse n'étouffe pas la moindre occasion. Mais là, c'est pareil exactement de cramer la rétine. Moi, effectivement, j'ai pas du tout envie de me cramer le cerveau avec arya. Ça a été du tout éthique. Messieurs, je crois qu'on arrive au bout de au bout de cet épisode et au bout du débrief. Merci beaucoup à vous tous nous avoir écouté, merci thibault, merci cyril, dans ces moments passés ensemble, merci ciel. Et on se retrouve tout de suite pour les deux dernières minutes de la conclusion. Frenchtech. Et voilà, plus ou moins soixante minutes viennent de s'écouler et, normalement, votre regard sur l'éthique de l'ia et des robots émotionnels n'est pas tout à fait la même qu'au début de l'épisode. Merci à vous d'avoir pris le temps de nourrir votre esprit critique sur les enjeux éthiques que soulèvent l'environnement technologique dans lequel nous baignons, que nous en soyons les concepteurs, les commanditaires ou les usagers. Nous avons le droit et la responsabilité d'exercer notre esprit critique sur ces sujets pour rester acteur plutôt que spectateur. Train steak. C'est terminé pour aujourd'hui, mais vous pouvez nous écouter ou réécouter sur votre plateforme de podcasts préférés et si vous voulez nous aider, profitez de cette écoute pour nous laisser un commentaire et cinq étoiles. Ça fait toujours plaisir et vous contribuerez comme cela à propager l'esprit critique pour une attaque éthique. Car, comme le disait Sacha Guitry : avoir le sens critique, c'est porter le plus vif intérêt à un ouvrage qui, justement, paraît en manquer. Statistique pathétique.