Intelligences artificielles à l'heure du coronavirus - L'été comme jamais

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Intelligences artificielles à l'heure du coronavirus

Intervenant·e·s : Laurence Devillers - Antonio Casilli - Nathalie, voix off - Dorothée Barba

Lieu : L'été comme jamais - France Inter

Date : août 2020

Durée : 40 min [NB : Le coup de fil à la presse, Répondeur d'Inter et le Conseil cinéma sont des parties non transcrites]

Écouter ou enregistrer le podcast

Site de présentation de l'épisode

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Description

De visioconférence en téléconsultation médicale, la crise sanitaire a changé notre rapport aux algorithmes. De quelle manière le coronavirus et le confinement ont changé notre vision des intelligences artificielles ? Quels changements sont à prévoir pour le monde de demain ?

Transcription

[Clip d’introduction]

Dorothée Barba : Dis Siri, ai-je raison de m'inquiéter ? Comme beaucoup de monde en ce moment, j’ai peur d'une deuxième vague de Covid-19. J’ai peur d’un éventuel reconfinement. J'avais besoin de savoir. Alors j’ai demandé à l'assistant vocal d'Apple, qui a réponse à tout : « Dis Siri, y aura-t-il une deuxième vague ? » En vrai, j'espérais un peu qu'il ne comprendrait pas et que sa réponse serait amusante, qu’il me parlerait d'océan et de vagues à surfer. Mais non, Siri a compris ma question. Sauf qu’en guise de réponse, il me renvoie sur des articles qui datent de juin dernier, sur la crainte d’une deuxième vague. L’assistant vocal, en l’occurrence, ne surfe pas sur l’actu brûlante ! Merci Siri, mais tu ferais mieux de me parler de l'écume des vagues.
Toutes les crises offrent l’occasion de se poser les bonnes questions. Celle du covid doit assurément nous permettre d’interroger l’intelligence artificielle qui est déjà partout dans nos vies. Y a-t-il un effet covid sur notre relation avec elle ? Que peut-elle pour nous cette intelligence artificielle, notamment sur le plan médical ? Mais quels risques implique-t-elle aussi ? Quelles limites doit-on fixer pour des machines plus éthiques ?
N’hésitez pas à nous poser toutes vos questions à la page de L’été comme jamais sur franceinter.fr ou sur l’application mobile de France Inter, deux spécialistes sont là pour vous répondre. « Intelligences artificielles à l’heure du coronavirus ». Soyez les bienvenus

Voix off : Dorothée Barba, 9 heures 11 heures sur France Inter.

Dorothée Barba : Avec deux invités en direct, deux spécialistes de l’AI ou de l’IA, l’intelligence artificielle. Bonjour Antonio Casilli.

Antonio Casilli : Bonjour Dorothée Barba.

Dorothée Barba : Bienvenue. Vous êtes sociologue, professeur à Télécom Paris, chercheur à l’EHESS [École des hautes études en sciences sociales]. Vous avez fait paraître l’an dernier au Seuil un livre intitulé En attendant les robots – Enquête sur le travail du clic. Comment comprenez-vous les réponses de Siri, notamment qu’elles soient si datées sur la deuxième vague ? Est-ce que c’est une façon de ne pas trop se mouiller, Antonio Casilli ?

Antonio Casilli : Finalement, il faut aussi interpréter Siri comme une base de connaissances et cette base de connaissances est mise à jour régulièrement, c’est-à-dire que Siri reçoit des réponses types à des questions très courantes.

Dorothée Barba : Il y avait des articles beaucoup plus récents sur la deuxième vague.

Antonio Casilli : Tout à fait. Et, en même temps, on est dans une situation dans laquelle nos propres connaissances sur le virus, sur la situation et sur les mesures contre le virus changent chaque jour ou chaque semaine. Donc afin d’éviter de proposer une réponse certes plus actuelle que celle que Siri vous a proposée, qui remonte au mois de juin, mais peut-être moins stable, moins solide du point de vue scientifique ou politique, il vous a donné cette réponse-là.

Dorothée Barba : Depuis les studios de France Bleue à Bayonne, j’accueille Laurence Devillers. Bonjour à vous.

Laurence Devillers : Bonjour à vous.

Dorothée Barba : Bienvenue. Professeure en intelligence artificielle à la Sorbonne à Paris, vous êtes chercheuse au laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Vos derniers ouvrages s’intitulent Des robots et des hommes et plus récemment Les robots émotionnels aux Éditions de l’Observatoire ainsi que La souveraineté numérique dans l’après-crise. Et vous, Laurence Devillers, que pensez-vous de cette réponse un peu vieillotte de Siri sur la deuxième vague ?

Laurence Devillers : En fait, Siri est un système qui travaille sur du traitement automatique du langage, qui est mon domaine de recherche, et ce n’est pas très malin. Il ne comprend rien à ce qu’il répond et ce n’est pas étonnant que même en faisant une recherche sur Internet il ne soit pas capable de trouver forcément le bon article. Il s’intéresse juste à la composition des mots présents dans l’article, donc il peut très bien vous sortir un vieil article comme un article plus nouveau sans toutefois avoir conscience de ce qui est en train de se passer. Il n’a aucune compréhension. C’était amusant de vous entendre dire « il n’a pas su surfer sur l’actualité ».

Dorothée Barba : L’intelligence artificielle n’est pas très maligne. On a un premier élément de réponse. On se plonge avec vous deux dans cette discussion dans un instant, mais d’abord, comme tous les jours, un coup de fil à la presse et le mardi la parole est à Causette. Bonjour Isabelle Motrot.

[Partie non transcrite]

8’ 04

Dorothée Barba : Dans quelques instants on serre la pince à des robots. L’intelligence artificielle au temps du coronavirus avec vos questions et commentaires à la page de L’été comme jamais sur notre site internet. Vous écoutez France Inter, en voilà une bonne idée ! Il est 10 Heures et quart.

Pause musicale : Ce qui restera par Vincent Delerm.

Dorothée Barba : C’était Vincent Delerm, Ce qui restera.

Voix off : France Inter, L’été comme jamais

Dorothée Barba : Deux éminents spécialistes de l’intelligence artificielle sont mes invités jusqu’à 11 heures, Laurence Devillers en duplex de Bayonne et Antonio Casilli ici en studio.
J’aimerais que nous commencions par la santé, même si ce n’est pas évidemment le seul sujet lorsqu’on parle des liens entre le covid et les algorithmes.
Laurence Devillers, la technologie est-elle au cœur de la bataille contre ce virus ?

Laurence Devillers : Je pense que vous avez raison, oui, c’est assez au cœur. On a déjà des outils numériques qu’on utilisait, mais on a vu une amplification forte parce que, évidemment, être proches c’est dangereux en ce moment, donc la distanciation qu’on peut avoir avec des robots, est intéressante.
Quels sont les usages ? Je dirais que c’est à la fois pour protéger, tester, isoler et anticiper, en fait, qu’on va utiliser ces outils, par exemple pour la recherche de vaccins, pour comprendre avec qui vous êtes en contact et, si vous êtes contaminé par le virus, alerter tout le monde. Ce sont des informations, donc c’est à la fois des statistiques pour du long terme, c’est aussi de la télémédecine, on a vu un bond incroyable en télémédecine, dont vous parliez tout à l’heure, et qui est très intéressant.
Tous ces outils, en fait, étaient pour la plupart encore peu utilisés, ils vont le devenir beaucoup et c’est important de comprendre qu’ils vont contribuer pour nous à concilier les objectifs sanitaires avec les objectifs sociaux et économiques. On a gardé des liens sociaux grâce à des Zoom qu’on faisait en famille, à des Zoom avec son médecin pour suivre finalement la maladie. Par exemple moi j’ai eu le covid et j’ai été très contente d’avoir effectivement tous ces liens possibles.
Il faut comprendre que toutes ces technologies sont à notre service, mais il faut pouvoir s’en servir correctement.
Donc elles font apparaître effectivement, comme vous le disiez au début Barbara, des tensions éthiques. C’est sur cela, je pense, qu’il faut réfléchir dans la société, tous ensemble, pour essayer de comprendre quels sont justement les cadres, les protocoles à mettre en place.

Dorothée Barba : Avant d’en venir peut-être aux tensions éthiques, un mot sur ce service hospitalier en Chine qui a été intégralement robotisé, inauguré au printemps. Est-ce une solution à vos yeux ?

Laurence Devillers : C’était une solution sur la distanciation. Il y avait beaucoup d’utilité à la fois pour apporter des repas aux gens qui étaient malades, désinfecter les lieux, donc le robot servait à de multiples tâches.
Il est intéressant, quand même, de se poser la question de leur utilité avec des humains. Il ne s’agit pas de remplacer les humains. Il s’agit de les remplacer pour certaines tâches qui sont pénibles, difficiles ou à risque comme on l’a vu dans la pandémie, à cause de ce problème de virus qu’on peut attraper.
Il me semble que l’expérimentation qui a été faite en Chine est intéressante en cela. Il n’est pas souhaitable de reproduire cela sans une éducation forte à la fois des soignants et des patients pour qu’on comprenne bien l’utilité, la complémentarité avec l’humain. En fait, l’humain est au centre de tout cela. Je travaille sur ces objectifs de robots sociaux, de robots pour aider les personnes dépendantes ou aider les malades ou aider les personnes handicapées, toujours dans le sens où l’humain est au centre. C’est comme ça qu’on développe cela. Les positions extrémistes en disant « non, c’est terriblement inutile » ou « allons totalement vers un monde robotisé » ne sont pas souhaitables.

Dorothée Barba : On imagine bien les réactions ulcérées que ça peut susciter dans le grand public, l’idée de voir des robots remplacer les soignants et les soignantes.

Laurence Devillers : C’est pour ça qu’ils ne remplacent pas. Ils sont incapables, comme je disais tout à l’heure avec Siri. Il y a un problème fondamental de technologie qui ne sera pas résolu si facilement. Le sens commun, la compréhension qu’on affine, le fait qu’on a un corps, qu’on ressent les choses, la machine en est totalement dépourvue. Ce n’est pas juste avec des modèles qui vont acquérir des données, même en grande quantité, qu’on va remplacer l’intuition, la créativité de l’humain, son imagination et sa façon de s’adapter très rapidement à des situations.
Donc je crois que cette idée, en tout cas cette peur qui existe, vous avez raison, de remplacement, elle est assez peu réelle. Elle fait partie d’une sur-capacitation que l’on pousse, que l’on porte à ces machines. En fait, on ferait bien de s’intéresser plus à la manipulation qu’elles peuvent avoir sur nous et qui est vraiment le sujet de mes recherches actuellement avec cette idée de « si je détecte l’affect, si je suis capable de faire une machine qui simule une certaine empathie, qui singe l’humain, quelles vont être les conséquences ? Quelles vont être les possibilités de manipulation ? ». On voit très bien en santé qu’il y a d’énormes progrès qu’on pourrait faire avec ces sortes d’outils pour aider, accompagner. On voit aussi terriblement un monde économique de business qui s’accapare ces technologies, sans garde-fous, sans régulation.
En tout cas, on est en train de construire dans le monde de la recherche et plus largement avec le gouvernement des comités d’éthique. Je fais partie d’un comité d’éthique [Comité National Pilote d'Éthique du Numérique] qui est sous le Premier ministre, une sorte de CCNE [Comité consultatif national d'éthique], que vous connaissez maintenant sur la bioéthique, dans le numérique et également un partnership en AI, c’est-à-dire un comité international qui regroupe 15 pays, qui a été monté par le président Macron et le Premier ministre Trudeau au Canada, pour faire qu’il y ait cette concertation internationale sur ces sujets. Prendre conscience, trouver les bonnes régulations et arrêtons d’avoir peur. Il faut utiliser ces machines le mieux possible.

Dorothée Barba : Au chapitre santé toujours, Antonio Casilli, venons-en au Health Data Hub[1]. C’est une plateforme qui recense les données médicales des Français, les données du ministère de la Santé. L’hébergement a été confié à Microsoft. Que pensez-vous de ce choix ?

Antonio Casilli : Il a été défendu par le gouvernement comme un choix commercial, comme un choix qui était aussi dû à certaines limitations des partenaires possibles en France, qui n’étaient pas prêts à assurer la puissance de calcul, de stockage nécessaire. Toujours est-il qu’il nous met face au paradoxe du discours français sur la souveraineté numérique qui est un sujet qui est débattu récemment et qui, grosso modo, revient d’une part à dire qu’il faut défendre certains intérêts qui sont de nature politique, qui sont aussi des valeurs politiques, qui sont aussi des intérêts commerciaux de la France, mais, de l’autre côté aussi de s’opposer à la surpuissance de certaines grandes entreprises qui sont dans certains cas, du moins pour notre partie du monde, souvent des entreprises de la Silicon Valley. Donc on se trouve face à ce type de problème.
Le Health Data Hub représente peut-être l’instanciation, l’exemplification de ce type de paradoxe parce que d’un certain point de vue le gouvernement français insiste beaucoup sur le fait de défendre cette souveraineté numérique et, de l’autre côté, parfois, doit accepter les compromis. Ça c’est, si on veut, la vision possibiliste et qui n’est pas véritablement critique de cette manœuvre. La manière critique d’envisager ce problème revient à dire que derrière ce discours de la souveraineté se cache une convergence d’intérêts de certains gouvernements, certaines administrations, certains pays y compris le nôtre et, effectivement, les intérêts des grandes entreprises capitalistes de la Silicon Valley. Grosso modo, défendre la souveraineté numérique au nom aussi de la défense des données des citoyens, parfois revient aussi tout simplement à chercher à faire exactement ce que la Silicon Valley fait, mais à la française.

Dorothée Barba : Qui vous dit que ce serait moins grave si j’ose dire, Antonio Casilli, un contrôle de nos données par des entreprises européennes ?

Antonio Casilli : Le problème est exactement quelle est la spécificité de ces entreprises européennes ? Est-ce que nous avons des entreprises européennes qui sont, par le fait même d’être européennes, plus éthiques, plus respectueuses de certaines lois ? Il y a certainement certaines contraintes qui pèsent sur certaines entreprises, je pense par exemple des contraintes de nature financière, de nature fiscale. Toujours est-il qu’on voit que la régulation de ces entreprises est loin d’être un processus linéaire. C’est un aller-retour entre les grands groupes industriels et les personnes qui gouvernent, les législateurs européens, et ce type de négociation ne se solde pas toujours dans le meilleur sens, au sens de respect des intérêts des citoyens.

Dorothée Barba : Laurence Devillers, comment l’Europe peut-elle reprendre le contrôle de l’industrie numérique et de l’intelligence artificielle ?

Laurence Devillers : Il faudrait déjà faire confiance, en fait, à la science, à la technologie. On a une force de frappe non négligeable sur ces technologies en Europe. On a aussi déjà prouvé avec les législations qu’on était capables d’être créatifs avec la GDPRErreur de référence : Balise fermante </ref> manquante pour la balise <ref>, peu connue du grand public, qui a eu un bond de 31 % de ses effectifs. 31 % veut dire que, évidemment, il y a 31 % de personnes en plus, davantage de personnes qui veulent travailler, mais en même temps ces personnes, parce qu’elles sont en concurrence entre elles, déterminent une baisse des rémunérations. Il ne s’agit pas de salariés, il faut les envisager, grosso modo, comme des free-lance qui sont en compétition sur les mêmes tâches. Par ailleurs ce sont des micro-tâches, des tâches très petites : regarder une page, écouter une petite conversation, un extrait de conversation et ainsi de suite. En plus, on remarque que depuis l’arrivée du virus, on a eu une réorientation de ces grandes plateformes sur, figurez-vous, des applications de santé publique. On voit que le secteur qui auparavant était celui qui attirait davantage de microtravailleurs, de ces coachs d’algorithmes, qui auparavant était le secteur automobile a été désormais remplacé par le secteur santé.

Dorothée Barba : Un mot sur StopCovid. Antonio Casilli. Que pensez-vous de cette application censée lutter contre la propagation du virus et qui rencontre, disons-le, un succès limité, pour ne pas dire un fiasco ?

Antonio Casilli : C’est une application qui, tout d’abord, fait partie de toute une galaxie de tentatives de solutions technologiques ou plutôt d’outils technologiques pour lutter contre le covid. Dans d’autres pays on a eu, par exemple, des applications qui cherchaient à réguler la quarantaine, donc qui vérifiaient que les gens respectaient bien la quarantaine, qui sont effectivement problématiques.

Dorothée Barba : En termes de libertés individuelles.

Antonio Casilli : En termes vraiment carrément de surveillance. Ce n’est pas le cas de la France, elle n’a pas mis en place ça. Dans d’autres cas on a eu des applications qui donnaient des informations de santé et là aussi StopCovid ne fait pas ça. StopCovid fait quelque chose de très précis c’est-à-dire ce qu’on appelle, dans le jargon, du contact tracing, c’est-à-dire du traçage de contacts, et donne des alertes. Autour de cela il y a eu une énorme controverse, une controverse technologique et politique à laquelle j’ai participé. J’ai fait partie des gens qui s’opposaient à la solution française pour des tas de raisons qui relevaient autant, effectivement, de certains risques pour la vie privée mais plus encore je considérais qu’il y avait un problème interne de discrimination possible parmi les gens qui l’adopteraient et les gens qui ne l’adopteraient pas.
Ce qui s’est passé par la suite c’est que, malgré cette grande controverse, le gouvernement a fait passer cette application un peu à marche forcée et la situation actuelle avec, ce que vous disiez, une adoption très limitée ; je pense que ça fait 3 % de la population française et à peine 20 cas détectés sur plusieurs mois d’application. Ce scénario, pour moi, est en même temps le meilleur et le pire possible. Le meilleur parce que d’un certain point de vue certains des risques et des menaces que nous avions identifiées, moi et d’autres, ne se sont pas réalisées à cause, effectivement, de cette faible adoption. Le pire possible est que, effectivement, nous nous retrouvons dépourvus d’une solution véritablement efficace. Je considère personnellement que la solution efficace est une solution qui est d’abord enracinée d'abord dans l’action humaine. Le contact tracing, c’est-à-dire le fait de tracer des contacts, était fait auparavant par des êtres humains et continue d’être fait par des êtres humains. On a aussi un problème en termes d’investissement et désinvestissement de fonds publics pour financer ce type de politique. Au niveau international, les applications comme StopCovid ont déterminé un désinvestissement fort sur des solutions qui seraient plus enracinées dans la santé publique et dans des êtres humains.

Dorothée Barba : Je me tourne à nouveau vers Bayonne où Laurence Devillers est en duplex depuis France Bleue Pays Basque. Vous travaillez beaucoup, Laurence Devillers, sur la reconnaissance des émotions par la voix. On s’imagine souvent que les émotions c’est ce qui nous distingue des machines, finalement pas tellement, et ça pose beaucoup de questions éthiques, Laurence Devillers.

Laurence Devillers : Oui, effectivement. Je m’intéresse à la reconnaissance des émotions que vous exprimez à travers la voix, la musique de la voix principalement. Il y a aussi des travaux sur les expressions du visage ou les gestes, mais ce ne sont évidemment pas les émotions réelles, ce ne sont que l’expressivité de la personne qu’on va chercher à détecter, si vous avez l’air content, pas content.
C’est plus complexe lorsqu’il s’agit en fait de l’inverse. C’est-à-dire que la machine singe l’humain, vous livre une expressivité émotionnelle et elle peut vous manipuler assez facilement avec cela. Ça fait penser au film Her, par exemple, où quelqu’un s’attache à une machine, tombe amoureux d’une machine.
Il y a effectivement des vrais sujets éthiques liés à l’isolement des gens. Ce sont des sujets porteurs industriellement et on le voit avec Alexa Amazon, Google Home, etc. qui essaient de développer, en fait, des systèmes pour les personnes vulnérables et isolées, qui seraient empathiques, aidants, etc.
Il est important de comprendre que pour la santé, pour des aspects de suivi par exemple de dépression, pour des pathologies comme la maladie de Walter (???) ou de Alzheimer, on peut trouver un intérêt réel à avoir une machine qui comprenne, qui détecte quelques expressivités.
Maintenant le niveau réel, l’état de l’art de ces systèmes est très bas encore, on peut le dire.

Dorothée Barba : Très bas pour l’instant, on ne sait pas encore bien faire, c’est ce que vous dites.

Laurence Devillers : En général. il y a 30 % d’erreurs, ce qui est énorme. En fait les émotions, comme vous l’avez très bien dit, c’est propre à l’humain, c’est propre à son ressenti physique que n’a pas la machine. On voit bien qu’on en est très loin. Et ces systèmes qui font 30 % d’erreurs peuvent être utilisés malgré tout pour le recrutement ainsi que d’autres applications que je trouve assez peu éthiques.

Dorothée Barba : Justement le recrutement, un chapitre intéressant notamment à l’heure où le télétravail se généralise. Certaines entreprises françaises utilisent des logiciels qui examinent la voix du candidat ou de la candidate.

Laurence Devillers : Oui. J’ai découvert cela aussi. Ils ne vont pas forcément chercher les émotions mais la fluidité, le champ lexical, c’est-à-dire est-ce que vous avez des mots sophistiqués, est-ce que vous êtes capable d’avoir une pensée riche, une expression riche ? Et puis dans la musique de la voix : est-ce que vous êtes à l’aise, extraverti. C’est terriblement discriminant : si votre enfant, par exemple, a un cheveu sur la langue ou si vous est d’origine étrangère avec un accent vous ne serez évidemment pas forcément dans les leaders.
On peut imaginer l’inverse, je crois que c’est possible de tricher avec ces machines, c’est-à-dire que si, par exemple, vous prononcez des mots extrêmement techniques à la suite, liés évidemment à l’emploi que vous cherchez et puis que vous avez l’air très sûr de vous, vous risquez de passer dans les premiers, voyez-vous ! Ce n’est pas pour cela que vous serez efficace pour le travail demandé.
Il y a ce biais terrible de passer par des machines alors qu’on cherche une richesse et une différenciation de profils. Même si ça facilite effectivement pour les recruteurs le tri des dossiers, je pense que c‘est vraiment à vérifier de très près. C’est un de ces sujets qu’on va regarder de très près pour vérifier le consentement. On nous dit qu’on demande le consentement des gens, mais vous voyez, quand vous cherchez un poste, vous dites bien sûr que je vais donner mes données. La transparence de ces systèmes : comment mesurent-ils et quelles caractéristiques vont-ils chercher ? Ce n’est pas du tout évident. Et puis est-ce qu’ils ont fait, par exemple, des essais sur le fait que quand je dis que je ne suis pas consentante est-ce que je peux quand même obtenir un job dans cette boîte ? C’est intéressant à savoir. Est-ce qu’on est vraiment libre de refuser d’utiliser ces systèmes ?
Il y a aussi un autre fait qui est important à dire, je pense, c’est la sous-représentation féminine, souvent. Comme on utilise des corpus de données venant des recrutements précédents, eh bien par exemple dans l’informatique on ne va se retrouver qu’avec des profils masculins en grande majorité, si on ne fait pas attention.

Dorothée Barba : Ça peut créer de la discrimination à l’embauche.

Laurence Devillers : J’ai toujours une petite phrase sur les femmes que j’aimerais bien vous dire quand même.

Dorothée Barba : Allez-y !

Laurence Devillers : Dans ce domaine de l’IA et du numérique en gros 80 % des codeurs et des personnes qui optimisent ces systèmes, qui mettent des modélisations de nos façons de parler et de nos façons de se comporter socialement sont des hommes. Et 80 % en fait des systèmes qui nous parlent – la parole est aussi le propre de l’humain, a une influence considérable sur les autres – eh bien ce sont des entités qu’on féminise avec des prénoms féminins – Sofia, Alexa – avec des figures féminines quand elles sont personnifiées, avec des corps féminins lorsqu’il s'agit de robots. Cela est assez dangereux si on regarde ça à un niveau macro dans la société. Que veut dire la représentation de la femme à travers ces machines si n’y prend pas garde ? Ce sont des assistantes assez bêtes pour l’instant, la sémantique est évidemment un des grands sujets de recherche très complexe, donc on peut les éteindre quand on veut.

Dorothée Barba : Intelligence artificielle pas tellement intelligente donc, pas tellement artificielle non plus et Alexa n’est pas une femme, voilà ce qu’on retient, Antonio Casilli.
Dernière question, très rapidement, sur la collecte des données. On a tendance parfois à penser que ça n’est pas si grave de livrer gratuitement ses données parce qu’on n‘a rien à cacher. Que répondez-vous à cela ?

Antonio Casilli : Que c’est discours décidément dangereux. Si quelqu’un vous dit « ne t’en fais pas, si tu n’as rien à cacher tu n’as rien à craindre ». Si c’est dans un film, c’est normalement le type de mot ou de phrase qui est dans la bouche de quelqu’un d’extrêmement dangereux, un tyran, un autocrate. Le problème est que peut-être qu’on n’a rien à craindre par rapport à aujourd’hui, mais on ne sait pas quels seront les usages futurs de ces données et surtout on ne sait quels sont les croisements, les appariements qu’on va faire avec ces données. Une donnée qui peut être anodine à nos yeux.

Dorothée Barba : Toute seule.

Antonio Casilli : Une seule donnée peut être croisée avec plusieurs autres données. Une donnée qui aujourd’hui n’est pas problématique peut le devenir si on est par exemple face à un changement de régime politique ou de standard de normes éthiques.

Dorothée Barba : La souveraineté numérique dans l’après-crise de Laurence Devillers est à lire aux Éditions de l’Observatoire ainsi que Des robots et des hommes, mythes, fantasmes et réalité chez Plon.
Quant au livre d’Antonio Casilli En attendant les robots c’est à lire au Seuil. Je recommande aussi cette série documentaire qui est tirée de vos travaux, pédagogique et édifiante Invisibles est son titre. C’est à voir sur france.tv/slash/ et c’est gratuit.
Merci beaucoup à tous les deux.

Laurence Devillers : Merci.

Antonio Casilli : Merci.

Dorothée Barba : Bonne journée et à bientôt sur France Inter.

[Partie non transcrite]