Différences entre les versions de « Monétisation des données : la data aux œufs d’or - La méthode scientifique »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 90 : Ligne 90 :
 
==12’ 50==
 
==12’ 50==
  
<b>Olivier Ertzscheid : </b>Oui, j’avais effectivement utilisé
+
<b>Olivier Ertzscheid : </b>Oui, j’avais effectivement utilisé à propos du lancement de cette application, le terme data-prostitution qui était entièrement outrancier, mais pas tant que ça puisque je considère que tout est sincèrement mauvais et toxique dans l’approche qui est proposée, Valérie Peugeot en a rappelé les raisons essentielles. Dans l’approche qui est véhiculée TaData, le premier problème c’est celui de la cible. On s’adresse à des gens à partir de 15 ans, c’est-à-dire des gens précisément à l’âge où on commence à la fois à percevoir l’enjeu de ses données personnelles mais où on ne maîtrise pas nécessairement tous ces enjeux. C’est par essence, si j’ose dire, le public le plus fragile. Si la majorité numérique avait été déclarée à 8 ans je n’ai aucun doute sur le fait que ces gens-là auraient proposé leur application à des enfants dès l’age de 8 ans. Donc la cible est mauvaise.<br/>
 +
La nature même, la philosophie du projet qui est derrière cette application est éminemment toxique puisque, en gros, l’idée dans l’argumentaire des deux fondateurs c’est de dire après tout, puisqu’il y a un modèle toxique qui est celui des grandes plateformes, puisque des gens se gavent sur la vente – qui en fait n’est pas une vente littéralement de ces données personnelles, mais en tout cas sur le ciblage publicitaire – autant que tout le monde en profite et autant qu’on utilise le même modèle toxique. Donc ça, comme <em>pitch</em> ou comme projet de société ça me partait plus que limite, plus que douteux et même, dans les annonceurs qui sont derrière, il y a des choses qui ne sont pas du tout claires. Dans la liste des annonceurs et des partenaires, on voit que ce sont essentiellement 98 % des écoles d’enseignement supérieure privées, alors que les deux fondateurs ont eux-mêmes gravité dans le monde de l’enseignement supérieur privé pendant plus de dix ans. Il y a peut-être quelque chose qui transpire ou respire en tout cas de possible conflit d’intérêt.<br/>
 +
Rien ne va dans cette application à commencer, effectivement, par cette idée que tout est marchandise et que, après tout, nos données personnelles qu’elles qu’elles soient – là effectivement ils sont relativement prudents en expliquant qu’ils se limitent à certaines catégories de données – mais on voit bien que, puisque la loi du marché est la seule règle, si demain il devient possible de vendre des données génétiques, de santé, politiques, sexuelles, etc., ces gens-là seront les premiers à ouvrir des soldes sur le sujet. Donc ça me paraît une application dangereuse et toxique et oui, je réaffirme le fait qu’on n’est pas loin d’une forme de prostitution à l’échelle des données personnelles.
 +
 
 +
<b>Nicolas Martin : </b>On va essayer de réfléchir ensemble tout au long de cette heure sur la nature de ce que nous délivrons à ces acteurs du numérique et, finalement, à cette question que vous souleviez l’un et l’autre à demi-mot et qu’on va essayer d’explorer : de se dire, finalement puisque tant de plateformes – d’ailleurs que le modèle soit jugé toxique ou non, et on pourra en débattre – utilisent ces données un peu à l’insu de notre plein gré, pour utiliser l’expression consacrée ou, en tout cas, quasiment à notre insu malgré les quelques digues légales qui sont posées entre nous et ces acteurs, eh bien, finalement, pourquoi ne pas bien prendre le plein contrôle de ses données et chercher à les monétiser, nous, directement pour en récupérer du profit direct. On va vois si c’est possible, quelles sont les questions que ça pose, c’est le sujet de notre émission du jour.
 +
 
 +
<b>Voix off : </b>France Culture, <em>La Méthode scientifique</em>, Nicolas Martin.
 +
 
 +
<b>Nicolas Martin : </b>À 16 heures 15 nous parlons de monétisation des données personnellestout au long de cette heure en compagnie de Valérie Peugeot et de Olivier Ertzscheid.<br/>
 +
Peut-être qu’on peut commencer à poser un peu les termes du débat : de quoi parle-t-on quand on parle de monétisation des données personnelles ? Quelles réalités est-ce que ça recoupe Valérie Peugeot ?
 +
 
 +
<b>Valérie Peugeot : </b>Il y a beaucoup de confusions autour de ce terme. En fait, ça fait maintenant plus de dix ans qu’on nous parle de data et de <em>new oil</em>, le pétrole du XXIe siècle, le déluge des données, etc. On a eu l’impression qu’il y avait une espèce de mine d’or par analogie avec le pétrole, enfin une mine de données qui allait générer des revenus considérables.<br/>
 +
En réalité, quand on parle de données, il faut faire plusieurs distinctions. La première c’est qu’il y a des données à caractère personnel, on en a déjà parlé dans cette émission, et il y a aussi beaucoup d’autres données qui n’ont pas de caractère personnel. Et dans cette économie de la donnée, par exemple la fréquentation des magasins, le nombre de produits vendus, etc., ce sont des données qui sont récoltées par les entreprises mais qui n’ont pas de caractère personnel et elles participent aussi de cette économie de la donnée, elles sont en dehors d’une monétisation directe.<br/>
 +
On confond aussi valeur monétaire et valeur d’usage. Les données peuvent servir à une organisation, à améliorer son fonctionnement, améliorer sa relation client, ajuster ses horaires, mieux gérer ses stocks, diminuer ce qu’on appelle le <em>churn</em> c’est-à-dire le départ de ses clients, etc., tout ça c’est une valeur d’usage mais ce n’est pas forcément une valeur monétaire.<br/>
 +
En fait, en général dans les discours, on mélange un petit peu tout ça et on a l’impression que c’est énorme.<br/>
 +
Si maintenant on en reste vraiment à ce qui est la valeur monétaire des données, il y a une troisième confusion qui est faite entre ce qu’on pourrait appeler de la monétisation directe et de la monétisation indirecte.<br/>
 +
La monétisation directe consiste à vendre une base de données, un fichier, avec des données qui peuvent être à caractère personnel ou pas d’ailleurs, et en fait, sur les marchés, cette part est toute petite. En fait, les organismes qui disposent de fichiers de données n’ont aucun intérêt à les céder puisque cette information, une fois qu’ils l’ont cédée, va circuler et va perdre de sa valeur. Donc ce qui est monétisé ce ne sont que très rarement les données elles-mêmes, mais ce sont plutôt des espaces publicitaires ou des campagnes publicitaires qui vont se construire autour de profils d’individus, profils qui ont été construits par les acteurs du marché publicitaire. Il faut bien comprendre que ce ne sont pas les données elles-mêmes qui circulent, mais ce sont des campagnes publicitaires qui s’ouvrent sur la base des profils qui ont été construits par des intermédiaires.<br/>
 +
Ces intermédiaires ça peut être Facebook ou Google, qui ont aujourd’hui plus de la moitié du marché, ou ça peut être ce qu’on appelle des <em>data brokers</em>, des courtiers de données, dont le métier consiste à mettre ces petits cookies, dont vous entendez parler régulièrement, sur les sites web pour récolter des informations sur vos centres d’intérêt, vos comportements en ligne et pouvoir construire, comme ça, votre profil. Ensuite, au moment il y a une demande d’un annonceur pour une campagne de publicité qui dit je voudrais toucher des femmes de 25 à 40 ans qui s’intéressent aux voitures et qui aiment voyager, eh bien ils vont aller sur une place d’enchères vendre en masse les profils qui répondent au critère de l’annonceur.<br/>
 +
Ce qu’il faut comprendre c’est que ce n’est jamais de la donnée directement identifiée, c’est-à-dire qu’on n’a pas besoin de faire savoir si vous vous appelez Sophie ou Michel mais parce que ça n’intéresse pas les annonceurs, ce qui les intéresse c’est ce qu’ils peuvent savoir sur vous. Donc il faut vraiment comprendre parce que, par analogie ou par réduction on dit « vente de données ». Non, ce n’est pas de la vente de données, c’est de la vente de publicité qui est au cœur du modèle.
 +
 
 +
<b>Nicolas Martin : </b>Pardon Valérie Peugeot, je vous interromps un instant, la vente de publicité <em>in fine</em> se transforme tout de même en revenus pour les personnes qui vendent de l’espace publicitaire. Quand on pense, par exemple, aux réseaux sociaux, c’est justement en exploitant les données personnelles d’un réseau comme Facebook que les publicités ciblées vont atterrir sur mon écran et ces publicités vont être transformées en monnaie directe, en argent qui va rémunérer Facebook.
 +
 
 +
<b>Valérie Peugeot : </b>Tout à fait. C’est ce qu’on appelle l’économie de l’attention qui est techniquement un marché biface, c’est-à-dire qu’il y a deux faces sur un marché : un marché vers les individus, vers les internautes, qui a l’apparence de la gratuite, il n’y a pas de monétisation en tout cas directe, on ne vous fait pas payerdirectement pour aller sur Facebook ou pour taper une recherche dans votre moteur de recherche préféré et puis un marché payant vers les annonceurs. Ces marchés bifaces se construisent autour de ce qu’on appelle l’économie de l’attention puisque l’objectif c’est de capter votre attention et de vous faire passer le plus de temps possible sur des sites web de manière à pouvoir vous proposer le plus possible de publicité. C’est ça le cœur de l’économie de l’attention. Il y a d’autres versions de l’économie de l’attention. L’économie de l’attention existait avant le web, dans la presse papier par exemple.
 +
 
 +
<b>Nicolas Martin : </b>À la télévision et dans tous les médias.
 +
 
 +
<b>Valérie Peugeot : </b>À la télévision, dans tous les médias, mais elle a explosé et elle s’est diversifiée dans ses vecteurs et dans ses formes avec notamment le Web.<br/>
 +
Cette économie de l’attention soulève toute une série de problèmes, je peux peut-être vous en citer quelques-uns. Déjà, le premier problème, c’est que les données qui sont collectées sur vous racontent des choses sur vous et des choses que vous n’avez pas forcément l’intention de laisser circuler, parce que quand on croise toute une série d’informations, eh bien on peut apprendre que vous avez eu un deuil, qu’il y a une grossesse attendue ou que sais-je encore.
 +
 
 +
<b>Nicolas Martin : </b>Notre orientation sexuelle par exemple qui est quand même…
 +
 
 +
<b>Valérie Peugeot : </b>Notre orientation sexuelle. Voilà. Donc des tas d’informations très personnelles et plus ces données circulent plus elles peuvent soulever de problèmes, des problèmes de différents ordres. D’abord elles participent de qu’on pourrait appeler une industrie de l’influence, c’est-à-dire que ces acteurs qui poussent en permanence des publicités ou vous influencent pour aller vers tel ou tel site et vous emmènent globalement, on va dire, vers des logiques de surconsommation, donc c’est vraiment un moteur à une économie de la surconsommation dans la période actuelle où on doit penser notre ??? écologique parait complètement anachronique. On est vraiment au cœur du toujours plus dans la consommation.<br/>
 +
Ça pose des problèmes de sécurité parce que plus on fait circuler de la donnée plus il y a de risques d’attaque : de nombreuses bases de données, c’est ce qu’on voit de plus en plus dans les contrôles à La CNIL, sont peu ou mal sécurisées. On l’a vu récemment, y compris avec des données très sensibles. On a vu passer dans la presse des dossiers de psychothérapeutes en Finlande qui ont été massivement piratés et les données mises sur le Web. Dans le passé on a vu aussi un site de rencontres adultères dont les données ont été mises sur le Web avec derrière quand même des suicides, ne l’oublions pas, des gens dont les données ont été dévoilées qui se sont suicidés. Donc des problèmes de sécurité.<br/>
 +
Des problèmes aussi de surveillance par les États, parce qu’il y a de plus en plus une tendance chez un certain nombre d’États à mettre en place de la surveillance de masse et ces États vont piocher dans les bases de données des acteurs marchands. C’est ce que nous a expliqué Snowden en 2013. Il a bien montré comment les pouvoirs publics américains étaient allés chercher dans les données des opérateurs télécoms, dans les données des grandes plateformes du web, pour surveiller des citoyens à la fois étasuniens mais aussi d’autres pays.<br/>
 +
Vous voyez que c’est toute une série de problématiques comme ça, imbriquées, qui touchent presque un peu, j’ai envie de dire, à notre modèle de société.
 +
 
 +
<b>Nicolas Martin : </b>C’est vrai. Vous faites bien de rappeler tout cela. C’est vrai que quand on vous entend on se dit je vais immédiatement supprimer tous mes comptes Facebook, Twitter, Instagram et tout le reste parce qu’on se rend compte à quel point cette économie est fondée sur un modèle que vous avez vous-même qualifié, d’ailleurs l’un et l’autre, de toxique. Néanmoins aujourd’hui ce modèle existe.<br/>
 +
Olivier Ertzscheid, ma question c’est : est-ce que, aujourd’hui déjà, il est encore vrai que cet axiome dont je parlais au tout début de l’émission, dans l’introduction, que quand c’est gratuit c’est nous le produit ? Et à partir du moment où c’est nous le produit, finalement pourquoi ne pas récupérer la main sur la façon dont on veut valoriser, commercialiser nos propres données, c’est-à-dire décider de ce que l’on veut transmettre, à qui on veut le transmettre et en tirer une rémunération directe ? Quel est le problème là-dedans ?
 +
 
 +
<b>Olivier Ertzscheid : </b>Le problème, là aussi Valérie l’a déjà expliqué, je vais peut-être le prendre sous un autre angle.<br/>
 +
Oui c’est vrai, effectivement, que si c’est gratuit nous sommes le produit, mais, encore une fois, nous sommes le produit dans ce que Valérie a appelé un marché biface, c’est-à-dire que le produit que nous sommes y trouve un intérêt et que cet intérêt est lié à l’intérêt réciproque que les annonceurs y trouvent également. Donc le pacte, en quelque sorte, je ne dis pas que c’est un pacte souhaitable, c’est que j’accepte, en proportionnalité, de livrer un certain nombre de mes données en échange de recommandations qui vont être des recommandations publicitaires ou affinitaires contextuelles, c’est-à-dire qui m’apportent un service contextualisé. Là on est sur un modèle de rupture avec les projets, TaData en est un exemple, mais plus globalement derrière tout le discours un petit peu libertarien de l’entrepreneuriat de soi, de la possibilité, effectivement, que les produits que nous sommes revendiquent leur droit de vendre leurs propres données, le problème c’est qu’on va produire une dissymétrie fondamentale.<br/>
 +
Je vais juste prendre un exemple et faire un tout petit pas de côté. En France, on est un pays où les essais thérapeutiques – là on parle beaucoup de recherche de gens pour tester des vaccins contre le coronavirus – ne peuvent pas donner lieu à rémunération. Pourquoi la rémunération sur les essais thérapeutiques est-elle interdite ? Précisément pour éviter que des gens qui seraient en situation de grande précarité ou de grande misère ne se trouvent, en quelque sorte, doublement exploités et ne soient obligés, comme ça, de vendre leur corps à la science.<br/>
 +
À l’échelle du modèle proposé pour les données personnelles c’est exactement la même chose, c’est-à-dire que quand on dit qu’il est possible de vendre ses données et après tout, si tout est marché, pourquoi pas, il ne faut jamais oublier qu’il y a des données qui valent beaucoup plus d’argent que d’autres et que, comme par hasard, les gens les plus riches sont aussi ceux qui disposent des données les plus qualifiées, donc ils seront ceux en situation de les vendre le plus cher possible et avec le moins d’urgence sociale ou économique à le faire. Du coup, non seulement on va aller sur un modèle qui, encore une fois est fondamentalement toxique, Valérie l’a bien rappelé, puisque qu’il y a des enjeux. Une donnée ça n’existe pas. Pour reprendre l’expression de Latour qui disait « il n’y a pas de données il y a que des obtenus », une donnée en soi ne veut rien dire. Une donnée ça traduit, ça trahit des choses et puis, quand on recoupe une donnée avec une autre donnée, on produit une connaissance qui n’est pas celle de la donnée elle-même, c’est-à-dire qu’on arrive à inférer des relations sociales, des comportements politiques, sexuels ou religieux même s’ils ne sont pas dans la donnée elle-même. Au final, on va effectivement avoir un modèle qui est l’inverse d’un modèle vertueux et qui va accélérer les effets de dissymétrie sans jamais permettre à l’échelle de l’individu, et notamment des individus les plus pauvres ou les plus exposés, de récupérer un petit peu de symétrie. Et puis on va transformer toute une génération, puisqu’il s’agissait avec TaData de cibler à partir de 15 ans, en ce que Antonio Casilli, le sociologue, appelle les travailleurs du clic.
 +
 
 +
<b>Nicolas Martin : </b>Que l’on avait d’ailleurs reçu ici.
 +
 
 +
<b>Olivier Ertzscheid : </b>Oui, je le sais bien. C’est-à-dire des gens, des nouveaux travailleurs pauvres qui vont finalement se retrouver à étendre leur portefeuille de micro-tâches. Parmi ces micro-tâches, très mal rémunérées, on trouvera effectivement la possibilité de vendre telle ou telle « donnée personnelle », entre guillemets. Ça, ça paraît très problématique à l’échelle d’une société qui, par ailleurs, s’appauvrit et qui a besoin de trouver des modèles économiques vertueux pour les plus précaires et non pas des modèles économiques qui, encore fois, vont être centrés sur ceux qui ont les moyens de nourrir cette économie-là.
 +
 
 +
<b>Nicolas Martin : </b>Est-ce qu’on a une idée aujourd’hui de la valeur numéraire des données personnelles, soit à titre individuel soit à titre collectif, national, transnational ou européen, de l’argent que génère cette économie de la donnée et de l’attention ? Olivier Ertzscheid.
 +
 
 +
<b>Olivier Ertzscheid : </b>Oui. Il y a des chiffres qui sont, comment dire, toujours un petit peu non pas suspects mais univoques parce que ce sont toujours plutôt les chiffres de la police que ceux des manifestants. Il y a, par exemple, une mesure qu’on appelle l’ARPU, le revenu moyen par utilisateur pour les plateformes où, en gros, on estime, par exemple pour Facebook, qu’un utilisateur rapporte à peu près à Facebook aux USA autour de 7 euros par mois, en Europe c’est beaucoup moins, c’est entre 2 et demi et 3 euros et tout cela est extrêmement variable. D’abord quand on dit qu’un utilisateur rapporte 7 euros par mois à Facebook aux État-Unis, il ne faut pas oublier que derrière Facebook il y a aussi WhatsApp, il a aussi Instagram, donc il y a des ressources de monétisation qui sont colossales et puis ces données, encore une fois, elles varient. Ce que rapporte un profil d’utilisateur à Facebook dans son exploitation commerciale c’est extrêmement variable selon l’âge de l’utilisateur, selon le pays de l’utilisateur et surtout selon le niveau de vie de l’utilisateur. C’est-à-dire que les utilisateurs riches rapportent à Facebook beaucoup plus que ne lui rapportent les utilisateurs pauvres, pour le dire de manière un petit peu simplifiée.
 +
 
 +
<b>Nicolas Martin : </b>Parce qu’ils consomment plus, parce qu’ils cliquent plus sur les liens, donc ils génèrent plus de revenus, c’est ça ?
 +
 
 +
<b>Olivier Ertzscheid : </b>D’abord parce qu’ils ont une activité de consommation supérieure et surtout parce que leurs données personnelles sont beaucoup plus qualifiées, donc beaucoup plus exploitable sur le plan marchand que des données personnelles de gens qui ont des revenus moindres.
 +
 
 +
<b>Nicolas Martin : </b>On va continuer à discuter de cette monétisation des données personnelles puisqu’on dépeint un tableau que l’on peut considérer, que d’aucuns considéreraient comme un peu sombre. Néanmoins on va voir comment remédier à ces questions, que faire de ces données, comment les encadrer, si aujourd’hui les États, les structures super étatiques comme l’Europe ont des moyens pour essayer de nous protéger. Est-ce que la protection est à un niveau individuel ou collectif ? On en discute dans un instant.
 +
 
 +
<b>Pause musicale : </b><em>Ch Ch Chewa</em> par The Twin Souls.
 +
 
 +
==33’ 09==
 +
 
 +
<b>Nicolas Martin : </b><em>Ch Ch Chewa</em>, The Twin Souls qui est, comme son nom ne l’indique pas,

Version du 9 novembre 2020 à 08:45


Titre : Monétisation des données : la data aux œufs d’or

Intervenant·e·s : Valérie Peugeot - Olivier Ertzscheid - Natacha Triou - Jounalises et cofondateur TaData, voix off - Nicolas Martin

Lieu : Émission La Méthode scientifique - France Culture

Date : novembre 2020

Durée : 59 min

Écouter ou enregistrer le podcast

Présentation de l'émission

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Nicolas Martin : On n’a presque plus à vous le répéter, ce qui est devenu aujourd’hui un axiome d’Internet : « quand c’est gratuit, c’est que c’est vous le produit ! ». Et de fait, de nombreuses entreprises numériques – les réseaux sociaux au premier chef – vivent du commerce des informations que vous leur délivrez, plus ou moins à votre insu. Le RGPD, le Règlement Général pour la protection des données, a tenté de mettre de l’ordre dans tout ça en faisant de la délivrance des données personnelles un « acte conscient », mais cela a-t-il vraiment changé quoi que ce soit ? Et si, après tout, nous étions tous rémunérés pour le fait de transmettre ces informations aux entreprises ? Et jusqu’à quel niveau ? La monétisation des données pourrait-elle, in fine, retomber dans notre poche ?
« Monétisation des données : la data aux œufs d’or », c’est le programme financier qui est le nôtre pour l’heure qui vient. Bienvenue dans La Méthode scientifique.
Et pour évoquer cette exploitation et cette transformation de nos données individuelles en monnaie presque sonnante et trébuchante, j’ai le plaisir de recevoir aujourd’hui Valérie Peugeot. Bonjour.

Valérie Peugeot : Bonjour.

Nicolas Martin : Vous êtes membre du collège des commissaires de la CNIL – la Commission nationale informatique et libertés – en charge des données de santé, et chercheuse en sciences sociales au département de recherche SENSE pour Sociology and Economics of Networks and Services à Orange Labs et Olivier Ertzscheid. Bonjour.

Olivier Ertzscheid : Bonjour.

Nicolas Martin : Vous êtes enseignant chercheur en sciences de l’information à Nantes.
On commence par celle qui a vendu, il y a déjà très longtemps, son âme à Instagram, c’est Natacha Triou pour Le journal des sciences. Bonjour Natacha.

Natacha Triou : C’est faux. Bonjour Nicolas.

Nicolas Martin : On commence ce journal par un fait d’actualité qui vous aura difficilement échappé, ce sont les élections présidentielles, problématiques d’ailleurs, aux États-Unis qui continuent encore aujourd’hui. Or la dernière ordonnance de Donald Trump inquiète la communauté scientifique américaine. Natacha.

Natacha Triou : On n’a pas de rappeler tout ce que Trump a fait à la science en quatre ans de mandat, entre les réductions drastiques des budgets, le blocage de publications ou encore la dévalorisation du discours scientifique.
Le 21 octobre, le président américain a émis un dernier décret qui vise les institutions scientifiques gouvernementales qui emploient environ deux millions de personnes. Cette ordonnance crée une catégorie d’emplois pour les fonctionnaires, tels que les chercheurs, pour ceux qui exercent des rôles, je cite, « confidentiels, déterminant les politiques et défenseurs des politiques ». Ce décret faciliterait le licenciement des chercheurs en place et simplifierait l’embauche sur des critères politiques. On peut donc s’inquiéter pour la NOAA [National Oceanic and Atmospheric Administration] qui surveille le climat, les tempêtes et la pêche ou encore le PA qui réglemente la pollution de l’air et de l’eau des usines et de centrales électriques. Cette ordonnance pourrait être un coup fatal pour l’indépendance de la science dans l’ensemble du gouvernement fédéral.

Nicolas Martin : On suit évidemment les élections américaines dans les journaux de la rédaction de France Culture et puis on suit Le journal des sciences sur les ondes, également sur notre fil Twitter @lamethodefc, sur le site de France Culture, franceculture.fr.
On passe aux brèves.
Selon une étude parue hier dans la revue Cell Reports, la cornée de l’œil serait résistante aux SARS-CoV-2.

Natacha Triou : On sait que la transmission du virus passe par la bouche et le nez. Concernant la transmission oculaire cela serait biologiquement possible, mais, à vrai dire, on n’en sait trop rien. Des chercheurs américains se sont intéressés à cette question. Ils ont utilisé des tissus cornéens de souris mais aussi de 25 donneurs humains. Ils les ont exposés à trois virus, le Zika, l’herpès et le nouveau coronavirus. Contrairement au Zika et à l’herpès, il n’y a aucun signe de réplication du SARS-CoV-2 dans la cornée. Mais, comme le reconnaissent eux-mêmes les auteurs, ce ne sont que des résultats préliminaires, cela ne veut pas nécessairement dire que toutes les données sont résistantes à ce virus.

Nicolas Martin : Et après huit mois de silence la NASA a réussi à communiquer de nouveau avec la sonde Voyager 2.

Natacha Crance : Lancée en 1977, la sonde voyage à présent à l’extérieur de notre système solaire, à 19 milliards de kilomètres de notre planète. Depuis le mois de mars la sonde naviguait en solo, car la seule antenne radio sur terre capable d’envoyer des commandes devait être rénovée. Le 29 octobre la NASA a testé l’antenne remise à neuf et tout s’est bien passé. Voyager 2 a bien reçu et exécuté les commandes sans aucun problème.

Nicolas Martin : Et enfin, selon une étude parue dans le British Medical Journal, un implant cérébral a permis à deux personnes paralysées de contrôler des ordinateurs avec leur cerveau.

Natacha Crance : Il s’agit d’un implant sans fil, de la taille d’un trombone, qui vient se loger juste au-dessus des sinus, à côté du cortex moteur primaire. Les chercheurs de l’université de Melbourne l’ont essayé sur deux patients atteints de sclérose latérale amyotrophique, la maladie de Stephen Hawking. Cette interface directe avec l’ordinateur a été combinée avec un eyes tracker, un suivi oculaire, pour déplacer un curseur. Les patients ont pu accomplir différentes tâches : envoyer des SMS, naviguer sur le Web ou faire des opérations bancaires. Comme cette intervention ne nécessite pas de chirurgie à cerveau ouvert, des essais cliniques de plus grande taille sont prévus en Australie.

Nicolas Martin : Merci Natacha. On vous retrouve demain pour le prochain Journal des sciences.
Et si nous reprenions la main sur nos données personnelles, pour les protéger, bien sûr, mais aussi pour en faire, finalement, ce que bon nous semble ? Et si je décidais, en pleine conscience, de vendre mes données individuelles ou de santé à des acteurs qui me proposent, contre leur échange, une rémunération directe ? Si, au lieu d’être ciblé avec un consentement, somme toute très limité, par des publicités individualisées en fonction de mon profil, je décidais de vendre mes goûts et mes couleurs à des annonceurs qui me payeraient en échange ? Et si, en fait, l’État m’autorisait à considérer mes données comme des marchandises ? C’est un peu le pari qu’a fait une société, nous en avions d’ailleurs parlé dans Le journal des sciences, la société TaData qui a été considérée en conformité juridique et informatique par la CNIL vis-à-vis du RGPD et c’est notre archive du jour.

Voix off : Une application a retenu notre attention ce matin. C’est une application qui concerne les jeunes et qui propose de les rémunérer en échange de leurs données personnelles. Excusez-moi, dans l’actualité, tout ça. Est-ce que c’est bien sérieux cette application ? Vous avez enquêté.

Voix off : Ça vient de sortir, ça s’appelle TaData et c’est réservé aux 15-25 ans, pas plus pas moins et on vous promet une rémunération partant de trois à cinq euros pouvant monter, nous dit-on, à 10 voire 15 euros par mois en échange de données personnelles qui seront ensuite revendues à des marques intéressées, c’est complètement assumé. On a rencontré les deux fondateurs de cette application, ce sont des experts en communication et aussi des experts sur le monde étudiant. On leur a demandé : est-ce que ce n’est pas un peu risqué de laisser nos jeunes, comme ça, vendre leurs données personnelles et surtout de quelles données personnelles on parle ? Écoutez leur réponse.

Cofondateur de TaData, voix off : On refuse d’aller sur de la donnée qui est sensible du type santé, orientation sexuelle, politique, religion. Si on trouve des annonceurs qui s’intéressent à leur profil on leur propose, très simplement, de les mettre en relation en échange d’une rémunération. Aujourd’hui les données sont commercialisées, captées, et l’utilisateur n’en voit jamais la couleur.

Nicolas Martin : Voilà le concept de cette société TaData. Peut-être simplement une réaction, l’un et l’autre, à ce petit bout, ce petit extrait de chaîne info que vous venez d’entendre et au concept qui, pour le moment, peut se développer sur le territoire français. Valérie Peugeot.

Valérie Peugeot : Merci. Déjà, je voudrais réagir à votre propos introductif parce que la CNIL n’a pas autorisé TaData, donc je voudrais corriger ça.

Nicolas Martin : Ce n’est pas ce que j’ai dit, j’ai dit que c’était considéré en conformité juridique et informatique.

Valérie Peugeot : Non plus.

Nicolas Martin : Je vais vous laisser me corriger.

Valérie Peugeot : En fait, c’est la communication qu’en a fait TaData mais ce qui s’est passé c’est qu’en réalité, quand on les a contrôlés, en réalité ils n’avaient pas encore commencé à partager les données avec leurs clients. Donc, de fait, on ne risquait de les trouver en situation illégale puisqu’ils n’avaient pas commencé véritablement leur activité. Maintenant on continue d’échanger avec eux et d’essayer de cadrer leur activité pour que ça soit le plus conforme possible aux RGPD.
Maintenant il y a un débat ouvert et qui est en discussion en ce moment à l’échelle européenne dans le cadre de ce qu’on appelle CEPD, le Comité européen de la protection des données à caractère personnel qui est l’instance qui réunit les différentes CNIL des différents pays, pour regarder comment cette approche par la monétisation des données peut ou ne peut pas être compatible avec le RGPD. Ce sont des travaux en cours.
Maintenant sur le fond, si vous me demandez ce que je pense de cette initiative, je pense que c’est une très mauvaise initiative pour être tout à fait claire et pour différentes raisons. D’abord parce qu’en fait les gens qui font cela revendiquent, prétendent que cela va mieux protéger nos données de toute réglementation ou régulation, c’est le discours habituel d’un libéralisme économique qui considère que le marché marche mieux que la réglementation, c‘est toujours une manière d’éviter toute forme de contrainte. Mais surtout c’est une fausse bonne idée, parce que, d’une part, il y a une asymétrie sur ce marché, c’est-à-dire que la personne qui va, entre guillemets, « vendre ses données », est en position de faiblesse. Comme par hasard vous voyez que TaData s’adresse à des jeunes, ce n’est pas complètement un hasard, et quand on regarde d’un peu plus près ce que TaData leur rapporte, j’ai vu certains reportages qui montrent que c’est 15 euros par mois, voire moins, évidemment vous pensez bien que ça n’intéresse que des personnes qui sont en grande précarité économique.
De fait, cette idée-là n’est pas nouvelle, ce n’est pas la première personne qui s’y essaye, et la plupart des startups précédentes se sont cassé les dents, ont arrêté leur activité parce que, de toute façon, ça ne marche pas ça n’intéresse pas les gens.
Au-delà du côté pragmatique, de toute façon il y a des problèmes de fond beaucoup plus graves.
Un premier problème c’est que ces données n’appartiennent à l’une ou l’autre personne. La plupart des données que nous produisons sont le fruit de nos interactions, de nos conversations, de notre sociabilité, donc allez déterminer à qui elles appartiennent ? Quand vous mettez un « like » sur un post d’une personne sur Facebook, est-ce que ce like vous appartient ? Est-ce qu’il appartient à la personne dont vous avez approuvé le post ?
Parlons maintenant des données génétiques. Les données génétiques parlent de vous mais elles racontent aussi votre fratrie, toute votre parentèle, c’est ce qu’on appelle des données pluripersonnelles.
Donc il y a une illusion et ce discours est à mon avis très néfaste parce qu’il contribue à naturaliser l’idée que la trace serait un bien matérielle, commercialisable, et ça va vraiment, et je m’arrêterai là, à l’encontre, je dirais, de toute la philosophie qui est derrière la protection des données à caractère personnel aujourd’hui, qui est une philosophie d’un droit qui est relié à l’essence même de la personne, qui est au foncement de sa dignité, au fondement du développement de sa personnalité. Donc de fait il y a un antagonisme philosophique entre cette approche de patrimonialisation de la donnée et la philosophie de la protection de la vie privée et de nos libertés d’une manière plus générale.

Nicolas Martin : C’est intéressant les termes que vous employez Valérie Peugeot, on y reviendra, cette notion d’antagonisme philosophique quand on a le sentiment que, de plus en plus aujourd’hui, la structure du réseau, notamment des réseaux sociaux, est absolument fondée sur ce type d’organisation économique et de marchandisation des données personnelles et de voir comment on peut passer de cet antagonisme philosophique à ces structures ontologiques, si on peut l’appeler comme ça. On y reviendra. Un mot, j’aimerais entendre Olivier Ertzscheid là-dessus puisque vous aviez des mots un peu durs sur ce type de démarche ou, en tout cas, de volonté de commercialisation de données individuelles comme le propose TaData. Vous parlez carrément, et ce sont vos termes, Olivier Ertzscheid, je vais vous laisser les commenter, de « prostitution pour mineurs ».

12’ 50

Olivier Ertzscheid : Oui, j’avais effectivement utilisé à propos du lancement de cette application, le terme data-prostitution qui était entièrement outrancier, mais pas tant que ça puisque je considère que tout est sincèrement mauvais et toxique dans l’approche qui est proposée, Valérie Peugeot en a rappelé les raisons essentielles. Dans l’approche qui est véhiculée TaData, le premier problème c’est celui de la cible. On s’adresse à des gens à partir de 15 ans, c’est-à-dire des gens précisément à l’âge où on commence à la fois à percevoir l’enjeu de ses données personnelles mais où on ne maîtrise pas nécessairement tous ces enjeux. C’est par essence, si j’ose dire, le public le plus fragile. Si la majorité numérique avait été déclarée à 8 ans je n’ai aucun doute sur le fait que ces gens-là auraient proposé leur application à des enfants dès l’age de 8 ans. Donc la cible est mauvaise.
La nature même, la philosophie du projet qui est derrière cette application est éminemment toxique puisque, en gros, l’idée dans l’argumentaire des deux fondateurs c’est de dire après tout, puisqu’il y a un modèle toxique qui est celui des grandes plateformes, puisque des gens se gavent sur la vente – qui en fait n’est pas une vente littéralement de ces données personnelles, mais en tout cas sur le ciblage publicitaire – autant que tout le monde en profite et autant qu’on utilise le même modèle toxique. Donc ça, comme pitch ou comme projet de société ça me partait plus que limite, plus que douteux et même, dans les annonceurs qui sont derrière, il y a des choses qui ne sont pas du tout claires. Dans la liste des annonceurs et des partenaires, on voit que ce sont essentiellement 98 % des écoles d’enseignement supérieure privées, alors que les deux fondateurs ont eux-mêmes gravité dans le monde de l’enseignement supérieur privé pendant plus de dix ans. Il y a peut-être quelque chose qui transpire ou respire en tout cas de possible conflit d’intérêt.
Rien ne va dans cette application à commencer, effectivement, par cette idée que tout est marchandise et que, après tout, nos données personnelles qu’elles qu’elles soient – là effectivement ils sont relativement prudents en expliquant qu’ils se limitent à certaines catégories de données – mais on voit bien que, puisque la loi du marché est la seule règle, si demain il devient possible de vendre des données génétiques, de santé, politiques, sexuelles, etc., ces gens-là seront les premiers à ouvrir des soldes sur le sujet. Donc ça me paraît une application dangereuse et toxique et oui, je réaffirme le fait qu’on n’est pas loin d’une forme de prostitution à l’échelle des données personnelles.

Nicolas Martin : On va essayer de réfléchir ensemble tout au long de cette heure sur la nature de ce que nous délivrons à ces acteurs du numérique et, finalement, à cette question que vous souleviez l’un et l’autre à demi-mot et qu’on va essayer d’explorer : de se dire, finalement puisque tant de plateformes – d’ailleurs que le modèle soit jugé toxique ou non, et on pourra en débattre – utilisent ces données un peu à l’insu de notre plein gré, pour utiliser l’expression consacrée ou, en tout cas, quasiment à notre insu malgré les quelques digues légales qui sont posées entre nous et ces acteurs, eh bien, finalement, pourquoi ne pas bien prendre le plein contrôle de ses données et chercher à les monétiser, nous, directement pour en récupérer du profit direct. On va vois si c’est possible, quelles sont les questions que ça pose, c’est le sujet de notre émission du jour.

Voix off : France Culture, La Méthode scientifique, Nicolas Martin.

Nicolas Martin : À 16 heures 15 nous parlons de monétisation des données personnellestout au long de cette heure en compagnie de Valérie Peugeot et de Olivier Ertzscheid.
Peut-être qu’on peut commencer à poser un peu les termes du débat : de quoi parle-t-on quand on parle de monétisation des données personnelles ? Quelles réalités est-ce que ça recoupe Valérie Peugeot ?

Valérie Peugeot : Il y a beaucoup de confusions autour de ce terme. En fait, ça fait maintenant plus de dix ans qu’on nous parle de data et de new oil, le pétrole du XXIe siècle, le déluge des données, etc. On a eu l’impression qu’il y avait une espèce de mine d’or par analogie avec le pétrole, enfin une mine de données qui allait générer des revenus considérables.
En réalité, quand on parle de données, il faut faire plusieurs distinctions. La première c’est qu’il y a des données à caractère personnel, on en a déjà parlé dans cette émission, et il y a aussi beaucoup d’autres données qui n’ont pas de caractère personnel. Et dans cette économie de la donnée, par exemple la fréquentation des magasins, le nombre de produits vendus, etc., ce sont des données qui sont récoltées par les entreprises mais qui n’ont pas de caractère personnel et elles participent aussi de cette économie de la donnée, elles sont en dehors d’une monétisation directe.
On confond aussi valeur monétaire et valeur d’usage. Les données peuvent servir à une organisation, à améliorer son fonctionnement, améliorer sa relation client, ajuster ses horaires, mieux gérer ses stocks, diminuer ce qu’on appelle le churn c’est-à-dire le départ de ses clients, etc., tout ça c’est une valeur d’usage mais ce n’est pas forcément une valeur monétaire.
En fait, en général dans les discours, on mélange un petit peu tout ça et on a l’impression que c’est énorme.
Si maintenant on en reste vraiment à ce qui est la valeur monétaire des données, il y a une troisième confusion qui est faite entre ce qu’on pourrait appeler de la monétisation directe et de la monétisation indirecte.
La monétisation directe consiste à vendre une base de données, un fichier, avec des données qui peuvent être à caractère personnel ou pas d’ailleurs, et en fait, sur les marchés, cette part est toute petite. En fait, les organismes qui disposent de fichiers de données n’ont aucun intérêt à les céder puisque cette information, une fois qu’ils l’ont cédée, va circuler et va perdre de sa valeur. Donc ce qui est monétisé ce ne sont que très rarement les données elles-mêmes, mais ce sont plutôt des espaces publicitaires ou des campagnes publicitaires qui vont se construire autour de profils d’individus, profils qui ont été construits par les acteurs du marché publicitaire. Il faut bien comprendre que ce ne sont pas les données elles-mêmes qui circulent, mais ce sont des campagnes publicitaires qui s’ouvrent sur la base des profils qui ont été construits par des intermédiaires.
Ces intermédiaires ça peut être Facebook ou Google, qui ont aujourd’hui plus de la moitié du marché, ou ça peut être ce qu’on appelle des data brokers, des courtiers de données, dont le métier consiste à mettre ces petits cookies, dont vous entendez parler régulièrement, sur les sites web pour récolter des informations sur vos centres d’intérêt, vos comportements en ligne et pouvoir construire, comme ça, votre profil. Ensuite, au moment il y a une demande d’un annonceur pour une campagne de publicité qui dit je voudrais toucher des femmes de 25 à 40 ans qui s’intéressent aux voitures et qui aiment voyager, eh bien ils vont aller sur une place d’enchères vendre en masse les profils qui répondent au critère de l’annonceur.
Ce qu’il faut comprendre c’est que ce n’est jamais de la donnée directement identifiée, c’est-à-dire qu’on n’a pas besoin de faire savoir si vous vous appelez Sophie ou Michel mais parce que ça n’intéresse pas les annonceurs, ce qui les intéresse c’est ce qu’ils peuvent savoir sur vous. Donc il faut vraiment comprendre parce que, par analogie ou par réduction on dit « vente de données ». Non, ce n’est pas de la vente de données, c’est de la vente de publicité qui est au cœur du modèle.

Nicolas Martin : Pardon Valérie Peugeot, je vous interromps un instant, la vente de publicité in fine se transforme tout de même en revenus pour les personnes qui vendent de l’espace publicitaire. Quand on pense, par exemple, aux réseaux sociaux, c’est justement en exploitant les données personnelles d’un réseau comme Facebook que les publicités ciblées vont atterrir sur mon écran et ces publicités vont être transformées en monnaie directe, en argent qui va rémunérer Facebook.

Valérie Peugeot : Tout à fait. C’est ce qu’on appelle l’économie de l’attention qui est techniquement un marché biface, c’est-à-dire qu’il y a deux faces sur un marché : un marché vers les individus, vers les internautes, qui a l’apparence de la gratuite, il n’y a pas de monétisation en tout cas directe, on ne vous fait pas payerdirectement pour aller sur Facebook ou pour taper une recherche dans votre moteur de recherche préféré et puis un marché payant vers les annonceurs. Ces marchés bifaces se construisent autour de ce qu’on appelle l’économie de l’attention puisque l’objectif c’est de capter votre attention et de vous faire passer le plus de temps possible sur des sites web de manière à pouvoir vous proposer le plus possible de publicité. C’est ça le cœur de l’économie de l’attention. Il y a d’autres versions de l’économie de l’attention. L’économie de l’attention existait avant le web, dans la presse papier par exemple.

Nicolas Martin : À la télévision et dans tous les médias.

Valérie Peugeot : À la télévision, dans tous les médias, mais elle a explosé et elle s’est diversifiée dans ses vecteurs et dans ses formes avec notamment le Web.
Cette économie de l’attention soulève toute une série de problèmes, je peux peut-être vous en citer quelques-uns. Déjà, le premier problème, c’est que les données qui sont collectées sur vous racontent des choses sur vous et des choses que vous n’avez pas forcément l’intention de laisser circuler, parce que quand on croise toute une série d’informations, eh bien on peut apprendre que vous avez eu un deuil, qu’il y a une grossesse attendue ou que sais-je encore.

Nicolas Martin : Notre orientation sexuelle par exemple qui est quand même…

Valérie Peugeot : Notre orientation sexuelle. Voilà. Donc des tas d’informations très personnelles et plus ces données circulent plus elles peuvent soulever de problèmes, des problèmes de différents ordres. D’abord elles participent de qu’on pourrait appeler une industrie de l’influence, c’est-à-dire que ces acteurs qui poussent en permanence des publicités ou vous influencent pour aller vers tel ou tel site et vous emmènent globalement, on va dire, vers des logiques de surconsommation, donc c’est vraiment un moteur à une économie de la surconsommation dans la période actuelle où on doit penser notre ??? écologique parait complètement anachronique. On est vraiment au cœur du toujours plus dans la consommation.
Ça pose des problèmes de sécurité parce que plus on fait circuler de la donnée plus il y a de risques d’attaque : de nombreuses bases de données, c’est ce qu’on voit de plus en plus dans les contrôles à La CNIL, sont peu ou mal sécurisées. On l’a vu récemment, y compris avec des données très sensibles. On a vu passer dans la presse des dossiers de psychothérapeutes en Finlande qui ont été massivement piratés et les données mises sur le Web. Dans le passé on a vu aussi un site de rencontres adultères dont les données ont été mises sur le Web avec derrière quand même des suicides, ne l’oublions pas, des gens dont les données ont été dévoilées qui se sont suicidés. Donc des problèmes de sécurité.
Des problèmes aussi de surveillance par les États, parce qu’il y a de plus en plus une tendance chez un certain nombre d’États à mettre en place de la surveillance de masse et ces États vont piocher dans les bases de données des acteurs marchands. C’est ce que nous a expliqué Snowden en 2013. Il a bien montré comment les pouvoirs publics américains étaient allés chercher dans les données des opérateurs télécoms, dans les données des grandes plateformes du web, pour surveiller des citoyens à la fois étasuniens mais aussi d’autres pays.
Vous voyez que c’est toute une série de problématiques comme ça, imbriquées, qui touchent presque un peu, j’ai envie de dire, à notre modèle de société.

Nicolas Martin : C’est vrai. Vous faites bien de rappeler tout cela. C’est vrai que quand on vous entend on se dit je vais immédiatement supprimer tous mes comptes Facebook, Twitter, Instagram et tout le reste parce qu’on se rend compte à quel point cette économie est fondée sur un modèle que vous avez vous-même qualifié, d’ailleurs l’un et l’autre, de toxique. Néanmoins aujourd’hui ce modèle existe.
Olivier Ertzscheid, ma question c’est : est-ce que, aujourd’hui déjà, il est encore vrai que cet axiome dont je parlais au tout début de l’émission, dans l’introduction, que quand c’est gratuit c’est nous le produit ? Et à partir du moment où c’est nous le produit, finalement pourquoi ne pas récupérer la main sur la façon dont on veut valoriser, commercialiser nos propres données, c’est-à-dire décider de ce que l’on veut transmettre, à qui on veut le transmettre et en tirer une rémunération directe ? Quel est le problème là-dedans ?

Olivier Ertzscheid : Le problème, là aussi Valérie l’a déjà expliqué, je vais peut-être le prendre sous un autre angle.
Oui c’est vrai, effectivement, que si c’est gratuit nous sommes le produit, mais, encore une fois, nous sommes le produit dans ce que Valérie a appelé un marché biface, c’est-à-dire que le produit que nous sommes y trouve un intérêt et que cet intérêt est lié à l’intérêt réciproque que les annonceurs y trouvent également. Donc le pacte, en quelque sorte, je ne dis pas que c’est un pacte souhaitable, c’est que j’accepte, en proportionnalité, de livrer un certain nombre de mes données en échange de recommandations qui vont être des recommandations publicitaires ou affinitaires contextuelles, c’est-à-dire qui m’apportent un service contextualisé. Là on est sur un modèle de rupture avec les projets, TaData en est un exemple, mais plus globalement derrière tout le discours un petit peu libertarien de l’entrepreneuriat de soi, de la possibilité, effectivement, que les produits que nous sommes revendiquent leur droit de vendre leurs propres données, le problème c’est qu’on va produire une dissymétrie fondamentale.
Je vais juste prendre un exemple et faire un tout petit pas de côté. En France, on est un pays où les essais thérapeutiques – là on parle beaucoup de recherche de gens pour tester des vaccins contre le coronavirus – ne peuvent pas donner lieu à rémunération. Pourquoi la rémunération sur les essais thérapeutiques est-elle interdite ? Précisément pour éviter que des gens qui seraient en situation de grande précarité ou de grande misère ne se trouvent, en quelque sorte, doublement exploités et ne soient obligés, comme ça, de vendre leur corps à la science.
À l’échelle du modèle proposé pour les données personnelles c’est exactement la même chose, c’est-à-dire que quand on dit qu’il est possible de vendre ses données et après tout, si tout est marché, pourquoi pas, il ne faut jamais oublier qu’il y a des données qui valent beaucoup plus d’argent que d’autres et que, comme par hasard, les gens les plus riches sont aussi ceux qui disposent des données les plus qualifiées, donc ils seront ceux en situation de les vendre le plus cher possible et avec le moins d’urgence sociale ou économique à le faire. Du coup, non seulement on va aller sur un modèle qui, encore une fois est fondamentalement toxique, Valérie l’a bien rappelé, puisque qu’il y a des enjeux. Une donnée ça n’existe pas. Pour reprendre l’expression de Latour qui disait « il n’y a pas de données il y a que des obtenus », une donnée en soi ne veut rien dire. Une donnée ça traduit, ça trahit des choses et puis, quand on recoupe une donnée avec une autre donnée, on produit une connaissance qui n’est pas celle de la donnée elle-même, c’est-à-dire qu’on arrive à inférer des relations sociales, des comportements politiques, sexuels ou religieux même s’ils ne sont pas dans la donnée elle-même. Au final, on va effectivement avoir un modèle qui est l’inverse d’un modèle vertueux et qui va accélérer les effets de dissymétrie sans jamais permettre à l’échelle de l’individu, et notamment des individus les plus pauvres ou les plus exposés, de récupérer un petit peu de symétrie. Et puis on va transformer toute une génération, puisqu’il s’agissait avec TaData de cibler à partir de 15 ans, en ce que Antonio Casilli, le sociologue, appelle les travailleurs du clic.

Nicolas Martin : Que l’on avait d’ailleurs reçu ici.

Olivier Ertzscheid : Oui, je le sais bien. C’est-à-dire des gens, des nouveaux travailleurs pauvres qui vont finalement se retrouver à étendre leur portefeuille de micro-tâches. Parmi ces micro-tâches, très mal rémunérées, on trouvera effectivement la possibilité de vendre telle ou telle « donnée personnelle », entre guillemets. Ça, ça paraît très problématique à l’échelle d’une société qui, par ailleurs, s’appauvrit et qui a besoin de trouver des modèles économiques vertueux pour les plus précaires et non pas des modèles économiques qui, encore fois, vont être centrés sur ceux qui ont les moyens de nourrir cette économie-là.

Nicolas Martin : Est-ce qu’on a une idée aujourd’hui de la valeur numéraire des données personnelles, soit à titre individuel soit à titre collectif, national, transnational ou européen, de l’argent que génère cette économie de la donnée et de l’attention ? Olivier Ertzscheid.

Olivier Ertzscheid : Oui. Il y a des chiffres qui sont, comment dire, toujours un petit peu non pas suspects mais univoques parce que ce sont toujours plutôt les chiffres de la police que ceux des manifestants. Il y a, par exemple, une mesure qu’on appelle l’ARPU, le revenu moyen par utilisateur pour les plateformes où, en gros, on estime, par exemple pour Facebook, qu’un utilisateur rapporte à peu près à Facebook aux USA autour de 7 euros par mois, en Europe c’est beaucoup moins, c’est entre 2 et demi et 3 euros et tout cela est extrêmement variable. D’abord quand on dit qu’un utilisateur rapporte 7 euros par mois à Facebook aux État-Unis, il ne faut pas oublier que derrière Facebook il y a aussi WhatsApp, il a aussi Instagram, donc il y a des ressources de monétisation qui sont colossales et puis ces données, encore une fois, elles varient. Ce que rapporte un profil d’utilisateur à Facebook dans son exploitation commerciale c’est extrêmement variable selon l’âge de l’utilisateur, selon le pays de l’utilisateur et surtout selon le niveau de vie de l’utilisateur. C’est-à-dire que les utilisateurs riches rapportent à Facebook beaucoup plus que ne lui rapportent les utilisateurs pauvres, pour le dire de manière un petit peu simplifiée.

Nicolas Martin : Parce qu’ils consomment plus, parce qu’ils cliquent plus sur les liens, donc ils génèrent plus de revenus, c’est ça ?

Olivier Ertzscheid : D’abord parce qu’ils ont une activité de consommation supérieure et surtout parce que leurs données personnelles sont beaucoup plus qualifiées, donc beaucoup plus exploitable sur le plan marchand que des données personnelles de gens qui ont des revenus moindres.

Nicolas Martin : On va continuer à discuter de cette monétisation des données personnelles puisqu’on dépeint un tableau que l’on peut considérer, que d’aucuns considéreraient comme un peu sombre. Néanmoins on va voir comment remédier à ces questions, que faire de ces données, comment les encadrer, si aujourd’hui les États, les structures super étatiques comme l’Europe ont des moyens pour essayer de nous protéger. Est-ce que la protection est à un niveau individuel ou collectif ? On en discute dans un instant.

Pause musicale : Ch Ch Chewa par The Twin Souls.

33’ 09

Nicolas Martin : Ch Ch Chewa, The Twin Souls qui est, comme son nom ne l’indique pas,