Différences entre les versions de « Données personnelles : sommes-nous des victimes consentantes - Le débat de midi »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 166 : Ligne 166 :
 
==19’ 24==
 
==19’ 24==
  
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentemen
+
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/>
 +
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.
 +
 
 +
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.
 +
 
 +
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.
 +
 
 +
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.
 +
 
 +
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.
 +
 
 +
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !
 +
 
 +
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.
 +
 
 +
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?
 +
 
 +
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion environnementaux (???), c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.
 +
 
 +
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?
 +
 
 +
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce manuel de survie sur Internet. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.
 +
 
 +
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.
 +
 
 +
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.
 +
 
 +
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?
 +
 
 +
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.
 +
 
 +
<b>Arthur Messaud : </b>Oui, que vous dites !
 +
 
 +
<b>Édouard Fillias : </b>Non.
 +
 
 +
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.
 +
 
 +
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/>
 +
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.
 +
 
 +
<b>Nadia Daam : </b>Carrément !
 +
 
 +
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.
 +
 
 +
<b>Nadia Daam : </b>Arthur Messaud.
 +
 
 +
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent
 +
 
 +
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !
 +
 
 +
<b>Nadia Daam : </b>Et plus de liberté.
 +
 
 +
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.
 +
 
 +
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.
 +
 
 +
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.
 +
 
 +
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.
 +
 
 +
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.
 +
 
 +
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable.
 +
 
 +
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.
 +
 
 +
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.
 +
 
 +
<b>Nadia Daam : </b>Arthur Messaud.
 +
 
 +
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.
 +
 
 +
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.
 +
 
 +
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.
 +
 
 +
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.
 +
 
 +
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.
 +
 
 +
<b>Nadia Daam : </b>Donc c’est une somme d’informations.
 +
 
 +
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.
 +
 
 +
<b>Nadia Daam : </b>Concrètement vous floutez ?
 +
 
 +
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.
 +
 
 +
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.
 +
 
 +
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.
 +
 
 +
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.
 +
 
 +
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.
 +
 
 +
==32’ 45==
 +
 
 +
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.

Version du 30 août 2019 à 08:31


Titre : Données personnelles : sommes-nous des victimes consentantes ?

Intervenants : Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam

Lieu : Le débat de midi, France Inter

Date : août 2019

Durée : 52 min 37

Écouter ou télécharger le podcast

Page de présentation de l'émission

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription : MO

Description

Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?

Transcription

Nadia Daam : Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.

Voix off : Le débat de midi. Nadia Daam sur France Inter.

Nadia Daam : Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.

Aloïs Brunel : Bonjour.

Nadia Daam : Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?

Aloïs Brunel : Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrés, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.

Nadia Daam : C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.

Arthur Messaud : Bonjour.

Nadia Daam : Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.

Édouard Fillias : Bonjour.

Nadia Daam : Bienvenue, vous avez publié, co-publié, un manuel de survie sur Internet aux Éditions Ellipses. Vous êtes également vice-président du think tank Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.

Arthur Messaud : Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.

Nadia Daam : Elle a une existence numérique.

Arthur Messaud : Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par Le Monde ou Le Figaro, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du Monde, elle aura un compte fantôme.

Nadia Daam : Ça suffit à lui créer une identité.
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?

Édouard Fillias : Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.

Nadia Daam : Et qu’on ne consulte pas.

Édouard Fillias : Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?

Nadia Daam : On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, Big Brother.

Pause musicale : Big Brother, Macy Gray.

9’ 00

Nadia Daam : Nadia Daam : C’était Macy Gray, une reprise très libre de Big Brother de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et Le débat de midi se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.

Extrait du documentaire de The Great Hack : Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.
On a récolté les mises à jour de statuts, les like et même parfois les messages privés.
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.

— Et les gens ne savaient pas que leurs données étaient collectées ?

-— Non.

— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé ett que vous les utilisez sans le consentement des différentes personnes concernées ?

— Non.

Nadia Daam : C’était un extrait du documentaire de The Great Hack qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.

Arthur Messaud : Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.

Nadia Daam : En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.

Arthur Messaud : Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.

Nadia Daam : Édouard Fillias.

Édouard Fillias : Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…

Arthur Messaud : Qui est « nous » là ?

Édouard Fillias : Nous le citoyen, consommateur, individu.

Arthur Messaud : Ah !

Édouard Fillias : Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.

Nadia Daam : Les popups.

Édouard Fillias : Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?

Nadia Daam : Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.

Arthur Messaud : Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.

Nadia Daam : Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.

Arthur Messaud : Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.

Nadia Daam : Édouard Fillias.

Édouard Fillias : Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkdedin avant lui.

Nadia Daam : Les API ?

Édouard Fillias : Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.

Nadia Daam : Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?

Arthur Messaud : Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.

Nadia Daam : Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.

Aloïs Brunel : Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.

Nadia Daam : C’est de la paresse ?

Aloïs Brunel : Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.

Nadia Daam : On a envie d’aller vite.

Aloïs Brunel : Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.

Nadia Daam : Arthur Messaud.

Arthur Messaud : Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire ???, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme Le Monde ou Le Figaro : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »

Nadia Daam : Et qu’est-ce que ça implique de cliquer « oui » ?

Arthur Messaud : Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.

Nadia Daam : Que c’est acquis.

Arthur Messaud : On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais  ???, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.

Nadia Daam : Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?

Arthur Messaud : Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de ??? ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.

Nadia Daam : Édouard Fillias, le think tank Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?

19’ 24

Édouard Fillias : Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.

Nadia Daam : Donc Arthur Messaud avec La Quadrature du Net.

Édouard Fillias : Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.

Nadia Daam : C’est-à-dire que les entreprises ont toujours un coup d’avance.

Édouard Fillias : Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.

Arthur Messaud : Bingo ! Des mots à la mode !

Édouard Fillias : Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.

Nadia Daam : Et il en irait de même pour mes données ?

Édouard Fillias : Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique Should We Treat Data as Labor? , « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion environnementaux (???), c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.

Nadia Daam : Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?

Édouard Fillias : Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce manuel de survie sur Internet. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.

Nadia Daam : Vous ne répondez pas à ma question.

Édouard Fillias : Quelle est votre question ? Pardon.

Nadia Daam : Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?

Édouard Fillias : Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.

Arthur Messaud : Oui, que vous dites !

Édouard Fillias : Non.

Arthur Messaud : C’est une moyenne que vous faites.

Édouard Fillias : Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.

Nadia Daam : Carrément !

Édouard Fillias :  « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.

Nadia Daam : Arthur Messaud.

Arthur Messaud : Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent

Édouard Fillias : Non. Ils auront plus d’argent aussi !

Nadia Daam : Et plus de liberté.

Arthur Messaud : Ils auront 25 centimes par mois.

Édouard Fillias : Non, ils auront plusieurs dizaines d’euros.

Nadia Daam : La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.

Arthur Messaud : Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.

Nadia Daam : Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.

Édouard Fillias : Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable.

Nadia Daam : Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.

Édouard Fillias : Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.

Nadia Daam : Arthur Messaud.

Arthur Messaud : Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.

Nadia Daam : On va écouter aussi Aloïs Brunel.

Arthur Messaud : On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.

Nadia Daam : Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.

Aloïs Brunel : Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.

Nadia Daam : Donc c’est une somme d’informations.

Aloïs Brunel : Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.

Nadia Daam : Concrètement vous floutez ?

Aloïs Brunel : Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.

Nadia Daam : En fait pour vous le RGPD a été une aubaine.

Aloïs Brunel : En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.

Nadia Daam : On va continuer cette conversation juste après Renan Luce, On s'habitue à tout.

Pause musicale : On s'habitue à tout, Renan Luce.

32’ 45

Nadia Daam : C’était Renan Luce. À la programmation musicale Thierry Dupin.