Web débat surveillance numérique et libertés fondamentales . Part2

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Web débat surveillance numérique et libertés fondamentales - La pandémie révélateur et accélérateur du déploiement des outils numériques ?

Intervenant·e·s : Laurence Devillers - Antoinette Rouvroy - Irénée Regnault - Karolien Haese - Valérie KokoszKa

Lieu : Vidéoconférence

Date : juin 2020

Durée : 4 min 04

Visualiser la vidéo

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Transcription

Irénée Regnault : Merci pour l’invitation.
Pour remettre le contexte, il se trouve qu’au Mouton Numérique on a entamé dès le mois de mars un recensement de toutes les technologies qui ont été mises en place en réponse à la crise sanitaire, les technologies et solutions numériques diverses. C’est difficile de faire rapidement un bilan aujourd’hui, mais ce qui a été important pour nous c’est déjà de voir qu’en fait elles ont été de différentes sortes et qu’on ne peut pas porter le même regard sur toutes ces technologies.
Il y a eu des technologies qui étaient de l’ordre de télémédecine, l’explosion de Doctolib ou des choses comme ça. Il y a eu des technologies qui ont été utilisées pendant le confinement pour vérifier que les gens étaient bien confinés chez eux, par exemple en Pologne où il fallait envoyer un selfie dans les 20 minutes pour attester du fait qu’on était bien chez soi. Ensuite il y a eu d’autres types de technologies qui ont été déployées post-confinement, là plutôt pour vérifier si les distances étaient bien maintenues ou si d’autres choses, comme le port du masque dont vous parliez tout de suite, était bien effectives dans certaines villes. Et enfin, des technologies qui ont été mises en place, plutôt qui ont été exagérées, qui ont été poussées au maximum de leurs possibilités, à savoir les technologies déjà existantes qu’on utilise tous comme les Facebook, les Google qui ont sorti, pour certains d’entre eux, de nouveaux produits notamment des vidéos ou rendu disponibles gratuitement ce qui était de l’ordre du Premium. Ça va jusqu’à Pornhub qui a lancé des abonnements Premium en Italie, peut-être ailleurs.
Il faut déjà bien avoir ça en tête pour commencer, c’est peut-être idéal. Il n’y a pas eu que des outils de surveillance, il y a eu plusieurs outils dans plusieurs domaines. Pour nous, ils ont révélé en fait, si je le fais simplement étant donné le temps de parole et le nombre qu’on est, c’est une accélération phénoménale de ce qui était déjà à l’œuvre, donc pas vraiment de nouvelles technologies, des technologies existantes qui ont glissé d’un usage vers l’autre, typiquement des technologies du domaine militaire qui se sont déployées dans le civil, des technologies par exemple du domaine du fitness, je pense au bracelet électronique, qui d’elles-mêmes ont été détournées à des fins de surveillance sanitaire. Donc pas grand-chose de très nouveau, en fait.
Si je continue juste une minute là-dessus, sur ce recensement, ce qu’on se dit aujourd’hui c’est qu’on était déjà fondamentalement inquiets de la manière sont se déployaient les systèmes de surveillance, si je m’arrête à cette stricte catégorie des systèmes de surveillance, qu’ils ont été déployés forcément très vite par beaucoup d’entreprises qui attendaient un petit peu au coin de la rue, il faut le dire, et, en parallèle, beaucoup d’associations de défense des droits, dont évidemment La Quadrature du Net et d’autres, dans une moindre mesure Le Mouton Numérique, et les institutions qui, de manière normale disons, sont des contrepoids face à ce développement ont réagi de manière, j’allais dire tout aussi proportionnée par rapport à ce qui était en cours avant. Quand je dis « tout aussi proportionnée » c’est-à dire qu’elles ont réagi et que, parfois, elles ont su arrêter certains abus. Ça ne veut pas dire que cette réaction est suffisante puisqu’elle n’était déjà, en tout cas à mon sens, pas suffisante. Donc accélération et intensification des offres, des réponses institutionnelles et des chiens de garde, en fait, des watchdog associatifs.

Valérie KokoszKa : Karolien.

Karolien Haese : Je pense très sincèrement qu’on peut s’accorder effectivement sur cette accélération, mais c’est peut-être à la question de la surveillance même du citoyen à laquelle il faut penser qui est, en fait, une question qui est récurrente depuis des millénaires. Si on lit par exemple L’Art de la guerre de Sun Tzu, on voit déjà combien les dirigeants ont toujours eu ce besoin à un moment donné et certainement en temps de crise de contrôler les populations pour, quelque part, répondre à ce besoin de dire « nous pouvons mieux prévenir ».
Je pense que la technologie est effectivement un outil, mais qu’on ne doit pas se tromper de débat. À partir du moment où on a effectivement un outil surpuissant, l’important c’est aussi de se poser la question de savoir quel est l’objectif que l’on veut atteindre avec cet outil, que ce soit dans la surveillance sanitaire, que ce soit dans la surveillance financière, que ce soit dans la surveillance terroriste. On voit effectivement que l’outil digital devient omniprésent dans cette surveillance, souvent d’ailleurs porté par de la bonne foi, par des bonnes intentions, par un ??? de dire que ce meilleur contrôle sur la population, sur les mouvements, sur la traçabilité financière, la traçabilité sanitaire, va permettre effectivement d’enrichir, de contrôler, de maintenir ou d’améliorer un intérêt public.
Entre, je dirais, la focalisation qu’on peut avoir aujourd’hui sur un outil qui va se développer de plus en plus vite, qui va devenir de plus en plus puissant, qui va aller jusqu’à la singularité à un moment donné, qui va réfléchir par lui-même, et l’objectif que l’on peut chercher à atteindre en qualité d’État, en qualité d’État souverain, il faut bien faire la part des choses et ne pas oublier que ces objectifs, en tout cas dans un État démocratique, sont en principe fixés par les citoyens.
J’ai un peu l’impression que dans tous ces débats qu’on a entendus au niveau de la crise sanitaire, on a oublié ce débat essentiel à l’objectif. Est-ce que l’objectif du tracing est réellement d’améliorer la prise en charge ?, et on a vu qu’à Singapour, malheureusement, les échecs étaient là, ou est-ce que c’est créer une banque de données pour de la recherche a posteriori qui est aussi un objectif louable ou est-ce que c’est encore aller plus loin en se disant « finalement, une surveillance sanitaire dans un monde où les systèmes de sécurité sociale ne parviennent pas à offrir un accès à la santé pour chacun des citoyens, est-ce que ce n’est pas encore un outil qu’on peut développer plus loin. ? »
Je pense qu’il est vraiment important que l’on puisse s’arrêter en dehors, je dirais, de mesures excessivement urgentes qui peuvent justifier, à un moment donné, une mise entre parenthèses de ce débat démocratique en raison de l’urgence, en raison de la sécurité. En tout cas, maintenant que le calme revient, je pense qu’il est vraiment essentiel que l’on ait un débat démocratique sur ce que veut la population, sur les objectifs que l’on cherche à atteindre en réalité avec ce nouvel outil.

Valérie KokoszKa : Antoinette.

Antoinette Rouvroy : Merci beaucoup de nous recevoir dans ce lieu sans lieu mais pas sans adresse.
Ce qui me frappe, effectivement, ce sont des réflexions qui sont assez générales, c’est cette idée du privé, du private, de la private life. En fait, je n’ai jamais ressenti autant qu’aujourd’hui le fait que to be private is to be deprived. Il y a quelque chose aussi, quand on est reclus chez soi, on est très heureux de se voir même à travers un écran, c’est toujours ça, mais il y a quelque chose quand même de la privation. Ça montre bien à quel point ces enjeux de protection même des données personnelles ne sont pas tellement des enjeux personnels, ce sont en fait des enjeux collectifs, ce sont des enjeux qui sont essentiellement politiques, essentiellement collectifs, essentiellement structurels.
Ce qui m’a frappée c’est la réaction des gens face à cette perspective non pas de surveillance de masse, parce qu’il s’agissait essentiellement dans cette sorte, j’ai appelé de façon un peu maladroite des gadgets, ce ne sont pas vraiment des gadgets, de covid tracing, de traçage des promiscuités entre les personnes, un traçage au départ de collecte de données ou plutôt de signaux émis par les appareils Bluetooth. En fait, il y a une sorte de levée de boucliers par rapport à cela qui m’est apparue assez particulière dans la mesure où, par ailleurs, tous les jours nous émettons des tonnes – pas des tonnes, ça ne pèse rien – mais beaucoup de données presque beaucoup plus personnelles, beaucoup plus personnelles que ces phéromones numériques que nous lâchons quand nous nous déplaçons munis d’un appareil muni d’un Bluetooth, sur des plateformes qui, elles, en ont évidemment largement profité puisque tout le monde n’est pas vraiment frappé par la crise de la même manière. Les plateformes numériques, elles, les plus gros acteurs de l’Internet ont largement profité de cette situation de confinement pour recueillir des quantités absolument gigantesques de données, pas spécialement d’ailleurs pour nous surveiller directement, peut-être aussi pour développer de l’intelligence artificielle, pour apprendre à leurs intelligences artificielles à mieux apprendre à nous connaître, etc. Il y a là toute une fenêtre d’opportunités qui s’est ouverte et qu’elles ont largement saisie.
Ce qui me frappe donc c’est un petit peu ce décalage que je remarque et qui atteste, finalement, d’une sorte de défiance très grande des citoyens envers les autorités publiques, y compris les autorités sanitaires et par ailleurs une confiance très grande un tout petit peu ??? dans des entreprises privées souvent de droit non-européen, auxquelles ils sont prêts à donner des tas de données.
Je ne dis pas pour autant que les applications de covid storing sont sans problèmes, loin de là. Loin de là ! Elles sont d’autant plus problématiques qu’elles fonctionnement très mal et aussi surtout il me semble que ce traçage numérique des contacts à travers la collecte de signaux Bluetooth – d’ailleurs qu’elle soit plus ou moins conforme aux grands principes de protection des données, c’est possible, en fait, de rendre ces applications plus ou moins conformes aux grands principes de protection des données, que ces données soient conservées de manière plus ou moins centralisée ou décentralisée, que le téléchargement de l’application soit rendu obligatoire ou non, ce sont toutes des questions qui ont été beaucoup débattues –, mais je pense qu‘il y a une autre question que je dirais quasiment antérieure à celle-là et qui n’est jamais posée en fait, c’est que ces dispositifs instaurent surtout une toute nouvelle manière de cartographier le phénomène épidémique à l’échelle du signal numérique mobile, déterritorialisé. Il ne s’agit plus, en fait, de rapporter ce signal à aucun quadrillage de l’espace physique comme pouvait en parler Michel Foucault à l’époque des épidémies de peste par exemple. Il y a une sorte de déterritorialisation très grande de ce qu’on appelle peut-être encore à tort la surveillance, parce que ça ne passe plus par l’épistème visuel, on remplace le visuel par le pur calcul et le calcul de proximité entre des data points, des points de données, dans un espace tout à fait neutralisé c’est-à-dire un espace purement géométrique, un espace purement métrique.
Cette sorte de surveillance prend une nouvelle figure qu’on peine un petit peu à décrire et c’est pour ça que nos réticences sont souvent assez mal exprimées ou maladroites par rapport à ce phénomène. En vérité, ces analyses de signaux déterritorialisés se détachent finalement complètement de l’idée qu’on pouvait avoir de la surveillance. Il ne s’agit plus ici de se fonder sur la détection de l’espace, ni la détection de groupes sociaux particuliers, ni même la détection d’individus qui auraient un comportement particulier. Il s’agit de quelque chose qui est beaucoup plus abstrait, beaucoup plus statistique et qui, en fait, est finalement dans une sorte de déni de la matérialité des situations. C’est une abstraction par rapport au monde physique, un déni de l’organicité, un déni de la socialité, et finalement ça permet, ça nous met au seuil d’une gouvernance véritablement hors-sol avec un risque d’autisme extrêmement grand de la part de cette gouvernementalité.
C’est finalement ça qui m’inquiète le plus. Ce qui m’inquiète véritablement le plus c’est ce que j’ai appelé par ailleurs, d’ailleurs comme Frédéric Neyrat, un symptôme de notre époque qu’on peut appeler la signose, cette tendance à confondre la carte avec le territoire et, du coup, à dénier la réalité matérielle. Ce n’est pas tout à fait nouveau, chaque tournant, que ce soit le tournant linguistique, le tournant culturel, le tournant interprétatif, etc., on a toujours dit finalement qu’il y a un grand oubli de la matérialité. La seule chose qui ne compte plus c’est la matérialité et c’est bien ça, me semble-t-il, le risque majeur, cet oubli de la matérialité est aussi, forcément, une sorte de dépolitisation assez radicale. Cette idée que le monde parlerait par lui-même à travers des signaux numériques, ce qui n’est juste pas possible parce que ça ne parle pas.

Valérie KokoszKa : Oui, tout à fait, ça s’interprète. Laurence.

13 ‘ 21

Laurence Devillers : Les points qui m’ont fait réagir. D’abord j’ai eu le covid, mes proches aussi, j’ai vu des gens mourir autour de moi, je ne vais vous faire un schéma que vous ne connaissez pas, mais c’était quand même important de sentir une solidarité que moi j’ai ressentie autour de moi, dans la ville où j’habite, aussi à travers les réseaux sociaux.
Qu’est-ce que j’ai pu voir d’autre ? J’ai pu voir aussi qu’on a de fait, comme le disait très bien Antoinette, beaucoup plus, en fait, aux géants du numérique, aux GAFAMI – Google, Apple, Facebook, Amazon, Microsoft et IBM – qui développaient à tire-larigot tout un tas d’outils et qui ont sûrement capturé énormément de données.
Il est important de se rendre compte de cela, c’est pourquoi j’ai écrit ce petit essai sur la souveraineté numérique que j’aurais dû sans doute appeler gouvernance du numérique, qui était d’alerter sur le fait qu’en temps de pandémie on a tendance à aller au plus pressé pour garantir le soin ou essayer, en tout cas, de garantir le soin pour tous. Du coup on oublie qu’en fait on va peut-être pas assez sécuriser l’espace dans lequel on est. Nos données médicales sont importantes, il n’est pas normal que le Data Hub Santé soit sur un serveur Microsoft. Les outils qu’on utilise à l’école sont aussi des outils développés par Microsoft, par Google. L’application StopCovid n’a pas totalement été ouverte à un protocole français puisqu’on n’a pas accès aux couches basses pour gérer le Bluetooth et qui reste allumé.
Tout ça m’inquiète. On a vu, pendant le StopCovid, qu’on était dépendants des Chinois pour les médicaments, les masques, etc., mais on est dépendants des géants américains pour notre numérique.
Le numérique, vous l’avez bien dit, est invisible. En fait, les tractations dont vous parliez tout à l’heure en disant que cette invisibilité est un risque, etc., il faut quand même remettre un petit peu les choses au cœur de la cité. On a déjà par exemple des cartes bancaires qui permettent de savoir où on est, ce qu’on consomme, de façon très affûtée déjà. On a des téléphones – qui n’en a pas un dans sa poche – qui permettent de géolocaliser les gens. Je crois qu’il faut, dans ces discours, qu’on soit extrêmement précis, qu’on soit plus au fait des technologies qui sont utilisées pour éviter de parler, par exemple, de singularité.
Je travaille donc en intelligence artificielle, sur les réseaux neuronaux profonds, sur des sujets qui sont extrêmement toutchy, qui sont délicats. Je me rends bien compte que les applications derrière ne sont pas toutes souhaitables, avec des réseaux de neurones pour faire de l’apprentissage machine, sur les émotions qui sont particulièrement variables, dépendant des cultures, vraiment de l’humain. Donc je suis tout à fait consciente de ça et on va beaucoup trop loin dans beaucoup de domaines. Mais ne jetons pas tout en même temps, parce qu’on peut aussi être utiles pour la santé, pour soigner sur le long terme, pour éviter des prises de médicaments, pour aider le collectif à mieux partager. On a vu que la télémédecine avait fait un bon incroyable pendant la pandémie et tant mieux parce qu’il y a des gens qui ne peuvent pas se déplacer, le risque de contamination nous a bien montré l’efficience de ce genre d’outils. Ne le faisons n’importe comment.
J’aurais tendance à éviter les points de vue extrêmes qui me font réaliser de plus en plus qu’il manque, en fait, une éducation plus forte sur l’histoire des sciences, sur la technologie comment elle est développée et ce qu’il serait souhaitable de faire.
Si on ne prend pas le temps de considérer cela en Europe notamment puisqu’on a déjà la GDPR [General Data Protection Regulation] qui montre à quel point on pense à l’univers privé et je reviendrai un point sur ce privé. Je voudrais finir sur ce que j’ai dit tout à l’heure sur la singularité. Pour moi il n’y a pas se point de singularité. Les machines sont faites par les humains. On sait qu’elles vont avoir des comportements derrière qui ne seront peut-être pas ceux qu’on mis, mais qui sont liés aux systèmes qu’on développe. C’est d’une complexité importante. Dire que la complexité va nous échapper, non ! La créativité d’une machine c’est de proposer des solutions que l’humain n’a peut-être pas envisagées lui-même et c’est l’humain qui dit « ça c’est intéressant, ça c’est nouveau ». C’est ce que vous disiez Antoinette, c’est du très bas niveau, donc l’interprétation qu’on fait des signaux n’est donnée qu’à l’humain. Cette coopération qu’on devrait avoir avec les machines, qui est urgente parce que dans le monde entier il y a des tas de gens qui ne se préoccupent pas de centrer l’utilisation des outils numériques pour l’humain, avec l’humain, en intelligence cognitive, cette prise de conscience est urgente.
Je ne dirais pas que ce sont des gadgets. Je dirais que pour tracer, moi ayant été contaminée – c’est vrai qu’il n’y avait pas ces outils-là ; ça arrive en fin de pandémie pour nous parce qu’on n’est pas du tout en fin de pandémie pour le monde entier, on a vu qu’on est loin d’une fin, ne lâchons jamais en fait cette idée, ça sera peut-être utile – qu’il était important de développer un outil qui soit européen, malheureusement il ne l‘a pas été, pourquoi ? Parce que les Allemands, finalement, sont partis sur l’application Google-Apple qu’ils ont développée ensuite parce qu’ils ont sans doute des accords internes, d’entreprise, avec les GAFA, qui les empêchaient de prendre cette décision. Les Anglais ont mené une étude en grandeur, on parle de bac à sable sur l’Île de Watts pour voir si cet outil de traçage était effectivement utile ou pas. Ils ont montré qu’on perdait le contrôle sur le Bluetooth et qu’effectivement c’était compliqué.
Il n’empêche qu’il est urgent qu’on prenne les choses en main, et la fin de mon essai c’était de dire qu’on ne va pas juste dire non à tout. Il faut appréhender les choses, les comprendre et essayer de mieux les réguler.
L’idée du privé, de la privacy dont vous avez parlé, c’est aussi quelque chose qu’il faut mieux expliquer. Si on regarde un peu quelles sont nos données privées, il n’y en a pas tant que ça. Il n’y en pas tant que ça ! Il y avait ce paradoxe absurde, je suis bien d’accord, privacy paradox, qui est que tout le monde met ses données partout, ses images partout, sur Facebook, sur les réseaux et qu’en même temps on crie au loup alors que le StopCovid est une application de traçage, avec un protocole qui est fait par l’Europe, avec nos grands groupes qui proposent des serveurs, en étant sous contrôle du ministère de la Santé et non pas d’un État de gouvernances qui voulaient priver de liberté les gens, c’était avant tout pour aider. J’ai trouvé que là on était bien peu responsables quand on était vraiment excessivement contre donc il est important de regarder ça et il n’y a pas tant que ça de données privées ; même les données génomiques dépendent de vos parents, de vos grands parents ; les données que vous mettez sur Internet il y a souvent un cousin, quelqu’un d’autre, c’est rarement vous tout seul.
En fait qu’est-ce que c’est que la donnée privée, qu’est-ce qu’on veut sauvegarder ? Qu’est-ce que c’est que la liberté essentielle si ce n’est, pour moi, le respect des autres et de l’économie pour les plus faibles ? Qui sont ceux qui ont pâti le plus de cette crise ? Ce sont les gens les plus démunis, les gens qui ne pouvaient peut-être pas se déplacer pour aller voir un médecin.
Il y a aussi à comprendre que nous sommes dans une espèce de microcosmes assez privilégié lorsqu’on est professeur ou, etc., et que, dans la société, il y a ce clivage numérique qui pour moi est important, qu’on soit plus inclusifs et qu’on fasse comprendre ce que ça peut apporter de bien et interdire ou au moins vérifier ce qui est inquiétant.
Je terminerais par ceci, il y aura un comité d’éthique international qui fait suite au G7 et au Global Forum on AI for Humanity dans lequel on a travaillé, ça fait trois ans que je suis très impliquée et engagée sur ces sujets. Il y aura un comité international GPAI, Global Partnership on Artificial Intelligence, avec 15 pays différents, évidemment il y a l’Europe, la France, il y a la Corée, le Japon, des pays d’Amérique, d’Amérique du Sud. Je vais faire partie de cette aventure et j’espère que, d’un point de vue international, on aura cette lucidité non pas de jeter le numérique tel qu’il est parce qu’il y a des choses qui débordent, mais il y a des choses qui sont bien et qui sont bien pour la justice aussi, donc comment contrôler, comment monter les grands sujets, comment être plus efficaces pour le bien de l’humanité. C’est mon propos.