Technosurveillance : halte l’IA

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Technosurveillance : halte l’IA ?

Intervenant·e·s : Olivier Tesquet - Félix Tréguer - Natacha Triou

Lieu : Podcast La Science, CQFD - France culture

Date : 28 octobre 2024

Durée : 53 min 30

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Depuis la loi relative aux JO 2024, l’expérimentation de caméras dotées de systèmes d’intelligence artificielle a été autorisée en ville pour huit cas d’usage. Le gouvernement envisage désormais de pérenniser et généraliser ce nouvel outil. Est-on en passe de légaliser la reconnaissance faciale ?

Transcription

Voix off : La Science, CQFD – Natacha Triou

Natacha Triou : Depuis la loi relative aux JO 2024, la police expérimente la vidéosurveillance algorithmique à large échelle. Le gouvernement envisage de pérenniser ce dispositif. Pourquoi cette technologie fait-elle tant débat ?
Depuis mai 2023, la vidéosurveillance algorithmique est expérimentée en ville avec 485 caméras augmentées. L’idée est de créer un réseau de vidéosurveillance intelligent en le couplant à des algorithmes entraînés pour détecter des anomalies parmi la foule. Le rapport d’évaluation de cette vidéosurveillance, boostée à l’IA, est supposé sortir d’ici la fin de l’année. Jusqu’à présent, aucune étude à grande échelle n’a démontré l’efficacité de ces systèmes. Pourquoi donc continuer à déployer ces outils et sommes-nous en passe de légaliser la reconnaissance faciale ?
« Technosurveillance : halte l’IA ? »
Félix Tréguer, bonjour.

Félix Tréguer : Bonjour.

Natacha Triou : Vous êtes sociologue associé au Centre Internet et Société du CNRS, membre de La Quadrature du Net, association de défense et de promotion des droits et libertés sur Internet, et vous publiez tout juste Technopolice – La surveillance policière à l’ère de l’intelligence artificielle, aux Éditions divergences.
Olivier Tesquet, bonjour.

Olivier Tesquet : Bonjour.

Natacha Triou : Vous êtes journaliste à la cellule enquête de Télérama et l’auteur, entre autres, de l’ouvrage À la trace – Enquête sur les nouveaux territoires de la surveillance, en 2020, aux éditions Premier Parallèle.
Merci à vous deux d’avoir accepté notre invitation, ici, dans nos studios à France culture, et merci à vous qui nous écoutez. N’hésitez pas à nous suivre sur X, ex-Tweeter, à nous poser des questions. Pour vous, on publie tous les jours plein de ressources complémentaires sur notre fil, @ScienceCQFD.

Alors, les caméras de surveillance algorithmique sont-elles de simples prolongements techniques des caméras existantes et pourquoi ces technologies sont-elles problématiques du point de vue des libertés publiques ? Nous sommes ensemble jusqu’à 17 heures pour répondre à ces questions, mais on commence avec notre archive du jour pour les Jeux olympiques non pas de Paris, mais de Pékin.

Journaliste du 20 Heures de France 2 en 2006 : Une caméra tous les 20 mètres sur la place Tian'anmen, au cœur de Pékin, la place la plus surveillée de Chine. Pas possible d’échapper à ses yeux de verre, camouflés en lampadaires, qui vous guettent partout. On estime que 260 000 caméras surveillent les rues et les gens de Pékin, comme ici, dans cette artère commerçante, une caméra tous les 50 mètres, mais les Chinois ne s’en soucient guère.

Diverses voix off : Ça ne me dérange pas, c’est pour garantir la stabilité de la société.
C’est dans l’intérêt de la Chine qu’on met des caméras. En tant que citoyen, on coopère, mais ça ne touche pas à notre vie privée.
Ça aide à gérer le pays.
Chez vous aussi, on a besoin de caméras pour contrôler les espaces publics.

Journaliste du 20 Heures de France 2 en 2006 : Tout mouvement de foule est filmé et conservé à Pékin, comme cette manifestation anti-japonaise, soutenue par le pouvoir, mais surveillée par la police.
Les autorités ne cachent pas leur méthode. Une émission de télévision montre les images de la police, comme celles de ce criminel qui a enfermé le corps de sa compagne dans une valise. Il sera arrêté le lendemain, pour la plus grande joie du téléspectateur.
Chaque commissariat centralise les images filmées par les caméras de vidéosurveillance et les bannes seront, à l’avenir, conservées pendant deux mois.

Voix off : Notre centre de contrôle surveille les endroits sensibles où l’on observe souvent des troubles de l’ordre public, des crimes ou même des accidents, et nous informons les départements concernés.

Journaliste du 20 Heures de France 2 en 2006 : Pour les Jeux olympiques, toutes les images seront centralisées ici et les autorités concernées auront un accès illimité aux enregistrements. De même, les bâtiments publics seront dotés d’une technologie de reconnaissance faciale, comme à l’entrée du Palais du peuple.
Dans deux ans, la ville de Pékin comptera 400 000 caméras de vidéosurveillance pour les Jeux olympiques, mais la population ne s’en soucie guère. On est bien loin ici de l’adoption d’une loi Informatique et Libertés.

Natacha Triou : Voilà un extrait du 20 heures de France 2, la surveillance en Chine en 2006.
Olivier Tesquet, depuis 2001, tous les JO ont un peu servi de prétexte, quand même, au déploiement de nouvelles technologies sécuritaires.

Olivier Tesquet : Oui, parce qu’on aurait probablement pu trouver un peu la même archive pour la Coupe du monde de foot en Russie en 2018, qui a été l’occasion, pour les autorités russes et surtout la mairie de Moscou, de généraliser la reconnaissance faciale notamment dans le métro, reconnaissance faciale qui a ensuite pu être utilisée à d’autres fins, pour des manifs pro Navalny, pour faire respecter le confinement pendant le Covid. Il y a ce moment d’accélération au moment des grands événements sportifs. D’ailleurs, quand on entend les pouvoirs publics, ils nous parlent de la dimension d’héritage des JO, c’est un mot qui est revenu beaucoup, on l’a encore entendu avec les JO de Paris cette année. Dans la dimension d’héritage, il y a l’héritage avec les infrastructures qui restent, mais il y a aussi les dispositifs techniques de ce type-là qui ont vocation à perdurer et la pérennisation de l’expérimentation de vidéosurveillance algorithmique en est le meilleur exemple.

Natacha Triou : Félix Tréguer, votre réaction à cette écoute d’archive de 2006.

Félix Tréguer : C’est un moment important dans la généalogie de la vidéosurveillance algorithmique qui occupe beaucoup le débat public français ces dernières semaines. L’installation de la vidéosurveillance à Pékin avec, déjà, l’arrivée de la reconnaissance faciale et c’est à peu près à la même époque, en France, dans les Livres blancs du ministère de l’Intérieur, qu’on commence à envisager ces mêmes technologies et leur déploiement dans le contexte français.
Ce qui me fait aussi réagir dans cette archive, c’est la mise en exergue, par le journaliste, de la loi Informatique et Libertés comme rempart juridique efficace pour la protection des libertés dans nos contrées françaises ou européennes. On pourra peut-être revenir là-dessus, mais c’est vrai que je le trouve un petit peu optimiste. Je voudrais rappeler aussi, puisqu’on va beaucoup parler de l’expérimentation légale de la vidéosurveillance algorithmique cet été, à l’occasion des Jeux olympiques, une expérimentation qui se poursuit jusqu’en mars 2025 du fait de la loi Jeux olympiques de 2023, que cette expérimentation légale coexiste avec de nombreux déploiements et recours à ces technologies par les polices municipales, par la Police nationale française, en toute illégalité.

Natacha Triou : On reviendra en effet sur ces points-là. Pour revenir un peu sur ces caméras de surveillance dites classiques, en France, on a aujourd’hui, environ je crois, 100 000 caméras qui sont déployées dans toutes les villes de France depuis 15 ans. On voit que notre pays a développé de manière très rapide la vidéosurveillance de l’espace public.

Félix Tréguer : Oui. En réalité, les premiers déploiements datent de 1991 dans des communes comme le Levallois-Perret, à l’initiative de certains maires qui veulent utiliser ces dispositifs comme manière de rassurer la population et montrer qu’ils répondent à des attentes en matière de sécurité publique. La première grande loi, c’est 95, qui vient légaliser ces déploiements à l’initiative du gouvernement de l’époque, avec la CNIL, qui est d’ailleurs évincée très largement du dispositif de contrôle qui est mis en place. Et c’est vraiment sous le mandat de Nicolas Sarkozy, à partir de 2007/2008 en particulier, que les politiques publiques françaises, notamment au niveau du ministère de l’Intérieur, viennent encourager et subventionner très massivement les déploiements de parcs de vidéosurveillance par les communes françaises.

Natacha Triou : Olivier Tesquet.

Olivier Tesquet : Il y a un effet d’entraînement ou une boucle de rétroaction qui se met en place, c’est-à-dire qu’on voit que le déploiement de ces dispositifs-là accompagne ou s’accompagne de discours politiques sur la sécurité. Ce n’est pas un hasard si ça se généralise et se massifie sous Nicolas Sarkozy. On se souvient des grands discours de Nicolas Sarkozy sur la sécurité, le karcher, etc. On pourrait citer plein d’autres exemples qui sont très symptomatiques, comme ça, de cette rhétorique de la sécurité première des libertés, qu’on a d’ailleurs entendue, finalement, des deux côtés du spectre politique depuis. C’est peut-être aussi pour cela qu’aujourd’hui il y a cette forme d’unanimisme ou du consensus un peu mou autour du déploiement de ces technologies, sans qu’on s’en inquiète outre mesure. Aujourd’hui cette rhétorique de la sécurité qui est au-dessus, finalement, au-dessus de toutes les autres libertés, au-dessus de tous les autres droits, a contaminé un peu toutes les composantes de la vie politique française.

Natacha Triou : Donc, on en arrive aujourd’hui à ce point où, en fait, on a trop de caméras, on ne sait plus où regarder, et c’est ainsi que vient l’idée de traiter ces images hyper rapidement pour en sortir des informations précises, on obtient la vidéosurveillance algorithmique.

Olivier Tesquet : La VSA, si on prend cet acronyme comme raccourci, désigne en fait le croisement des techniques d’intelligence artificielle, notamment ce qu’on appelle la vision par ordinateur, avec les flux de vidéosurveillance. L’idée, c’est d’utiliser l’IA pour automatiser l’analyse des flux et détecter des événements d’intérêt pour les forces de l’ordre ou pour les gestionnaires de l’espace public urbain.
Ce sont des technologies qui, plus exactement, ont des applications qui font l’objet de recherches depuis les tout débuts de l’informatique. Dès les années 50, les pionniers de l’intelligence artificielle travaillent déjà à la vision machinique, le fait, pour des algorithmes, de détecter des images, de reconnaître des visages, une recherche qui est largement abondée et financée par des crédits militaires, par la CIA à l’époque aux États-Unis. C’est donc une technologie qui a une longue histoire et les formidables progrès de l’apprentissage machine, ce qu’on appelle le machine learning qui est un peu à l’origine des avancées assez impressionnantes de ces dernières années en matière d’intelligence artificielle, c’est vraiment à partir du début des années 2010 que ces technologies commencent à avoir un peu d’efficacité, de performance, et qu’elles font, du coup, l’objet des premiers déploiements opérationnels.

Natacha Triou : Justement dans le cadre de cette expérimentation liée à la loi JO, Olivier Tesquet comment, concrètement, ça fonctionne ? Quels sont les algos utilisés ? Quelles expérimentations a-t-on vu se mettre en place ?

Olivier Tesquet : Déjà, il faut borner un certain nombre de cas d’usage qui sont présentés par les autorités. Ça fait déjà quelques années : avant les Jeux, on entendait ce qu’ils appellent les intrusions périmétriques, donc s’assurer, vérifier que quelqu’un ne rentre pas sur une zone sur laquelle il n’est pas censé rentrer, détecter les objets abandonnés, détecter les débuts de rixes, les attroupements, tout un tas de situations qui sont donc considérées comme des situations suspectes dans l’espace public. Peut-être quand même dire à ce moment-là – et Félix l’évoquait – que ce sont des recherches assez anciennes, avant l’expérimentation de vidéosurveillance algorithmique à l’occasion des Jeux olympiques. On peut avoir l’impression, quand c’est présenté comme ça, que, avant, il n’y a jamais eu, en France, d’expérimentation de vidéosurveillance algorithmique. Ce n’est pas du tout le cas. Félix l’a rappelé, il y a quand même un certain nombre de collectivités, municipalités, etc., qui l’expérimentent, la déploient – on peut discuter, d’ailleurs, de la terminologie, mais je pense qu’on en aura l’occasion un peu plus tard. Elles déploient ce genre de technologie, depuis déjà plusieurs années, dans une forme d’opacité, dans une forme aussi de partenariat public/privé assez étrange : il n’y a pas, nécessairement, de signature de marchés publics : on met à disposition une technologie, ça satisfait un peu tout le monde. Tout cela se fait quand même un peu à la marge, voire carrément à l’écart des processus habituels qui, normalement, réglementent le déploiement, l’utilisation de ce type de technologie.

Natacha Triou : Comme vous dites, on a plusieurs exemples de l’expérimentation de ces technologies, Olivier Tesquet, notamment la RATP qui expérimente ces technologies depuis 2018.

Olivier Tesquet : Oui, et aussi des municipalités. J’ai suivi avec intérêt, comme beaucoup d’autres personnes, parce que Technopolice, avant d’être un livre, a été une opération menée par La Quadrature du Net qui avait vocation à localiser, identifier, puis obtenir des informations, parce qu’on se rend compte aussi qu’il y a une terrible asymétrie. En France, on a des administrations qui sont très peu transparentes – et c’est peu de le dire –, donc les citoyens, y compris parfois les habitants des villes concernées, n’étaient pas du tout au courant du déploiement de tel ou tel outil dans leur ville, dans leur quartier. Il fallait donc aussi rétablir un peu cette asymétrie-là.

Natacha Triou : Félix Tréguer, sur les exemples d’expérimentation qu’on a pu voir en effet dans l’hexagone.

Félix Tréguer : Dans le cadre du projet Technopolice, on a en effet cherché à documenter depuis plusieurs années ces déploiements. Il y en a eu à Marseille, il y en a eu à Nice, il y en a eu dans le département des Yvelines, il y en a eu à Valenciennes. il y en a eu à Paris, dans le cadre de projets de recherche, il y en a donc eu de très nombreux. L’un des leaders du marché, la société israélienne Briefcam, prétend avoir plus de 200 communes clientes sur le territoire français.
Dans les usages qu’on a pu voir, il y a en effet à la fois des choses qui relèvent du comptage statistique, par exemple, compter des vélos, des piétons, des voitures sur certains axes, donc des applications qui sont mises en avant comme relevant de la smart city, la ville intelligente, et de l’optimisation de certaines fonctionnalités urbaines et d’information des politiques urbaines de manière générale, et puis il y a des applications plus directement sécuritaires, Olivier en mentionnait certaines. Et on a vu, par exemple dans un marché public à Marseille, l’expérimentation de fonctionnalités qui s’apparentent à de la reconnaissance faciale puisqu’elles visent à suivre automatiquement des corps en déplacement dans l’espace public à mesure qu’ils flashent, sous différentes caméras, tout au long de leur parcours urbain. Et cette reconnaissance est faite non pas à partir de l’empreinte faciale, mais, par exemple, de la couleur des vêtements ou de la démarche, mais, le plus souvent, c’est à partir de la couleur des vêtements.

Natacha Triou : Là, dans le cadre des JO, on a des caméras qui sont donc augmentées avec ces algorithmes qui étaient là pour détecter huit types de situations inhabituelles. C’est ça ? Il n’y a pas encore de reconnaissance faciale.

Félix Tréguer : Non. Cest ce que j’ai proposé de désigner, plutôt essayé avec une illustration de la stratégie des petits pas. Quand on a commencé, avec La Quadrature du Net et l’ensemble du collectif Technopolice, à travailler sur ces questions, c’était en 2019 à un moment où tout ce milieu techno sécuritaire, donc d’industriels, de start-ups, de chercheurs et chercheuses d’organismes de recherche publics, leurs relais administratifs, au ministère de l’Intérieur notamment, leurs relais politiques, parlaient de beaucoup de reconnaissance faciale. L’objectif était de légaliser la reconnaissance faciale en temps réel, on pourra revenir sur le fait qu’elle est déjà en partie légalisée en France, et que cette reconnaissance faciale en temps réel puissent être expérimentées à l’occasion des JO. On était donc en 2019. C’est l’époque où Cédric O, secrétaire d’État au numérique, donne une interview au Monde, explique qu’« il faut expérimenter la reconnaissance faciale pour que nos industriels progressent », je cite. C’est donc vraiment l’objectif.
Il se trouve qu’en 2022, ce même Cédric O annonce, juste avant la présidentielle, que les conditions politiques de ce qu’il estime être un débat nécessaire et qui doit être informée – en gros, les fantasmes d’une partie de la population – ne sont pas réunies pour légaliser cette expérimentation de la reconnaissance faciale en temps réel, donc, le choix est fait, à ce moment-là, de se concentrer sur des cas d’usages peu sensibles du point de vue des libertés publiques : détection de port d’armes, de bagages abandonnés, détection périmétrique dont parlait Olivier, le fait d’aller à contresens d’un sens de circulation pour un véhicule ou un piéton. Bref !, des cas d’usage assez divers, mais qui ne s’assimilent pas directement à de la surveillance biométrique ou à du suivi d’individus à des fins d’identification.

Natacha Triou : Justement. En quoi consiste plus précisément cette stratégie des petits pas ? Que disent les rapports concernant l’efficacité de la vidéosurveillance ? Restez à l’écoute.

Voix off : France Culture. La Science, CQFD - Natachaa Triou.

15’ 22

Natacha Triou : En direct sur France Culture avec nos deux invités du jour, Félix Tréguer et Olivier Tesquet. Nous parlons de vidéosurveillance algorithmique et du gouvernement qui envisage de généraliser cette technologie expérimentée pendant les JO et pas que. On vient de voir que c’est une technologie qui analyse automatiquement les flux de vidéosurveillance à la recherche de comportements anormaux. On vient de voir aussi, que ces dispositifs, par leur capacité de détection, d’analyse automatisée, ne sont pas de simples prolongements techniques des caméras dites classiques. Dans le métro, à Paris, on peut par exemple lire sur les pancartes « Pour votre sécurité, cet espace est vidéo-protégé ». On voit d’ailleurs un glissement de lexique. Olivier Tesquet, a-t-on eu des études sur l’efficacité de ces dispositifs, en tout cas pour la vidéosurveillance classique ?

Olivier Tesquet : Pendant longtemps, on en a eu très peu, voire pas du tout. D’ailleurs, la Cour des comptes, pendant des années, a réclamé une évaluation sérieuse de la vidéosurveillance, en expliquant que ça a entraîné des dépenses publiques assez considérables et que, jusqu’à preuve du contraire, on n’avait pas, en face, de chiffres à mettre pour vérifier l’efficacité de ces dispositifs-là.
Il y a eu une étude assez intéressante qui a été menée à Grenoble, il y a deux ans, trois ans maintenant, avec un chercheur qui a pu travailler directement avec les données des forces de l’ordre, ce qui est déjà suffisamment rare, puisque qu’on ne peut pas dire que la police, en France, soit extrêmement ouverte aux sciences sociales, la cohabitation n’était donc pas acquise. Il a donc fait une étude quantitative sur le recours à la vidéosurveillance dans la résolution des enquêtes et, en fait, on s’est rendu compte, avec les conclusions de cette étude-là, que la vidéosurveillance avait eu un intérêt très marginal. Grosso modo, on était à 1 % d’enquêtes résolues grâce à la vidéosurveillance qui est l’argument massue à chaque fois, quand on entend les industriels, le lobby de la vidéosurveillance puisqu’il y a un lobby assez puissant. À partir du moment où il y a une offre industrielle et une demande politique, tout ça s’alimente un peu en circuit fermé et, évidemment, ils s’appuient beaucoup sur cet argument-là qui est de dire « c’est un peu la solution magique pour attraper les méchants, attraper les criminels, résoudre les enquêtes ». La fameuse étude montre que ce n’est pas exactement aussi simple que ça.

Natacha Triou : En effet. Vous faites allusion à l’étude de Guillaume Gormand, en 2021, chercheur au Centre d’Études et de Recherche sur la diplomatie, l’Administration Publique et le Politique. Un intérêt plutôt marginal : sur 1929 enquêtes, 22 seulement à avoir été élucidées ont bénéficié d’éléments tirés de l’exploitation de la vidéo-protection. C’est en effet un résultat proche de 1,13 % d’efficacité. Félix Tréguer.

Félix Tréguer : C’est très faible et c’est vrai qu’il faut évidemment s’interroger sur le rapport coût/efficacité de la vidéosurveillance. C’est vraiment choquant, là encore, de voir l’obstruction du ministère de l’Intérieur au fait de diffuser les chiffres. Il faut avoir conscience que pour les 100 000 caméras qu’on évoquait tout à l’heure, déployées par les autorités sur la voie publique en France, là non plus on n’a pas les chiffres officiels, mais c’est de l’ordre de milliards d’euros dépensés depuis une décennie sur ces équipements. Les dernières 500 caméras de vidéosurveillance installées à Marseille, par exemple, ont coûté plus de 50 millions d’euros. Ce sont donc vraiment des équipements très coûteux et qui, en fait, relèvent, compte-tenu de cette inefficacité, d’une espèce de dogme, d’une idéologie qui doit s’expliquer par la capacité des caméras à, quelque part, rentrer dans des formes de transactions entre les élites politiques et une demande d’une partie de la population de voir son sentiment de sécurité en partie soulagé par le déploiement de ces dispositifs. Ça permet de mesurer tout ce qu’on rappelle ici, que c’est politique et que tout ce débat public est largement basé sur des peurs, des fantasmes et le débat rationnel est très compliqué dans ces matières.

Natacha Triou : C’est une demande populaire de vidéosurveillance, on va dire.

Félix Tréguer : En partie.

Natacha Triou : Olivier Tesquet, on a aussi les travaux de Laurent Mucchielli, sociologue et directeur de recherche au CNRS, qui a montré la réalité de l’effet plumeau. En quoi ça consiste ?

Olivier Tesquet : L’effet plumeau, c’est qu’en fait les caméras opèrent un déplacement, c’est-à-dire que vous ne faites pas baisser la criminalité, vous ne faites pas baisser la délinquance, vous allez la déplacer dans une zone qui n’est pas nécessairement équipée de caméras. C’est donc aussi un outil, quelque part, de ségrégation de l’espace public, c’est-à-dire que vous allez bunkeriser un espace, par exemple vous allez mettre des caméras dans un quartier parce que, dans ce quartier, il y a un enjeu sécuritaire, et puis vous allez reléguer, comme ça, la délinquance ou la petite criminalité à la périphérie.
Je voudrais juste revenir sur ce que disait Félix qui, à mon avis, est un élément important, sur le fait qu’on est dans le domaine du dogme, on est quasiment dans le domaine de la croyance, mais de la croyance quasi religieuse. Je connais quand même assez peu de domaines, dans les politiques publiques, où on est face à des dispositifs qui, s’ils fonctionnent, c’est la preuve qu’il faut en déployer davantage, mais, s’ils ne fonctionnent pas, c’est la preuve aussi qu’il faut en déployer davantage et qu’il faut développer l’itération suivante, plus intrusive, d’une technologie qui n’a pas fait ses preuves. Même les industriels et même les lobbys de la vidéosurveillance le reconnaissent. Je me souviens avoir lu des déclarations du patron de l’Association nationale de la vidéo-protection, française, qui expliquait que, oui, ils n’avaient aucune preuve de l’efficacité des dispositifs, mais, en gros, si on continue à en acheter, c’est bien que ça marche ! Ce qui est quand même un argumentaire assez nébuleux, on va dire.

Félix Tréguer : Ce lobby, l’AN2V, est l’un des principaux rouages de l’industrie de la vidéosurveillance en France, très écouté au ministère de l’Intérieur, qui est vraiment impliqué dans la fabrique des politiques publiques. Il faut se représenter que c’est un secteur qui équivalait, en 2016, à 1,7 milliard d’euros pour la vidéosurveillance classique. C’est donc une manne financière très importante qui se déroule et se constitue en parallèle d’autres secteurs de la sécurité urbaine et de technologies de surveillance. Il y a donc des intérêts industriels très forts qui poussent à ces politiques et qui, quelque part, entretiennent ce dogme et ces croyances.

Olivier Tesquet : Et il y a un enjeu à l’export, c’est-à-dire que c’est aussi démontrer le savoir-faire français en la matière pour, ensuite, l’exporter à d’autres pays. Il a pu arriver d’ailleurs, pour ne pas être trop en délicatesse avec la législation, que la France externalise certaines expérimentations, je pense, par exemple à Singapour qui a servi de laboratoire pour ça, pour tester des choses qui, ensuite, ont vocation à être déployées sur le territoire national. Par exemple Thales, pour ne citer qu’une grosse entreprise française, peut aller vendre ses solutions à un certain nombre de pays, de grandes municipalités, de métropoles, etc.

Natacha Triou : Vous en parlez aussi, Félix Tréguer, dans votre ouvrage.

Félix Tréguer : En effet. Puisqu’on est dans une émission scientifique, je tiens aussi à rappeler à quel point un organisme de financement de la recherche comme l’Agence nationale de la recherche, est, quelque part, complice de ces logiques un peu néocoloniales dans le développement de ces technologies. On parlait du cas Singapour où des algorithmes de vidéosurveillance algorithmique ont été testés ces dernières années en lien avec le ministère de l’Intérieur, l’industriel Agence nationale de la recherche et également Thales, si je ne m’abuse. Je pense aussi à ce chercheur que j’avais croisé dans un salon de l’ANR, justement sur les recherches en matière de sécurité, et qui présentait, très enthousiaste et excité, un projet qu’il avait mené avec des collègues chinois. Pour contourner les obstacles juridiques, pour entraîner les algorithmes de reconnaissance faciale, il avait noué un partenariat avec un organisme de recherche chinois et lui de m’expliquer, tout content du fait qu’en Chine il y a peu de modèles de lunettes – en tout cas, c’était le cas à l’époque de ses recherches – et que, du coup, ça faussait un peu les coefficients de l’algorithme de reconnaissance faciale qui sont très discriminants sur cette partie du visage que sont les yeux. Il y avait tous ces défis techniques dont il me parlait. Je sentais qu’il n’y avait aucune prise en compte des enjeux éthiques, juridiques, politiques liés à ce partenariat avec la Chine, qui était évidemment déjà vraiment très en pointe, très en avant-garde sur le déploiement à grande échelle de la reconnaissance faciale. C’est donc quelque chose d’assez structurel et qu’il faut aussi avoir en tête pour mesurer à quel point les politiques de recherche contribuent, en fait, à l’édification de cette société sous surveillance et contribuent à légitimer ces évolutions sans aucun débat public.

Natacha Triou : Justement, par rapport à ces politiques de recherche, une question un peu naïve, pourquoi n’avons-nous pas en France des études de grande ampleur sur ces questions ? On a des petites études au niveau local, mais on a pas d’enquêtes plus globales qui auraient été menées à l’échelle nationale. Olivier Tesquet.

Olivier Tesquet : Comme je le disais, on a à la fois une insularité des forces de l’ordre, historiquement, qui méprisent les sciences sociales, pensent que les sciences sociales ne font que ralentir l’action de la police et que, du coup, c’est un peu du temps perdu et le manque de transparence aussi de l’administration. Tout à l’heure, Félix parlait de l’exemple de Briefcam, cette société israélienne qui a effectivement des contrats avec des dizaines, voire des centaines de municipalités en France, qui a été prise, quand même, dans un petit scandale – je dis un petit, parce que c’est vrai que sur ces sujets-là, on est toujours sur des tempêtes dans un verre d’eau, en tout cas vu de l’extérieur, même si ça devrait sûrement faire plus de bruit que ça – sur le logiciel qui aurait été utilisé à des fins de reconnaissance faciale sans aucune autorisation. Gérald Darmanin, alors ministre de l’Intérieur, a promis une enquête interne, faire toute la lumière sur cette affaire. Je remarque que l’enquête interne du ministère de l’Intérieur a disparu en même temps que Gérald Darmanin, c’est-à-dire qu’aujourd’hui on n’a aucune information, aucun retour de l’administration, ce qui, à mon avis, est indigne d’une démocratie digne de ce nom, sur l’utilisation possiblement délictuelle de ce logiciel.

Félix Tréguer : Oui, parce que le fait de surveiller une population de manière illégale, c’est passible de sanctions pénales.

Natacha Triou : Olivier Tesquet, on vient parler des causes du déploiement de ces technologies-là, mais, pour vous, il s’agit là autant d’une fabrique de l’acceptabilité sociale que la mise en place d’une expérimentation technologique. C’est la fonction même de ces expérimentations.

Olivier Tesquet : Oui. D'ailleurs, on ne dit plus « consentement », on dit maintenant « acceptabilité ». De la même manière qu’on a glissé de la vidéosurveillance vers la vidéo-protection, parfois, j’entends même la vidéo-vigilance, on voit un glissement sémantique. Il y a eu aussi un glissement sémantique sur l’accoutumance à ces dispositifs-là : on est passé du consentement à l’acceptabilité. L’acceptabilité, c’est un mot qu’on a notamment vraiment vu apparaître pendant le Covid sur un certain nombre de mesures privatives de liberté, etc. On voit Cédric O qui sursoit momentanément au déploiement de la reconnaissance faciale, etc., c’est qu’il y a tout un travail qui est fait sur l’acceptabilité de la société à ces dispositifs qui sont toujours plus intrusifs. Donc aujourd’hui, quand on a la vidéosurveillance algorithmique, on voit bien que la vidéosurveillance algorithmique n’est qu’un point sur un axe qu’on a tracé et qui irait jusqu’à, demain, la reconnaissance faciale même si, effectivement, Félix le rappelait, on aura peut-être l’occasion d’y revenir, la reconnaissance faciale est déjà utilisée par la police en France, dans certains cadres, mais la reconnaissance faciale dans l’espace public, en temps réel, ce qui est le fantasme policier depuis déjà de longues années, ce qui est seriné. Chaque fois qu’un Livre blanc de la sécurité intérieure est publié par le ministère, cette envie-là revient en permanence. Donc, c’est comment travailler, malaxer le corps social pour qu’il s’habitue et qu’il finisse par accepter ce genre de dispositif.

Natacha Triou : En parlant d’expérimentation, on donne la fausse impression qu’il y aura une évaluation au bout, avec un vernis pseudo-scientifique.

Olivier Tesquet : C’est le problème. Il y a un exemple assez spectaculaire de ça. Je me souviens de l’expérimentation menée par la ville de Nice avec Christian Estrosi. On sait que Christian Estrosi est particulièrement friand de ce type de technologie, qu’il a noué des partenariats avec des sociétés israéliennes, etc. Il y a quelques années, il avait fait une expérimentation pendant le carnaval de Nice où un logiciel de reconnaissance faciale identifiait des personnes pendant le carnaval. Il est arrivé à des résultats mirifiques, de dictature bananière, c’est-à-dire qu’on avait 99,8 %, on a détecté des jumeaux monozygotes, etc. La CNIL a dit « en fait, votre évaluation ne vaut rien. Scientifiquement, elle n’a pas de valeur. » Et puis ça s’est arrêté là. C’est-à-dire qu’on présente un vernis totalement pseudo-scientifique, j’insiste vraiment sur le pseudo-scientifique, en le faisant passer pour une vérité scientifique et, derrière, ils s’appuient sur ces rapports-là, ces études-là – quand bien même ce ne sont pas vraiment des études –, pour justifier, encore une fois, la mise en place permanente de ce type d’outils.

Natacha Triou : Félix Tréguer.

Félix Tréguer : Vous le disiez. En effet, la loi de 2023 relative aux Jeux olympiques, qui crée ce dispositif expérimental pour la VSA, s’accompagne d’un mécanisme d’évaluation avec un comité dirigé par le conseiller d’État Christian Vigouroux. Il doit inclure des universitaires, il y a une juriste dedans, il y a un informaticien, je crois. Il n’y a pas de chercheurs et chercheuses en sciences sociales. Je pense qu’il y a en effet une vraie méfiance vis-à-vis de ce type d’approche qui est perçue comme critique donc, potentiellement, nuisible aux stratégies d’acceptabilité sociale qui sont, en effet, fabriquées et mises en scène par les promoteurs de ces technologies. Sur le comité d’évaluation, j’observe que c’est très intéressant d’avoir entendu Michel Barnier, lors de son discours de politique générale, annoncer d’ores et déjà, ensuite plussoyé??? par le ministère de l’Intérieur, la pérennisation du dispositif expérimental, alors même que le comité d’évaluation n’a pas rendu sa copie, ce qui n’a d’ailleurs pas empêché le préfet de police, Laurent Nuñez, de communiquer devant la commission des lois de l’Assemblée nationale en disant que tout s’était très bien passé, que les algorithmes de VSA avaient été très efficaces, ce que beaucoup de données nous invitent à mettre en doute. Par exemple, si on regarde les résultats de la SNCF qui a expérimenté illégalement beaucoup de ces algorithmes de VSA, la moitié, environ, était jugés complètement insatisfaisants il y a quelques mois. Jérôme Durain, un sénateur membre du comité d’évaluation de l’expérimentation relative à la loi Jeux olympiques de la VSA, expliquait en réponse et un peu choqué de voir le gouvernement prendre les devants sans même attendre le rapport d’évaluation qui est attendu pour la fin d’année, qu’en fait, la plupart des cas d’usage – certains en tout cas – notamment la détection d’armes et de colis abandonnés ne marchait pas du tout, que, donc, le satisfecit affiché par Laurent Nuñez était très prématuré.

Natacha Triou : Ce bilan attendu pour la fin de l’année, sera-t-il rendu public, Olivier Tesquet ?

Olivier Tesquet : S’il l’est, tant mieux, on fera mentir mon intuition qui dit qu’il ne le sera pas nécessairement. S’il ne l’est pas, on pourra toujours le demander, on pourra toujours faire une demande d’accès aux documents administratifs. Après, la question sera de savoir s’ils vont le communiquer. C’est vrai que l’exemple de Nuñez, du ministère de l’Intérieur, etc., qui nous expliquent, en fanfaronnant, que c’est une grande réussite avant même d’avoir rendu les conclusions de l’expérimentation, c’est bien la preuve que c’est très performatif quand même.

Natacha Triou : Quelles questions la vidéosurveillance algorithmique pose-t-elle en matière de libertés fondamentales et pourquoi une surveillance algorithmique constante de l’espace public est-elle dangereuse politiquement ?

Pause musicale : Under surveillance de Oppenheimer Analysis.

31’ 27

Natacha Triou : Under surveillance de Oppenheimer Analysis.
En direct sur France Culture, nous parlons du déploiement de technologies de surveillance, notamment des caméras augmentées de la loi relative aux JO 2024. On en parle avec nos deux invités du jour, Félix Tréguer, sociologue associé au Centre Internet et Société du CNRS et membre de La Quadrature du Net et Olivier Tesquet qui est journaliste à la cellule enquête de Télérama.
On vient de voir que jamais ni la vidéosurveillance ni la surveillance algorithmique n’ont fait leurs preuves. Ces vidéos peuvent aussi être obtenues par des caméras embarquées sur des drones. Cette technologie a pris place dans l’espace public, depuis quelques années, et elle est devenue incontournable. On en parle tout de suite avec vous, Alexandre Morales. Bonjour.

Alexandre Morales : Bonjour.

Natacha Triou : Pour le reportage du jour, vous êtes allé voir des entreprises françaises qui développent des technologies liées aux drones.

Alexandre Morales : Oui. Pour cela j’ai rejoint Natacha Lalanne, coordinatrice du Hub Drones de Brétigny-sur-Orge. Ce site accueille des entreprises, de la start-up au grand groupe, sur un espace de vol de 300 hectares et sur un couloir aérien de près de 20 kilomètres de long. Les professionnels du drone peuvent y tester leurs technologies, qu’il s’agisse d’inspections ou de prises de décision en temps réel, dans des domaines allant de l’agriculture à la défense, en passant par la sécurité anti-drone telle qu’on a pu la voir au moment des Jeux olympiques. J’ai pu m’entretenir avec deux entreprises qui se trouvaient sur le site ce jour-là, les sociétés Uavia et HyLight, qui développent des technologies originales et plutôt complémentaires.

Natacha Lalanne : Là, nous sommes allés sur les pistes de l’ancien centre d’essais en vol, ici on a 300 hectares rien que pour les drones, pour qu’ils puissent faire leurs tests, agrémentés du couloir de 20 km. En plus, on a un super soleil, c’est génial. C’est sur cette piste qu’on a vu Jacqueline Auriol et aujourd’hui HyLight et Uavia.

Pierre Vilpoux : Pierre Vilpoux, enchanté. Je suis le président de la société Uavia. Uavia est une société qui est un éditeur logiciel, qui développe une solution qui permet à des drones d’être opérés à distance, c’est-à-dire sans pilote sur place, pour faire des missions, que ce soit d’intérêt public, de sécurité civile ou de mesures environnementales.

Alexandre Morales : Donc vous venez ici pour tester votre logiciel qui fonctionne avec un drone, qui est juste ici dans une box, dans une boîte.

Pierre Vilpoux : Exactement. Il y a une interface web qui permet aux gens d’utiliser le système, d’ailleurs quel que soit le drone déployé sur le terrain, et puis on met une intelligence embarquée à l’intérieur des drones qui deviennent des robots.

Alexandre Morales : On peut peut-être faire un test.

Pierre Vilpoux : Oui. Ce que je vous présente ici, que les auditeurs ne voient pas, c’est l’interface logicielle qui ne dépend pas de la machine qui est déployée. Vous arrivez sur un portail, vous avez un certain nombre de sites qui sont les endroits où les drones sont autorisés à voler, sont déployés. Nous sommes donc ici à Brétigny-sur-Orge, j’ai des drones qui sont prêts à être pilotés à distance depuis cette interface-là. Vous avez, par exemple, ce drone-là, qui est un Parrot. Il a le bouton vert, donc tout ce que j’ai à faire, où que je sois sur la planète, pour faire un vol, c’est d’appuyer sur « take off » et vous allez voir le drone décoller. Vous avez vu qu’il n’y a aucune latence, il décolle immédiatement. Il va se mettre à une altitude qui est prédéfinie, qui est à 35 mètres, et après j’ai mon espace de vol, avec éventuellement des obstacles. Si je l’envoie à cet endroit-là, en fait, il calcule un plan de vol qui le renvoie à la plateforme. Donc, le drone va se positionner ici et si je lui demande, on était là, de nous regarder, look at, vous allez voir que le drone va nous regarder. L’idée, c’est que ce soit une interface complètement intuitive.

Alexandre Morales : On a l’impression d’être sur Google Maps et de cliquer là où on veut aller. C’est aussi simple.

Pierre Vilpoux : Exactement, c’est aussi simple. Je ne suis pas un pilote, j’utilise exactement l’interface comme un Google Maps. Ce qui est intéressant, c’est que si je lui demande d’aller à un endroit qui n’est pas autorisé, le drone refuse la commande. Pareil, si j’ai un obstacle, que je lui demande y aller, il refuse. Par contre, si je lui demande de regarder un endroit qui est autorisé, là, il veut bien. Et je peux aussi prédéfinir des plans de vol. On lui a simplement donné des points d’intérêt et le drone va se rendre au premier point, faire la mission, regarder les différentes choses.
Vous savez que les drones c’est un sujet sensible parce qu’on entend beaucoup parler de l’Ukraine et d’autres pays où ça peut-être utilisé comme des armes, mais on interdit ça dans nos technologies, nos licences sont purement civiles. Il ne s’agit pas de dire que tout le monde pourra avoir le droit de voler n’importe où dans l’espace de vol, on travaille avec le réglementaire, par contre, on va progressivement sur des solutions qui sont testées pour que les services de sécurité aient le droit, en accord avec le réglementaire, de faire ces missions quand il s’agit de sauver des gens.
On n’exploite pas nos technologies, on les met dans les mains de gens qui ont un métier qui justifie de faire ça. Ce sont les industriels, une nouvelle fois, pour la maintenance, l’exploitation de leurs infrastructures. Ça peut être au niveau environnemental, pour les mêmes industriels, pour suivre leurs émissions atmosphériques. Ça peut être effectivement des forces de secours – les pompiers – pour faire de l’aide à l’intervention de première urgence, des gens qui se noient, des déclenchements de feu.

Martin Bocken : En fait, on le transporte complètement opérationnel dans un semi-remorque. Ça permet d’aller sur un site d’opérations de manière extrême efficace. Et puis, en fait, quand on arrive sur le site, en dix minutes, on peut lancer l’opération. Là, il est gonflé. Le réacteur est grand, il fait 12 mètres de long, il fait 2,5 mètres de large. C’est une belle bête.
Je suis Martin Bocken. J’ai cofondé HyLight il y a bientôt trois ans. Je suis aussi le directeur général de cette société. En fait, chez HyLight on a développé un drone dirigeable qui a pour mission d’inspecter plus précisément les réseaux énergétiques, notamment les liges électriques, mais aussi les réseaux de gaz, parce que ces réseaux ont besoin d’être inspectés pour être bien entretenus. Aujourd’hui, ils sont encore principalement inspectés par hélicoptère.
On a fait une solution qui vole très longtemps, qui ne vole pas vite et qui est assez inoffensive, parce que c’est une solution qui « flotte en l’air », entre guillemets.

Alexandre Morales : J’imagine que la composition de votre drone, qui est donc un ballon dirigeable qui doit pouvoir s’élever assez facilement, c’est du matériau qui doit être très léger.

Martin Bocken : Exactement, en fait, sur le HyLighter, il y a différents composants. D’abord le composant qu’on voit le mieux, c’est l’enveloppe. On a différentes technos. La première, c’est du multicouche. On a aussi une enveloppe en matériau composite, ce qui permet d’avoir à la fois une très grande résistance à la porosité, parce que l’hélium c’est extrêmement petit, c’est extrêmement fin et ça fuit très vite, et à la fois être extrêmement résistant à la pression. Ensuite, sur cette enveloppe, on vient intégrer des bras en carbone qui viennent un peu épouser l’enveloppe et ces bras permettent d’intégrer ensuite nos moteurs, qui sont aussi en carbone pour allier légèreté et rigidité.

Alexandre Morales : Avec votre drone, ce qui est aussi intéressant, c’est que c’est un drone qui fait des choses qui sont assez inédites, c’est-à-dire qu’il peut tenir en l’air pendant extrêmement longtemps.

Martin Bocken : Très honnêtement, on développe quelque chose qui est unique au monde parce que ça n’existe nulle part ailleurs. On peut voler jusqu’à dix heures en l’air et c’est complètement inédit.

Alexandre Morales : Pour pouvoir observer des lignes haute tension ou des pipelines, j’imagine qu’il faut avoir des outils de visualisation.

Martin Bocken : En fait, pour s’assurer que tous ces réseaux énergétiques sont en bon état, il faut absolument avoir des meilleurs moyens de connaître les réseaux, que ce soit des capteurs de fuite de méthane, que ce soit des capteurs photo et des capteurs LiDAR 3D pour identifier les défauts, la végétation qui est trop proche des lignes électriques. Ce sont toutes des choses extrêmement précises qu’on a intégrées et le fait de pouvoir voler de manière très proche de ces réseaux permet d’avoir une très haute précision de données à très grande échelle.

Natacha Triou : Merci Alexandre Morales pour ce reportage.
Olivier Tesquet, une réaction à ce qu’on vient d’écouter ?

Olivier Tesquet : J’ai retenu juste, à un moment, « assez inoffensif » ou « assez inoffensive ». Avec tout ce qu’on entend, on va se dire que ça ne pose aucun problème d’avoir des drones qui survolent des installations électriques, qui aident les pompiers, etc. On va évidemment se dire que ce sont des utilisations hyper vertueuses, ça n’aurait pas de sens de s’y opposer. Mais sous ses dehors inoffensifs et ses utilisations vertueuses, en fait, ça sert aussi un peu de cheval de Troie aux industries sécuritaires. On le voit par exemple sur les drones. Là, on parle de ces exemples-là, mais il y a quand même des drones qui sont très massivement utilisés par les forces de l’ordre depuis qu’ils sont enfin rentrés dans la loi et on les a fait rentrer au forceps après que, justement, le Conseil d’État, la CNIL aient tapé plusieurs fois sur les doigts, notamment de Didier Lallement qui, à l’époque, s’en servait sans aucune autorisation. Et maintenant, on s’en sert de manière quasi quotidienne pour des choses qui vont de la surveillance aux opérations de maintien de l’ordre ou à épauler les fameuses opérations « Place nette » que Félix évoquait avant la petite pause musicale. On voit cette espèce de cheval de Troie ; on le voit aussi sur la reconnaissance faciale ou sur la vidéosurveillance algorithmique.
J’ai entendu les exemples des dizaines de fois. Il y a deux exemples auxquels il est très difficile de s’opposer pour quelqu’un de bon sens qui veut améliorer la société, qui seraient retrouver des enfants perdus dans l’espace public et les personnes qui seraient atteintes de la maladie d’Alzheimer qui, du coup, seraient elles aussi égarées. En fait, on met en avant ces exemples-là, quand bien même le très gros des utilisations ne va concerner ces exemples très vertueux que de manière extrêmement marginale. C’est comme quand on nous dit, sur l’intelligence artificielle, « c’est génial, sur les radios, ça va être beaucoup plus performant que l’œil et l’expertise d’un médecin. » En fait, on passe par pertes et profits toutes les autres d’utilisations qui sont déjà là – pas des utilisations prospectives, des utilisations qui sont déjà là – qui sont des utilisations qui posent beaucoup plus de questions éthiques.
Il ne s’agit pas, évidemment, de taper sur ces entreprises, dont je ne savais d’ailleurs pas grand-chose avant le reportage, mais ça me semblait intéressant de souligner comment ça pouvait être un point d’entrée pour les industriels.

Natacha Triou : Je rebondis sur ce que vous venez de dire, Olivier Tesquet, je me tourne vers vous, Félix Tréguer, puisque depuis le début, à La Quadrature du Net, vous êtes dans une posture de refus total de ces technologies de vidéosurveillance algorithmique. Ne peut-on pas imaginer, penser qu’il pourrait exister une utilisation éthique de ces technologies ? Pourquoi ne pas vouloir du tout de ces techs-là ?

Félix Tréguer : Bien sûr dans un monde meilleur, dans un monde où les contre-pouvoirs judiciaires, où les droits humains sont bien protégés, où la transparence est assurée, on pourrait imaginer, en effet, que ces technologies très puissantes puissent être déployées à des fins légitimes.
Notre conviction, pour avoir notamment porté des contentieux sur les drones devant le Conseil d’État pour dénoncer des usages déjà massifs à l’époque et tout à fait illégaux en l’absence de cadre juridique, pour mener des batailles juridiques au Parlement et dans les tribunaux depuis des années autour de ces questions de surveillance, on a la conviction à La Quadrature du Net qu’aujourd’hui on ne pourra pas protéger les droits humains, on ne pourra pas avoir des garde-fous efficaces pour contenir les utilisations les plus dangereuses et les plus problématiques de ces technologies très puissantes. Donc, plutôt que de continuer à croire que c’est par plus de technologie, plus de surveillance et plus de police qu’on va répondre aux faits de violences, aux formes d’insécurité qui sont un réel problème dans la société, plutôt que de continuer et de persévérer dans ce qu’on estime être une erreur, de consacrer du temps, de l’argent et des investissements à cette technologie, repenser les choses, repenser la sécurité comme un phénomène pluridimensionnel, revenir aux causes économiques et sociales et politiques. En fait, que veut dire assurer la sécurité dans une société traversée de tant d’inégalités et de rapports de pouvoir que la nôtre ?

43’ 24

Natacha Triou : En somme, en tant que société qui se dit démocratique, il faut se garder de déployer des systèmes.

Félix Tréguer : Oui, tout à fait. C’est un discours qu’on a tenu à de nombreuses reprises face à des représentants du ministère de l’Intérieur, face à des industriels. Notre conviction, et je pense que c’est ce que j’essaie d’évoquer, de rappeler dans le livre, c’est qu’en fait, notamment l’action d’un contre-pouvoir qui est souvent invoqué, comme celui de la CNIL, la Commission nationale Informatique et Libertés, censée être une gardienne de la vie privée, c’est que ce type de contre-pouvoir est trop faiblement doté, se résout à une forme d’impuissance totale vis-à-vis du ministère de l’Intérieur. Donc, dans les dizaines de cas de déploiements illégaux de surveillance algorithmique qu’on a pu documenter, et c’était le cas avant sur les drones, c’est le cas aussi sur l’utilisation du logiciel de VSA Briefcam par la Police nationale ces derniers mois, la CNIL s’auto-saisit, mais, en fait, intervient toujours trop tard ou n’intervient pas du tout.
Pour revenir sur la VSA et ses déploiements par des polices municipales, il y a des dizaines et des dizaines de cas, en France, on a connaissance, à ce jour, d’une seule décision prononcée contre la ville de Valenciennes, une mise en demeure. Il y a quantité d’autres usages totalement illégaux sur lesquels ce contre-pouvoir qu’est la CNIL n’a été d’aucun secours.

Natacha Triou : Olivier Tesquet.

Olivier Tesquet : C’est une utilisation qui est fondée sur la transgression, c’est-à-dire que dans la quasi-intégralité des cas, l’usage précède le droit. C’est ce qui s’est passé pour les drones, c’est ce qui s’est passé pour la vidéosurveillance algorithmique, c’est déjà aussi un peu ce qui se passe pour la reconnaissance faciale et j’ai assez peu de doutes sur le fait que ça continuera sur ce mode-là, or, ce n’est pas le mode de fonctionnement vertueux. Normalement, on ne déploie pas des choses de manière illégale pour ensuite les légaliser à posteriori ! On a fait ça aussi avec les techniques de renseignement en 2015 ! C’est le signe de démocraties qui ne vont pas très bien, où, effectivement, les contre-pouvoirs ne sont pas garantis. On voit en plus aujourd’hui, en France et dans d’autres démocraties libérales, qu’on est quand même sur des pentes qui sont parfois de plus en plus autoritaires, et se pose évidemment la question des outils qu’on va développer et des mains auxquelles on va les confier, c’est-à-dire si, demain, l’extrême droite arrive au pouvoir en France. On voit déjà les dérives qu’il peut y avoir avec des gouvernements qui sont encore considérés comme faisant partie du fameux arc républicain dont on parle beaucoup. Quid d’une situation où un parti au pouvoir, qui ne ferait pas partie de cet arc républicain, serait doté de tels outils ? Et là on entre un peu, j’allais dire, dans un territoire non cartographié. Non ! En fait, c’est l’inverse, c’est un territoire très cartographié, on sait exactement où ça nous mène.

Natacha Triou : D’ailleurs, Félix Tréguer, ça me fait penser à un extrait d’une de vos interviews où vous rappelez que, si la police avait eu accès, pendant la Seconde Guerre mondiale, à ce genre de dispositif, la résistance aurait eu du mal à s’installer face au régime nazi. Et vous rajoutez « ce précédent historique doit nous rappeler qu’installer ces formes de surveillance totale et permanentes est incompatible avec la vie démocratique. »

Félix Tréguer : Eh oui, parce que ce qu’induit l’utilisation de l’intelligence artificielle en lien avec la vidéosurveillance, c’est que, d’un coup, ces capteurs vidéo, dont on pouvait se dire que c’est archivé de 10 à 30 jours, mais il y a tellement de caméras et tellement peu d’opérateurs humains qu’en fait, la plupart des bandes vidéo n’ont aucune utilité policière. C’est vraiment ça que transforme la VSA, c’est-à-dire que les formes de surveillance systématique de nos communications internet, qui sont devenues, malheureusement, une réalité depuis plus d’une dizaine d’années, sont en train de migrer dans l’espace physique, l’espace de la rue, sous l’égide de ces parcs de vidéosurveillance gérés par les polices municipales, la Police nationale ou la Gendarmerie. On est vraiment dans un contexte où ces technologies permettent d’archiver nos interactions, nos déplacements, de manière constante et ça va changer notre rapport à la ville et nos rapports sociaux de manière plus large.

Natacha Triou : Vous montrez aussi, dans votre ouvrage Technopolice, que c’est bien en amont des controverses que les choix politiques sont faits. Restez à l’écoute.

Voix : France Culture. La Science, CQFD – Natacha Triou.

Natacha Triou : En direct sur France Culture. Avec Félix Tréguer et Olivier Tesquet, nous parlons du déploiement de technologies de surveillance et de vidéosurveillance boostées à l’IA.
Dans votre ouvrage qui vient de paraître, Félix Tréguer, Technopolice, vous consacrez aussi tout un chapitre sur la recherche qui est sous tutelle industrielle, ce qui fait aussi écho au reportage qu’on a écouté il y a quelques instants.

Félix Tréguer : Absolument. J’essaye de revenir un petit peu sur la manière dont, effectivement, on a commencé à apprendre et à comprendre comment ces technologies s’imposaient dans nos vies. En 2019, quand, avec mes camarades, nous avons lancé le projet Technopolice, nous étions à un stade où, en fait, les produits sortaient de laboratoires et commençaient à être expérimentés en lien avec les forces de l’ordre dans le pays. Et c’est là qu’on a compris à quel point – je citais tout à l’heure l’Agence nationale de la recherche, mais aussi l’Union européenne qui abonde près de 50 % des financements liés à la R&D de technologies de surveillance policière – ces agences et la recherche publique, du coup, et les politiques de recherche de manière générale – il faudrait aussi parler du crédit d’impôt en faveur de la recherche et des milliards d’euros que ça a apporté à une multinationale comme Thales pour développer ces technologies – faisaient des choix très politiques dès le stade des politiques de recherche, alors même qu’il n’y a aucun débat public sur les orientations de ces politiques de recherche et à quel point, par le biais de, notamment, le comité de filière des industries de sécurité, par le biais de lobbys au niveau européen, comment ces entreprises en venaient à définir les politiques de recherche publique et en étaient aussi les principaux bénéficiaires.

Natacha Triou : Olivier Tesquet, on évoquait ensemble, tout à l’heure, ce qu’on appelait la stratégie des petits pas, la loi JO incarne cette stratégie à merveille. Et, concernant la généralisation de la reconnaissance faciale, pendant l’expérimentation durant les IO, on voit que cette stratégie des petits pas est un pas technologique très facile à franchir pour aller vers une généralisation de la technologie de la reconnaissance faciale.

Olivier Tesquet : De la vidéosurveillance algorithmique jusqu’à la reconnaissance faciale.

Natacha Triou : Un petit pas technologique pas compliqué à passer avec, justement, ce logiciel Briefcam.

Olivier Tesquet : C’est ça. C’est-à-dire qu’on nous explique que pour passer de la VSA à la reconnaissance faciale, c’est juste un paramètre dans un logiciel, ce qui rend le pas très facile à franchir, mais on voit que ce pas est à la fois minuscule et gigantesque. C’est-à-dire que si c’est juste un paramètre qu’on change sur un écran, quelque chose qu’on coche ou qu’on décoche, c’est assez vertigineux de s’imaginer que ça ne tient qu’à ça.
Ce qui se passe, c’est que, aujourd’hui, on est dans une situation où la généralisation à bas bruit, telle qu’elle est en train de se produire, crée ce phénomène d’accoutumance qui en est la synesthésie. Je pense toujours à l’image de la grenouille dans la marmite qui se réchauffe et qui ne voit pas que la température se réchauffe, ça se passe un peu de la même façon. On essaie de nous faire croire que la vidéosurveillance algorithmique est juste un changement d’échelle par rapport à la vidéosurveillance classique. De la même manière, on essaie de nous faire croire que la reconnaissance faciale est juste un changement d’échelle par rapport à la vidéosurveillance algorithmique, alors qu’en fait, on est en train de changer de monde.
J’écoutais ce que disait Félix à l’instant, en fait, c’est quelque chose qui relève de la vision de la société. De la même manière que les drones, par exemple les drones armés, les drones tueurs de l’armée américaine ont été mis à distance de la guerre telle qu’elle a été menée après le 11 septembre 2001, aujourd’hui, la généralisation de caméras dans l’espace public, c’est aussi une mise à distance à la fois de la population et des politiques de sécurité. Je trouve que c’est un terrible aveu d’échec de la politique publique de la police depuis 15, 20 ou 25 ans. On a essayé, ça n’a pas marché, ou on n’a même pas essayé, on abandonne toute idée de ramener du lien, en plus, c’est quand même un sujet dont on a beaucoup parlé ces dernières années : le lien police-population a été au centre, y compris, de tout un tas de discussions entre les syndicats de police, le ministère de l’Intérieur, le Beauvau de la sécurité. Il y a eu, comme ça, vraiment beaucoup de moments d’échanges, de dialogues autour de la façon dont il fallait repenser ces rapports entre la police et la population. Il n’y a pas de meilleur exemple de la négation absolue des rapports police-population que la généralisation de ce type d’outil. C’est une abdication totale en déléguant à des dispositifs techniques qui, encore une fois, on l’a suffisamment répété, n’ont pas fait la preuve de leur efficacité.

Félix Tréguer : Je rappelle que dans le contexte notamment du débat budgétaire pour 2025, le ministère de l’Intérieur est l’un des principaux ministères à voir son budget et ses crédits augmentés de 3,5 % environ. Ça s’inscrit dans une tendance d’une augmentation de 30 % du budget du ministère de l’Intérieur sur la décennie 2020, avec l’objectif, notamment, de financer ces déploiements technologiques. Du coup, je pense qu’il faut s’interroger sur ce que veut dire le recours croissant à ces technologies pour faire gagner du temps au travail policier – ce n’est pas forcément le cas pour la vidéosurveillance, mais c’est le cas pour plein d’autres de ces technologies de surveillance. On peut y voir une forme d’accélération, d’automatisation et d’amplification de l’action policière grâce à cette augmentation liée à la technologie. Ça s’inscrit dans un contexte où, depuis 95, on a vu une augmentation déjà de 35 % des crédits accordés à la Police et une augmentation de 30 % du nombre d’agents depuis 25 ans. Et du coup, il faut s’interroger. On a encore l’impression d’être dans une démocratie libérale, un État qui ne serait pas encore un état policier, quand on ajoute cette augmentation des crédits, des effectifs et l’automatisation croissante que permettent ces technologies, par exemple, le recours à la reconnaissance faciale1600 fois par jour, aujourd’hui, pour sonder les fichiers de police, notamment le fichier TAJ, c’est très conséquent, on est déjà, en réalité, en train de verser dans un État policier.

Natacha Triou : En microsecondes, Olivier Tesquet, pour conclure.

Olivier Tesquet : Avec aujourd’hui, des effectifs qui sont mis au service quasi exclusivement de ces technologies, qui sont des espèces de contrôleurs du ciel chargé d’aiguiller, comme ça, tous les signaux informatiques des travailleurs de la donnée.

Natacha Triou : En tout cas, merci à tous les deux de nous avoir accompagnés tout au long de cette heure.
Je rappelle, pour prolonger l’écoute, que votre ouvrage Technopolice – La surveillance policière à l’ère de l’intelligence artificielle, Félix Tréguer, est disponible, il vient de paraître, et le vôtre, Olivier Tesquet, À la trace – Enquête sur les nouveaux territoires de la surveillance, est lui aussi disponible en librairie.
Tout de suite, un tout autre sujet, c’est la chronique « Avec sciences » d’Alexandra Delbot.

Partie non transcrite.