Technopolice : la France sur la route de la Chine

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Technopolice : la France sur la route de la Chine ?

Intervenant·es : Félix Tréguer - Salomé Saqué

Lieu : Podcast Blast

Date : 20 novembre 2024

Durée : 44 min 16

Vidéo

Licence de la transcription : Verbatim

Illustration : Déjà prévue.

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Et si la France suivait le chemin de la Chine en matière de surveillance des citoyens ? Une population sous le regard permanent des caméras, où l’intelligence artificielle donne les moyens de contrôler les moindres faits et gestes de tout le monde, le tout entre les mains d’une police surpuissante, avec des pertes de libertés publiques inédites ?

Transcription

Salomé Saqué : Sommes-nous sur le point, en France, de basculer dans un système de surveillance des citoyens à la chinoise ? Une population sous le regard permanent des caméras, où l’intelligence artificielle donne les moyens de contrôler les moindres faits et gestes de tout le monde.

Diverses voix off : En Chine, la surveillance digitale est synonyme d’un contrôle total. Grâce au big data, ils peuvent prendre rapidement des mesures pour contrôler une population.
Ceux qui ne respectent pas les règles sont sanctionnés et parfois humiliés, comme dans ce cinéma où leurs photos sont affichées, le tout entre les mains d’une police surpuissante, avec des pertes de libertés publiques inédites.

Salomé Saqué : Pour Félix Tréguer, chercheur associé au Centre Internet et Société du CNRS, la question se pose. Entre les drones, les logiciels prédictifs, la vidéosurveillance algorithmique ou encore la reconnaissance faciale, le recours aux dernières technologies de contrôle se banalise au sein de la police. Loin de juguler la criminalité, selon lui, toutes ces innovations contribueraient en réalité à amplifier la violence d’État. De l’industrie de la sécurité aux arcanes du ministère de l’Intérieur, de la CNIL au véhicule de l’officier en patrouille, son dernier livre, Technopolice – La surveillance policière à l’ère de l’intelligence artificielle , retrace les liens qu’entretient l’hégémonie techno-solutionniste avec la dérive autoritaire en cours.

Christian Estrosi, Voix off : Sur la reconnaissance faciale. On va y venir, c’est incontournable.

Salomé Saqué : Alors, que se passe-t-il du côté des nouvelles technologies et de la police très concrètement ? Sommes-nous réellement en train de perdre des libertés fondamentales ? Quelle est la position du gouvernement actuel sur le sujet ? Réponse tout de suite dans cette nouvelle émission pour Blast.

Félix Tréguer. Bonjour. Vous êtes chercheur associé au Centre Internet et Société du CNRS, Vous êtes également membre de La Quadrature du Net, un collectif dédié à la défense des droits humains face au processus d’informatisation, et vous êtes l’auteur de Contre-histoire d’Internet – Du XVe siècle à nos jours , aux éditions Agone, en 2023, et de ce livre Technopolice – La surveillance policière à l’ère de l’intelligence artificielle , aux éditions Divergences.
Avant qu’on aille plus loin, expliquez-nous pourquoi vous avez choisi ce terme « technopolice » et que veut dire technopolice ?

Félix Tréguer : Technopolice est un néologisme qu’a trouvé une amie au début de la campagne qu’on a menée depuis cinq ans, à La Quadrature du Net, en lien avec plein de collectifs locaux et, au niveau national, avec des organisations comme La ligue des droits de l’Homme. C’est une campagne qui visait à lutter contre ce processus que désigne la technopolice qui est la technologisation croissante de la surveillance policière, de l’activité policière de manière générale, et le recours croissant aux technologies issues des recherches en intelligence artificielle dans les pratiques policières.

Salomé Saqué : Donc, dans ce livre, vous revenez aussi sur l’histoire de toute l’utilisation de ces intelligences artificielles, de ces technologies. Honnêtement, en tout cas dans mon cas, on apprend beaucoup de choses, parce que c’est quelque chose qui est très méconnu, ce qu’il se passe exactement du côté des services de police. Avant de lire le livre, j’avais l’impression que vous alliez nous parler de ce qui allait se faire et on découvre qu’il y a beaucoup de choses qui sont déjà là et depuis un petit moment, notamment la reconnaissance faciale, qui est déjà largement intégrée aux pratiques policières ; vous dites que c’est déjà le cas en 2019. « La comparaison faciale couplée, depuis 2011, à un fichier qui sera connu à partir de l’année suivante, qui se nomme le fichier TAJ, pour Traitement d’Antécédents Judiciaires, déjà, en 2019, il y a six téraoctets de données. Il est l’un des plus importants fichiers du ministère de l’Intérieur. Il comporte les fiches de la plupart des personnes qui ont eu affaire à la police – et là, c’est vraiment étonnant –, c’est-à-dire pas seulement des personnes qui ont été condamnées au pénal, mais simplement, parfois, des personnes qui sont suspectées, victimes ou même témoins. » C’est-à-dire qu’on va être témoin dans une affaire, on va être recensé, comme ça, dans un fichier. Donc, déjà à l’époque, en 2019, ça représente 20 millions de fiches individuelles au total et 8 millions de photographies de face. Et grâce à cette comparaison faciale, les agents de police n’ont qu’à soumettre au système par exemple la photographie d’une personne qui serait suspecte pour que l’algorithme leur remonte une douzaine de clichés présentant une ressemblance. À l’époque – encore une fois, on est en 2019, donc il y a déjà cinq ans – c’est utilisé 1600 par jour par la police. »
Est-ce qu’on peut revenir un peu sur l’existence de ce fichier et pourquoi est-ce que cela a déjà attiré votre attention à l’époque ?

Félix Tréguer : En fait, le fichier TAJ est un fichier à tout faire qui s’est imposé un peu dans les pratiques. Il y avait d’autres noms, mais il s’est imposé, en gros, à partir de la fin des années 90. Le journaliste Jean-Marc Manach a beaucoup enquêté sur sa genèse. Et effectivement, à partir de 2011, la police et la Gendarmerie nationale font appel à une entreprise, qui s’appelle Cognitec, pour utiliser un algorithme qui va permettre de trouver des correspondances statistiques entre les photos soumises, d’un suspect par exemple, notamment des images issues des flux de vidéosurveillance en cas d’une infraction qui serait constatée, donc dans le cadre de l’enquête. Des officiers de police judiciaire, mais, en réalité, un très grand nombre de personnes peuvent procéder à cette comparaison faciale et essayer de trouver des concordances statistiques avec les photographies de visages contenues dans le fichier TAJ, sachant que le fichier TAJ comporte beaucoup de données d’état civil, la couleur de la peau, plein d’indices morphologiques, c’est vraiment un fichier à tout faire. En fait, comme il sert énormément, ce ne sont pas simplement les personnes suspectées ou qui sont directement impliquées dans des affaires pénales qui sont Inscrites dans ce fichier, ce sont également, on le mentionnait, des témoins.

Salomé Saqué : Ça veut dire que je suis témoin d’un événement, je peux me retrouver inscrite dans ce fichier, alors que je n’ai absolument rien demandé.

Félix Tréguer : Tout à fait. À priori, ce n’est pas le cas pour les photographies, il y a 8 millions de photographies sur plus de 20 millions de fiches, mais c’est quand même colossal. Du coup, la police française, c’est le cas dans d’autres pays aussi, a utilisé ces algorithmes de reconnaissance faciale pour automatiser le travail qui consistait à faire défiler les fiches ou, à partir des critères renseignés dans la base de données du fichier, pour accélérer le fait de retrouver des fiches correspondant un petit peu aux critères de l’enquête.
On le disait, il est utilisé près de 1600 fois par jour. Il faut donc se poser la question du nombre d’équivalents temps plein de fonctionnaires dont la police fait l’économie en recourant à cet outil algorithmique pour sonder le fichier et c’est colossal ; pour la police, le temps gagné est colossal. On pourrait s’en réjouir, peut dire que c’est bien, la police fait son travail.

Salomé Saqué : On peut dire que ça va être plus efficace.

Félix Tréguer : Il y a plusieurs problèmes.
Le premier problème, c’est qu’il n’y a aucun réel contrôle sur qui est dans le fichier, comment sont inscrites ces photographies dans le fichier. Il y a très peu de contrôle de la CNIL, notamment sur ces fichiers. Elle l’avait déploré, il y a quelques années, dans un rapport.
L’autre problème, c’est que cette automatisation de l’analyse du TAJ, donc toute cette accélération et cette aide à l’analyse, s’est faite sans aucun débat démocratique. C’est passé par un décret. Le gouvernement a, en fait, légalisé des choses qui étaient en train de se faire et en projet depuis quelques mois et à priori, d’après ce que nous ont dit des gendarmes, dès 2011 on l’utilise ; le décret date de 2012. Donc là, encore une fois, on est dans le cas d’une pratique illégale qui est légalisée à posteriori.

Salomé Saqué : Vous allez me dire que c’est le cas pour beaucoup d’autres pratiques.

Félix Tréguer : Absolument. C’est donc légalisé par voie de décret, sans qu’il y ait vraiment de base légale et de débat, c’est donc passé très largement sous les radars. On pourrait estimer que, dans un État de droit qui se respecte, ce passage à la reconnaissance faciale policière est quelque chose de suffisamment grave et sérieux sur le plan des libertés publiques pour que ça mérite un débat, et ça n’a pas été le cas.

Salomé Saqué : Récemment une autre actualité, sur un autre dispositif, a beaucoup fait parler. C’est vraiment ce que vous décrivez dans le livre, je pense, avant que cette actualité nous arrive, c’est l’avènement de la surveillance algorithmique, la VSA, qui a fait débat il y a quelques semaines, puisque le premier ministre Michel Barnier s’est dit en faveur d’une généralisation de caméras utilisant des algorithmes pour surveiller l’espace public.

Michel Barnier, voix off : « Une demande forte, on l’a bien compris aux dernières élections et vous la relayez aussi, que celle de la sécurité dans chaque territoire. On va essayer de généraliser la méthode de travailler en commun qui a fait ses preuves pendant les Jeux olympiques et paralympiques.

Salomé Saqué : Il faut bien préciser qu’il a dit ça sans attendre le rapport d’évaluation prévu pour la fin d’année, puisque, on le rappelle, son utilisation avait été annoncée dans le cadre des Jeux olympiques et on nous avait dit « ce dispositif est provisoire, il ne sera que pour les grands événements. » On apprend que ça va être généralisé, visiblement sans même attendre de savoir si c’est efficace ou pas, de savoir quels problèmes ça peut potentiellement poser.
Qu’est-ce qu’implique ce type de surveillance exactement, encore une fois que vous traitez dans le livre, et pourquoi est-ce que, selon vous, ça peut être dangereux pour nos libertés ?

Félix Tréguer : La vidéosurveillance algorithmique, la VSA, c’est le couplage de l’intelligence artificielle et de ce qu’on appelle, dans le champ de l’intelligence artificielle, la computer vision, la vision machinique, donc la capacité pour ces algorithmes de détecter des patterns, en fait des agencements de pixels sur des images, pour détecter des situations, des événements, des personnes.
La reconnaissance faciale, c’est l’une des applications possibles de ces techniques de computer vision.
Je vous le disais, le fichier TAJ avait autorisé la reconnaissance faciale à posteriori, donc après la commission d’une infraction dans le cadre d’une enquête. L’un des buts au début, pour le gouvernement, au moment où on lance la campagne Technopolice en 2019, c’est de légaliser la reconnaissance faciale en temps réel, de pouvoir coupler, en temps réel, des images de vidéosurveillance à ces algorithmes pour détecter des personnes dans l’espace public.
Un autre problème du fichier dTAJ, c’est qu’il est détourné de son usage. Il n’est pas simplement utilisé pour des enquêtes pénales à posteriori, il est aussi utilisé pour faire des contrôles d’identité. Ça a été peu documenté, mais on a plein d’anecdotes : lors d’une éviction d’un squat ou d’une personne racisée croisée dans l’espace public, tel ou tel policier de terrain va prendre la photo de la personne et la flasher dans le fichier TAJ pour faire une vérification d’identité, ce qui est complètement illégal.
Il y a donc déjà beaucoup d’abus et, comme je disais, pas de débat public sur le recours à ces technologies de reconnaissance faciale à posteriori.

En 2019, les promoteurs de la technopolice, notamment de Cédric O qui, à l’époque, est secrétaire d’État au Numérique, proposent de légaliser la reconnaissance faciale en temps réel à l’occasion des Jeux olympiques de 2024. Et c’est parce qu’on a fait cette campagne, nous et d’autres, les collectifs de lutte contre les violences policières, l’opposition au pass sanitaire en 2020 sous l’aspect surveillance, avec ces oppositions que le coût politique de légaliser la reconnaissance faciale en temps réel à l’occasion des JO est paru comme trop important. Donc Cédric O, à la veille de la présidentielle en 2022 dit : « La France n’est pas prête, le débat n’est pas mûr, il y a des associations libertaires – nous nous sommes sentis un peu visés – qui disent n’importe quoi à la population, donc il faut un débat informé pour éduquer les gens.

Salomé Saqué : La fameuse pédagogie dont on a besoin sur tous les sujets.

Félix Tréguer : Exactement. Très condescendant. En tout cas il acte, à ce moment-là, que, politiquement, la reconnaissance faciale ça ne va pas le faire. Ils vont donc adopter une stratégie des petits pas, c’est-à-dire légaliser des applications de la vidéosurveillance algorithmique moins sensibles du point de vue des libertés publiques, c’est la loi JO votée au printemps 2023 qui légalise des cas d’usage type détection de port d’arme, qui d’ailleurs, techniquement, marche très mal, une personne ou un véhicule qui irait à contresens, une personne qui resterait statique trop longtemps. Il y a, comme cela, six ou sept cas d’usage listés dans la loi, prévus dans la loi et qui ont fait l’objet d’expérimentations cet été à l’occasion des Jeux olympiques.

Salomé Saqué : Ce que vous mentionnez est important. Ça montre quand même que quand il y a une opposition de l’opinion publique forte, dans un régime à peu près démocratique, ça dissuade de légaliser certaines choses, d’aller trop loin. J’insiste sur l’importance de ce type d’ouvrage, l’importance de votre travail, de ce type d’émission où on essaye de vulgariser et d’expliquer ce qui se passe, parce que quand les gens sont informés, c’est quand même plus compliqué de faire accepter ce type de mesures et de les faire réellement passer. Ça a donc des conséquences puisque, vous l’avez dit, ils nomment ces associations dites libertaires. Ça montre bien que vous êtes un obstacle à ce que ça puisse arriver donc, on a aussi une forme de pouvoir en tant que citoyens.

Félix Tréguer : Bien sûr. À La Quadrature du Net, nous sommes un petit groupe d’une dizaine de personnes qui travaillons sur ces questions et tout seul, on n’y arrivera pas. L’enjeu, c’est d’arriver à mobiliser, d’informer la population, c’est pour cela qu’on a lancé, au printemps, une campagne qui s’appelle « Pas de VSA dans ma ville », c’est accessible sur lqnt.fr/vsa. Il y a une brochure, il y a des posters, il y a des guides d’action sur comment s’investir dans la bataille, parce que, effectivement, il n’y a pas d’inévitabilité. Il ne faut pas se résigner, croire que la partie est jouée d’avance. Si on arrive effectivement à construire un rapport de force politique, il y a moyen de faire obstacle à cette légalisation programmée, non seulement de la VSA dans le format loi JO sur ces cas d’usage relativement peu sensibles, et encore, il faudrait en discuter plus longuement. Clairement, le but final, c’est bien de légaliser la reconnaissance faciale et plein d’autres applications de la vidéosurveillance algorithmique extrêmement sensibles, qui visent à suivre les personnes dans l’espace public et, du coup, imbriquer ces formes de surveillance à des pratiques policières dont on connaît la violence et la brutalité.

13’ 05

Salomé Saqué : Quels sont les problèmes potentiels que la VSA et, de manière générale, toutes les légalisations que vous venez d’évoquer^ Je tiens à dire que ça fait quand même plusieurs années, à <em<Blast, qu’on suit le travail de La Quadrature du Net, ça fait plusieurs fois que vous alertez, vous dites que ça va arriver, typiquement sur cette reconnaissance faciale, que les autorités vous disent « mais pas du tout, il faut arrêter d’être paranoïaques » et qu’à la fin, c’est quand même ce qui se passe.
Quels sont les dangers potentiels de ce que vous décrivez, qui, déjà, est en train d’être légalisé, et même les autres dispositifs qui pourraient être légalisés à l’avenir, posent notamment en termes de libertés publiques ?

Félix Tréguer : En fait, c’est une surveillance constante, permanente, générale de l’espace public de nos villes, de nos rues, de l’espace physique qui, historiquement, a constitué une scène fondamentale, des mobilisations, du conflit politique, donc de la démocratie. En fait, c’est l’équivalent des formes de surveillance massive qui se sont déployées sur Internet depuis une quinzaine d’années, qui sont, grâce à ces nouvelles technologies de VSA, transposées à l’espace public urbain. Je raconte une anecdote : au début de cette campagne Technopolice, on rencontre la gendarmerie nationale et tout le petit monde de la police.

Salomé Saqué : Vous dites que vous infiltrez ce monde de la Technopolice.

Félix Tréguer : Nous avons eu l’occasion, à plein de moments, de rencontrer des acteurs, des industriels, des relais politiques, des opérationnels, des policiers, des gendarmes. À l’époque, dans une intervention qu’on fait avec mon camarade Martin Drago, je leur dis qu’imaginer organiser des réseaux de résistance, des réseaux dissidents capables de résister au fascisme dans les années 40 en France, ce n’est pas possible avec ces technologies déployées massivement dans l’espace public.

Salomé Saqué : Ce sont des outils qui, entre de mauvaises mains, peuvent être extrêmement dangereux. On y reviendra un peu plus tard.

Félix Tréguer : Bien sûr, et une société démocratique tient aussi au fait que ce type de technologie n’est pas déployé. On y reviendra aussi, j’imagine, sur les garde-fous et l’encadrement juridique, c’est une question à part. Cette surveillance totale de l’espace public est encore en potentialité, parce que ces algorithmes ne fonctionnent pas bien, ne sont pas encore complètement intégrés dans les pratiques de la police, le cadre juridique n’est pas encore complètement déployé, même si ce n’est pas forcément ce qui les gêne le plus. Mais, au fond du fond il faut l’empêcher, politiquement souligner le danger de ces technologies et les refuser en tant que société qui se pense encore un peu démocratique, en tout cas on peut encore l’espérer, se battre pour cette idée-là, que ce sont technologies fondamentalement incompatibles avec des formes de vie démocratique.

Salomé Saqué : La question qu’on se pose, c’est pourquoi veulent-ils faire ça ? Question à laquelle vous essayez d’apporter des réponses, puisque ça pose quand même un énorme problème de potentielle bascule démocratique, vous parlez même de bascule néo-fasciste, on y reviendra plutôt vers la fin de l’entretien.
En 2019, vous rappelez que le secrétaire d’État en charge de l’économie numérique, donc Cédric O, dont on a déjà parlé, accorde un entretien au journal Le Monde sur la reconnaissance faciale. C’est une grande première puisque, pour la première fois, il affirme : « Il faut expérimenter la reconnaissance faciale pour que nos industriels progressent. » Et là, on a quand même une partie de la réponse, puisque le ministre le dit sans détour : les enjeux sont économiques et « les projections ont de quoi aiguiser les appétits – écrivez-vous – le marché mondial de la reconnaissance faciale augmente de 16 % par an et devrait atteindre 12 milliards de dollars en 2028. Celui de la VSA était de 5,6 milliards en 2023 et pourrait représenter 16,3 milliards de dollars en 2028. » Ce qu’on comprend, c’est que la France veut se positionner dans un marché d’exportation des technologies de surveillance, mais que, si j’ai bien compris, ça fait mauvais genre si on ne les applique pas chez nous, on a du mal à les exporter si on ne les applique pas déjà dans notre pays. Est-ce que c’est la principale raison, aujourd’hui, pour généraliser ce type de dispositif ?

Félix Tréguer : Effectivement, l’un des moteurs de la technopolice, ce sont les enjeux industriels. Il y a le fantasme policier d’une surveillance totale, dont on parlait, qui anime une partie de ces acteurs, qui circule un peu dans ces milieux, dans les prises de parole et dans l’imaginaire qui accompagne ces technologies. Mais l’un des moteurs principaux, en effet, c’est l’enjeu économique.
L’État français a accompagné la consolidation de deux groupes français, européens, leaders sur ces marchés à l’international, le groupe Thales, d’une part, spécialiste du secteur de la défense et le groupe idée Idemia, spécialiste notamment d’identification biométrique et de reconnaissance faciale. Ces deux acteurs-là sont très imbriqués dans la fabrique des politiques publiques, que ce soit les politiques de recherche qui vont financer la R&D, la recherche et développement pour mettre au point ces technologies, qui vont ensuite se traduire par des subventions accordées pour des expérimentations dans les villes et les villages français, principalement les villes, ou pour l’exportation de ces technologies dans des pays, notamment en Afrique pour, par exemple, faire de l’identification biométrique dans le cadre électoral. Il y a donc toute une machinerie administrative, tout un ensemble de politiques publiques qui sont mises au service de ces intérêts industriels. On voit non seulement que ces acteurs industriels qui, pour certains, sont issus de l’ENA, de cabinets ministériels, et des relais administratifs, des hauts-fonctionnaires, des relais politiques comme Cédric O, promeuvent et assument complètement le fait que, effectivement, la sécurité à l’international est un marché très porteur dans un monde qui va mal, traversé effectivement par la violence et la guerre, qu’il y a du business à faire. C’est donc un peu une manière de corriger, d’équilibrer la balance commerciale française. Il y a effectivement cet enjeu de pouvoir dire, en gros, que faire de la reconnaissance faciale ou de la technopolice de manière générale, made in Europe, puisque, en Europe, on est censé être très à cheval sur la vie privée.

Salomé Saqué : Ils utilisent le fait qu’on est quand même plus attachés aux libertés publiques dans l’esprit de tout le monde et que c’est une garantie que ces technologies ne sont pas dangereuses, alors qu’il n’y a pas de garanties.

Félix Tréguer : Exactement. Ils en font un argument de marketing ; « nous sommes RGPD compatibles », le règlement général dédié à la protection des données en Europe, est un peu l’instrument par lequel l’Union européenne se présente comme un phare dans la nuit en matière de surveillance et de protection de la vie privée. Ils en font donc, en effet, un argument commercial.

Salomé Saqué : Vous écrivez : « Les technologies policières dérivent largement des deux domaines centraux de la violence d’État et de l’exception à la loi que sont le champ militaire et celui du renseignement. En pratique, la technologie engendre quantité d’illégalismes policiers – ce que vous avez décrit. Pire encore, elle amplifie la brutalité policière en fournissant une formidable caisse de résonance aux discriminations culturelles. »
Pourquoi, déjà, et surtout, que répondez-vous à ceux qui vous disent « on fait quand même ça pour la sécurité de tous » ? Vous opposer en bloc, comme vous le faites dans ce livre, comme vous le faites à La Quadrature du Net, à tout développement de ces technologies, eh bien, c’est être anti-progrès, c’est un obstacle à l’optimisation de la sécurité et c’est un obstacle aussi au progrès et à la sécurité des citoyens.

Félix Tréguer : S’agissant de l’aspect discriminatoire de ces technologies, on l’illustre très bien à partir de l’exemple de la police prédictive. Ce sont des logiciels qui permettent de croiser des données et, en gros, ceux qu’on utilise en France, c’est pour prédire ou calculer des scores de risque que telle ou telle zone subisse des troubles à l’ordre public, des infractions dans les 24 prochaines heures ou les prochains jours.

Salomé Saqué : C’est déjà le cas ?

Félix Tréguer : C’est déjà expérimenté par la Gendarmerie nationale et certaines polices municipales ont un logiciel qui permet de faire ça, qui est vendu par une start-up qui s’appelle Edicia.

Salomé Saqué : Ça fait penser un peu à Minority Report, quand on voit les meurtres.

Félix Tréguer : C’est en partie l’inspiration, mais la manière dont ça fonctionne aujourd’hui, c’est beaucoup plus prosaïque, en fait, ça ne marche pas très bien. Ça tend à réinventer des savoirs policiers que l’institution a déjà, donc à réinventer un peu l’eau chaude. Mais il y a quand même l’intégration, par exemple dans ces algorithmes, de croyances criminologiques complètement erronées, par exemple l’idée que la petite délinquance va entraîner la grosse ; que des petites infractions, même des incivilités vont entraîner une dégradation criminogène de tel ou tel quartier. Ce sont des tests issus de la criminologie étasunienne des années 80, qui ont été complètement instrumentalisés pour armer une espèce de harcèlement des quartiers populaires par les élites conservatrices aux États-Unis et qu’on voit reprise, en fait, dans les conceptions de ces algorithmes de la vidéosurveillance algorithmique. Dans les cas d’usage qu’on a pu documenter au niveau des polices municipales en France, on essaye, par exemple, de détecter des personnes statiques ou des personnes qui courent. Si on s’arrête, par exemple sur le cas des personnes statiques, qui est statique dans l’espace public urbain aujourd’hui ? Ce sont, par exemple, des personnes qui vivent à la rue, donc on peut bien voir comment, en fait, ces technologies s’inscrivent aussi dans des formes de harcèlement de certains modes d’occupation de l’espace public qui sont généralement associés aux personnes les plus précarisées ou, de manière plus générale, aux classes populaires.
En gros, et pour résumer, ces technologies, viennent s’articuler à une institution – la police – qui, en tant que telle, est discriminatoire, qui est le vecteur d’une violence d’État, qui protège un système profondément inégalitaire à coups de bâtons, à coups de répression.
Pour répondre à la question « que répondez-vous aux personnes qui vous disent qu’il faut défendre et promouvoir la sécurité, ces technologies peuvent y aider » ? D’une part, on, en fait, ces technologies n’y aident pas, ça marche mal en pratique, c’est grevé de bugs, ce n’est pas pour ça que ce n’est pas dangereux pour autant.

Salomé Saqué : Vous disiez, par exemple, que la reconnaissance faciale dans les fichiers, avait quand même permis d’aller beaucoup plus vite.

Félix Tréguer : En fait, c’est ça qui est compliqué, c’est que je parle de plein de technologies, donc il y a des incarnations où, effectivement, ça produit ses effets. Il y a tous les discours et l’imaginaire que ça entretient. La deuxième partie du livre est plus historique et généalogique. Dans un des points, j’essaye de montrer en fait comment ce prisme, cette focale technologique, le fait de promouvoir les technologies et la surveillance comme une réponse aux problèmes, aux enjeux de la violence, de la déviance qui traversent nos sociétés, ça permet de revenir sur la raison pour laquelle on a décidé de ne plus s’interroger sur les causes des désordres qui traversent notre société, une société profondément inégalitaire, capitaliste, écocide. En fait, les désordres sociaux, avec la casse des services publics, c’est autant de violence qui génère en retour de la violence.
Donc, quelque part, se concentrer sur la police comme une réponse à ces désordres, c’est s’empêcher de vraiment considérer les causes du mal, c’est s’empêcher de faire société en autrement que par la répression. C’est donc une fuite en avant sécuritaire qui nous emmène tout droit vers le fascisme, en fait.

Salomé Saqué : Face à ça, vous dites que pour faire passer la pilule, le pouvoir utilise le Tech Washing. Qu’est que le Tech Washing ?

Félix Tréguer : Le Tech Washing, c’est tout le discours, tout l’imaginaire qui accompagne ces technologies, c’est l’idée que ça va permettre un gain d’efficacité. Une sociologue étasunienne, ??? [23 min 50], utilise ce terme pour désigner la manière dont les systèmes de police prédictive, dont je parlais à l’instant, masquent ces logiques discriminatoires. C’est un peu le vernis d’objectivité scientifique apporté par le recours à ces technologies clinquantes, hyper-sophistiquées, aux interfaces colorées, avec cette fascination, assez caractéristique de notre temps, pour ces machines informatiques, pour l’intelligence artificielle. C’est un peu l’écran que produisent ces interfaces et qui masque, en réalité, la manière dont ces technologies s’articulent à la violence policière.

Salomé Saqué : Face à ça, face à cette dérive qui est quand même vraiment inquiétante, que vous décrivez dans le livre, on est censé quand même avoir des protections, notamment des protections juridiques. Tout un passage du livre concerne la CNIL, la Commission nationale de l’informatique et des libertés, qui est justement censée protéger les citoyens. Vous dites que la CNIL, si j’ai bien compris, ne remplit pas complètement son rôle. Je vous cite : « La police bénéficie de quantité d’exceptions aux principes fixés par la loi. Le droit d’accès aux données contenues dans les fichiers de police est par exemple indirecte. Toute personne qui souhaiterait faire valoir ses droits doit ainsi en passer par l’intermédiaire de la CNIL et le ministère peut s’opposer à ce que cette dernière transmette la moindre information à la personne concernée. De même, bien que la loi informatique et libertés proscrive normalement la collecte de données relatives aux origines raciales, aux opinions politiques, philosophiques ou religieuses, aux appartenances syndicales des personnes, la police peut y déroger via un décret pris après avis conforme de la CNIL. Quant à l’article 20 de la loi, il prévoit que les fichiers liés à la sûreté de l’État et à la sécurité publique puissent déroger aux règles de transparence puisque, dès lors qu’il est invoqué, les décrets afférents ne sont pas publiés. » À quoi la CNIL sert-elle ?

25’ 35

Félix Tréguer : La CNIL