Technopolice : la France sur la route de la Chine

De April MediaWiki
Révision datée du 22 novembre 2024 à 15:54 par Morandim (discussion | contributions) (→‎25’ 35)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigationAller à la recherche


Titre : Technopolice : la France sur la route de la Chine ?

Intervenant·es : Félix Tréguer - Salomé Saqué

Lieu : Podcast Blast

Date : 20 novembre 2024

Durée : 44 min 16

Vidéo

Licence de la transcription : Verbatim

Illustration : Déjà prévue.

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description[modifier]

Et si la France suivait le chemin de la Chine en matière de surveillance des citoyens ? Une population sous le regard permanent des caméras, où l’intelligence artificielle donne les moyens de contrôler les moindres faits et gestes de tout le monde, le tout entre les mains d’une police surpuissante, avec des pertes de libertés publiques inédites ?

Transcription[modifier]

Salomé Saqué : Sommes-nous sur le point, en France, de basculer dans un système de surveillance des citoyens à la chinoise ? Une population sous le regard permanent des caméras, où l’intelligence artificielle donne les moyens de contrôler les moindres faits et gestes de tout le monde.

Diverses voix off : En Chine, la surveillance digitale est synonyme d’un contrôle total. Grâce au big data, ils peuvent prendre rapidement des mesures pour contrôler une population.
Ceux qui ne respectent pas les règles sont sanctionnés et parfois humiliés, comme dans ce cinéma où leurs photos sont affichées, le tout entre les mains d’une police surpuissante, avec des pertes de libertés publiques inédites.

Salomé Saqué : Pour Félix Tréguer, chercheur associé au Centre Internet et Société du CNRS, la question se pose. Entre les drones, les logiciels prédictifs, la vidéosurveillance algorithmique ou encore la reconnaissance faciale, le recours aux dernières technologies de contrôle se banalise au sein de la police. Loin de juguler la criminalité, selon lui, toutes ces innovations contribueraient en réalité à amplifier la violence d’État. De l’industrie de la sécurité aux arcanes du ministère de l’Intérieur, de la CNIL au véhicule de l’officier en patrouille, son dernier livre, Technopolice – La surveillance policière à l’ère de l’intelligence artificielle , retrace les liens qu’entretient l’hégémonie techno-solutionniste avec la dérive autoritaire en cours.

Christian Estrosi, Voix off : Sur la reconnaissance faciale. On va y venir, c’est incontournable.

Salomé Saqué : Alors, que se passe-t-il du côté des nouvelles technologies et de la police très concrètement ? Sommes-nous réellement en train de perdre des libertés fondamentales ? Quelle est la position du gouvernement actuel sur le sujet ? Réponse tout de suite dans cette nouvelle émission pour Blast.

Félix Tréguer. Bonjour. Vous êtes chercheur associé au Centre Internet et Société du CNRS, Vous êtes également membre de La Quadrature du Net, un collectif dédié à la défense des droits humains face au processus d’informatisation, et vous êtes l’auteur de Contre-histoire d’Internet – Du XVe siècle à nos jours , aux éditions Agone, en 2023, et de ce livre Technopolice – La surveillance policière à l’ère de l’intelligence artificielle , aux éditions Divergences.
Avant qu’on aille plus loin, expliquez-nous pourquoi vous avez choisi ce terme « technopolice » et que veut dire technopolice ?

Félix Tréguer : Technopolice est un néologisme qu’a trouvé une amie au début de la campagne qu’on a menée depuis cinq ans, à La Quadrature du Net, en lien avec plein de collectifs locaux et, au niveau national, avec des organisations comme La ligue des droits de l’Homme. C’est une campagne qui visait à lutter contre ce processus que désigne la technopolice qui est la technologisation croissante de la surveillance policière, de l’activité policière de manière générale, et le recours croissant aux technologies issues des recherches en intelligence artificielle dans les pratiques policières.

Salomé Saqué : Donc, dans ce livre, vous revenez aussi sur l’histoire de toute l’utilisation de ces intelligences artificielles, de ces technologies. Honnêtement, en tout cas dans mon cas, on apprend beaucoup de choses, parce que c’est quelque chose qui est très méconnu, ce qu’il se passe exactement du côté des services de police. Avant de lire le livre, j’avais l’impression que vous alliez nous parler de ce qui allait se faire et on découvre qu’il y a beaucoup de choses qui sont déjà là et depuis un petit moment, notamment la reconnaissance faciale, qui est déjà largement intégrée aux pratiques policières ; vous dites que c’est déjà le cas en 2019. « La comparaison faciale couplée, depuis 2011, à un fichier qui sera connu à partir de l’année suivante, qui se nomme le fichier TAJ, pour Traitement d’Antécédents Judiciaires, déjà, en 2019, il y a six téraoctets de données. Il est l’un des plus importants fichiers du ministère de l’Intérieur. Il comporte les fiches de la plupart des personnes qui ont eu affaire à la police – et là, c’est vraiment étonnant –, c’est-à-dire pas seulement des personnes qui ont été condamnées au pénal, mais simplement, parfois, des personnes qui sont suspectées, victimes ou même témoins. » C’est-à-dire qu’on va être témoin dans une affaire, on va être recensé, comme ça, dans un fichier. Donc, déjà à l’époque, en 2019, ça représente 20 millions de fiches individuelles au total et 8 millions de photographies de face. Et grâce à cette comparaison faciale, les agents de police n’ont qu’à soumettre au système par exemple la photographie d’une personne qui serait suspecte pour que l’algorithme leur remonte une douzaine de clichés présentant une ressemblance. À l’époque – encore une fois, on est en 2019, donc il y a déjà cinq ans – c’est utilisé 1600 par jour par la police. »
Est-ce qu’on peut revenir un peu sur l’existence de ce fichier et pourquoi est-ce que cela a déjà attiré votre attention à l’époque ?

Félix Tréguer : En fait, le fichier TAJ est un fichier à tout faire qui s’est imposé un peu dans les pratiques. Il y avait d’autres noms, mais il s’est imposé, en gros, à partir de la fin des années 90. Le journaliste Jean-Marc Manach a beaucoup enquêté sur sa genèse. Et effectivement, à partir de 2011, la police et la Gendarmerie nationale font appel à une entreprise, qui s’appelle Cognitec, pour utiliser un algorithme qui va permettre de trouver des correspondances statistiques entre les photos soumises, d’un suspect par exemple, notamment des images issues des flux de vidéosurveillance en cas d’une infraction qui serait constatée, donc dans le cadre de l’enquête. Des officiers de police judiciaire, mais, en réalité, un très grand nombre de personnes peuvent procéder à cette comparaison faciale et essayer de trouver des concordances statistiques avec les photographies de visages contenues dans le fichier TAJ, sachant que le fichier TAJ comporte beaucoup de données d’état civil, la couleur de la peau, plein d’indices morphologiques, c’est vraiment un fichier à tout faire. En fait, comme il sert énormément, ce ne sont pas simplement les personnes suspectées ou qui sont directement impliquées dans des affaires pénales qui sont Inscrites dans ce fichier, ce sont également, on le mentionnait, des témoins.

Salomé Saqué : Ça veut dire que je suis témoin d’un événement, je peux me retrouver inscrite dans ce fichier, alors que je n’ai absolument rien demandé.

Félix Tréguer : Tout à fait. À priori, ce n’est pas le cas pour les photographies, il y a 8 millions de photographies sur plus de 20 millions de fiches, mais c’est quand même colossal. Du coup, la police française, c’est le cas dans d’autres pays aussi, a utilisé ces algorithmes de reconnaissance faciale pour automatiser le travail qui consistait à faire défiler les fiches ou, à partir des critères renseignés dans la base de données du fichier, pour accélérer le fait de retrouver des fiches correspondant un petit peu aux critères de l’enquête.
On le disait, il est utilisé près de 1600 fois par jour. Il faut donc se poser la question du nombre d’équivalents temps plein de fonctionnaires dont la police fait l’économie en recourant à cet outil algorithmique pour sonder le fichier et c’est colossal ; pour la police, le temps gagné est colossal. On pourrait s’en réjouir, peut dire que c’est bien, la police fait son travail.

Salomé Saqué : On peut dire que ça va être plus efficace.

Félix Tréguer : Il y a plusieurs problèmes.
Le premier problème, c’est qu’il n’y a aucun réel contrôle sur qui est dans le fichier, comment sont inscrites ces photographies dans le fichier. Il y a très peu de contrôle de la CNIL, notamment sur ces fichiers. Elle l’avait déploré, il y a quelques années, dans un rapport.
L’autre problème, c’est que cette automatisation de l’analyse du TAJ, donc toute cette accélération et cette aide à l’analyse, s’est faite sans aucun débat démocratique. C’est passé par un décret. Le gouvernement a, en fait, légalisé des choses qui étaient en train de se faire et en projet depuis quelques mois et à priori, d’après ce que nous ont dit des gendarmes, dès 2011 on l’utilise ; le décret date de 2012. Donc là, encore une fois, on est dans le cas d’une pratique illégale qui est légalisée à posteriori.

Salomé Saqué : Vous allez me dire que c’est le cas pour beaucoup d’autres pratiques.

Félix Tréguer : Absolument. C’est donc légalisé par voie de décret, sans qu’il y ait vraiment de base légale et de débat, c’est donc passé très largement sous les radars. On pourrait estimer que, dans un État de droit qui se respecte, ce passage à la reconnaissance faciale policière est quelque chose de suffisamment grave et sérieux sur le plan des libertés publiques pour que ça mérite un débat, et ça n’a pas été le cas.

Salomé Saqué : Récemment une autre actualité, sur un autre dispositif, a beaucoup fait parler. C’est vraiment ce que vous décrivez dans le livre, je pense, avant que cette actualité nous arrive, c’est l’avènement de la surveillance algorithmique, la VSA, qui a fait débat il y a quelques semaines, puisque le premier ministre Michel Barnier s’est dit en faveur d’une généralisation de caméras utilisant des algorithmes pour surveiller l’espace public.

Michel Barnier, voix off : « Une demande forte, on l’a bien compris aux dernières élections et vous la relayez aussi, que celle de la sécurité dans chaque territoire. On va essayer de généraliser la méthode de travailler en commun qui a fait ses preuves pendant les Jeux olympiques et paralympiques.

Salomé Saqué : Il faut bien préciser qu’il a dit ça sans attendre le rapport d’évaluation prévu pour la fin d’année, puisque, on le rappelle, son utilisation avait été annoncée dans le cadre des Jeux olympiques et on nous avait dit « ce dispositif est provisoire, il ne sera que pour les grands événements. » On apprend que ça va être généralisé, visiblement sans même attendre de savoir si c’est efficace ou pas, de savoir quels problèmes ça peut potentiellement poser.
Qu’est-ce qu’implique ce type de surveillance exactement, encore une fois que vous traitez dans le livre, et pourquoi est-ce que, selon vous, ça peut être dangereux pour nos libertés ?

Félix Tréguer : La vidéosurveillance algorithmique, la VSA, c’est le couplage de l’intelligence artificielle et de ce qu’on appelle, dans le champ de l’intelligence artificielle, la computer vision, la vision machinique, donc la capacité pour ces algorithmes de détecter des patterns, en fait des agencements de pixels sur des images, pour détecter des situations, des événements, des personnes.
La reconnaissance faciale, c’est l’une des applications possibles de ces techniques de computer vision.
Je vous le disais, le fichier TAJ avait autorisé la reconnaissance faciale à posteriori, donc après la commission d’une infraction dans le cadre d’une enquête. L’un des buts au début, pour le gouvernement, au moment où on lance la campagne Technopolice en 2019, c’est de légaliser la reconnaissance faciale en temps réel, de pouvoir coupler, en temps réel, des images de vidéosurveillance à ces algorithmes pour détecter des personnes dans l’espace public.
Un autre problème du fichier dTAJ, c’est qu’il est détourné de son usage. Il n’est pas simplement utilisé pour des enquêtes pénales à posteriori, il est aussi utilisé pour faire des contrôles d’identité. Ça a été peu documenté, mais on a plein d’anecdotes : lors d’une éviction d’un squat ou d’une personne racisée croisée dans l’espace public, tel ou tel policier de terrain va prendre la photo de la personne et la flasher dans le fichier TAJ pour faire une vérification d’identité, ce qui est complètement illégal.
Il y a donc déjà beaucoup d’abus et, comme je disais, pas de débat public sur le recours à ces technologies de reconnaissance faciale à posteriori.

En 2019, les promoteurs de la technopolice, notamment de Cédric O qui, à l’époque, est secrétaire d’État au Numérique, proposent de légaliser la reconnaissance faciale en temps réel à l’occasion des Jeux olympiques de 2024. Et c’est parce qu’on a fait cette campagne, nous et d’autres, les collectifs de lutte contre les violences policières, l’opposition au pass sanitaire en 2020 sous l’aspect surveillance, avec ces oppositions que le coût politique de légaliser la reconnaissance faciale en temps réel à l’occasion des JO est paru comme trop important. Donc Cédric O, à la veille de la présidentielle en 2022 dit : « La France n’est pas prête, le débat n’est pas mûr, il y a des associations libertaires – nous nous sommes sentis un peu visés – qui disent n’importe quoi à la population, donc il faut un débat informé pour éduquer les gens.

Salomé Saqué : La fameuse pédagogie dont on a besoin sur tous les sujets.

Félix Tréguer : Exactement. Très condescendant. En tout cas il acte, à ce moment-là, que, politiquement, la reconnaissance faciale ça ne va pas le faire. Ils vont donc adopter une stratégie des petits pas, c’est-à-dire légaliser des applications de la vidéosurveillance algorithmique moins sensibles du point de vue des libertés publiques, c’est la loi JO votée au printemps 2023 qui légalise des cas d’usage type détection de port d’arme, qui d’ailleurs, techniquement, marche très mal, une personne ou un véhicule qui irait à contresens, une personne qui resterait statique trop longtemps. Il y a, comme cela, six ou sept cas d’usage listés dans la loi, prévus dans la loi et qui ont fait l’objet d’expérimentations cet été à l’occasion des Jeux olympiques.

Salomé Saqué : Ce que vous mentionnez est important. Ça montre quand même que quand il y a une opposition de l’opinion publique forte, dans un régime à peu près démocratique, ça dissuade de légaliser certaines choses, d’aller trop loin. J’insiste sur l’importance de ce type d’ouvrage, l’importance de votre travail, de ce type d’émission où on essaye de vulgariser et d’expliquer ce qui se passe, parce que quand les gens sont informés, c’est quand même plus compliqué de faire accepter ce type de mesures et de les faire réellement passer. Ça a donc des conséquences puisque, vous l’avez dit, ils nomment ces associations dites libertaires. Ça montre bien que vous êtes un obstacle à ce que ça puisse arriver donc, on a aussi une forme de pouvoir en tant que citoyens.

Félix Tréguer : Bien sûr. À La Quadrature du Net, nous sommes un petit groupe d’une dizaine de personnes qui travaillons sur ces questions et tout seul, on n’y arrivera pas. L’enjeu, c’est d’arriver à mobiliser, d’informer la population, c’est pour cela qu’on a lancé, au printemps, une campagne qui s’appelle « Pas de VSA dans ma ville », c’est accessible sur lqnt.fr/vsa. Il y a une brochure, il y a des posters, il y a des guides d’action sur comment s’investir dans la bataille, parce que, effectivement, il n’y a pas d’inévitabilité. Il ne faut pas se résigner, croire que la partie est jouée d’avance. Si on arrive effectivement à construire un rapport de force politique, il y a moyen de faire obstacle à cette légalisation programmée, non seulement de la VSA dans le format loi JO sur ces cas d’usage relativement peu sensibles, et encore, il faudrait en discuter plus longuement. Clairement, le but final, c’est bien de légaliser la reconnaissance faciale et plein d’autres applications de la vidéosurveillance algorithmique extrêmement sensibles, qui visent à suivre les personnes dans l’espace public et, du coup, imbriquer ces formes de surveillance à des pratiques policières dont on connaît la violence et la brutalité.

13’ 05[modifier]

Salomé Saqué : Quels sont les problèmes potentiels que la VSA et, de manière générale, toutes les légalisations que vous venez d’évoquer^ Je tiens à dire que ça fait quand même plusieurs années, à <em<Blast, qu’on suit le travail de La Quadrature du Net, ça fait plusieurs fois que vous alertez, vous dites que ça va arriver, typiquement sur cette reconnaissance faciale, que les autorités vous disent « mais pas du tout, il faut arrêter d’être paranoïaques » et qu’à la fin, c’est quand même ce qui se passe.
Quels sont les dangers potentiels de ce que vous décrivez, qui, déjà, est en train d’être légalisé, et même les autres dispositifs qui pourraient être légalisés à l’avenir, posent notamment en termes de libertés publiques ?

Félix Tréguer : En fait, c’est une surveillance constante, permanente, générale de l’espace public de nos villes, de nos rues, de l’espace physique qui, historiquement, a constitué une scène fondamentale, des mobilisations, du conflit politique, donc de la démocratie. En fait, c’est l’équivalent des formes de surveillance massive qui se sont déployées sur Internet depuis une quinzaine d’années, qui sont, grâce à ces nouvelles technologies de VSA, transposées à l’espace public urbain. Je raconte une anecdote : au début de cette campagne Technopolice, on rencontre la gendarmerie nationale et tout le petit monde de la police.

Salomé Saqué : Vous dites que vous infiltrez ce monde de la Technopolice.

Félix Tréguer : Nous avons eu l’occasion, à plein de moments, de rencontrer des acteurs, des industriels, des relais politiques, des opérationnels, des policiers, des gendarmes. À l’époque, dans une intervention qu’on fait avec mon camarade Martin Drago, je leur dis qu’imaginer organiser des réseaux de résistance, des réseaux dissidents capables de résister au fascisme dans les années 40 en France, ce n’est pas possible avec ces technologies déployées massivement dans l’espace public.

Salomé Saqué : Ce sont des outils qui, entre de mauvaises mains, peuvent être extrêmement dangereux. On y reviendra un peu plus tard.

Félix Tréguer : Bien sûr, et une société démocratique tient aussi au fait que ce type de technologie n’est pas déployé. On y reviendra aussi, j’imagine, sur les garde-fous et l’encadrement juridique, c’est une question à part. Cette surveillance totale de l’espace public est encore en potentialité, parce que ces algorithmes ne fonctionnent pas bien, ne sont pas encore complètement intégrés dans les pratiques de la police, le cadre juridique n’est pas encore complètement déployé, même si ce n’est pas forcément ce qui les gêne le plus. Mais, au fond du fond il faut l’empêcher, politiquement souligner le danger de ces technologies et les refuser en tant que société qui se pense encore un peu démocratique, en tout cas on peut encore l’espérer, se battre pour cette idée-là, que ce sont technologies fondamentalement incompatibles avec des formes de vie démocratique.

Salomé Saqué : La question qu’on se pose, c’est pourquoi veulent-ils faire ça ? Question à laquelle vous essayez d’apporter des réponses, puisque ça pose quand même un énorme problème de potentielle bascule démocratique, vous parlez même de bascule néo-fasciste, on y reviendra plutôt vers la fin de l’entretien.
En 2019, vous rappelez que le secrétaire d’État en charge de l’économie numérique, donc Cédric O, dont on a déjà parlé, accorde un entretien au journal Le Monde sur la reconnaissance faciale. C’est une grande première puisque, pour la première fois, il affirme : « Il faut expérimenter la reconnaissance faciale pour que nos industriels progressent. » Et là, on a quand même une partie de la réponse, puisque le ministre le dit sans détour : les enjeux sont économiques et « les projections ont de quoi aiguiser les appétits – écrivez-vous – le marché mondial de la reconnaissance faciale augmente de 16 % par an et devrait atteindre 12 milliards de dollars en 2028. Celui de la VSA était de 5,6 milliards en 2023 et pourrait représenter 16,3 milliards de dollars en 2028. » Ce qu’on comprend, c’est que la France veut se positionner dans un marché d’exportation des technologies de surveillance, mais que, si j’ai bien compris, ça fait mauvais genre si on ne les applique pas chez nous, on a du mal à les exporter si on ne les applique pas déjà dans notre pays. Est-ce que c’est la principale raison, aujourd’hui, pour généraliser ce type de dispositif ?

Félix Tréguer : Effectivement, l’un des moteurs de la technopolice, ce sont les enjeux industriels. Il y a le fantasme policier d’une surveillance totale, dont on parlait, qui anime une partie de ces acteurs, qui circule un peu dans ces milieux, dans les prises de parole et dans l’imaginaire qui accompagne ces technologies. Mais l’un des moteurs principaux, en effet, c’est l’enjeu économique.
L’État français a accompagné la consolidation de deux groupes français, européens, leaders sur ces marchés à l’international, le groupe Thales, d’une part, spécialiste du secteur de la défense et le groupe idée Idemia, spécialiste notamment d’identification biométrique et de reconnaissance faciale. Ces deux acteurs-là sont très imbriqués dans la fabrique des politiques publiques, que ce soit les politiques de recherche qui vont financer la R&D, la recherche et développement pour mettre au point ces technologies, qui vont ensuite se traduire par des subventions accordées pour des expérimentations dans les villes et les villages français, principalement les villes, ou pour l’exportation de ces technologies dans des pays, notamment en Afrique pour, par exemple, faire de l’identification biométrique dans le cadre électoral. Il y a donc toute une machinerie administrative, tout un ensemble de politiques publiques qui sont mises au service de ces intérêts industriels. On voit non seulement que ces acteurs industriels qui, pour certains, sont issus de l’ENA, de cabinets ministériels, et des relais administratifs, des hauts-fonctionnaires, des relais politiques comme Cédric O, promeuvent et assument complètement le fait que, effectivement, la sécurité à l’international est un marché très porteur dans un monde qui va mal, traversé effectivement par la violence et la guerre, qu’il y a du business à faire. C’est donc un peu une manière de corriger, d’équilibrer la balance commerciale française. Il y a effectivement cet enjeu de pouvoir dire, en gros, que faire de la reconnaissance faciale ou de la technopolice de manière générale, made in Europe, puisque, en Europe, on est censé être très à cheval sur la vie privée.

Salomé Saqué : Ils utilisent le fait qu’on est quand même plus attachés aux libertés publiques dans l’esprit de tout le monde et que c’est une garantie que ces technologies ne sont pas dangereuses, alors qu’il n’y a pas de garanties.

Félix Tréguer : Exactement. Ils en font un argument de marketing ; « nous sommes RGPD compatibles », le règlement général dédié à la protection des données en Europe, est un peu l’instrument par lequel l’Union européenne se présente comme un phare dans la nuit en matière de surveillance et de protection de la vie privée. Ils en font donc, en effet, un argument commercial.

Salomé Saqué : Vous écrivez : « Les technologies policières dérivent largement des deux domaines centraux de la violence d’État et de l’exception à la loi que sont le champ militaire et celui du renseignement. En pratique, la technologie engendre quantité d’illégalismes policiers – ce que vous avez décrit. Pire encore, elle amplifie la brutalité policière en fournissant une formidable caisse de résonance aux discriminations culturelles. »
Pourquoi, déjà, et surtout, que répondez-vous à ceux qui vous disent « on fait quand même ça pour la sécurité de tous » ? Vous opposer en bloc, comme vous le faites dans ce livre, comme vous le faites à La Quadrature du Net, à tout développement de ces technologies, eh bien, c’est être anti-progrès, c’est un obstacle à l’optimisation de la sécurité et c’est un obstacle aussi au progrès et à la sécurité des citoyens.

Félix Tréguer : S’agissant de l’aspect discriminatoire de ces technologies, on l’illustre très bien à partir de l’exemple de la police prédictive. Ce sont des logiciels qui permettent de croiser des données et, en gros, ceux qu’on utilise en France, c’est pour prédire ou calculer des scores de risque que telle ou telle zone subisse des troubles à l’ordre public, des infractions dans les 24 prochaines heures ou les prochains jours.

Salomé Saqué : C’est déjà le cas ?

Félix Tréguer : C’est déjà expérimenté par la Gendarmerie nationale et certaines polices municipales ont un logiciel qui permet de faire ça, qui est vendu par une start-up qui s’appelle Edicia.

Salomé Saqué : Ça fait penser un peu à Minority Report, quand on voit les meurtres.

Félix Tréguer : C’est en partie l’inspiration, mais la manière dont ça fonctionne aujourd’hui, c’est beaucoup plus prosaïque, en fait, ça ne marche pas très bien. Ça tend à réinventer des savoirs policiers que l’institution a déjà, donc à réinventer un peu l’eau chaude. Mais il y a quand même l’intégration, par exemple dans ces algorithmes, de croyances criminologiques complètement erronées, par exemple l’idée que la petite délinquance va entraîner la grosse ; que des petites infractions, même des incivilités vont entraîner une dégradation criminogène de tel ou tel quartier. Ce sont des tests issus de la criminologie étasunienne des années 80, qui ont été complètement instrumentalisés pour armer une espèce de harcèlement des quartiers populaires par les élites conservatrices aux États-Unis et qu’on voit reprise, en fait, dans les conceptions de ces algorithmes de la vidéosurveillance algorithmique. Dans les cas d’usage qu’on a pu documenter au niveau des polices municipales en France, on essaye, par exemple, de détecter des personnes statiques ou des personnes qui courent. Si on s’arrête, par exemple sur le cas des personnes statiques, qui est statique dans l’espace public urbain aujourd’hui ? Ce sont, par exemple, des personnes qui vivent à la rue, donc on peut bien voir comment, en fait, ces technologies s’inscrivent aussi dans des formes de harcèlement de certains modes d’occupation de l’espace public qui sont généralement associés aux personnes les plus précarisées ou, de manière plus générale, aux classes populaires.
En gros, et pour résumer, ces technologies, viennent s’articuler à une institution – la police – qui, en tant que telle, est discriminatoire, qui est le vecteur d’une violence d’État, qui protège un système profondément inégalitaire à coups de bâtons, à coups de répression.
Pour répondre à la question « que répondez-vous aux personnes qui vous disent qu’il faut défendre et promouvoir la sécurité, ces technologies peuvent y aider » ? D’une part, on, en fait, ces technologies n’y aident pas, ça marche mal en pratique, c’est grevé de bugs, ce n’est pas pour ça que ce n’est pas dangereux pour autant.

Salomé Saqué : Vous disiez, par exemple, que la reconnaissance faciale dans les fichiers, avait quand même permis d’aller beaucoup plus vite.

Félix Tréguer : En fait, c’est ça qui est compliqué, c’est que je parle de plein de technologies, donc il y a des incarnations où, effectivement, ça produit ses effets. Il y a tous les discours et l’imaginaire que ça entretient. La deuxième partie du livre est plus historique et généalogique. Dans un des points, j’essaye de montrer en fait comment ce prisme, cette focale technologique, le fait de promouvoir les technologies et la surveillance comme une réponse aux problèmes, aux enjeux de la violence, de la déviance qui traversent nos sociétés, ça permet de revenir sur la raison pour laquelle on a décidé de ne plus s’interroger sur les causes des désordres qui traversent notre société, une société profondément inégalitaire, capitaliste, écocide. En fait, les désordres sociaux, avec la casse des services publics, c’est autant de violence qui génère en retour de la violence.
Donc, quelque part, se concentrer sur la police comme une réponse à ces désordres, c’est s’empêcher de vraiment considérer les causes du mal, c’est s’empêcher de faire société en autrement que par la répression. C’est donc une fuite en avant sécuritaire qui nous emmène tout droit vers le fascisme, en fait.

Salomé Saqué : Face à ça, vous dites que pour faire passer la pilule, le pouvoir utilise le Tech Washing. Qu’est que le Tech Washing ?

Félix Tréguer : Le Tech Washing, c’est tout le discours, tout l’imaginaire qui accompagne ces technologies, c’est l’idée que ça va permettre un gain d’efficacité. Une sociologue étasunienne, ??? [23 min 50], utilise ce terme pour désigner la manière dont les systèmes de police prédictive, dont je parlais à l’instant, masquent ces logiques discriminatoires. C’est un peu le vernis d’objectivité scientifique apporté par le recours à ces technologies clinquantes, hyper-sophistiquées, aux interfaces colorées, avec cette fascination, assez caractéristique de notre temps, pour ces machines informatiques, pour l’intelligence artificielle. C’est un peu l’écran que produisent ces interfaces et qui masque, en réalité, la manière dont ces technologies s’articulent à la violence policière.

Salomé Saqué : Face à ça, face à cette dérive qui est quand même vraiment inquiétante, que vous décrivez dans le livre, on est censé quand même avoir des protections, notamment des protections juridiques. Tout un passage du livre concerne la CNIL, la Commission nationale de l’informatique et des libertés, qui est justement censée protéger les citoyens. Vous dites que la CNIL, si j’ai bien compris, ne remplit pas complètement son rôle. Je vous cite : « La police bénéficie de quantité d’exceptions aux principes fixés par la loi. Le droit d’accès aux données contenues dans les fichiers de police est par exemple indirecte. Toute personne qui souhaiterait faire valoir ses droits doit ainsi en passer par l’intermédiaire de la CNIL et le ministère peut s’opposer à ce que cette dernière transmette la moindre information à la personne concernée. De même, bien que la loi informatique et libertés proscrive normalement la collecte de données relatives aux origines raciales, aux opinions politiques, philosophiques ou religieuses, aux appartenances syndicales des personnes, la police peut y déroger via un décret pris après avis conforme de la CNIL. Quant à l’article 20 de la loi, il prévoit que les fichiers liés à la sûreté de l’État et à la sécurité publique puissent déroger aux règles de transparence puisque, dès lors qu’il est invoqué, les décrets afférents ne sont pas publiés. » À quoi la CNIL sert-elle ?

25’ 35[modifier]

Félix Tréguer : La CNIL est vraiment devenue une espèce d’alibi qui nous sert de bonne conscience. L’idée qu’il y a un gendarme de la vie privée, un gardien des données personnelles qui permet de prémunir nos sociétés d’une dérive vers une surveillance policière et aussi d’un capitalisme de surveillance attentatoire aux libertés. D’ailleurs, c’est comme ça qu’elle est utilisée dans les discours politiques, c’est très fréquent. Christian Estrosi, maire de Nice, est un des exemples les plus frappants de ces discours technos sécuritaires dans le champ politique.

Christian Estrosi, voix off : Nous avons présenté aujourd’hui, avec mon premier adjoint en charge de la sécurité, Anthony Borré, des caméras qui nous permettent de mettre en œuvre l’intelligence artificielle. On tague la photo et l’intelligence artificielle, automatiquement, retrouvera, localisera et nous permettra d’interpeller l’auteur de cette infraction.

Salomé Saqué : Nice a vraiment été une ville d’expérimentation.

Christian Estrosi, voix off : Sur cette base, nous sommes confiants et je suis à peu près convaincu que la CNIL, que nous sollicitons par précaution, validera notre système.

Félix Tréguer : À chaque gadget techno sécuritaire ou propositions que fait Christian Estrosi, il y a cette idée que la CNIL sera consultée, qu’elle a donné son aval. Elle sert donc vraiment d’alibi dans la mesure où elle rassure. Il y a aussi plein d’autres moments où, lorsque la CNIL, malgré tout, utilise le peu de pouvoir qui lui reste pour freiner les ardeurs d’édiles comme Estrosi, elle est vertement critiquée, elle devient un obstacle au fait de garantir la sécurité des citoyens.

Christian Estrosi, voix off : La CNIL ne peut pas rester un État dans l’État qui, en lieu et place d’une volonté politique, s’oppose à ce qu’on utilise les meilleures technologies pour protéger nos concitoyens.
Si nous avions : la reconnaissance faciale, tous ceux qui sont fichés comme extrêmement dangereux, fichés S, radicalisés, etc.

Journaliste, voix off : Donc la CNIL empêche parfois cette lutte contre la sécurité.

Christian Estrosi, voix off : Oui, cette espèce institution poussiéreuse.

Félix Tréguer : Elle est donc aussi critiquée, mais en fait, elle agit aussi beaucoup dans les discours comme une pommade qui permet de rassurer la population, tout simplement, et de contribuer, du coup, à l’acceptabilité sociale de ces technologies.

Salomé Saqué : Comment en est-on arrivé là ?, puisqu’on est censé, quand même, avoir cette protection. Vous avez parlé de perte de pouvoir. Comment a-t-on cet affaissement des protections juridiques ?

Félix Tréguer : C’est un long processus. La CNIL a été créée en 1978. C’est l’époque de la première vague d’informatisation de la société. Tous les débats qu’on a aujourd’hui sont quasiment posés dans les mêmes termes à l’époque, notamment en matière de fichage d’État. La CNIL est donc instituée en 1978. Ses premiers présidents et son personnel étaient des gens relativement militants, impliqués dans les controverses de l’époque. Ils cherchent à tenir tête au ministère de l’Intérieur, sur ces questions, pour montrer à quel point ils servent. En fait, l’histoire de la CNIL c’est l’histoire de rapports de force construits face à la police et aux velléités de surveillance du ministère de l’Intérieur, que la CNIL a perdus. Et, en août 2004, c’est le coup de grâce lorsque une réforme du droit des données personnelles en France lui retire son pouvoir d’avis conforme, c’est-à-dire que les décrets créent un nouveau fichier dédié à la surveillance. L’avis émis par la CNIL sur ces décrets n’est pas impératif, le ministère de l’Intérieur peut y déroger, c’est un avis qui devient consultatif. Donc, là, elle perd une arme juridique très importante pour tenir tête, ce qui lui permettait encore, jusqu’à la fin des années 90, de s’opposer, par exemple, à l’avènement de l’ancêtre du fichier TAJ.
Tout ce processus s’accompagne aussi de l’essor d’une économie d’un capitalisme de surveillance, où la CNIL se pense de plus en plus comme une agence d’accompagnement de l’innovation. Donc, elle n’est plus tant le gardien des données personnelles, la gardienne des données personnelles, qu’une agence qui va permettre d’aménager, de réguler un marché qui, de fait, manipule, suscite et génère tout un tas de dispositifs de surveillance, qu’elle va chercher à guider pour amoindrir les risques et s’assurer d’une conformité au cadre juridique des données personnelles qui, en tant que tel, s’est aussi largement affaibli. C’est ce que des sociologues, qui se sont penchés sur la CNIL, appellent une logique de la compliance, une logique de la conformité, où on s’assure que des procédures à des études d’impact tout à fait indolores et sans effets soient menées en amont de certains projets, etc. En pratique, la plupart de ces procédures, notamment en matière de technopolice, donc lorsque ce sont des collectivités locales ou lorsque c’est l’État qui déploient ces systèmes, ne sont même pas respectées. Je vous disais que la vidéosurveillance algorithmique a été déployée partout en France pendant des années, hors de tout cadre légal et il n’existe toujours pas pour les collectivités locales, donc, une inégalité systémique et La CNIL, à notre connaissance, n’a adopté qu’une décision de mise en demeure s’agissant de la ville de Valenciennes qui avait installé les caméras de Huawei, l’entreprise chinoise. C’est censé être une sanction, une mise en demeure, et ça ressemble à un petit coup léger sur les doigts, alors que, manifestement, il y a un marché public.

Salomé Saqué : Ça n’a rien changé en fait !

Félix Tréguer : Apparemment, la technologie en question n’avait même pas été déployée. C’est symptomatique du fait qu’il y a une décision de mise en demeure alors qu’il y a des dizaines et des dizaines de déploiements de ces technologies partout dans le pays et que personne n’a été condamné ou inquiété pour ça.

Salomé Saqué : Est-ce que la mise en demeure a fonctionné ?

Félix Tréguer : Elle n’a même pas eu à fonctionner dans la mesure où, apparemment, les policiers en question – et ça renvoie à ce que je disais tout à l’heure sur l’inefficacité et le fait qu’entre le projet et la mise en œuvre concrète d’une technologie il y a souvent un grand fossé – n’avaient même pas activé la fonctionnalité algorithmique des caméras. Ils n’avaient même pas pris cette peine-là, en l’occurrence.

Salomé Saqué : Vous avez beaucoup évoqué ce processus depuis le début de l’entretien, où, en fait, on teste illégalement des dispositifs, et c’est le cas pour énormément de choses, et après, on légalise. C’est quelque chose qu’on avait déjà remarqué avec l’utilisation des drones en manifestation. De mémoire de journaliste, je me souviens notamment que pendant le mouvement des Gilets jaunes c’était un sujet, que le préfet Lallement, avait utilisé ces drones illégalement. Ça avait été sanctionné par le Conseil d’État, puis ils avaient donc essayé de le mettre dans la loi Sécurité globale en 2020, mais le Conseil Constitutionnel avait empêché que ce soit légalisé parce que pas conforme à la constitution. Puis, en 2023, finalement, c’est autorisé.
Qu’est-ce qui s’est passé pour que, finalement, on en arrive à réussir à légaliser ce type de dispositif ?

Félix Tréguer : Cette décision du Conseil d’État qui, début 2021, va clouer au sol les drones de la police, de la Gendarmerie nationale et des polices municipales qui s’en étaient dotées, intervient suite à plusieurs recours qu’on intente sur le recours aux drones en manifestation tout au long de l’année 2020.
Comme vous le disiez, ça faisait déjà près de quatre ans que les drones étaient massivement utilisés par la police, hors de tout cadre juridique, donc de manière complètement illégale. Aucun préfet de police, aucun ministre de l’Intérieur n’a été inquiété et condamné pour cela, alors même qu’il y a des sanctions prévues dans le Code pénal pour ce type de cas. Donc une impunité qui est encore systémique.
Le Conseil d’État, puis la CNIL, confirment qu’il n’y a pas de cadre juridique, donc que ces drones n’ont pas le droit de voler. Le ministère de l’Intérieur obtempère, respecte cette décision, malgré les coups de pression, apparemment, du ministre Darmanin à l’époque. Après la censure du Conseil Constitutionnel, on passe effectivement par une nouvelle loi qui vient rétrécir un peu ou encadrer un peu plus fortement le recours aux drones, c’est beaucoup dire déjà. C’est au moment du déclenchement de l’opération Wuambushu, au printemps 2023, que le ministère de l’Intérieur fait paraître le décret d’application qui légalise de nouveau, du coup, le recours aux drones policiers.

Journaliste, voix off : Ce que l’on sait, c’est qu’il y aura trois types d’opérations. D’abord, effectivement, des démantèlements de bidonvilles, 100 logements illégaux et insalubres à détruire selon Gérald Darmanin. Il y aura ensuite des expulsions de sans-papiers, principalement vers Les Comores, dont ils sont originaires pour la plupart, et puis, également, des interpellations de délinquants parmi ces bandes qui sèment régulièrement le chaos ici à Mayotte.

Félix Tréguer : C’est donc tout un processus juridique qui est ambivalent. Quelque part, le fait qu’on ait réussi à clouer au sol les drones de la police pendant plus de deux ans, alors même qu’elle s’en était équipé très largement, qu’on avait formé des pilotes, c’est une petite victoire et, en même temps, on a juste gagné du temps et le cadre juridique déployé aujourd’hui n’est pas satisfaisant. Il y a beaucoup d’autorisations préfectorales de recours aux drones, par exemple aux frontières, notamment dans la région de Nice ou dans les Pyrénées, qui sont renouvelées quasiment automatiquement.

Journaliste, voix off : Une caméra haute définition permettant l’identification visuelle des visages, des plaques d’immatriculation, voici le tout nouvel outil à disposition des policiers niçois, le drone.

Salomé Saqué : Quel est le danger avec ces drones ?

Félix Tréguer : Le drone, c’est une capacité de visionnage très large, donc une capacité de surveillance de l’espace très grand. C’est donc, en tant que tel, un pouvoir de surveillance important.

Salomé Saqué : Certains vous diront, là encore, « au nom de la sécurité. Ça va permettre d’éviter des débordements ». Un argument qui avait été avancé, c’est de dire qu’on peut repérer les personnes qui sont violentes, sachant que les gens sont violents en manifestation. Ça permet de les arrêter et de pouvoir presque protéger le droit à manifester. Ça a été présenté comme ça.

Félix Tréguer : Si on installe un système de surveillance totalitaire, comme cet été pendant les Jeux olympiques, 30 000 policiers dans les rues de Paris, forcément, il y a moins de faits de délinquance, la sécurité est à priori mieux protégée. Mais, encore une fois, est-ce que la fin justifie les moyens, est-ce qu’on n’est pas en train de se perdre, en tant que société qui se pense démocratique, à force de déployer ces outils ?
Encore une fois, les drones sont utilisés en manifestation. Manifester, aujourd’hui, ça reste un droit politique qui, de fait, est menacé par la violence policière qui se déploie lors de la plupart des mouvements sociaux et les drones sont articulés à cette forme de surveillance. Dessus, on pourra, demain, faire tourner des algorithmes – c’était d’ailleurs le cas pendant les JO cet été – pour détecter des comportements suspects, pour identifier des personnes si on a recours à la reconnaissance faciale. C’est l’un des rouages de cette surveillance, de cette technopolice qui se déploie et, en tant qu’tel, ils sont dangereux.

Salomé Saqué : Que répondez-vous à ceux qui vous disent – et c’est vraiment un discours qui monte aujourd’hui – que la première des libertés, c’est la sécurité ?

Félix Tréguer : Que c’est une bien mauvaise lecture de la Constitution et des débats révolutionnaires. Quand le terme sécurité commence à être connu, en fait, il dérive du mot sûreté. La sûreté, c’est la protection des citoyens vis-à-vis de l’arbitraire de l’État.
Je reviens encore une fois à ce que je disais tout à l’heure, il faut bien se rappeler à quel point la police ne peut pas servir à maintenir durablement, à faire tenir ensemble une société aussi inégalitaire que la nôtre, où la violence économique se déploie, où le sexisme et le racisme restent des réalités indépassées. Il faut arriver à faire société autrement. La sécurité, ce n’est pas la police, en fait. Et ce cadrage-là, dans lequel on est enfermé, fait que tous ces discours achoppent sur « vous êtes contre la sécurité, vous êtes contre le progrès, vous êtes pour la criminalité. » Si on veut faire société d’une manière qui soit apaisée, il faut se rappeler qu’à la base, quand le mot réémerge dans les années 30, notamment aux États-Unis, c’est la sécurité sociale. On est après 1929 et la crise économique très dure, le crash boursier de 1929. La sécurité sociale ce sont des assurances pour les travailleurs et travailleuses, c’est la mise en place de ce qu’on appelle à l’époque, de ce qui s’édifie à l’époque, l’État-providence. Il y a plein de critiques à faire sur la manière dont il a fonctionné de fait, que c’est aussi une bureaucratisation de plein de formes de solidarité qui existaient auparavant sans en passer nécessairement par l’État. Pour autant, c’est un cadrage de la sécurité qui passe par la prise en compte des conditions socio-économiques dans lesquelles on vit, et la police ne peut pas servir durablement à garantir un ordre social apaisé à coups de matraques. Ça ne marchera juste pas.

Salomé Saqué : En introduction, j’ai évoqué le fait que la France pourrait ressembler à la Chine. Est-ce que c’est une comparaison qu’on peut établir sans sembler trop excessifs ?, sachant que la Chine c’est vraiment l’exemple type d’une société où il y a un hypercontrôle, où tous les citoyens sont complètement surveillés et qui est une dictature en fait. Clairement, ce n’est pas du tout un régime démocratique.

Félix Tréguer : Effectivement. Mais, encore une fois, la Chine agit beaucoup dans ce débat comme un épouvantail. Quelque part, le discours militant joue parfois sur cette image très dystopique de la Chine qui est réel. Je ne sais pas si vous avez pu voir passer récemment sur Arte le documentaire Total Trust, qui montre comment les dissidents chinois, défenseurs des droits humains, avocats et autres, sont réprimés, surveillés.

Diverses voix off : Je suis en permanence sous surveillance. Vous ne pouvez pas sortir. Pourquoi ? On ne peut pas vous le dire pour le moment.

Félix Tréguer : On voit la mise en pratique de cet appareil de surveillance et c’est effectivement assez impressionnant. Après, il y a aussi des brèches, il y a des formes de contestation, il y a des formes de résistance. Il faut arrêter de se représenter la société chinoise comme étant ultra normée, régie.

Salomé Saqué : Et puis c’est plus d’un milliard de personnes.

Félix Tréguer : Voilà ! C’est une société complexe qui, comme la nôtre, connaît des formes de résistance et de dissidence.

Salomé Saqué : Mais c’est rendu beaucoup plus compliqué.

Félix Tréguer : C’est rendu beaucoup plus compliqué parce que, effectivement, en termes de régime politique, en termes de garanties apportées aux libertés, c’est bien pire qu’ici. J’ai tendance à considérer qu’il y a, entre la Chine et nous, une différence de degré, mais pas nécessairement de nature, en fait, en termes de forme de société.

Salomé Saqué : Donc, nous ne sommes pas à l’abri.

Félix Tréguer : Non, il ne faut pas se croire à l’abri, même si on est encore dans une zone, l’Union européenne, dans laquelle l’État de droit survit tant bien que mal et il y a encore un espace pour contester ces tendances. C’est pour cela qu’il faut l’investir, être mobilisés pour que ça n’empire pas. Mais on voit aussi à quel point cette dérive autoritaire, voire fasciste, va très vite et est vraiment très menaçante.

Salomé Saqué : Vous dites qu’on est peut-être en train de vivre une bascule néo-fasciste.

Félix Tréguer : Je pense que la technopolice participe de ce mouvement qu’on voit à la fois dans l’espace public médiatique, qu’on voit dans les discours des élites économiques lorsqu’elles adoubent le programme économique du Rassemblement national sans s’interroger sur le reste. Il y a l’extrême droite d’un côté qui est un vrai risque. Il faut aussi avoir en tête – et c’est très clair désormais depuis les dernières élections – que l’extrême centre macroniste gouverne avec l’extrême droite, qu’il y a une forme de solidarité et des points communs très nombreux entre leur programme économique, leur programme de société, notamment les réformes dans le domaine police, justice, immigration. J’avoue que je suis un peu gêné sur cette espèce de cordon sanitaire qu’on continue de faire, cette distinction ontologique très forte qu’on fait entre le centre droit et l’extrême droite. Aujourd’hui, il y a des porosités qui sont très fortes. J’essaye aussi de montrer à quel point une partie des élites libérales, qu’on pourrait considérer comme centristes, se rendent complices de ces dérives autoritaires, de ces reculs des libertés publiques, en négociant, en essayant de résoudre leur dissonance politique, en se rassurant, en se disant qu’elles sont encore attachées à la démocratie, mais en contribuant, en pratique, à la défaire, à la saper et en actant de nombreux reculs en termes de libertés publiques et d’État de droit.

Salomé Saqué : On comprend vraiment, dans votre livre, que c’est un continuum. C’est vraiment une lente dégradation, d’ailleurs pas si lente, notamment avec la loi travail, sous un gouvernement dit de gauche, on voit que ça commence vraiment à se répandre, et ça continue évidemment avec Emmanuel Macron, ce que vous qualifiez plusieurs fois de mesures autoritaires qui sont mises en place, et là, effectivement, on se dirige de plus en plus vers un régime d’extrême droite. Effectivement, cette distinction claire ne peut pas être établie, puisqu’on voit qu’il y a clairement des collaborations. En revanche, on ne peut pas non plus dire que tout le macronisme est d’extrême droite, puisque l’extrême droite pourrait aller beaucoup plus loin et le danger qu’on peut voir, c’est voir tous ces outils entre les mains d’un gouvernement qui serait vraiment, complètement et foncièrement d’extrême-droite.

Félix Tréguer : Une accentuation des tendances actuelles qui sont déjà très présentes. Je voudrais dire que dans cette généalogie historique, il y a un rôle particulier aussi des partis et gouvernements de gauche, notamment du parti socialiste. La manière dont le cadrage des illégalismes de la violence, cette focale policière et techno policière s’est imposée, c’est bien documenté par les historiens et les sociologues de la police, y compris au parti socialiste. Nous avons pu le mesurer, en parlant notamment avec l’adjoint en charge de la sécurité à Marseille, Yannick Ohanessian, où on sent que le cadre politique et les pressions, notamment de la droite et de tout ce primat donné à l’approche policière et sécuritaire, exercent une contrainte très forte.
Il faut arriver à déconstruire cette culture sécuritaire qui nous asphyxie, qui nous empêche d’ouvrir nos imaginaires à d’autres manières d’aborder ces questions. Ce que j’essaye aussi de montrer, c’est l’espèce de masculinisme très présent dans ces milieux policiers, au niveau des élites qui promeuvent les policiers de terrain, d’une part, mais aussi dans les milieux plus élitaires qui promeuvent ces technologies, l’adaptation du droit pour promouvoir notamment la vidéosurveillance algorithmique. À l’inverse, on trouve dans toute une partie du féminisme anti-carcéral, l’expérience de justice communautaire aussi, menées par des groupes de quartiers composés et animés par des mères, par des sœurs, pour prendre en charge la violence des jeunes, notamment aux États-Unis, la violence des gangs. Il se dessine donc aussi d’autres manières de prendre en charge ces violences qui ne passent pas par l’appareil répressif et carcéral, dont on peut mesurer à quel point il est globalement inefficace à nous protéger, à construire cette sécurité dont on a tant besoin, mais qui passe par le fait de reconstruire une société qui ne soit pas basée sur un système économique et politique foncièrement et profondément inégalitaire.

Salomé Saqué : Merci beaucoup. Félix Tréguer d’avoir été avec nous sur le plateau de Blast. C’est la fin de cet entretien. Je rappelle que votre livre Technopolice – La surveillance policière à l’ère de l’intelligence artificielle, est en librairie aux éditions Divergences.

Félix Tréguer : Merci beaucoup.

Salomé Saqué : Vous l’aurez compris, il y a urgence à s’intéresser à ces sujets concernant la technologie de surveillance, même si cela n’est pas vraiment votre centre d’intérêt premier. Lorsque l’on garde en tête qu’une arrivée au pouvoir de l’extrême droite est de plus en plus probable, il semble peu souhaitable qu’elle puisse avoir ce type d’outil entre ses mains, du moins si l’on tient encore aux libertés individuelles. C’est pourquoi je vous demande de partager cet entretien, s’il vous a semblé clair, en espérant qu’il y ait enfin un véritable débat public autour de la question extrême droite ou non.
Je vous rappelle que nous sommes un média indépendant et que si nous pouvons laisser la place à la réflexion de longs entretiens avec des chercheurs qui peuvent rentrer dans les détails, c’est grâce à vous, vous qui nous soutenez et nous financez. Donc, si ça vous a intéressé, vous pouvez mettre un pouce en l’air, partager cette vidéo autour de vous, faire un don ou vous abonner sur blast-info.fr et moi je vous dis à très bientôt.