« Technosurveillance : halte l’IA » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
 
Ligne 110 : Ligne 110 :
==15’ 22==
==15’ 22==


<b>Natacha Triou : </b>En direct sur France Culture
<b>Natacha Triou : </b>En direct sur France Culture avec nos deux invités du jour, Félix Tréguer et Olivier Tesquet. Nous parlons de vidéosurveillance algorithmique et du gouvernement qui envisage de généraliser cette technologie expérimentée pendant les JO et pas que. On vient de voir que c’est une technologie qui analyse automatiquement les flux de vidéosurveillance à la recherche de comportements anormaux. On vient de voir aussi, que ces dispositifs, par leur capacité de détection, d’analyse automatisée, ne sont pas de simples prolongements techniques des caméras dites classiques. Dans le métro, à Paris, on peut par exemple lire sur les pancartes « Pour votre sécurité, cet espace et vidéo-protégé ». On voit d’ailleurs un glissement de lexique.
Olivier Tesquet, a-t-on eu des études sur l’efficacité de ces dispositifs, en tout cas pour la vidéosurveillance classique ?
 
<b>Olivier Tesquet : </b>Pendant longtemps, on en a eu très peu, voire pas du tout. D’ailleurs, la Cour des comptes, pendant des années, a réclamé une évaluation sérieuse de la vidéosurveillance, en expliquant que ça a entraîné des dépenses publiques assez considérables et que, jusqu’à preuve du contraire, on n’avait pas, en face, de chiffres a mettre pour vérifier l’efficacité de ces dispositifs-là.<br/>
Il y a eu une étude assez intéressante qui a été menée à Grenoble, il y a deux ans, trois ans maintenant, avec un chercheur qui a pu travailler directement avec les données des forces de l’ordre, ce qui est déjà suffisamment rare, puisque qu’on ne peut pas dire que la police, en France, soit extrêmement ouverte aux sciences sociales, la cohabitation n’était déjà pas acquise. Il a donc fait une étude quantitative sur le recours à la vidéosurveillance dans la résolution des enquêtes et, en fait, on s’est rendu compte, avec les conclusions de cette étude-là, que la vidéosurveillance avait eu un intérêt très marginal. Grosso modo, on était à 1 % d’enquêtes résolues grâce à la vidéosurveillance qui est l’argument massue à chaque fois, quand on entend les industriels, le lobby de la vidéosurveillance puisqu’il y a un lobby assez puissant. À partir du moment où il y a une offre industrielle et une demande politique, tout ça s’alimente un peu en en circuit fermé et, évidemment, ils s’appuient beaucoup sur cet argument-là qui est de dire « c’est un peu la solution magique pour attraper les méchants, attraper les criminels, résoudre les enquêtes ». La fameuse étude montre que ce n’est pas exactement aussi simple que ça.
 
<b>Natacha Triou : </b>En effet. Vous faites allusion à l’étude de Guillaume Gormand, en 2021, chercheur au Centre d’Études et de Recherche sur la diplomatie, l’Administration Publique et le Politiqu. Un intérêt plutôt marginal : sur 1929 enquêtes, 22 seulement à avoir été élucidées ont bénéficié d’éléments tirés de l’exploitation de la vidéo-protection. C’est en effet un résultat proche de 1,13 % d’efficacité. Félix Tréguer.
 
<b>Félix Tréguer : </b>C’est très faible et c’est vrai qu’il faut évidemment s’interroger sur le rapport coût/efficacité de la vidéosurveillance. C’est vraiment choquant, là encore, de voir l’obstruction du ministère de l’Intérieur au fait de diffuser les chiffres. Il faut avoir conscience que pour les 100 000 caméras qu’on évoquait tout à l’heure, déployées par les autorités sur la voie publique en France, là non plus on n’a pas les chiffres officiels, mais c’est de l’ordre de milliards d’euros dépensés depuis une décennie sur ces équipements. Les dernières 500 caméras de vidéosurveillance installées à Marseille, par exemple, ont coûté plus de 50 millions d’euros. Ce sont donc vraiment des équipements très coûteux et qui, en fait, relèvent, compte-tenu de cette inefficacité, d’une espèce de dogme, d’une idéologie qui doit s’expliquer par la capacité des caméras à, quelque part, rentrer dans des formes de transactions entre les élites politiques et une demande d’une partie de la population de voir son sentiment de sécurité en partie soulagé par le déploiement de ces dispositifs. Ça permet de mesurer tout ce qu’on rappelle ici, que c’est politique et que tout ce débat public est largement basé sur des peurs, des fantasmes et le débat rationnel est très compliqué dans ces matières.
 
<b>Natacha Triou : </b>C’est une demande populaire de vidéosurveillance, on va dire.
 
<b>Félix Tréguer : </b>En partie.
 
<b>Natacha Triou : </b>Olivier Tesquet, on a aussi les travaux de Laurent Mucchielli, sociologue et directeur de recherche au CNRS, qui a montré la réalité de l’effet plumeau. En quoi ça consiste ?
 
<b>Olivier Tesquet : </b>L’effet plumeau, c’est qu’en fait les caméras opèrent un déplacement, c’est-à-dire que vous ne faites pas baisser la criminalité, vous ne faites pas baisser la délinquance, vous allez la déplacer dans une zone qui n’est pas nécessairement équipée de caméras. C’est donc aussi un outil, quelque part, de ségrégation de l’espace public, c’est-à-dire que vous allez bunkeriser un espace, par exemple vous allez mettre des caméras dans un quartier parce que, dans ce quartier, il y a un enjeu sécuritaire, et puis vous allez reléguer, comme ça, la délinquance ou la petite criminalité à la périphérie.<br/>
Je voudrais juste revenir sur ce que disait Félix qui, à mon avis, est un élément important, sur le fait qu’on est dans le domaine du dogme, on est quasiment dans le domaine de la croyance, mais de la croyance quasi religieuse. Je connais quand même assez peu de domaines, dans les politiques publiques, où on est face à des dispositifs qui, s’ils fonctionnent, c’est la preuve qu’il faut en déployer davantage, mais, s’ils ne fonctionnent pas, c’est la preuve aussi qu’il faut en déployer davantage et qu’il faut développer l’itération suivante, plus intrusive, d’une technologie qui n’a pas fait ses preuves. Même les industriels et même les lobbys de la vidéosurveillance le reconnaissent. Je me souviens avoir lu des déclarations du patron de l’Association nationale de la vidéo-protection, française, qui expliquait que, oui, ils n’avaient aucune preuve de l’efficacité des dispositifs, mais, en gros, si on continue à en acheter, c’est bien que ça marche ! Ce qui est quand même un argumentaire assez nébuleux, on va dire
 
<b>Félix Tréguer : </b>Ce lobby, l’AN2V, est l’un des principaux rouages de l’industrie de la vidéosurveillance en France, très écouté au ministère de l’Intérieur, qui est vraiment impliqué dans la fabrique des politiques publiques. Il faut se représenter que c’est un secteur qui équivalait, en 2016, à 1,7 milliard d’euros pour la vidéosurveillance classique. C’est donc une manne financière très importante qui se déroule et se constitue en parallèle d’autres secteurs de la sécurité urbaine et de technologies de surveillance. Il y a donc des intérêts industriels très forts qui poussent à ces politiques et qui, quelque part, entretiennent ce dogme et ces croyances.
 
<b>Olivier Tesquet : </b>Et il y a un enjeu à l’export, c’est-à-dire que c’est aussi démontrer le savoir-faire français en la matière pour, ensuite, l’exporter à d’autres pays. Il a pu arriver d’ailleurs, pour ne pas être trop en délicatesse avec la législation, que la France externalise certaines expérimentations, je pense, par exemple à Singapour qui a servi de laboratoire pour ça, pour tester des choses qui, ensuite, ont vocation à être déployées sur le territoire national. Par exemple Thales, pour ne citer qu’une grosse entreprise française, peut aller vendre ses solutions à un certain nombre de pays, de grandes municipalités, de métropoles, etc.
 
<b>Natacha Triou : </b>Vous en parlez aussi, Félix Tréguer, dans votre ouvrage.
 
<b>Félix Tréguer : </b>En effet. Puisqu’on est dans une mission scientifique, je tiens aussi à rappeler à quel point un organisme de financement de la recherche comme l’Agence nationale de la recherche, est, quelque part, complice de ces logiques un peu néocoloniales dans le développement de ces technologies. On parlait du cas Singapour où des algorithmes de vidéosurveillance algorithmique ont été testés ces dernières années en lien avec le ministère de l’Intérieur, l’industriel Agence nationale de la recherche et également Thales, si je ne m’abuse. Je pense aussi à ce chercheur que j’avais croisé dans un salon de l’ANR, justement sur les recherches en matière de sécurité, et qui présentait, très enthousiaste et excité, un projet qu’il avait mené avec des collègues chinois. Pour contourner les obstacles juridiques, pour entraîner les algorithmes de reconnaissance faciale, il avait noué un partenariat avec un organisme de recherche chinois et lui de m’expliquer, tout content du fait qu’en Chine il y a peu de modèles de lunettes – en tout cas, c’était le cas à l’époque de ses recherches – et que, du coup, ça faussait un peu les coefficients de l’algorithme de reconnaissance faciale qui sont très discriminants sur cette partie du visage que sont les yeux. Il y avait tous ces défis techniques dont il me parlait. Je sentais qu’il n’y avait aucune prise en compte des enjeux éthiques, juridiques, politiques liés à ce partenariat avec la Chine, qui était évidemment déjà vraiment très en pointe, très en avant-garde sur le déploiement à grande échelle de la reconnaissance faciale. C’est donc quelque chose d’assez structurel et qu’il faut aussi avoir en tête pour mesurer à quel point les politiques de recherche contribuent, en fait, à l’édification de cette société sous surveillance et contribuent à légitimer ces évolutions sans aucun débat public.
 
<b>Natacha Triou : </b>Justement, par rapport à ces politiques de recherche, une question un peu naïve, pourquoi n’avons-nous pas en France des études de grande ampleur sur ces questions ? On a des petites études au niveau local, mais on a pas d’enquêtes plus globales qui auraient été menées à l’échelle nationale. Olivier Tesquet.
 
<b>Olivier Tesquet : </b>Comme je le disais, on a à la fois une insularité des forces de l’ordre, historiquement, qui méprisent les sciences sociales, pensent que les sciences sociales ne font que ralentir l’action de la police et que, du coup, c’est un peu du temps perdu et le manque de transparence aussi de l’administration. Tout à l’heure, Félix parlait de l’exemple de Briefcam, cette société israélienne qui a effectivement des contrats avec des dizaines, voire des centaines de municipalités en France, qui a été prise, quand même, dans un petit scandale – je dis un petit, parce que c’est vrai que sur ces sujets-là, on est toujours sur des tempêtes dans un verre d’eau, en tout cas vu de l’extérieur, même si ça devrait sûrement faire plus de bruit que ça – sur le logiciel qui aurait été utilisé à des fins de reconnaissance faciale sans aucune autorisation. Gérald Darmanin, alors ministre de l’Intérieur, a promis une enquête interne, faire toute la lumière sur cette affaire. Je remarque que l’enquête interne du ministère de l’Intérieur a disparu en même temps que Gérald Darmanin, c’est-à-dire qu’aujourd’hui on n’a aucune information, aucun retour de l’administration, ce qui, à mon avis, est indigne d’une démocratie digne de ce nom, sur l’utilisation possiblement délictuelle de ce logiciel.
 
<b>Félix Tréguer : </b>Oui, parce que le fait de surveiller une population de manière illégale, c’est passible de sanctions pénales
 
<b>Natacha Triou : </b>Olivier Tesquet, on vient parler des causes du déploiement de ces technologies-là, mais, pour vous, il s’agit là aussi d’une fabrique de l’acceptabilité sociale que la mise en place d’une expérimentation technologique, C’est la fonction même de ces expérimentations.
 
<b>Olivier Tesquet : </b>Oui. Dailleurs, on ne dit plus « consentement », on dit maintenant « acceptabilité ». De la même manière qu’on a glissé de la vidéosurveillance vers la vidéo-protection, parfois, j’entends même la vidéo-vigilance, on voit un glissement sémantique. Il y a eu aussi un glissement sémantique sur l’accoutumance à ces dispositifs-là : on est passé du consentement à l’acceptabilité. L’acceptabilité, c’est un mot qu’on a notamment vraiment vu apparaître pendant le Covid sur un certain nombre de mesures privatives de liberté, etc. On voit Cédric O qui sursoit momentanément au déploiement de la reconnaissance faciale, etc., c’est qu’il y a tout un travail qui est fait sur l’acceptabilité de la société à ces dispositifs qui sont toujours plus intrusifs. Donc aujourd’hui, quand on a la vidéosurveillance algorithmique, on voit bien que la vidéosurveillance algorithmique n’est qu’un point sur un axe qu’on a tracé et qui irait jusqu’à, demain, la reconnaissance faciale même si, effectivement, Félix le rappelait, on aura peut-être l’occasion d’y revenir, la reconnaissance faciale est déjà utilisée par la police en France, dans certains cadres, mais la reconnaissance faciale dans l’espace public, en temps réel, ce qui est le fantasme policier depuis déjà de longues années, qui est seriné. Chaque fois qu’un Livre blanc de la sécurité intérieure est publié par le ministère, cette envie-là revient en permanence. Donc, c’est comment travailler, malaxer le corps social pour qu’il s’habitue et qu’il finisse par accepter ce genre de dispositif.
 
<b>Natacha Triou : </b>En parlant d’expérimentation, on donne la fausse impression qu’il y aura une évaluation au bout, avec un vernis pseudo-scientifique.
 
<b>Olivier Tesquet : </b>C’est le problème. Il y a un exemple assez spectaculaire de ça. Je me souviens de l’expérimentation menée par la ville de Nice avec Christian Estrosi. On sait que Christian Estrosi est particulièrement friand de ce type de technologie, qu’il a noué des partenariats avec des sociétés israéliennes, etc. Il y a quelques années, il avait fait une expérimentation pendant le carnaval de Nice où un logiciel de reconnaissance faciale identifiait des personnes pendant le carnaval. Il est arrivé à des résultats mirifiques, de dictature bananière, c’est-à-dire qu’on avait 99,8 %, on a détecté des jumeaux monozygotes, etc. La CNIL a dit « en fait, votre évaluation ne vaut rien. Scientifiquement, elle n’a pas de valeur. » Et puis ça s’est arrêté là. C’est-à-dire qu’on présente un vernis totalement pseudo-scientifique, j’insiste vraiment sur le pseudo-scientifique, en le faisant passer pour une vérité scientifique et, derrière, ils s’appuient sur ces rapports-là, ces études-là – quand bien même ce ne sont pas vraiment des études –, pour justifier, encore une fois, la mise en place permanente de ce type d’outils.
 
<b>Natacha Triou : </b>Félix Tréguer.
 
<b>Félix Tréguer : </b>Vous le disiez. En effet, la loi de 2023 relative aux Jeux olympiques, qui crée ce dispositif expérimental pour la VSA, s’accompagne d’un mécanisme d’évaluation avec un comité dirigé par le conseiller d’État Christian Vigouroux. Il doit inclure des universitaires, il y a une juriste dedans, il y a un informaticien, je crois. Il n’y a pas de chercheurs et chercheuses en sciences sociales. Je pense qu’il y a en effet une vraie méfiance vis-à-vis de ce type d’approche qui est perçue comme critique donc, potentiellement, nuisible aux stratégies d’acceptabilité sociale qui sont, en effet, fabriquées et mises en scène par les promoteurs de ces technologies. Sur le comité d’évaluation, j’observe que c’est très intéressant d’avoir entendu Michel Barnier, lors de son discours de politique générale, annoncer d’ores et déjà, ensuite plussoyé par le ministère de l’Intérieur, la pérennisation du dispositif expérimental, alors même que le comité d’évaluation n’a pas rendu sa copie, ce qui n’a d’ailleurs pas empêché le préfet de police, Laurent Nuñez, de communiquer devant la commission des lois de l’Assemblée nationale en disant que tout s’était très bien passé, que les algorithmes de VSA avaient été très efficaces, ce que beaucoup de données nous invitent à mettre en doute. Par exemple, si on regarde les résultats de la SNCF qui a expérimenté illégalement beaucoup de ces algorithmes de VSA, la moitié, environ, était jugés complètement insatisfaisants il y a quelques mois. Jérôme Durain, un sénateur membre du comité d’évaluation de l’expérimentation relative à la loi Jeux olympiques de la VSA, expliquait en réponse et un peu choqué de voir le gouvernement prendre les devants sans même attendre le rapport d’évaluation qui est attendu pour la fin d’année, qu’en fait, la plupart des cas d’usage – certains en tout cas – notamment la détection d’armes et de colis abandonnés ne marchait pas du tout, que, donc, le satisfecit affiché par Laurent Nuñez était très prématuré.
 
<b>Natacha Triou : </b>Ce bilan attendu pour la fin de l’année, sera-t-il rendu public, Olivier Tesquet ?
 
<b>Olivier Tesquet : </b>S’il l’est, tant mieux, on fera mentir mon intuition qui dit qu’il ne le sera pas nécessairement. S’il ne l’est pas, on pourra toujours le demander, on pourra toujours faire une demande d’accès aux documents administratifs. Après, la question sera de savoir s’ils vont le communiquer. C’est vrai que l’exemple de Nuñez, du ministère de l’Intérieur, etc., qui nous expliquent, en fanfaronnant, que c’est une grande réussite avant même d’avoir rendu les conclusions de l’expérimentation, c’est bien la preuve que c’est très performatif quand même.
 
<b>Natacha Triou : </b>Quelles questions la vidéosurveillance algorithmique pose-t-elle en matière de libertés fondamentales et pourquoi une surveillance algorithmique constante de l’espace public est-elle dangereuse politiquement ?
 
<b>Pause musicale : </b><em>Under surveillance de Oppenheimer Analysis.
 
==31’ 27==
 
<b>Natacha Triou : </b><em>Under surveillance de

Dernière version du 2 novembre 2024 à 17:53


Titre : Technosurveillance : halte l’IA ?

Intervenant·e·s : Olivier Tesquet - Félix Tréguer - Natacha Triou

Lieu : Podcast La Science, CQFD - France culture

Date : 28 octobre 2024

Durée : 53 min 30

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l’April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description[modifier]

Depuis la loi relative aux JO 2024, l’expérimentation de caméras dotées de systèmes d’intelligence artificielle a été autorisée en ville pour huit cas d’usage. Le gouvernement envisage désormais de pérenniser et généraliser ce nouvel outil. Est-on en passe de légaliser la reconnaissance faciale ?

Transcription[modifier]

Voix off : La Science, CQFD – Natacha Triou

Natacha Triou : Depuis la loi relative aux JO 2024, la police expérimente la vidéosurveillance algorithmique à large échelle. Le gouvernement envisage de pérenniser ce dispositif. Pourquoi cette technologie fait-elle tant débat ?
Depuis mai 2023, la vidéosurveillance algorithmique est expérimentée en ville avec 485 caméras augmentées. L’idée est de créer un réseau de vidéosurveillance intelligent en le couplant à des algorithmes entraînés pour détecter des anomalies parmi la foule. Le rapport d’évaluation de cette vidéosurveillance, boostée à l’IA, est supposé sortir d’ici la fin de l’année. Jusqu’à présent, aucune étude à grande échelle n’a démontré l’efficacité de ces systèmes. Pourquoi donc continuer à déployer ces outils et sommes-nous en passe de légaliser la reconnaissance faciale ?
« Technosurveillance : halte l’IA ? »
Félix Tréguer, bonjour.

Félix Tréguer : Bonjour.

Natacha Triou : Vous êtes sociologue associé au Centre Internet et Société du CNRS, membre de La Quadrature du Net, association de défense et de promotion des droits et libertés sur Internet, et vous publiez tout juste Technopolice – La surveillance policière à l’ère de l’intelligence artificielle, aux Éditions divergences.
Olivier Tesquet, bonjour.

Olivier Tesquet : Bonjour.

Natacha Triou : Vous êtes journaliste à la cellule enquête de Télérama et l’auteur, entre autres, de l’ouvrage À la trace – Enquête sur les nouveaux territoires de la surveillance, en 2020, aux éditions Premier Parallèle.
Merci à vous deux d’avoir accepté notre invitation, ici, dans nos studios à France culture, et merci à vous qui nous écoutez. N’hésitez pas à nous suivre sur X, ex-Tweeter, à nous poser des questions. Pour vous, on publie tous les jours plein de ressources complémentaires sur notre fil, @ScienceCQFD.

Alors, les caméras de surveillance algorithmique sont-elles de simples prolongements techniques des caméras existantes et pourquoi ces technologies sont-elles problématiques du point de vue des libertés publiques ? Nous sommes ensemble jusqu’à 17 heures pour répondre à ces questions, mais on commence avec notre archive du jour pour les Jeux olympiques n’ont pas de Paris, mais de Pékin.

Journaliste du 20 Heures de France 2 en 2006 : Une caméra tous les 20 mètres sur la place Tian'anmen, au cœur de Pékin, la place la plus surveillée de Chine. Pas possible d’échapper à ses yeux de verre, camouflés en lampadaires, qui vous guettent partout. On estime que 260 000 caméras surveillent les rues et les gens de Pékin, comme ici, dans cette artère commerçante, une caméra tous les 50 mètres, mais les Chinois ne s’en soucient guère.

Diverses voix off : Ça ne me dérange pas, c’est pour garantir la stabilité de la société.
C’est dans l’intérêt de la Chine qu’on met des caméras. En tant que citoyen, on coopère, mais ça ne touche pas à notre vie privée.
Ça aide à gérer le pays.
Chez vous aussi, on a besoin de caméras pour contrôler les espaces publics.

Journaliste du 20 Heures de France 2 en 2006 : Tout mouvement de foule est filmé et conservé à Pékin, comme cette manifestation anti-japonaise, soutenue par le pouvoir, mais surveillée par la police.
Les autorités ne cachent pas leur méthode. Une émission de télévision montre les images de la police, comme celles de ce criminel qui a enfermé le corps de sa compagne dans une valise. Il sera arrêté le lendemain, pour la plus grande joie du téléspectateur.
Chaque commissariat centralise les images filmées par les caméras de vidéosurveillance et les bannes seront, à l’avenir, conservées pendant deux mois.

Voix off : Notre centre de contrôle surveille les endroits sensibles où l’on observe souvent des troubles de l’ordre public, des crimes ou même des accidents, et nous informons les départements concernés.

Journaliste du 20 Heures de France 2 en 2006 : Pour les Jeux olympiques, toutes les images seront centralisées ici et les autorités concernées auront un accès illimité aux enregistrements. De même, les bâtiments publics seront dotés d’une technologie de reconnaissance faciale, comme à l’entrée du Palais du peuple.
Dans deux ans, la ville de Pékin comptera 400 000 caméras de vidéosurveillance pour les Jeux olympiques, mais la population ne s’en soucie guère. On est bien loin ici de l’adoption d’une loi Informatique et Libertés.

Natacha Triou : Voilà un extrait du 20 heures de France 2, la surveillance en Chine en 2006.
Olivier Tesquet, depuis 2001, tous les JO ont un peu servi de prétexte, quand même, au déploiement de nouvelles technologies sécuritaires.

Olivier Tesquet : Oui, parce qu’on aurait probablement pu trouver un peu la même archive pour la Coupe du monde de foot en Russie en 2018, qui a été l’occasion, pour les autorités russes et surtout la mairie de Moscou, de généraliser la reconnaissance faciale notamment dans le métro, reconnaissance faciale qui a ensuite pu être utilisée à d’autres fins, pour des manifs pro Navalny, pour faire respecter le confinement pendant le Covid. Il y a ce moment d’accélération au moment des grands événements sportifs. D’ailleurs, quand on entend les pouvoirs publics, ils nous parlent de la dimension d’héritage des JO, c’est un mot qui est revenu beaucoup, on l’a encore entendu avec les JO de Paris cette année. Dans la dimension d’héritage, il y a l’héritage avec les infrastructures qui restent, mais il y a aussi les dispositifs techniques de ce type-là qui ont vocation à perdurer et la pérennisation de l’expérimentation de vidéosurveillance algorithmique en est le meilleur exemple.

Natacha Triou : Félix Tréguer, votre réaction à cette écoute d’archive de 2006.

Félix Tréguer : C’est un moment important dans la généalogie de la vidéosurveillance algorithmique qui occupe beaucoup le débat public français ces dernières semaines. L’installation de la vidéosurveillance à Pékin avec, déjà, l’arrivée de la reconnaissance faciale et c’est à peu près à la même époque, en France, dans les Livres blancs du ministère de l’Intérieur, qu’on commence à envisager ces mêmes technologies et leur déploiement dans le contexte français.
Ce qui me fait aussi réagir dans cette archive, c’est la mise en exergue, par le journaliste, de la loi Informatique et Libertés comme rempart juridique efficace pour la protection des libertés dans nos contrées françaises ou européennes. On pourra peut-être revenir là-dessus, mais c’est vrai que je le trouve un petit peu optimiste. Je voudrais rappeler aussi, puisqu’on va beaucoup parler de l’expérimentation légale de la vidéosurveillance algorithmique cet été, à l’occasion des Jeux olympiques, une expérimentation qui se poursuit jusqu’en mars 2025 du fait de la loi Jeux olympiques de 2023, que cette expérimentation légale coexiste avec de nombreux déploiements et recours à ces technologies par les polices municipales, par la Police nationale française, en toute illégalité.

Natacha Triou : On reviendra en effet sur ces points-là. Pour revenir un peu sur ces caméras de surveillance dites classiques, en France, on a aujourd’hui, environ je crois, 100 000 caméras qui sont déployées dans toutes les villes de France depuis 15 ans. On voit que notre pays a développé de manière très rapide la vidéosurveillance de l’espace public.

Félix Tréguer : Oui. En réalité, les premiers déploiements datent de 1991 dans des communes comme le Levallois-Perret, à l’initiative de certains maires qui veulent utiliser ces dispositifs comme manière de rassurer la population et montrer qu’ils répondent à des attentes en matière de sécurité publique. La première grande loi c’est 95, qui vient légaliser ces déploiements à l’initiative du gouvernement de l’époque, avec la CNIL, qui est d’ailleurs évincée très largement du dispositif de contrôle qui est mis en place. Et c’est vraiment sous le mandat de Nicolas Sarkozy, à partir de 2007/2008 en particulier, que les politiques publiques françaises, notamment au niveau du ministère de l’Intérieur, viennent encourager et subventionner très massivement les déploiements de parcs de vidéosurveillance par les communes françaises.

Natacha Triou : Olivier Tesquet.

Olivier Tesquet : Il y a un effet d’entraînement ou une boucle de rétroaction qui se met en place, c’est-à-dire qu’on voit que le déploiement de ces dispositifs-là accompagne ou s’accompagne de discours politiques sur la sécurité. Ce n’est pas un hasard si ça se généralise et se massifie sous Nicolas Sarkozy. On se souvient des grands discours de Nicolas Sarkozy sur la sécurité, le karcher, etc. On pourrait citer plein d’autres exemples qui sont très symptomatiques, comme ça, de cette rhétorique de la sécurité première des libertés, qu’on a d’ailleurs entendue, finalement, des deux côtés du spectre politique depuis. C’est peut-être aussi pour cela qu’aujourd’hui il y a cette forme d’unanimisme ou du consensus un peu mou autour du déploiement de ces technologies, sans qu’on s’en inquiète outre mesure. Aujourd’hui cette rhétorique de la sécurité qui est au-dessus, finalement, au-dessus de toutes les autres libertés, au-dessus de tous les autres droits, a contaminé un peu toutes les composantes de la vie politique française.

Natacha Triou : Donc, on en arrive aujourd’hui à ce point où, en fait, on a trop de caméras, on ne sait plus où regarder, et c’est ainsi que vient l’idée de traiter ces images hyper rapidement pour en sortir des informations précises, on obtient la vidéosurveillance algorithmique.

Olivier Tesquet : La VSA, si on prend cet acronyme comme raccourci, désigne en fait le croisement des techniques d’intelligence artificielle, notamment ce qu’on appelle la vision par ordinateur, avec les flux de vidéosurveillance. L’idée, c’est d’utiliser l’IA pour automatiser l’analyse des flux et détecter des événements d’intérêt pour les forces de l’ordre ou pour les gestionnaires de l’espace public urbain.
Ce sont des technologies qui, plus exactement, ont des applications qui font l’objet de recherches depuis les tout débuts de l’informatique. Dès les années 50, les pionniers de l’intelligence artificielle travaillent déjà à la vision machinique, le fait, pour des algorithmes, de détecter des images, de reconnaître des visages, une recherche qui est largement abondée et financée par des crédits militaires, par la CIA à l’époque aux États-Unis. C’est donc une technologie qui a une longue histoire et les formidables progrès de l’apprentissage machine, ce qu’on appelle le machine learning qui est un peu à l’origine des avancées assez impressionnantes de ces dernières années en matière d’intelligence artificielle, c’est vraiment à partir du début des années 2010 que ces technologies commencent à avoir un peu d’efficacité, de performance, et qu’elles font, du coup, l’objet des premiers déploiements opérationnels.

Natacha Triou : Justement dans le cadre de cette expérimentation liée à la loi JO, Olivier Tesquet comment, concrètement, ça fonctionne ? Quels sont les algos utilisés ? Quelles expérimentations a-t-on vu se mettre en place ?

Olivier Tesquet : Déjà, il faut borner un certain nombre de cas d’usage qui sont présentés par les autorités. Ça fait déjà quelques années : avant les Jeux, on entendait ce qu’ils appellent les intrusions périmétriques, donc s’assurer, vérifier que quelqu’un ne rentre pas sur une zone sur laquelle il n’est pas censé rentrer, détecter les objets abandonnés, détecter les débuts de rixes, les attroupements, tout un tas de situations qui sont donc considérées comme des situations suspectes dans l’espace public. Peut-être quand même dire à ce moment-là – et Félix l’évoquait – que ce sont des recherches assez anciennes, avant l’expérimentation de vidéosurveillance algorithmique à l’occasion des Jeux olympiques. On peut avoir l’impression, quand c’est présenté comme ça, que, avant, il n’y a jamais eu, en France, d’expérimentation de vidéosurveillance algorithmique. Ce n’est pas du tout le cas. Félix l’a rappelé, il y a quand même un certain nombre de collectivités, municipalités, etc., qui l’expérimentent, la déploient – on peut discuter, d’ailleurs, de la terminologie, mais je pense qu’on en aura l’occasion un peu plus tard. Elles déploient ce genre de technologie, depuis déjà plusieurs années, dans une forme d’opacité, dans une forme aussi de partenariat public/privé assez étrange : il n’y a pas, nécessairement, de signature de marchés publics : on met à disposition une technologie, ça satisfait un peu tout le monde. Tout cela se fait quand même un peu à la marge, voire carrément à l’écart des processus habituels qui, normalement, réglementent le déploiement, l’utilisation de ce type de technologie.

Natacha Triou : Comme vous dites, on a à plusieurs exemples de l’expérimentation de ces technologies, Olivier Tesquet, notamment la RATP qui expérimente ces technologies depuis 2018.

Olivier Tesquet : Oui, et aussi des municipalités. J’ai suivi avec intérêt, comme beaucoup d’autres personnes, parce que Technopolice, avant d’être un livre, a été une opération menée par La Quadrature du Net qui avait vocation à localiser, identifier, puis obtenir des informations, parce qu’on se rend compte aussi qu’il y a une terrible asymétrie. En France, on a une des administrations qui sont très peu transparentes – et c’est peu de le dire –, donc les citoyens, y compris parfois les habitants des villes concernées, n’étaient pas du tout au courant du déploiement de tel ou tel outil dans leur ville, dans leur quartier. Il fallait donc aussi rétablir un peu cette asymétrie-là.

Natacha Triou : Félix Tréguer, sur les exemples d’expérimentation qu’on a pu voir en effet dans l’hexagone.

Félix Tréguer : Dans le cadre du projet Technopolice, on a en effet cherché à documenter depuis plusieurs années ces déploiements. Il y en a eu à Marseille, il y en a eu à Nice, il y en a eu dans le département des Yvelines, il y en a eu à Valenciennes. il y en a eu à Paris, dans le cadre de projets de recherche, il y en a donc eu de très nombreux. L’un des leaders du marché, la société israélienne Briefcam, prétend avoir plus de 200 communes clientes sur le territoire français.
Dans les usages qu’on a pu voir, il y a en effet à la fois des choses qui relèvent du comptage statistique, par exemple, compter des vélos, des piétons, des voitures sur certains axes, donc des applications qui sont mises en avant comme relevant de la smart city, la ville intelligente, et de l’optimisation de certaines fonctionnalités urbaines et d’information des politiques urbaines de manière générale, et puis il y a des applications plus directement sécuritaires, Olivier en mentionnait certaines. Et on a vu, par exemple dans un marché public à Marseille, l’expérimentation de fonctionnalités qui s’apparentent à de la reconnaissance faciale puisqu’elles visent à suivre automatiquement des corps en déplacement dans l’espace public à mesure qu’ils flashent, sous différentes caméras, tout au long de leur parcours urbain. Et cette reconnaissance est faite non pas à partir de l’empreinte faciale, mais, par exemple, de la couleur des vêtements ou de la démarche, mais, le plus souvent, c’est à partir de la couleur des vêtements.

Natacha Triou : Là, dans le cadre des JO, on a des caméras qui sont donc augmentées avec ces algorithmes qui étaient là pour détecter huit types de situations inhabituelles. C’est ça ? Il n’y a pas encore de reconnaissance faciale.

Félix Tréguer : Non. Cest ce que j’ai proposé de désigner, plutôt essayé avec une illustration de la stratégie des petits pas. Quand on a commencé, avec La Quadrature du Net et l’ensemble du collectif Technopolice, à travailler sur ces questions, c’était en 2019 à un moment où tout ce milieu techno sécuritaire, donc d’industriels, de start-ups, de chercheurs et chercheuses d’organismes de recherche publics, leurs relais administratifs, au ministère de l’Intérieur notamment, leurs relais politiques, parlaient de beaucoup de reconnaissance faciale. L’objectif était de légaliser la reconnaissance faciale en temps réel, on pourra revenir sur le fait qu’elle est déjà en partie légalisée en France, et que cette reconnaissance faciale en temps réel puissent être expérimentées à l’occasion des JO. On était donc en 2019. C’est l’époque où Cédric O, secrétaire d’État au numérique, donne une interview au Monde, explique qu’« il faut expérimenter la reconnaissance faciale pour que nos industriels progressent », je cite. C’est donc vraiment l’objectif.
Il se trouve qu’en 2022, ce même Cédric O annonce, juste avant la présidentielle, que les conditions politiques de ce qu’il estime être un débat nécessaire et qui doit être informée – en gros, les fantasmes d’une partie de la population – ne sont pas réunies pour légaliser cette expérimentation de la reconnaissance faciale en temps réel, donc, le choix est fait, à ce moment-là, de se concentrer sur des cas d’usages peu sensibles du point de vue des libertés publiques : détection de port d’armes, de bagages abandonnés, détection périmétrique dont parlait Olivier, le fait d’aller à contresens d’un sens de circulation pour un véhicule ou un piéton. Bref !, des cas d’usage assez divers, mais qui ne s’assimilent pas directement à de la surveillance biométrique ou à du suivi d’individus à des fins d’identification.

Natacha Triou : Justement. En quoi consiste plus précisément cette stratégie des petits pas ? Que disent les rapports concernant l’efficacité de la vidéosurveillance ? Restez à l’écoute.

Voix off : France Culture. La Science, CQFD - Natachaa Triou.

15’ 22[modifier]

Natacha Triou : En direct sur France Culture avec nos deux invités du jour, Félix Tréguer et Olivier Tesquet. Nous parlons de vidéosurveillance algorithmique et du gouvernement qui envisage de généraliser cette technologie expérimentée pendant les JO et pas que. On vient de voir que c’est une technologie qui analyse automatiquement les flux de vidéosurveillance à la recherche de comportements anormaux. On vient de voir aussi, que ces dispositifs, par leur capacité de détection, d’analyse automatisée, ne sont pas de simples prolongements techniques des caméras dites classiques. Dans le métro, à Paris, on peut par exemple lire sur les pancartes « Pour votre sécurité, cet espace et vidéo-protégé ». On voit d’ailleurs un glissement de lexique. Olivier Tesquet, a-t-on eu des études sur l’efficacité de ces dispositifs, en tout cas pour la vidéosurveillance classique ?

Olivier Tesquet : Pendant longtemps, on en a eu très peu, voire pas du tout. D’ailleurs, la Cour des comptes, pendant des années, a réclamé une évaluation sérieuse de la vidéosurveillance, en expliquant que ça a entraîné des dépenses publiques assez considérables et que, jusqu’à preuve du contraire, on n’avait pas, en face, de chiffres a mettre pour vérifier l’efficacité de ces dispositifs-là.
Il y a eu une étude assez intéressante qui a été menée à Grenoble, il y a deux ans, trois ans maintenant, avec un chercheur qui a pu travailler directement avec les données des forces de l’ordre, ce qui est déjà suffisamment rare, puisque qu’on ne peut pas dire que la police, en France, soit extrêmement ouverte aux sciences sociales, la cohabitation n’était déjà pas acquise. Il a donc fait une étude quantitative sur le recours à la vidéosurveillance dans la résolution des enquêtes et, en fait, on s’est rendu compte, avec les conclusions de cette étude-là, que la vidéosurveillance avait eu un intérêt très marginal. Grosso modo, on était à 1 % d’enquêtes résolues grâce à la vidéosurveillance qui est l’argument massue à chaque fois, quand on entend les industriels, le lobby de la vidéosurveillance puisqu’il y a un lobby assez puissant. À partir du moment où il y a une offre industrielle et une demande politique, tout ça s’alimente un peu en en circuit fermé et, évidemment, ils s’appuient beaucoup sur cet argument-là qui est de dire « c’est un peu la solution magique pour attraper les méchants, attraper les criminels, résoudre les enquêtes ». La fameuse étude montre que ce n’est pas exactement aussi simple que ça.

Natacha Triou : En effet. Vous faites allusion à l’étude de Guillaume Gormand, en 2021, chercheur au Centre d’Études et de Recherche sur la diplomatie, l’Administration Publique et le Politiqu. Un intérêt plutôt marginal : sur 1929 enquêtes, 22 seulement à avoir été élucidées ont bénéficié d’éléments tirés de l’exploitation de la vidéo-protection. C’est en effet un résultat proche de 1,13 % d’efficacité. Félix Tréguer.

Félix Tréguer : C’est très faible et c’est vrai qu’il faut évidemment s’interroger sur le rapport coût/efficacité de la vidéosurveillance. C’est vraiment choquant, là encore, de voir l’obstruction du ministère de l’Intérieur au fait de diffuser les chiffres. Il faut avoir conscience que pour les 100 000 caméras qu’on évoquait tout à l’heure, déployées par les autorités sur la voie publique en France, là non plus on n’a pas les chiffres officiels, mais c’est de l’ordre de milliards d’euros dépensés depuis une décennie sur ces équipements. Les dernières 500 caméras de vidéosurveillance installées à Marseille, par exemple, ont coûté plus de 50 millions d’euros. Ce sont donc vraiment des équipements très coûteux et qui, en fait, relèvent, compte-tenu de cette inefficacité, d’une espèce de dogme, d’une idéologie qui doit s’expliquer par la capacité des caméras à, quelque part, rentrer dans des formes de transactions entre les élites politiques et une demande d’une partie de la population de voir son sentiment de sécurité en partie soulagé par le déploiement de ces dispositifs. Ça permet de mesurer tout ce qu’on rappelle ici, que c’est politique et que tout ce débat public est largement basé sur des peurs, des fantasmes et le débat rationnel est très compliqué dans ces matières.

Natacha Triou : C’est une demande populaire de vidéosurveillance, on va dire.

Félix Tréguer : En partie.

Natacha Triou : Olivier Tesquet, on a aussi les travaux de Laurent Mucchielli, sociologue et directeur de recherche au CNRS, qui a montré la réalité de l’effet plumeau. En quoi ça consiste ?

Olivier Tesquet : L’effet plumeau, c’est qu’en fait les caméras opèrent un déplacement, c’est-à-dire que vous ne faites pas baisser la criminalité, vous ne faites pas baisser la délinquance, vous allez la déplacer dans une zone qui n’est pas nécessairement équipée de caméras. C’est donc aussi un outil, quelque part, de ségrégation de l’espace public, c’est-à-dire que vous allez bunkeriser un espace, par exemple vous allez mettre des caméras dans un quartier parce que, dans ce quartier, il y a un enjeu sécuritaire, et puis vous allez reléguer, comme ça, la délinquance ou la petite criminalité à la périphérie.
Je voudrais juste revenir sur ce que disait Félix qui, à mon avis, est un élément important, sur le fait qu’on est dans le domaine du dogme, on est quasiment dans le domaine de la croyance, mais de la croyance quasi religieuse. Je connais quand même assez peu de domaines, dans les politiques publiques, où on est face à des dispositifs qui, s’ils fonctionnent, c’est la preuve qu’il faut en déployer davantage, mais, s’ils ne fonctionnent pas, c’est la preuve aussi qu’il faut en déployer davantage et qu’il faut développer l’itération suivante, plus intrusive, d’une technologie qui n’a pas fait ses preuves. Même les industriels et même les lobbys de la vidéosurveillance le reconnaissent. Je me souviens avoir lu des déclarations du patron de l’Association nationale de la vidéo-protection, française, qui expliquait que, oui, ils n’avaient aucune preuve de l’efficacité des dispositifs, mais, en gros, si on continue à en acheter, c’est bien que ça marche ! Ce qui est quand même un argumentaire assez nébuleux, on va dire

Félix Tréguer : Ce lobby, l’AN2V, est l’un des principaux rouages de l’industrie de la vidéosurveillance en France, très écouté au ministère de l’Intérieur, qui est vraiment impliqué dans la fabrique des politiques publiques. Il faut se représenter que c’est un secteur qui équivalait, en 2016, à 1,7 milliard d’euros pour la vidéosurveillance classique. C’est donc une manne financière très importante qui se déroule et se constitue en parallèle d’autres secteurs de la sécurité urbaine et de technologies de surveillance. Il y a donc des intérêts industriels très forts qui poussent à ces politiques et qui, quelque part, entretiennent ce dogme et ces croyances.

Olivier Tesquet : Et il y a un enjeu à l’export, c’est-à-dire que c’est aussi démontrer le savoir-faire français en la matière pour, ensuite, l’exporter à d’autres pays. Il a pu arriver d’ailleurs, pour ne pas être trop en délicatesse avec la législation, que la France externalise certaines expérimentations, je pense, par exemple à Singapour qui a servi de laboratoire pour ça, pour tester des choses qui, ensuite, ont vocation à être déployées sur le territoire national. Par exemple Thales, pour ne citer qu’une grosse entreprise française, peut aller vendre ses solutions à un certain nombre de pays, de grandes municipalités, de métropoles, etc.

Natacha Triou : Vous en parlez aussi, Félix Tréguer, dans votre ouvrage.

Félix Tréguer : En effet. Puisqu’on est dans une mission scientifique, je tiens aussi à rappeler à quel point un organisme de financement de la recherche comme l’Agence nationale de la recherche, est, quelque part, complice de ces logiques un peu néocoloniales dans le développement de ces technologies. On parlait du cas Singapour où des algorithmes de vidéosurveillance algorithmique ont été testés ces dernières années en lien avec le ministère de l’Intérieur, l’industriel Agence nationale de la recherche et également Thales, si je ne m’abuse. Je pense aussi à ce chercheur que j’avais croisé dans un salon de l’ANR, justement sur les recherches en matière de sécurité, et qui présentait, très enthousiaste et excité, un projet qu’il avait mené avec des collègues chinois. Pour contourner les obstacles juridiques, pour entraîner les algorithmes de reconnaissance faciale, il avait noué un partenariat avec un organisme de recherche chinois et lui de m’expliquer, tout content du fait qu’en Chine il y a peu de modèles de lunettes – en tout cas, c’était le cas à l’époque de ses recherches – et que, du coup, ça faussait un peu les coefficients de l’algorithme de reconnaissance faciale qui sont très discriminants sur cette partie du visage que sont les yeux. Il y avait tous ces défis techniques dont il me parlait. Je sentais qu’il n’y avait aucune prise en compte des enjeux éthiques, juridiques, politiques liés à ce partenariat avec la Chine, qui était évidemment déjà vraiment très en pointe, très en avant-garde sur le déploiement à grande échelle de la reconnaissance faciale. C’est donc quelque chose d’assez structurel et qu’il faut aussi avoir en tête pour mesurer à quel point les politiques de recherche contribuent, en fait, à l’édification de cette société sous surveillance et contribuent à légitimer ces évolutions sans aucun débat public.

Natacha Triou : Justement, par rapport à ces politiques de recherche, une question un peu naïve, pourquoi n’avons-nous pas en France des études de grande ampleur sur ces questions ? On a des petites études au niveau local, mais on a pas d’enquêtes plus globales qui auraient été menées à l’échelle nationale. Olivier Tesquet.

Olivier Tesquet : Comme je le disais, on a à la fois une insularité des forces de l’ordre, historiquement, qui méprisent les sciences sociales, pensent que les sciences sociales ne font que ralentir l’action de la police et que, du coup, c’est un peu du temps perdu et le manque de transparence aussi de l’administration. Tout à l’heure, Félix parlait de l’exemple de Briefcam, cette société israélienne qui a effectivement des contrats avec des dizaines, voire des centaines de municipalités en France, qui a été prise, quand même, dans un petit scandale – je dis un petit, parce que c’est vrai que sur ces sujets-là, on est toujours sur des tempêtes dans un verre d’eau, en tout cas vu de l’extérieur, même si ça devrait sûrement faire plus de bruit que ça – sur le logiciel qui aurait été utilisé à des fins de reconnaissance faciale sans aucune autorisation. Gérald Darmanin, alors ministre de l’Intérieur, a promis une enquête interne, faire toute la lumière sur cette affaire. Je remarque que l’enquête interne du ministère de l’Intérieur a disparu en même temps que Gérald Darmanin, c’est-à-dire qu’aujourd’hui on n’a aucune information, aucun retour de l’administration, ce qui, à mon avis, est indigne d’une démocratie digne de ce nom, sur l’utilisation possiblement délictuelle de ce logiciel.

Félix Tréguer : Oui, parce que le fait de surveiller une population de manière illégale, c’est passible de sanctions pénales

Natacha Triou : Olivier Tesquet, on vient parler des causes du déploiement de ces technologies-là, mais, pour vous, il s’agit là aussi d’une fabrique de l’acceptabilité sociale que la mise en place d’une expérimentation technologique, C’est la fonction même de ces expérimentations.

Olivier Tesquet : Oui. Dailleurs, on ne dit plus « consentement », on dit maintenant « acceptabilité ». De la même manière qu’on a glissé de la vidéosurveillance vers la vidéo-protection, parfois, j’entends même la vidéo-vigilance, on voit un glissement sémantique. Il y a eu aussi un glissement sémantique sur l’accoutumance à ces dispositifs-là : on est passé du consentement à l’acceptabilité. L’acceptabilité, c’est un mot qu’on a notamment vraiment vu apparaître pendant le Covid sur un certain nombre de mesures privatives de liberté, etc. On voit Cédric O qui sursoit momentanément au déploiement de la reconnaissance faciale, etc., c’est qu’il y a tout un travail qui est fait sur l’acceptabilité de la société à ces dispositifs qui sont toujours plus intrusifs. Donc aujourd’hui, quand on a la vidéosurveillance algorithmique, on voit bien que la vidéosurveillance algorithmique n’est qu’un point sur un axe qu’on a tracé et qui irait jusqu’à, demain, la reconnaissance faciale même si, effectivement, Félix le rappelait, on aura peut-être l’occasion d’y revenir, la reconnaissance faciale est déjà utilisée par la police en France, dans certains cadres, mais la reconnaissance faciale dans l’espace public, en temps réel, ce qui est le fantasme policier depuis déjà de longues années, qui est seriné. Chaque fois qu’un Livre blanc de la sécurité intérieure est publié par le ministère, cette envie-là revient en permanence. Donc, c’est comment travailler, malaxer le corps social pour qu’il s’habitue et qu’il finisse par accepter ce genre de dispositif.

Natacha Triou : En parlant d’expérimentation, on donne la fausse impression qu’il y aura une évaluation au bout, avec un vernis pseudo-scientifique.

Olivier Tesquet : C’est le problème. Il y a un exemple assez spectaculaire de ça. Je me souviens de l’expérimentation menée par la ville de Nice avec Christian Estrosi. On sait que Christian Estrosi est particulièrement friand de ce type de technologie, qu’il a noué des partenariats avec des sociétés israéliennes, etc. Il y a quelques années, il avait fait une expérimentation pendant le carnaval de Nice où un logiciel de reconnaissance faciale identifiait des personnes pendant le carnaval. Il est arrivé à des résultats mirifiques, de dictature bananière, c’est-à-dire qu’on avait 99,8 %, on a détecté des jumeaux monozygotes, etc. La CNIL a dit « en fait, votre évaluation ne vaut rien. Scientifiquement, elle n’a pas de valeur. » Et puis ça s’est arrêté là. C’est-à-dire qu’on présente un vernis totalement pseudo-scientifique, j’insiste vraiment sur le pseudo-scientifique, en le faisant passer pour une vérité scientifique et, derrière, ils s’appuient sur ces rapports-là, ces études-là – quand bien même ce ne sont pas vraiment des études –, pour justifier, encore une fois, la mise en place permanente de ce type d’outils.

Natacha Triou : Félix Tréguer.

Félix Tréguer : Vous le disiez. En effet, la loi de 2023 relative aux Jeux olympiques, qui crée ce dispositif expérimental pour la VSA, s’accompagne d’un mécanisme d’évaluation avec un comité dirigé par le conseiller d’État Christian Vigouroux. Il doit inclure des universitaires, il y a une juriste dedans, il y a un informaticien, je crois. Il n’y a pas de chercheurs et chercheuses en sciences sociales. Je pense qu’il y a en effet une vraie méfiance vis-à-vis de ce type d’approche qui est perçue comme critique donc, potentiellement, nuisible aux stratégies d’acceptabilité sociale qui sont, en effet, fabriquées et mises en scène par les promoteurs de ces technologies. Sur le comité d’évaluation, j’observe que c’est très intéressant d’avoir entendu Michel Barnier, lors de son discours de politique générale, annoncer d’ores et déjà, ensuite plussoyé par le ministère de l’Intérieur, la pérennisation du dispositif expérimental, alors même que le comité d’évaluation n’a pas rendu sa copie, ce qui n’a d’ailleurs pas empêché le préfet de police, Laurent Nuñez, de communiquer devant la commission des lois de l’Assemblée nationale en disant que tout s’était très bien passé, que les algorithmes de VSA avaient été très efficaces, ce que beaucoup de données nous invitent à mettre en doute. Par exemple, si on regarde les résultats de la SNCF qui a expérimenté illégalement beaucoup de ces algorithmes de VSA, la moitié, environ, était jugés complètement insatisfaisants il y a quelques mois. Jérôme Durain, un sénateur membre du comité d’évaluation de l’expérimentation relative à la loi Jeux olympiques de la VSA, expliquait en réponse et un peu choqué de voir le gouvernement prendre les devants sans même attendre le rapport d’évaluation qui est attendu pour la fin d’année, qu’en fait, la plupart des cas d’usage – certains en tout cas – notamment la détection d’armes et de colis abandonnés ne marchait pas du tout, que, donc, le satisfecit affiché par Laurent Nuñez était très prématuré.

Natacha Triou : Ce bilan attendu pour la fin de l’année, sera-t-il rendu public, Olivier Tesquet ?

Olivier Tesquet : S’il l’est, tant mieux, on fera mentir mon intuition qui dit qu’il ne le sera pas nécessairement. S’il ne l’est pas, on pourra toujours le demander, on pourra toujours faire une demande d’accès aux documents administratifs. Après, la question sera de savoir s’ils vont le communiquer. C’est vrai que l’exemple de Nuñez, du ministère de l’Intérieur, etc., qui nous expliquent, en fanfaronnant, que c’est une grande réussite avant même d’avoir rendu les conclusions de l’expérimentation, c’est bien la preuve que c’est très performatif quand même.

Natacha Triou : Quelles questions la vidéosurveillance algorithmique pose-t-elle en matière de libertés fondamentales et pourquoi une surveillance algorithmique constante de l’espace public est-elle dangereuse politiquement ?

Pause musicale : Under surveillance de Oppenheimer Analysis.

31’ 27[modifier]

Natacha Triou : Under surveillance de