JO 2024 : Souriez, les algorithmes vont vous filmer
Titre : JO 2024 : Souriez, les algorithmes vont vous filmer
Intervenant·e·s : Noémie Levain
Lieu : Émission – Blast le souffle de l’info
Date : 4 mai 2023
Durée : 11 min 12
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Diverses voix off : Assurer la sécurité des Jeux Olympiques de Paris 2024, un enjeu majeur qui fait débat en France.
Des caméras dotées d’une intelligence artificielle capable de détecter les mouvements de foule, des comportements suspects et de les signaler.
Noémie Levain : C’est le fait de pouvoir repérer et suivre des personnes dans la rue en fonction de leurs attributs physiques.
Loïc Hervé : Il faut, encore une fois peser lourdement les conséquences que ça peut avoir sur notre vie quotidienne et sur l’exercice de nos libertés publiques.
Voix off : Pourtant, certaines associations y voient les prémices d’une surveillance généralisée, avec reconnaissance faciale comme cela se pratique par exemple en Chine.
Noémie Levain : Nous dénonçons le basculement vers un État de plus en plus sécuritaire et qui a de plus en plus de dispositifs de surveillance.
Gérald Darmanin : Il faut imaginer qu’à situation exceptionnelle, moyens exceptionnelles.
Noémie Levain : Je m’appelle Noémie Levain, je travaille à La Quadrature du Net[1] qui est une association qui se bat pour les libertés dans l’espace numérique, notamment contre la surveillance dans l’espace public.
Le Parlement a adopté très récemment la loi sur les Jeux Olympiques 2024[2] qui vont avoir lieu à Paris, sauf que cette loi ne traite pas vraiment des Jeux olympiques. Elle est notamment utilisée pour légaliser ce que nous appelons la vidéosurveillance algorithmique ou automatisée, une technologie de surveillance de masse qui existait en France depuis pas mal d’années et qui attendait un texte pour la rendre légale. Les Jeux olympiques sont affichés comme le moment où des expérimentations auraient lieu pour mettre en œuvre cette vidéosurveillance algorithmique. Sauf que ça pose énormément de problèmes sur l’arrivée de cette technologie en France et, surtout, sur le cadre de cette loi qui n’est absolument pas limitée aux Jeux olympiques. Mais ça c’est pas très étonnant.
Avant de parler d'expérimentation, je vais peut-être parler de ce qu’est la vidéosurveillance algorithmique. C’est une technologie qui vise à mettre une couche logicielle, un algorithme, sur les caméras de vidéosurveillance qui existent déjà dans l’espace public pour repérer des situations qui auraient été définies comme anormales.
Voix off : À Nice par exemple, un logiciel de reconnaissance faciale sur la voie publique a été testé pendant le carnaval. L’objectif étant de rechercher des personnes disparues ou suspectes. Mais jusqu’où aller ? Certaines expérimentations sont loin de faire l’unanimité.
Noémie Levain : Concrètement, ça génère des alertes pour les personnes qui regardent les écrans quand il y a des situations qu’on a appris à l’algorithme à reconnaître. Évidemment, une situation suspecte, un comportement anormal, ça n’existe pas ; c’est la police qui définit ce qui est anormal ou suspect selon ses propres préjugés, selon ses propres stéréotypes et selon ses propres objectifs politiques. Par exemple, pour une entreprise française qui propose cette technologie, qui s’appelle Evitech, la liste des comportements suspects c’est : des arrêts fréquents de quelqu’un ; quelqu’un qui marche à contresens ; une vitesse insuffisante ou excessive ; des silhouettes accroupies ou rampantes ; un temps de présence de la même silhouette dans la zone qui est trop long ; un arrêt près ou dans une zone sensible pendant plus d’un certain temps ; un groupe ou la taille du groupement ; un objet abandonné ou déposé ; un tag ; un objet retiré ou volé ; ou des combinaisons de conditions, d’autres observations ; etc. Par cette liste, ce que je veux montrer c’est que ce sont des comportements très classiques, mais la police décide qu’il faut regarder quelqu’un qui court, quelqu’un qui est statique parce que c’est l’idée que si on ne marche pas d’un point A à un point B, si on n'est pas juste un fluide dans la ville, c’est bizarre, il faut qu’il y ait une alerte, il faut qu’il y ait une notification.
C’est pour cela que nous dénonçons cette technologie comme un outil de contrôle social, un outil de normalisation de nos comportements. On va inscrire dans le code, on va inscrire dans l’algorithme ces mêmes stéréotypes. Et, sous couvert de l’utilisation d’un algorithme, sous couvert d’une apparente neutralité qui n’en est pas une parce qu’aucune technologie n’est neutre, l’institution policière et l’État vont se défausser en disant : « c’est l’algorithme, c’est pas moi ». Et ça donne à nouveau à la police une capacité de surveillance bien plus grande parce qu’en plus de la surveillance il y a l’analyse qui est automatisée et il y a des choix politiques qui sont renforcés à travers l’utilisation de ces algorithmes.
C’est aussi la question de l’anonymat. Par le contrôle de « qui fait quoi, où ? », en tout cas contrôler, pouvoir détecter certains comportements, il y a la question de pouvoir être qui on veut dans l’espace public.
Il y a une autre application de la surveillance algorithmique qui est développée par ces mêmes logiciels, qui n’est pas expressément visée par la loi sur les Jeux Olympiques, mais qui est l’étape d’après, c’est le fait de pouvoir repérer et suivre des personnes dans la rue en fonction de leurs attributs physiques. Et ça, par exemple la mairie de Nice qui a acheté un logiciel de vidéosurveillance algorithmique à une société qui s’appelle Avigilon, propose, en tout cas a cette capacité de suivre les personnes à travers leurs attributs biométriques. Par exemple ça permettrait, dans la rue, de me retrouver à partir de ma chemise verte et de me repérer sur tous les écrans.
Et on a l’épouvantail de la reconnaissance faciale qui est hyper dangereux, ce qui est une technologie très intrusive mais pour nous la VSA (ndlt, vidéosurveillance algorithmique) c’est tout aussi dangereux. Il n’y a pas que le visage qui permet de nous repérer, tous nos attributs physiques et biométriques font partie de notre identité. Et donc à partir du moment où on donne la capacité de nous identifier, de nous retrouver à partir de notre corps, il y a la question de l’anonymat.
Par exemple, en Iran cette technologie est utilisée pour détecter les femmes qui ne portent pas le voile. Donc cet article 7 (ndlt, du projet de loi JOP 2024) c’est le premier pas dans la porte pour légaliser ces technologies sous couvert d’expérimentations qui ne sont pas vraiment des expérimentations et qui légalisent pour la première fois en France et en Europe, la France est le premier pays à adopté une telle loi et au niveau de l’Union européenne (nldt, la France) pousse pour le plus de textes sécuritaires et de surveillance. Il y a un règlement sur l’intelligence artificielle qui est en train d’être discuté au niveau européen qui propose d’interdire un certain nombre de technologies, notamment la reconnaissance faciale en temps réel, notamment la catégorisation biométrique qui correspond à la vidéosurveillance algorithmique. Et la France est le pays qui se bat pour qu’il y ait le moins interdictions possibles. Il faut regarder la France vis-à-vis de ses voisins, la France vis-à-vis de son histoire aussi, vis-à-vis de ses propres institutions qui a une police très centralisée, qui a un nombre de fichiers qui explose, qui a un contrôle dans la manière dont des photos peuvent être collectées et mises sauvagement dans des fichiers, c’est au regard de ce prisme là qu’il faut s’inquiéter. Et oui, nous dénonçons le basculement vers un État de plus en plus sécuritaire et qui a de plus en plus de dispositifs de surveillance et la vidéosurveillance algorithmique en fait partie. Et l’étape d’après ça va être le fait de pouvoir suivre les personnes dans la rue selon leurs attributs biométriques dont je parlais, il y a aussi des propositions pour mettre des micros dans les villes, comme Saint-Étienne a essayé de le faire et aujourd’hui, c’est Orléans qui veut le faire. Il y a déjà la suite où des députés proposent la reconnaissance faciale en temps réel à expérimenter. Des sénateurs aussi proposent une loi. L’étape d’après est déjà là alors même que la loi sur les Jeux Olympiques est à peine adoptée. Et aujourd’hui il n’ y a aucune démonstration, preuve tangible ou concrète de comment ça fonctionne et comment ça pourrait potentiellement aider la police. C’est pour ça que je dis qu’on est sur du discours parce qu’on a aucune démonstration. Et dans le discours, on retrouve surtout celui des entreprises parce qu’en France il y a énormément d’entreprises qui vendent ces logiciels, qui les conçoivent, donc nous avons aussi observer la manière avec laquelle elles ont fait pression, la manière avec laquelle elles essaient de peser, de montrer que le marché de cette technologie doit avoir un cadre réglementaire et nous avons retrouvé les mêmes éléments de langage dans la bouche du gouvernement et des entreprises.
Ce lobbyisme, nous ne l’inventons pas, on le voit, on voit le discours marketing de ces entreprises, on voit les salons où ces entreprises vont pour vendre leur logiciel aux gendarmes et à la police.
Par exemple, l’année dernière la CNIL (ndlt, Commission Nationale Informatique et Libertés), l’autorité de protection des données personnelles, avait lancé une consultation sur le sujet et toutes les entreprises ont répondu en disant : « oui, oui, il faut une loi, oui le cadre actuel est trop restrictif ». Nous avons obtenu ces réponses que nous avons analysées et c’est énormément de discours, d’affichage pour qu’il y ait une loi, pour les intérêts économiques de la France avec, à nouveau, aucune preuve concrète que ça fonctionne mais en disant que ça va améliorer le travail des policiers etc. Mais on est dans du discours, dans la croyance que la technologie c’est de la sécurité et c’est une croyance qui est très forte aujourd’hui en France, même sur la vidéosurveillance classique et que nous combattons mais qui est difficile parfois à faire reculer. Et quand nous essayons de poser ce débat là, on nous traite d’idéalistes ou de laxistes ou que sais-je. Là on peut se poser la question : c’est quoi nos repères politiques ? Et c’est là où va le basculement, quand il n’y a aucune remise en question (ndlt, sur les questionnements suivants) : c’est quoi donner du pouvoir à la police ? C’est quoi donner des outils de surveillance à la police ?
Le Conseil constitutionnel a été saisi par le groupe de la France insoumise et des écologistes (ndlt, Europe Écologie Les Verts) le 17 avril. Il a un mois pour se positionner.
Nous avons aussi envoyé nos observations avec d’autres associations, notamment la Ligue des Droits de l’Homme, le Syndicats des avocats de France, le Syndicat de la magistrature pour dire ce que nous pensions de cet article 7 (ndlt, du projet de loi contesté) notamment. Il y a aussi des associations internationales qui ont envoyé leurs observations.
Nous avons essayé de démontrer à quel point cette technologie en tant que telle était disproportionnée, était attentatoire aux libertés publiques parce que dans son fonctionnement elle était problématique et dans le fait que les évènements à détecter n’étaient jamais définis et pouvaient être laissés à la libre discrétion de l’État.
On verra bien mais on peut penser qu’il validera cette loi qui touche à des sujets de sécurité et donc des sujets très politiques. Et si la loi est adoptée (CORRECTION (inexactitude juridique) ndlt : est déclarée constitutionnelle) dans la foulée, dès cet été on sait qu’il y aura des expérimentations de cette vidéosurveillance algorithmique parce que c’est pas du tout lié qu’aux Jeux olympiques. Ça va être pendant les festivals, les marathons, les marchés de Noël etc. Il va y avoir des expérimentations, on va récupérer les images des caméras pour alimenter ces logiciels. Donc nous nous mobiliserons évidemment pour les visibiliser, pour les dénoncer et pour faire apparaître ce sujet comme prioritaire et le mettre à la vue de tous pour combattre ces technologies dans les années à venir.