Surveillance algorithmique : punir l’intention avant l’action
Titre : Surveillance algorithmique : punir l’intention avant l’action
Intervenant·es : Philippe Latombe - Gerald Pandelon - Vanessa Perez
Lieu : Podcast Le numérique pour tous - Sud Radio
Date : 10 novembre 2024
Durée : 22 min 16
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.
Vanessa Perez : Bonjour et bienvenue dans Le numérique pour tous , l’émission dédiée au digital, à l’innovation et à la tech responsable.
Vous le savez, dès que nous levons la tête, il est impossible de passer à côté d’une caméra de vidéosurveillance pour garantir notre sécurité. D’ailleurs, on estime leur nombre environ à 1,5 million sur notre territoire, et ça n’est qu’un début. Mais, avec l’avènement de l’intelligence artificielle, leur utilisation soulève des questions sur la vie privée et nos libertés individuelles dès lors que nos gestes sont désormais anticipés. Jusqu’où chaque geste de notre quotidien peut-il désormais être analysé ? Avec la présence de la data dans tous les objets connectés, peut-on être puni dès lors que l’on ne respecte pas le mode d’emploi ? Et, surtout, quelles sont les conséquences sur nos libertés individuelles. C’est ce que nous tenterons de comprendre avec nos invités.
Le numérique pour tous spécial surveillance algorithmique, c’est parti et c’est sur Sud Radio.
Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.
Vanessa Perez : Pour commencer cette émission, nous avons le plaisir de recevoir Philippe Latombe. Bonjour, Philippe.
Philippe Latombe : Bonjour.
Vanessa Perez : Vous êtes membre du groupe Modem et secrétaire de la commission des lois. Pour commencer, parce qu’on aime commencer par une définition dans Le numérique pour tous , qu’est-ce qu’on appelle la surveillance algorithmique dans notre quotidien ?
Philippe Latombe : C’est un terme juridiquement impropre. Vidéosurveillance algorithmique, c’est de la vidéo-protection avec une surcouche algorithmique. La vidéo-protection, c’est tout ce qui est caméra, ce sont les caméras qui sont sur la voie publique. Quand on parle de vidéosurveillance, c’est dans les domiciles, dans les lieux privés, pour faire de la protection périmétrique ou pour éviter les intrusions.
Donc là, on parle essentiellement de vidéo-protection avec une surcouche algorithmique, c’est-à-dire que ce ne sont pas les caméras qui ont, dans la caméra elle-même, un algorithme d’intelligence artificielle. Le flux vidéo va sur un serveur et c’est le serveur qui a un filtre algorithmique qui permet de repérer des comportements ou des situations anormales.
Vanessa Perez : Très concrètement, si on lève la tête, on va les voir au niveau des feux urbains, même, peut-être, dans des supermarchés. Lesquelles sont équipées ou lesquelles seraient équipées ? Dans les villes, toutes ces petites boules que l’on voit sur nos feux de signalisation, ce sont des caméras qui sont équipées d’une couche algorithmique ?
Philippe Latombe : Non. Ce sont des caméras qui renvoient un flux vidéo dans une salle particulière, avec un serveur qui, lui, a la capacité de faire de l’algorithmie. On n’est pas encore en capacité d’avoir des caméras avec de l’algorithmie directement embarquée dans la caméra. Ça nécessite des réseaux de neurones très compressés – on ne va pas rentrer dans la technique –, c’est une technologie qui émerge, mais qui est très chère, qui est essentiellement portée par nos camarades chinois, parce que eux l’utilisent à fond sur l’espace public en Chine.
Vanessa Perez : Quand on se balade, soit dans l’espace public, soit dans un supermarché ou ailleurs, quels sont les objets qui peuvent nous trahir ou qui peuvent observer nos comportements et mettre cette intelligence ?
Philippe Latombe : Le premier instrument, c’est celui que tout le monde a dans sa poche, qui s’appelle le smartphone. C’est le principal outil, aujourd’hui, de localisation, de récupération de données, de traçabilité de comportements anormaux. C’est aussi la première chose que les forces de l’ordre essaient de récupérer lors d’un crime ou d’un délit grave, parce qu’il y a des traces numériques. Si vous en voulez une autre, qui est celle de tout le monde, tous les jours, c’est la voiture. Dans la voiture, le GPS, tout le système embarqué de la voiture laisse des traces partout et à tout moment.
On fait une fixation sur la vidéosurveillance algorithmique, qui n’est pas le bon terme, encore une fois, mais il y a des choses qui sont déjà dans notre quotidien, qui nous fliquent beaucoup plus que la vidéosurveillance algorithmique, le téléphone et la voiture. Imaginez le GPS, il vous dit exactement par où vous êtes passé à n’importe quel moment, c’est une traçabilité. Et je parle même pas des systèmes qui, ensuite, envoient vers les constructeurs des informations pour savoir comment va la voiture et comment elle a roulé.
Vanessa Perez : Justement, on va rebondir sur le GPS et la voiture. À un moment où les notions de radars sont en train d’être débattues et peut-être même implémentées, à partir du moment où on voit que votre voiture va accélérer et qu’elle dépasse peut-être un 50 à l’heure sur le périphérique, la connaissance de la data dans la voiture fait que vous allez pouvoir être vidéo-verbalisé, une fois de plus.
Philippe Latombe : C’est là où le corpus juridique est très important. Il n’est pas possible de pouvoir sanctionner un automobiliste pour un comportement qu’il a eu, qui n’a pas été vérifié par une métrologie particulière, c’est le radar, en l’occurrence, qui doit faire l’objet de vérifications préalables, de mesures préalables et qui est installé dans des conditions très particulières : on doit avertir plusieurs centaines de mètres avant qu’on rentre dans une zone de radar, sauf cas particuliers de radars mobiles dans des cas précis ; il faut que l’emplacement du radar soit signifié sur la cartographie, c’est pour cela que vous avez des alertes radars sur des applications ou sur les smartphones. Il y a donc des règles très particulières. On ne peut pas, aujourd’hui, aller verbaliser quelqu’un en allant se brancher sur la voiture pour savoir si, il y a trois jours, il a dépassé le 50 à l’heure à tel endroit. Ce n’est pas possible.
Vanessa Perez : Là, on parle de la mobilité, mais on a aussi vu récemment des applications, dans les supermarchés, qui modélisent le geste du voleur après avoir analysé des milliers et des milliers de gestes. Elle les donne à une intelligence artificielle qui est capable de détecter, justement, le potentiel geste de vol de quelqu’un, un petit larcin dans un hypermarché. Là est-on hors-la-loi ou est-ce quelque chose qui va se généraliser ?
Philippe Latombe : On est aujourd’hui hors-la-loi. Ça pourrait éventuellement se généraliser s’il y avait une décision juridique légale, avec une mise en place d’une loi qui devrait passer la censure du Conseil constitutionnel, ça serait quand même très compliqué dans le cas qui nous occupe. L’IA Act va aussi bloquer, donc on aura un problème de conventionnalité, de conformité au règlement et au corpus juridique européen. Et, en plus, technologiquement, ça ne marche pas très bien. Les essais qui ont été faits par quelques enseignes de supermarchés pour essayer d’ouvrir des supermarchés sans personne 24 heures sur 24, 7 jours sur 7, ne marchent pas très bien parce qu’on se rend compte qu’il y a beaucoup de faux positifs : des gens qui prennent un objet, qui le mettent dans le panier, mais qui le reposent dans un autre rayon. En fait, il faut avoir la totalité de la traçabilité de l’action : je prends l’objet, j’identifie l’objet, je vois où il est mis ; s’il est ressorti, il faut que je le retrace, donc, c’est un peu compliqué. La meilleure des solutions et la moins chère pour les supermarchés, à l’heure actuelle, c’est de mettre des petites puces RFID sur les produits : quand on sort et qu’on a volé, ça sonne.
Vanessa Perez : Exactement.
On sait que pendant les Jeux olympiques, on a effectivement équipé les principaux sites de nombreux dispositifs. Est-ce que c’était juste pour assurer une sécurité pendant cette actualité, ou alors, en fait, y avait-il une anticipation d’une généralisation d’un système de surveillance beaucoup plus critique par l’État ?
Philippe Latombe : On m’a beaucoup reproché ce texte, parce que j’ai beaucoup travaillé sur le texte des JO. On avait beaucoup travaillé avec le Conseil constitutionnel, avec le Conseil d’État, sur les ensembles des mesures de protection qu’il devait y avoir.
D’abord, c’est un texte expérimental, c’est-à-dire que c’est une expérimentation qui se termine en mars 2025, avec un bilan obligatoire avant le 31 décembre. Une mission parlementaire qui été lancée. C’est Éric Martineau, pour le groupe Modem, qui va la conduire avec un membre du groupe GDR, donc des communistes. Il y a le rapport du Comité d’éthique de Paris qui va, lui aussi, donner un avis, et il y aura évidemment la CNIL qui va aussi donner un avis. À partir de là, on pourra ouvrir une phase de réflexion pour voir si c’est efficace ou pas efficace, et, si c’est efficace, est-ce qu’il faut le généraliser ou pas et dans quels cas de figure on le généralise. Ça passera forcément par la loi. On en a rediscuté avec le Conseil constitutionnel qui avait validé une expérimentation, mais si on doit généraliser, ce sera encore plus strict sur les règles d’encadrement. Les règles d’encadrement sont assez simples : il n’y a pas de biométrie, contrairement à ce que tout le monde pense, aucune empreinte de biométrie n’est prise par les caméras. Elles ont beaucoup servi pendant les JO sur des comportements anormaux de type mouvement de foule, parce que là ça marche très bien, comptabilisation de la densité d’une foule, parce qu’on sait qu’à partir d’un certain nombre de personnes au mètre carré, s’il se passe n’importe quel petit événement, ça peut provoquer des catastrophes, ça a été très bien documenté et ça marche bien. Ça marche pour voir s’il y a des gens qui courent après d’autres personnes, et là on est plutôt dans le cas d’une personne qui fuit un danger et, dans ce cas-là, on peut l’identifier et intervenir, là encore, sans biométrie. Ça ne marche pas très bien pour tous les gestes qu’on pensait être les gestes dangereux de terroriste, c’est-à-dire passer la main sous une veste pour sortir une arme, ça ne marche pas, il y a trop de faux positifs : les gens mettent sous leur veste pour chercher leur téléphone portable, pour aller chercher n’importe quoi, et ça donne des faux positifs, donc ce n’est pas utile. Et sur les colis abandonnés, les bagages abandonnés, on arrive à identifier qu’il y a un colis abandonné, on a du mal à tracer le lien avec une personne qui l’aurait oublié.
Vanessa Perez : Il y a donc encore un peu de travail.
Philippe Latombe : Il y a encore du boulot.
Vanessa Perez : Philippe, une célèbre universitaire américaine, qui est un peu la prophète du numérique, qui s’appelle Shoshana Zuboff, nous décrit un futur où on va être espionné quel que soit l’endroit. Est – ce qu’il y a encore des zones où on peut être complètement anonyme dans cette société ? Ou, pour l’instant, ce n’est pas possible et peut-être qu’un jour on va y réfléchir, on fera machine arrière ?
Philippe Latombe : Là encore, je pense que la principale source de non-anonymat, c’est le smartphone, cet outil que vous avez dans la poche, que tout le monde a apprivoisé, dont personne ne pourrait se passer, ou quasiment, maintenant, c’est celui-là qui est, aujourd’hui, la source d’absence d’anonymat principal. Pour le reste, la vidéo-protection sur la voie publique, qu’il y ait une surcouche algorithmique ou qu’il n’y en ait pas, les forces de l’ordre – sauf à ce que vous soyez hyper connu, que vous soyez une star – qui regardent les écrans savent pas qui vous êtes quand vous passez dans la rue.
Vanessa Perez : Mais on pourrait le faire avec la reconnaissance biométrique. Maintenant, on a quand même votre visage et si on bascule dans un État totalitaire, comme en Chine, on peut faire une reconnaissance de l’individu et de son identité.
Philippe Latombe : Technologiquement, c’est parfaitement faisable et les Chinois le font très bien. Nous avons quand même des protections très fortes en France et en Europe. En France, c’est la Constitution, les décisions du Conseil constitutionnel sont claires sur le sujet, ça n’est pas possible, et la protection par l’IA Act qui interdit expressément la surveillance généralisée d’une population à l’aide de ces outils. Et puis, il y aura très certainement, dans les semaines/mois qui viennent, à l’occasion des différents sommets sur l’IA, des sortes de pactes multilatéraux d’utilisation éthique de l’IA, notamment pour les pays démocratiques, le refus d’utilisation de la surveillance généralisée de la population. Je pense que c’est d’ailleurs un marqueur assez fort que nous aurons quand nous accueillerons le sommet sur l’IA en France en début d’année 2025.
Vanessa Perez : Si on fait un peu de science-fiction, Philippe, on sait qu’aujourd’hui l’IA peut détecter vos émotions et anticiper, peut être, une réponse qui est adaptée à votre colère ou à votre bienveillance ; on peut monétiser vos données de sommeil, donc on peut tout savoir sur vous. Le jour où on agrège tout ça, une fois de plus, la liberté part en vrille. Néanmoins, tout part du téléphone portable, comme vous le dites.
Philippe Latombe : On est parfaitement d’accord. C’est pour cela que l’ensemble de ces données doit être considéré comme des données sensibles. Elles doivent faire l’objet de protections particulières, c’est le cas avec le RGPD. Il va falloir qu’on renforce le RGPD. Il va surtout falloir qu’on fasse converger le RGPD et l’IA Act. Aujourd’hui, RGPD et IA Act ne se fondent pas l’un dans l’autre, il y a des zones de frottement qu’il va falloir pouvoir régler. Je pense qu’on va aller vers un RGPD 2.0 qui sera un RGPD compatible avec l’IA Act. De toute façon, nous allons en avoir besoin parce que, effectivement, les algorithmes d’IA ont besoin de beaucoup de données, de données très précises et très bien calibrées, pour pouvoir fonctionner correctement. Et, aujourd’hui, on a besoin d’IA. On a besoin d’IA sur les données de santé pour faire du dépistage, pour permettre d’accélérer un certain nombre de processus médicaux et, si on n’a pas ces données, si on ne nourrit pas les algorithmes, on ne les aura pas, on en a besoin, mais il ne faut pas non plus que ces données partent n’importe où. D’où l’obligation, la nécessité de sécuriser les clouds, d’avoir une réglementation sur les clouds très protectrice, notamment pour les données de santé.
Vanessa Perez : Si on n’a pas toutes ces réglementations, on peut facilement basculer dans un État avec un score social comme on a en Chine, c’est-à-dire que si vous ne vous êtes pas bien comporté, vous avez brûlé trois feux rouges et vous n’avez pas honoré vos dettes, vous êtes mal noté ?
Philippe Latombe : Oui, c’est, c’est technologiquement possible, c’est là tout l’intérêt du législateur, d’un certain nombre d’associations et de professionnels du droit, pour être sûr que les garde-fous sont bien présents et bien respectés. On peut toujours faire la politique du pire. Il faut aussi voir que l’IA est une révolution industrielle qui va pouvoir nous aider sur beaucoup de sujets. Je reviens sur la santé : sans IA, vu la démographie médicale que nous avons, nous allons avoir des problèmes de santé publique. Il va absolument nous falloir de l’IA pour faire de la prévention, pour faire du dépistage, pour faire un certain nombre de prédictions de risques de maladie ce qui fait qu’on va pouvoir spécifier des tests, du dépistage sur un certain nombre de maladies, parce qu’on sait qu’elles sont dans la famille depuis relativement longtemps, qu’on a documenté que ça pourrait arriver, un cas sur cinq, etc. On en aura besoin parce qu’on n’aura pas suffisamment de médecins et de professionnels de santé pour suivre la population générale.
Vanessa Perez : Merci, Philippe Latombe. Je rappelle que vous êtes membre du groupe Modem et membre du collège de la CNIL.
Restez avec nous. On marque une courte pause avant de comprendre comment le droit nous protège, ou pas du tout, des dérives de l’intelligence artificielle.
Le numérique pour tous , spécial surveillance algorithmique. Ça continue dans quelques instants et c’est sur Sud Radio.
Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.
13’28
Vanessa Perez : Pour continuer