Quand la police prédictive entre dans nos vie - Félix Tréguer

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Moutonery Report : quand la police prédictive entre dans nos vie

Intervenant·e·s : Félix Tréguer - Andy Kwok - Stéphane Favereaux - Estelle

Lieu : Le Mouton Numérique

Date : mai 2019

Durée : 54 min 50

Écouter le podcast

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Description

Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.
Il nous a rejoints pour ce premier podcast qui interroge un sujet essentiel pour l’organisation de nos sociétés technologiques : la police prédictive et le pré-crime.
Qu’est-ce que les algorithmes prédictifs ont comme impacts sur la société ?
Va-t-on vers L’Empire du Moindre mal avec une totale déresponsabilisation à tous les niveaux de tous les humains ?
Est-ce que l’on prévient le crime en le prédisant ou est-ce que l’on est amené à la provoquer pour confirmer la prédiction de l’algorithme ?
Pourquoi la police prédictive est-elle réellement en place (fonte des effectifs des policiers, désengorger les tribunaux, solutionnisme technologique plutôt qu’investissement publics, réduction de la pauvreté, etc.)
Autant de questions (parmi d’autres) auxquelles Félix Tréguer apporte son éclairage.

Transcription

Estelle : Bonjour. Bonsoir à tous. Bienvenue sur Le Bêlement, le podcast du Mouton numérique. Aujourd’hui je suis avec Andy.

Andy Kwok : Hello.

Estelle : Stéphane, qui ne dit pas bonjour.

Stéphane Favereaux : Si, si, je suis là, bonjour,

Estelle : Et notre invité Félix Tréguer. Bonsoir Félix ou bonjour Félix.

Félix Tréguer : Bonsoir. Bonjour.

Estelle : Aujourd’hui nous allons parler « Surveillance et police prédictive », donc nous avons fait appel à Félix.
Tout d’abord Félix, si tu veux te présenter un petit peu. Aujourd’hui tu es donc chercheur post-doctorant. Est-ce que tu peux nous parler un peu de tes sujets de prédilection, tes sujets de recherche ?

Félix Tréguer : Oui. Je travaille principalement sur la censure et la surveillance d’Internet et, de plus en plus, la surveillance de l’espace public urbain au travers des technologies numériques dernier cri, donc pas mal de choses dont on parlera ce soir, même si ce sont de sujets de recherche encore émergents. J’ai beaucoup travaillé sur la surveillance d’Internet par les services de renseignement, l’histoire des débats sur la censure et la surveillance d’Internet de manière plus générale.

Estelle : OK. Qu’est-ce qui t’a amené aujourd’hui à faire le lien entre surveillance et tu disais les nouvelles formes de Smart City, Safe City comme tu l’appelles.

Félix Tréguer : Avant d’être chercheur j’ai été salarié dans une association de défense des droits dans l’environnement numérique qui s’appelle La Quadrature du Net, dans laquelle j’ai travaillé pendant trois ans entre 2009 et 2012 comme juriste. Depuis j’ai continué à y participer bénévolement et c’est vrai que, du coup, nos sujets principaux ont longtemps été la surveillance et la censure d’Internet, donc les nouvelles modalités de régulation de ce qu’on appelle l’espace public médiatique et dans son penchant numérique qu’est Internet. Et en fait, on voit un petit peu des logiques de ce que d’autres ont appelé la gouvernementalité algorithmique, ne plus réguler simplement les communications internet, l’expression, la communication publique numérique mais, de plus en plus, l’espace public urbain dans les villes, dans l’espace physique où se meuvent nos corps.

Estelle : On en entend parler assez souvent depuis même très longtemps, c’est un imaginaire science-fiction qui existe depuis Minority Report, on peut dire, cette notion d’anticiper les actes et potentiellement la criminalité. Tu penses qu’il y a des vraies choses qui sont mises en place aujourd’hui, il y a une genèse de ces projets-là ? Est-ce que tu vois un peu d’où ça vient et vers quoi ça pourrait tendre ?

Félix Tréguer : Je pense que si on faisait l’histoire de ces technologies de police prédictive – c’est de ça dont tu parles – si on faisait son histoire, il faudrait sans doute remonter à, je ne sais pas, ce qu’on appelait les censeurs chez les Romains qui étaient les individus en charge de comptabiliser un petit peu ce qui se passait dans les foyers, les occupations des gens, le nombre de personnes vivant dans chaque foyer, etc., mais ça avait un rôle très important dans la régulation des mœurs dans la Rome antique. On pourrait parler des traités de police générale aux 17e et 18e siècles, où l’État moderne se constitue et va déployer des techniques policières pour construire des savoirs sur la population et mieux la gouverner. Donc ce n’est pas simplement réprimer des infractions au droit commun ou garantir l’ordre public dans une acception étroite, ce sont des choses beaucoup plus larges : on inclut la salubrité, l’éducation et des choses qui ne viennent pas forcément à l’esprit lorsqu’on pense à la police dans son volet répressif. Mais, là encore, on pourrait trouver des sources historiques dans les formes et dans les pratiques de la police prédictive et des technologies de surveillance policière qui se déploient depuis quelques mois et quelques années.
Je crois aussi que, et là encore ça mériterait d’être approfondi, ce sont plus des intuitions que des recherches très arrêtées pour le moment, mais je pense que dans la période coloniale et dans les stratégies de guerre contre-insurrectionnelle menées aux 19e et 20e siècles, là aussi il y a tout un tas de logiques de surveiller une population, détecter des signaux de radicalisation, des signaux faibles, et toutes ces théories au croisement des sciences sociales, comportementales et statistiques qui vont appuyer les dispositifs répressifs, là aussi sont sans doute une racine historique importante pour comprendre l’histoire de ces technologies.
Mais si on revient à une histoire beaucoup récente, ce sont les années 90, les nouvelles techniques et les nouvelles doctrines de management des forces de l’ordre principalement aux États-Unis et le primat mis dans ces doctrines sur le renseignement : on n’est plus simplement dans une police répressive qui va chercher à arrêter les auteurs d’infraction a posteriori, mais dans une démarche proactive d’anticipation où, du coup, ce savoir et le renseignement en amont de l’activité policière pour guider justement l’activité policière, manager les forces de police, devient central. Donc les technologies de police prédictive, en fait, sont une déclinaison, un outillage technologique qui découle de ces doctrines qui sont nées dans les années 90.

Andy Kwok : Je vais juste revenir sur ce que tu as dit, qui est très intéressant, justement qu’il y a une racine historique pour avoir une certaine prédiction. Tu citais les exemples de guérilla juste pour voir si une population peut se rebeller. La police prédictive à l’heure actuelle, c’est vrai qu’on voit ça de façon, je pense surtout que Minority Report a donné vraiment ce ton de dire qu’il y a un côté répressif, mais je me fais un peu l’avocat du diable. Est-ce qu’il y a aussi une façon d’éducation on va dire, justement de contrôle de la société, mais pas forcément répressif ? C’est vrai qu’on voit le côté qui est ultra, de mettre une population dans une boîte, mais est-ce que, au-delà de ça, ce serait possible de dire qu’il y a peut-être aussi un projet sociétal ? Je ne vois pas forcément les choses comme telles.

Estelle : Et qui ne serait pas forcément que dans la prévention du crime, plutôt dans l’éducation des masses et des populations ?

Andy Kwok : C’est ça.

Félix Tréguer : De quelle manière on les éduquerait ?

Andy Kwok : C’est vrai que le contrôle c’est éviter des débordements, mais est-ce que c’est possible de dire si jamais il y a un débordement qui se fait, si jamais il y a une insurrection qui se produit, justement essayer de prévenir ça, par cette forme de police prédictive ? Voilà, je me fais un peu l’avocat du diable.

Estelle : Implanter des écoles par exemple dans les zones qui seraient potentiellement plus à risque ou, je ne sais pas, augmenter le nombre de professeurs dans des situations où on sait qu’il y a de zones scolaires un peu plus… Je ne sais.

Félix Tréguer : Vous ne m’entendrez pas dire que la technologie est neutre parce que c’est un poncif qui, en plus, est faux ; vous le savez bien et vous participez à le déconstruire. Bien évidemment la statistique et les usages de ces systèmes, du système statistique assez classique somme toute pour, par exemple, adapter des politiques éducatives en fonction de ce que l’on parvient à mesurer de la criminalité, oui, pourquoi pas. Je ne sais pas si on en fera un projet de société, mais ça peut, sans doute, aiguiller les politiques publiques.
Après, ce qui se joue dans le déploiement de ces technologies, parce que ce sont des choses encore balbutiantes, notamment des systèmes comme PredPol ou Hunchlab aux États-Unis, qui ne sont pas mal mentionnés dans la presse et ont fait un peu le buzz médiatique ces dernières années, ça reste encore des systèmes relativement limités. Ce sont des cartes de chaleur de la criminalité qui visent un peu à aiguiller les patrouilles de police ; ça a déjà des effets structurants et ça contribue à transformer des méthodes de travail des forces de l’ordre, mais ce ne sont pas encore des choses aussi dystopiques et effrayantes que le crédit social à la chinoise, par exemple, où les moindres interactions sociales sont mesurées, quantifiées et vont conditionner à l’accès à certains droits, à certains services publics, comme c’est donc expérimenté dans plusieurs villes chinoises.
Malgré tout je pense que dans ces technologies de police prédictive qui ont essaimé aux États-Unis, qui, de plus en plus, prolifèrent à travers le monde et notamment en Europe, les pays du Golfe ont fait partie des premiers à déployer sous couvert de programmes de Smart Cities mais dans leur volet sécuritaire des technologiques de type prédictif à des fins policières. Le Royaume-Uni fait également assez fort en la matière depuis quelques années, notamment à Londres au travers des JO de 2016, et on voit ces mêmes programmes arriver en France depuis un peu plus d’un an, avec des expérimentations. Là où je veux en venir, un peu ce processus d’essaimage de ces technologies, c’est que c’est graduel, que c’est souvent à titre expérimental soit sur des technologies relativement ciblées, délimitées, soit c’est un bouquet de technologies donc au-delà des technologies de big data qui vont faire de la prédiction et des recommandations ; il y a aussi des choses de l’ordre de la reconnaissance automatique des flux d’images, donc de la reconnaissance faciale et de la détection des comportements suspects ; il y a la surveillance des réseaux sociaux, qui peuvent faire partie des couteaux suisses qui sont expérimentés dans certaines villes françaises par certaine polices municipales. Et même si on est encore largement dans le discours marketing – si on revient à la question du projet de société – ce discours marketing contribue non seulement à construire nos imaginaires et la manière dont on appréhende ces technologies, la manière dont ces technologies sont ensuite appropriées, utilisées par les forces de police et par les organisations auxquelles elles sont destinées. Et, encore une fois, ces discours qui nous vantent les mérites de la police prédictive pour résoudre catastrophes naturelles et crime organisé ou la délinquance de tous les jours, la petite délinquance de tous les jours, vantent du vent. On est encore dans le discours marketing, certes, mais ça transforme les appareils qui nous gouvernent et notamment les politiques policières.
Je fais partie des gens qui ont eu des discours très emphatiques à l’égard de la technologie et de sa promesse démocratique, notamment Internet. Clairement on est dans un climat ambiant beaucoup plus techno-sceptique, voire techno-critique depuis quelques années, mais je pense qu’on pourrait aussi se rassurer en se disant que c’est à la fois du discours marketing, que, du coup, ces technologies ne feront pas ce qu’on prétend qu’elles font et que, finalement, ce n‘est pas si grave et que la dystopie reste du domaine de la science-fiction.
Encore une fois, je pense que cette imaginaire dystopique qui est vraiment vu, pour le coup, comme une utopie par certains promoteurs de ces projets, transforme notre monde et qu’il y a une vraie vision politique derrière. C’est aussi contre ça qu’il faut se mobiliser et qu’il faut avoir en tête lorsqu’on cherche à analyser les effets politiques et les conséquences de ces technologies.

11’48

Estelle : Justement, ça me fait penser, tu disais qu’à la base tu étais plutôt sur des thématiques liées à la censure d’Internet et à la surveillance sur Internet, comment tu expliques un peu ce déplacement ? On parle de virtualisation, du coup c’est une dé-virtualisation, justement, des pratiques de surveillance qui ont pu être facilitées, je pense, notamment par les réseaux sociaux et l’engouement qu’il y a eu à l’essor d’Internet. Comment tu expliques cette transplantation un peu du virtuel justement dans le réel alors qu’on a tendance un peu à voir et à penser l’inverse ?

Félix Tréguer : Je pense qu’en fait il faut l’analyser dans l’histoire de l’informatique et de l’endroit où l’informatique se fixe et elle s’est généralisée dans des réseaux de communication à partir des années 70/80 et des communications médiatiques. Aujourd’hui, parce que les capacités de calcul augmentent à un rythme très important et parce que le coût du hardware, du matériel physique, est de plus en plus faible, on est en capacité de mettre des capteurs ou des serveurs et des centres de calcul, de généraliser. Donc ce n’est pas surprenant, en fait, de voir ces usages de contrôle social de la machine informatique migrer de l’espace public numérique et internet vers l’espace public urbain où, en fait, on est en capacité de la même manière qu’en fixant quelques sondes, quelques routeurs à des endroits clés du réseau on est en mesure de surveiller toutes les communications, dans les villes c’est un peu la même chose. On est en mesure de construire des infrastructures numériques et de les placer dans l’espace public urbain, ce à quoi sert le projet Smart City.

Estelle : Justement, les Smart Cities c’est un peu la question qui se pose toujours avec cette notion prédictive. Si demain on construit, on est en phase de construction de Smart Cities ou du moins de les imaginer et de les penser, est-ce que, justement, les villes vont être, comment dire, construites en fonction des prédictions ? Ou est-ce que tu vas anticiper la construction d’une ville en fonction de prédictions sans avoir avant la matière et les données, puisque la ville n’aura pas encore existé ? Je ne sais pas si je suis très claire.

Félix Tréguer : Je crois que je vois que ce que tu veux dire. Effectivement, c’est un peu le risque avec le big data et cette machine à prédire qu’est l’informatique moderne, tout est équipé de ces technologies d’intelligence artificielle, d’apprentissage automatique, etc., c’est que quelque part ça crée des corrélations, ça met en évidence des corrélations entre les phénomènes sociaux naturels, etc., qu’on n’arrivait pas forcément à pointer du doigt auparavant avec les outils classiques de la statistique ou des sciences sociales et, en même temps, ça contribue à invisibiliser complètement les causes de ces corrélations et les facteurs explicatifs pour lesquels, pour le coup, je pense que la science sociale restera extrêmement importante y compris dans les dispositifs technocratiques qui nous gouvernent et qui ont quand même un peu besoin de ces capacités à expliquer.
Je dis ça, en fait je crois que je suis un peu démenti par ce qui ressort de certains de ces projets de Safe Cities de Smart Cities sécuritaires qu’on voit poindre en France. C’est très clair, par exemple dans les documents à Nice : la mairie de Nice a conclu en juin 2018 un partenariat avec la société Thalès, donc grand acteur du monde de la sécurité et de la défense.

Estelle : Ils sont à côté de Nice.

Félix Tréguer : Ils sont partout, c’est une multinationale. Thalès est un consortium de 15 entreprises environ avec des startups, des gros groupes, des projets de recherche, des instituts comme l’Inria, l’Institut national de recherche en informatique appliquée, donc ils ont vendu un projet de Safe City, c’est brandé comme ça, à la mairie de Nice, pour faire un peu ce dont je parlais tout à l’heure. Là, pour le coup, c’est une espèce de couteau suisse sécuritaire avec de la reconnaissance faciale, détection des comportements suspects pour ce qui est de la version intelligente de la vidéosurveillance.

Estelle : On va rappeler que récemment, lors du carnaval de Nice en février dernier, justement la reconnaissance faciale a été testée sur des volontaires, apparemment, volontaires avec un couteau sous la gorge peut-être, mais des volontaires, on en parlera peut-être plus tard. Juste pour rappel la ville de Nice a fait ça en février, peut-être qu’il y a des résultats qui sont sortis ? Ou pas encore ?

Félix Tréguer : Pas encore. On cherche justement à savoir puisqu’il va y avoir une étude d’impact faite, on a eu des « on dit » de la part de certaines sources proches du projet à Nice. Les responsables avaient l’air plutôt contents mais ça reste à confirmer. Avec La Quadrature du Net, on est en train de travailler une campagne de recherche participative qui visera à documenter, justement, ces projets en faisant des demandes d’accès aux documents administratifs. Là c’est typiquement le genre de choses qu’on fait d’ores et déjà dans certains contextes et notamment là on est intéressés pour essayer d’avoir les documents qui ressortiront de cette expérimentation, mais bon ! On s’attend déjà à ce que la qualité scientifique de l’évaluation soit relativement faible, je veux dire que Cisco, qui est l’entreprise qui fournit ces solutions de reconnaissance faciale, fait à titre gracieux cette expérimentation, donc pour eux il y a un enjeu industriel très fort.
Il y a encore tout un débat sur l’efficacité de la reconnaissance faciale, sans parler des biais racistes des algorithmes de reconnaissance faciale, mais même sur sa capacité à détecter sur la base d’images glanées dans l’espace public urbain, donc de corps en mouvement – on ne parle de photos d’identité calibrées – à partir de ce contenu vidéo-là très aléatoire savoir si les systèmes de reconnaissance faciale fonctionnent.
Il y a eu au carnaval de Notting Hill à Londres, il y a deux ans je crois, il y avait eu plusieurs faux positifs donc des suspects détectés qui n’étaient pas, en fait, les personnes recherchées, ce qui tendait donc à montrer l’inefficacité de ces systèmes. Moi je crois que vu que les milliards d’euros de recherche et développement qui sont investis dans cette technologie, même si leur efficacité est encore limitée pour le moment, je pense que à terme ce seront des technologies qui fonctionneront pour les usages pour lesquels elles sont prévues. D’ailleurs en Chine il y a déjà des systèmes de paiement qui sont entièrement conçus sur la base de la reconnaissance biométrique et faciale, plus tous les systèmes liés au système de crédit social dont on parlait tout à l’heure qui, là encore, intègrent la reconnaissance faciale dans l’espace urbain et ça a l’air de marcher. Bref ! Du coup moi je m’attends à ce que l’expérimentation soit plutôt positive et si ça ne l’est pas encore le cas, à terme.
Et la deuxième brique, juste pour terminer sur ces couteaux suisses, ces analyses big data, surveillance des réseaux sociaux d’une part pour faire remonter des signaux fables et des tweets qui paraîtraient préparer une insurrection par exemple, ou mouliner tout un tas de données issues de la police municipale, de prestataires de sécurité privés, d’opérateurs de téléphonie mobile pour avoir les cartes de chaleur de la population répartie sur un territoire donné, les statistiques de la délinquance du ministère de l’Intérieur, et on passerait tout ça à la moulinette d’algorithmes pour tirer des prédictions.

Estelle : C’est un peu vertigineux comme prévision.

Andy Kwok : Au-delà de l’efficacité pour l’instant qui est marketing, c’est vrai qu’il y a derrière un enjeu politique qui est assez fort de contrôle de la population. Comment, en fait, les pouvoirs politiques ont évolué avec cette vision du contrôle de la société ? Je pense que le pouvoir politique a toujours eu cette volonté de contrôler la population, mais au-delà de ça comment la démocratie évolue ? Clairement, ma vision des choses c’est que la démocratie régresse. Est-ce que c’est l’outil qui a créé l’opportunité ou ce sont les politiques qui ont vu l’outil, disant « il y a une possibilité et donc on va utiliser ça » et, au final, ça réduit de plus en plus les libertés ?

Félix Tréguer : Je pense que la machine informatique, j’ai réalisé ça, pour le coup, à travers mes recherches parce que j’avais plutôt cette idée, il y a dix ans, en arrivant à La Quadrature du net, que la machine informatique était capable de nous émanciper. Il faut se rappeler, c’est quelque chose qui était souvent dit et redit dans l’histoire d’Internet, ses origines militaires, etc. Ce sont des choses qu’on a écartées un peu du revers de la main, que l’historiographie a permis de nuancer en montrant notamment l’influence de la contre-culture américaine sur la généalogie de l’informatique. Mais si on fait une brève généalogie de l’informatique, c’est assez évident que son destin, son cheminement, l’imaginaire dont elle découle, sont tout entiers liés à la forme bureaucratique à partir du 19e siècle et en particulier aux bureaucraties d’État liées au recensement de la population par exemple au tournant du 19e avec les machines ??? et plus récemment les calculateurs modernes pendant la Seconde guerre mondiale avec l’usage militaire pour faire les calculs en matière de cryptanalyse d’une part avec Alan Turing par exemple. Mais dès 1945 ou 1946, les calculs qui débouchent sur la bombe nucléaire sont aussi réalisés à partir des toutes premières machines informatiques. Donc il y a quand même une proximité très forte, historiquement, entre l’ordinateur et cette bureaucratie en charge du contrôle social. Je pense que du coup, à la fois les imaginaires et les discours construisent la technologie de la même manière que la technologie les informe ; il y a, comme ça, un processus de va-et-vient entre les deux, donc ce n’est pas étonnant que l’informatique nous apparaisse aujourd’hui, en tout cas de plus en plus clairement, comme un instrument de contrôle social.
Quant aux motifs qui sont mis en avant pour défendre ces projets, on voit à la fois l’aspect sécuritaire et de contrôle social que tu soulignais et sur lequel je mets aussi l’accent parce que je pense que c’est clé et avec cette idée qu’on va chercher à gérer la criminalité comme si elle était un phénomène naturel sans jamais s’interroger sur ses ressorts sociaux, économiques, etc., ça c’est assez frappant justement quand on voit les documents administratifs autour de ces projets. On parle du réchauffement climatique et des risques naturels sur le même plan que les risques humains et sociaux.

Estelle : Ça me fait penser à ça en fait. Par exemple l’étude des plaques tectoniques pour, justement, éviter des tremblements de terre ou, au moins, les prévenir pour pouvoir s’en prémunir et là on a l’impression que c’est exactement les même logiques derrière.

Félix Tréguer : Tu fais référence à PredPol dont l’algorithme d’orientation des patrouilles et des cartes de chaleur liées à la criminalité était basé sur un algorithme utilisé pour la prédiction des séismes.

Estelle : J’avais oublié cet aspect-là !

Félix Tréguer : Ça a été sorti par un des chercheurs sismologues qui, du coup, a conçu cet algorithme-là et qui explique toutes les raisons mathématiques pour lesquelles, en fait, utiliser ces techniques de calcul pour prédire un phénomène social tel que la criminalité est une aberration parce que les délinquants s’adaptent.

Estelle : On ne peut pas déplacer un foyer sismique, par contre on peut déplacer un foyer de violence.

Félix Tréguer : Voilà. Exactement ! Déjà il faudrait contester ces projets et leur tendance à naturaliser un phénomène social comme la criminalité. On va avoir une approche gestionnaire, on va chercher à gérer ou supprimer ou ajuster les conséquences d’un phénomène social plutôt que s’interroger sur les causes profondes et les désarmer ; la sécurité, il y a plein de manières. Dans les autres villes concernées en France par ces projets de Safe City, il y a la ville de Marseille où les habitants de Marseille se posent peut-être la question de savoir si on préfère dépenser des millions d’euros dans un gadget big data pour la police prédictive ou si la sécurité des Marseillais ce n’est pas, en fait, la lutte contre l’habitat indigne.
La sécurité est une notion polysémique. Elle est aussi fabriquée par les promoteurs de ces projets.
Tout ça pour dire qu’il y a effectivement l’argument de la sécurité, du contrôle social, qui est mis en avant et je pense qu’un autre argument qui est très efficace et non négligeable dans la prolifération de ces systèmes technologiques dédiés au contrôle des populations c’est l’argument budgétaire et économique. Il y a des enjeux industriels à développer une industrie française capable de vendre à l’international ses solutions de police prédictive et de Safe City et, en plus, le déploiement est justifié au sein de l’administration. Par exemple, ce serait très coûteux de rendre la vidéosurveillance efficace en multipliant le nombre de fonctionnaires dédiés au visionnage des images. Par contre, si on arrive à dépenser quelques dizaines de millions d’euros, ce qui est déjà beaucoup d’argent, pour le faire de manière automatique, eh bien on estime que dans un contexte austéritaire, c’est plutôt une bonne politique d’un point de vue purement budgétaire. Donc ces aspects comptables sont assez importants.
Le fichier TES par exemple un grand fichier biométrique créé fin 2016 en France.

Estelle : D’ailleurs il y a eu beaucoup de bruit, maintenant on n’en parle plus du tout.

Félix Tréguer : À la Quadrature on a fait un recours contre et on est en train d’essayer de le prolonger face aux instances européennes parce que, malheureusement, le Conseil d’État ne l’a pas entendu de cette oreille. C’est un fichier qui centralise l’empreinte faciale, justement donc du visage, ce qui, en termes de reconnaissance faciale, va permettre de faire des choses à la fois, j’allais dire fantastiques de manière ironique évidemment, et le fichier TES était justifié à l’époque par la nécessité de supprimer 1300 équivalents temps plein en préfectures. De la même manière la loi renseignement en 2015, ce sont des choses qui étaient mises en avant. Le primat donné à la technologie, parce qu’on pense que c’est plus fiable que l’humain d’une part mais ça ne fait pas plaisir à tout le monde, même au ministère de l’Intérieur quand on lui a dit donc on ne le dit pas trop fort, mais il y a aussi cette idée qu’on arrivera à faire plus avec moins d’argent.

Estelle : Dans une logique productiviste assez classique finalement qu’on retrouve aussi parmi les géants du numérique ou sur autre chose.
Justement tu parlais tout à l’heure de la reconnaissance faciale, etc., ça nous mène un peu à un deuxième point fort qui sort quand on parle surveillance, contrôle des corps, et notamment tu dois sans doute travailler là-dessus, sur ces projets de Safe Cities, tu disais que la technologie n’est pas neutre et justement les algorithmes sont créés par l’homme, homme qui a lui-même des biais humains tout à fait classiques qu’on ne peut pas reprocher, mais on se pose un peu cette question de qui va décider de quel biais entre guillemets humain sera le mieux, on ne peut pas dire ça, mais il y aura toujours des biais, en tout cas pour l’instant il y a des biais. C’est une vraie question : est-ce qu’un jour on va arriver à une technologie complètement neutre, supprimée de tout biais humain raciste ou autre, en fonction du sexe ou de je ne sais quoi ? La question algorithmique derrière ça, vous avez dû l’étudier. Il y a quoi comme biais aujourd’hui comme biais qui ressortent ?

Andy Kwok : Je vais juste rajouter : en termes de recherche actuellement, je pense que les gens qui produisent ces algorithmes doivent être, normalement, j’espère, conscients de ces biais. Est-ce qu’il y a parfois des gens, par curiosité aussi, qui se disent « il faut qu’on essaye d’éliminer ces biais » ?

28’ 01

Estelle : Là, il y avait plusieurs questions en une.