« Quand la police prédictive entre dans nos vie - Félix Tréguer » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Aucun résumé des modifications
Ligne 33 : Ligne 33 :


==Transcription==
==Transcription==
<b>Estelle : </b>Bonjour. Bonsoir à tous. Bienvenue sur Le Bêlement, le podcast du Mouton numérique. Aujourd’hui je suis avec Andy.
<b>Andy Kwok : </b>Hello.
<b>Estelle : </b>Stéphane, qui ne dit pas bonjour.
<b>Stéphane Favereaux : </b>Si, si, je suis là, bonjour,
<b>Estelle : </b>Et notre invité Félix Tréguer. Bonsoir Félix ou bonjour Félix.
<b>Félix Tréguer : </b>Bonsoir. Bonjour.
<b>Estelle : </b>Aujourd’hui nous allons parler « Surveillance et police prédictive », donc nous avons fait appel à Félix.<br/>
Tout d’abord Félix, si tu veux te présenter un petit peu. Aujourd’hui tu es donc chercheur post-doctorant. Est-ce que tu peux nous parler un peu de tes sujets de prédilection, tes sujets de recherche ?
<b>Félix Tréguer : </b>Oui. Je travaille principalement sur la censure et la surveillance d’Internet et, de plus en plus, la surveillance de l’espace public urbain au travers des technologies numériques dernier cri, donc pas mal de choses dont on parlera ce soir, même si ce sont de sujets de recherche encore émergents. J’ai beaucoup travaillé sur la surveillance d’Internet par les services de renseignement, l’histoire des débats sur la censure et la surveillance d’Internet de manière plus générale.
<b>Estelle : </b>OK. Qu’est-ce qui t’a amené aujourd’hui à faire le lien entre surveillance et tu disais les nouvelles formes de <em>Smart City</em>, <em>Safe City</em> comme tu l’appelles.
<b>Félix Tréguer : </b>Avant d’être chercheur j’ai été salarié dans une association de défense des droits dans l’environnement numérique qui s’appelle La Quadrature du Net, dans laquelle j’ai travaillé pendant trois ans entre 2009 et 2012 comme juriste. Depuis j’ai continué à y participer bénévolement et c’est vrai que, du coup, nos sujets principaux ont longtemps été la surveillance et la censure d’Internet, donc les nouvelles modalités de régulation de ce qu’on appelle l’espace public médiatique et dans son penchant numérique qu’est Internet. Et en fait, on voit un petit peu des logiques de ce que d’autres ont appelé la gouvernementalité algorithmique, ne plus réguler simplement les communications internet, l’expression, la communication publique numérique mais, de plus en plus, l’espace public urbain dans les villes, dans l’espace physique où se meuvent nos corps.
<b>Estelle : </b>On en entend parler assez souvent depuis même très longtemps, c’est un imaginaire science-fiction qui existe depuis <em>Minority Report</em>, on peut dire, cette notion d’anticiper les actes et potentiellement la criminalité. Tu penses qu’il y a des vraies choses qui sont mises en place aujourd’hui, il y a une genèse de ces projets-là ? Est-ce que tu vois un peu d’où ça vient et vers quoi ça pourrait tendre ?
<b>Félix Tréguer : </b>Je pense que si on faisait l’histoire de ces technologies de police prédictive – c’est de ça dont tu parles – si on faisait son histoire, il faudrait sans doute remonter à, je ne sais pas, ce qu’on appelait les censeurs chez les Romains qui étaient les individus en charge de comptabiliser un petit peu ce qui se passait dans les foyers, les occupations des gens, le nombre de personnes vivant dans chaque foyer, etc., mais ça avait un rôle très important dans la régulation des mœurs dans la Rome antique. On pourrait parler des traités de police générale aux 17e et 18e siècles, où l’État moderne se constitue et va déployer des techniques policières pour construire des savoirs sur la population et mieux la gouverner. Donc ce n’est pas simplement réprimer des infractions au droit commun ou garantir l’ordre public dans une acception étroite, ce sont des choses beaucoup plus larges : on inclut la salubrité, l’éducation et des choses qui ne viennent pas forcément à l’esprit lorsqu’on pense à la police dans son volet répressif. Mais, là encore, on pourrait trouver des sources historiques dans les formes et dans les pratiques de la police prédictive et des technologies de surveillance policière qui se déploient depuis quelques mois et quelques années.<br/>
Je crois aussi que, et là encore ça mériterait d’être approfondi, ce sont plus des intuitions que des recherches très arrêtées pour le moment, mais je pense que dans la période coloniale et dans les stratégies de guerre contre-insurrectionnelle menées aux 19e et 20e siècles, là aussi il y a tout un tas de logiques de surveiller une population, détecter des signaux de radicalisation, des signaux faibles, et toutes ces théories au croisement des sciences sociales, comportementales et statistiques qui vont appuyer les dispositifs répressifs, là aussi sont sans doute une racine historique importante pour comprendre l’histoire de ces technologies.<br/>
Mais si on revient à une histoire beaucoup récente, ce sont les années 90, les nouvelles techniques et les nouvelles doctrines de <em>management</em> des forces de l’ordre principalement aux États-Unis et le primat mis dans ces doctrines sur le renseignement : on n’est plus simplement dans une police répressive qui va chercher à arrêter les auteurs d’infraction <em>a posteriori</em>, mais dans une démarche proactive d’anticipation où, du coup, ce savoir et le renseignement en amont de l’activité policière pour guider justement l’activité policière, <em>manager</em> les forces de police, devient central. Donc les technologies de police prédictive, en fait, sont une déclinaison, un outillage technologique qui découle de ces doctrines qui sont nées dans les années 90.
<b>Andy Kwok : </b>Je vais juste revenir sur ce que tu as dit, qui est très intéressant, justement qu’il y a une racine historique pour avoir une certaine prédiction. Tu citais les exemples de guérilla juste pour voir si une population peut se rebeller. La police prédictive à l’heure actuelle, c’est vrai qu’on voit ça de façon, je pense surtout que <em>Minority Report</em> a donné vraiment ce ton de dire qu’il y a un côté répressif, mais je me fais un peu l’avocat du diable. Est-ce qu’il y a aussi une façon d’éducation on va dire, justement de contrôle de la société, mais pas forcément répressif ? C’est vrai qu’on voit le côté qui est ultra, de mettre une population dans une boîte, mais est-ce que, au-delà de ça, ce serait possible de dire qu’il y a peut-être aussi un projet sociétal ? Je ne vois pas forcément les choses comme telles.
<b>Estelle : </b>Et qui ne serait pas forcément que dans la prévention du crime, plutôt dans l’éducation des masses et des populations ?
<b>Andy Kwok : </b>C’est ça.
<b>Félix Tréguer : </b>De quelle manière on les éduquerait ?
<b>Andy Kwok : </b>C’est vrai que le contrôle c’est éviter des débordements, mais est-ce que c’est possible de dire si jamais il y a un débordement qui se fait, si jamais il y a une insurrection qui se produit, justement essayer de prévenir ça, par cette forme de police prédictive ? Voilà, je me fais un peu l’avocat du diable.
<b>Estelle : </b>Implanter des écoles par exemple dans les zones qui seraient potentiellement plus à risque ou, je ne sais pas, augmenter le nombre de professeurs dans des situations où on sait qu’il y a de zones scolaires un peu plus… Je ne sais.
<b>Félix Tréguer : </b>Vous ne m’entendrez pas dire que la technologie est neutre parce que c’est un poncif qui, en plus, est faux ; vous le savez bien et vous participez à le déconstruire. Bien évidemment la statistique et les usages de ces systèmes, du système statistique assez classique somme toute pour, par exemple, adapter des politiques éducatives en fonction de ce que l’on parvient à mesurer de la criminalité, oui, pourquoi pas. Je ne sais pas si on en fera un projet de société, mais ça peut, sans doute, aiguiller les politiques publiques.<br/>
Après, ce qui se joue dans le déploiement de ces technologies, parce que ce sont des choses encore balbutiantes, notamment des systèmes comme PredPol ou Hunchlab aux États-Unis, qui ne sont pas mal mentionnés dans la presse et ont fait un peu le buzz médiatique ces dernières années, ça reste encore des systèmes relativement limités. Ce sont des cartes de chaleur de la criminalité qui visent un peu à aiguiller les patrouilles de police ; ça a déjà des effets structurants et ça contribue à transformer des méthodes de travail des forces de l’ordre, mais ce ne sont pas encore des choses aussi dystopiques et effrayantes que le crédit social à la chinoise, par exemple, où les moindres interactions sociales sont mesurées, quantifiées et vont conditionner à l’accès à certains droits, à certains services publics, comme c’est donc expérimenté dans plusieurs villes chinoises.<br/>
Malgré tout je pense que dans ces technologies de police prédictive qui ont essaimé aux États-Unis, qui, de plus en plus, prolifèrent à travers le monde et notamment en Europe, les pays du Golfe ont fait partie des premiers à déployer sous couvert de programmes de <em>Smart Cities</em> mais dans leur volet sécuritaire des technologiques de type prédictif à des fins policières. Le Royaume-Uni fait également assez fort en la matière depuis quelques années, notamment à Londres au travers des JO de 2016, et on voit ces mêmes programmes arriver en France depuis un peu plus d’un an, avec des expérimentations. Là où je veux en venir, un peu ce processus d’essaimage de ces technologies, c’est que c’est graduel, que c’est souvent à titre expérimental soit sur des technologies relativement ciblées, délimitées, soit c’est un bouquet de technologies donc au-delà des technologies de <em>big data</em> qui vont faire de la prédiction et des recommandations ; il y a aussi des choses de l’ordre de la reconnaissance automatique des flux d’images, donc de la reconnaissance faciale et de la détection des comportements suspects ; il y a la surveillance des réseaux sociaux, qui peuvent faire partie des couteaux suisses qui sont expérimentés dans certaines villes françaises par certaine polices municipales. Et même si on est encore largement dans le discours marketing – si on revient à la question du projet de société – ce discours marketing contribue non seulement à construire nos imaginaires et la manière dont on appréhende ces technologies, la manière dont ces technologies sont ensuite appropriées, utilisées par les forces de police et par les organisations auxquelles elles sont destinées. Et, encore une fois, ces discours qui nous vantent les mérites de la police prédictive pour résoudre catastrophes naturelles et crime organisé ou la délinquance de tous les jours, la petite délinquance de tous les jours, vantent du vent. On est encore dans le discours marketing, certes, mais ça transforme les appareils qui nous gouvernent et notamment les politiques policières.<br/>
Je fais partie des gens qui ont eu des discours très emphatiques à l’égard de la technologie et de sa promesse démocratique, notamment Internet. Clairement on est dans un climat ambiant beaucoup plus techno-sceptique, voire techno-critique depuis quelques années, mais je pense qu’on pourrait aussi se rassurer en se disant que c’est à la fois du discours marketing, que, du coup, ces technologies ne feront pas ce qu’on prétend qu’elles font et que, finalement, ce n‘est pas si grave et que la dystopie reste du domaine de la science-fiction.<br/>
Encore une fois, je pense que cette imaginaire dystopique qui est vraiment vu, pour le coup, comme une utopie par certains promoteurs de ces projets, transforme notre monde et qu’il y a une vraie vision politique derrière. C’est aussi contre ça qu’il faut se mobiliser et qu’il faut avoir en tête lorsqu’on cherche à analyser les effets politiques et les conséquences de ces technologies.
==11’48==
<b>Estelle : </b>Justement,

Version du 7 février 2020 à 14:01


Titre : Moutonery Report : quand la police prédictive entre dans nos vie

Intervenant·e·s : Félix Tréguer - Andy Kwok - Stéphane Favereaux - Estelle

Lieu : Le Mouton Numérique

Date : mai 2019

Durée : 54 min 50

Écouter le podcast

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Description

Félix Tréguer est chercheur associé au Centre Internet et Société du CNRS, post-doctorant au Centre de recherches internationales (CERI Sciences Po), et membre fondateur de l’association La Quadrature du Net.
Il nous a rejoints pour ce premier podcast qui interroge un sujet essentiel pour l’organisation de nos sociétés technologiques : la police prédictive et le pré-crime.
Qu’est-ce que les algorithmes prédictifs ont comme impacts sur la société ?
Va-t-on vers L’Empire du Moindre mal avec une totale déresponsabilisation à tous les niveaux de tous les humains ?
Est-ce que l’on prévient le crime en le prédisant ou est-ce que l’on est amené à la provoquer pour confirmer la prédiction de l’algorithme ?
Pourquoi la police prédictive est-elle réellement en place (fonte des effectifs des policiers, désengorger les tribunaux, solutionnisme technologique plutôt qu’investissement publics, réduction de la pauvreté, etc.)
Autant de questions (parmi d’autres) auxquelles Félix Tréguer apporte son éclairage.

Transcription

Estelle : Bonjour. Bonsoir à tous. Bienvenue sur Le Bêlement, le podcast du Mouton numérique. Aujourd’hui je suis avec Andy.

Andy Kwok : Hello.

Estelle : Stéphane, qui ne dit pas bonjour.

Stéphane Favereaux : Si, si, je suis là, bonjour,

Estelle : Et notre invité Félix Tréguer. Bonsoir Félix ou bonjour Félix.

Félix Tréguer : Bonsoir. Bonjour.

Estelle : Aujourd’hui nous allons parler « Surveillance et police prédictive », donc nous avons fait appel à Félix.
Tout d’abord Félix, si tu veux te présenter un petit peu. Aujourd’hui tu es donc chercheur post-doctorant. Est-ce que tu peux nous parler un peu de tes sujets de prédilection, tes sujets de recherche ?

Félix Tréguer : Oui. Je travaille principalement sur la censure et la surveillance d’Internet et, de plus en plus, la surveillance de l’espace public urbain au travers des technologies numériques dernier cri, donc pas mal de choses dont on parlera ce soir, même si ce sont de sujets de recherche encore émergents. J’ai beaucoup travaillé sur la surveillance d’Internet par les services de renseignement, l’histoire des débats sur la censure et la surveillance d’Internet de manière plus générale.

Estelle : OK. Qu’est-ce qui t’a amené aujourd’hui à faire le lien entre surveillance et tu disais les nouvelles formes de Smart City, Safe City comme tu l’appelles.

Félix Tréguer : Avant d’être chercheur j’ai été salarié dans une association de défense des droits dans l’environnement numérique qui s’appelle La Quadrature du Net, dans laquelle j’ai travaillé pendant trois ans entre 2009 et 2012 comme juriste. Depuis j’ai continué à y participer bénévolement et c’est vrai que, du coup, nos sujets principaux ont longtemps été la surveillance et la censure d’Internet, donc les nouvelles modalités de régulation de ce qu’on appelle l’espace public médiatique et dans son penchant numérique qu’est Internet. Et en fait, on voit un petit peu des logiques de ce que d’autres ont appelé la gouvernementalité algorithmique, ne plus réguler simplement les communications internet, l’expression, la communication publique numérique mais, de plus en plus, l’espace public urbain dans les villes, dans l’espace physique où se meuvent nos corps.

Estelle : On en entend parler assez souvent depuis même très longtemps, c’est un imaginaire science-fiction qui existe depuis Minority Report, on peut dire, cette notion d’anticiper les actes et potentiellement la criminalité. Tu penses qu’il y a des vraies choses qui sont mises en place aujourd’hui, il y a une genèse de ces projets-là ? Est-ce que tu vois un peu d’où ça vient et vers quoi ça pourrait tendre ?

Félix Tréguer : Je pense que si on faisait l’histoire de ces technologies de police prédictive – c’est de ça dont tu parles – si on faisait son histoire, il faudrait sans doute remonter à, je ne sais pas, ce qu’on appelait les censeurs chez les Romains qui étaient les individus en charge de comptabiliser un petit peu ce qui se passait dans les foyers, les occupations des gens, le nombre de personnes vivant dans chaque foyer, etc., mais ça avait un rôle très important dans la régulation des mœurs dans la Rome antique. On pourrait parler des traités de police générale aux 17e et 18e siècles, où l’État moderne se constitue et va déployer des techniques policières pour construire des savoirs sur la population et mieux la gouverner. Donc ce n’est pas simplement réprimer des infractions au droit commun ou garantir l’ordre public dans une acception étroite, ce sont des choses beaucoup plus larges : on inclut la salubrité, l’éducation et des choses qui ne viennent pas forcément à l’esprit lorsqu’on pense à la police dans son volet répressif. Mais, là encore, on pourrait trouver des sources historiques dans les formes et dans les pratiques de la police prédictive et des technologies de surveillance policière qui se déploient depuis quelques mois et quelques années.
Je crois aussi que, et là encore ça mériterait d’être approfondi, ce sont plus des intuitions que des recherches très arrêtées pour le moment, mais je pense que dans la période coloniale et dans les stratégies de guerre contre-insurrectionnelle menées aux 19e et 20e siècles, là aussi il y a tout un tas de logiques de surveiller une population, détecter des signaux de radicalisation, des signaux faibles, et toutes ces théories au croisement des sciences sociales, comportementales et statistiques qui vont appuyer les dispositifs répressifs, là aussi sont sans doute une racine historique importante pour comprendre l’histoire de ces technologies.
Mais si on revient à une histoire beaucoup récente, ce sont les années 90, les nouvelles techniques et les nouvelles doctrines de management des forces de l’ordre principalement aux États-Unis et le primat mis dans ces doctrines sur le renseignement : on n’est plus simplement dans une police répressive qui va chercher à arrêter les auteurs d’infraction a posteriori, mais dans une démarche proactive d’anticipation où, du coup, ce savoir et le renseignement en amont de l’activité policière pour guider justement l’activité policière, manager les forces de police, devient central. Donc les technologies de police prédictive, en fait, sont une déclinaison, un outillage technologique qui découle de ces doctrines qui sont nées dans les années 90.

Andy Kwok : Je vais juste revenir sur ce que tu as dit, qui est très intéressant, justement qu’il y a une racine historique pour avoir une certaine prédiction. Tu citais les exemples de guérilla juste pour voir si une population peut se rebeller. La police prédictive à l’heure actuelle, c’est vrai qu’on voit ça de façon, je pense surtout que Minority Report a donné vraiment ce ton de dire qu’il y a un côté répressif, mais je me fais un peu l’avocat du diable. Est-ce qu’il y a aussi une façon d’éducation on va dire, justement de contrôle de la société, mais pas forcément répressif ? C’est vrai qu’on voit le côté qui est ultra, de mettre une population dans une boîte, mais est-ce que, au-delà de ça, ce serait possible de dire qu’il y a peut-être aussi un projet sociétal ? Je ne vois pas forcément les choses comme telles.

Estelle : Et qui ne serait pas forcément que dans la prévention du crime, plutôt dans l’éducation des masses et des populations ?

Andy Kwok : C’est ça.

Félix Tréguer : De quelle manière on les éduquerait ?

Andy Kwok : C’est vrai que le contrôle c’est éviter des débordements, mais est-ce que c’est possible de dire si jamais il y a un débordement qui se fait, si jamais il y a une insurrection qui se produit, justement essayer de prévenir ça, par cette forme de police prédictive ? Voilà, je me fais un peu l’avocat du diable.

Estelle : Implanter des écoles par exemple dans les zones qui seraient potentiellement plus à risque ou, je ne sais pas, augmenter le nombre de professeurs dans des situations où on sait qu’il y a de zones scolaires un peu plus… Je ne sais.

Félix Tréguer : Vous ne m’entendrez pas dire que la technologie est neutre parce que c’est un poncif qui, en plus, est faux ; vous le savez bien et vous participez à le déconstruire. Bien évidemment la statistique et les usages de ces systèmes, du système statistique assez classique somme toute pour, par exemple, adapter des politiques éducatives en fonction de ce que l’on parvient à mesurer de la criminalité, oui, pourquoi pas. Je ne sais pas si on en fera un projet de société, mais ça peut, sans doute, aiguiller les politiques publiques.
Après, ce qui se joue dans le déploiement de ces technologies, parce que ce sont des choses encore balbutiantes, notamment des systèmes comme PredPol ou Hunchlab aux États-Unis, qui ne sont pas mal mentionnés dans la presse et ont fait un peu le buzz médiatique ces dernières années, ça reste encore des systèmes relativement limités. Ce sont des cartes de chaleur de la criminalité qui visent un peu à aiguiller les patrouilles de police ; ça a déjà des effets structurants et ça contribue à transformer des méthodes de travail des forces de l’ordre, mais ce ne sont pas encore des choses aussi dystopiques et effrayantes que le crédit social à la chinoise, par exemple, où les moindres interactions sociales sont mesurées, quantifiées et vont conditionner à l’accès à certains droits, à certains services publics, comme c’est donc expérimenté dans plusieurs villes chinoises.
Malgré tout je pense que dans ces technologies de police prédictive qui ont essaimé aux États-Unis, qui, de plus en plus, prolifèrent à travers le monde et notamment en Europe, les pays du Golfe ont fait partie des premiers à déployer sous couvert de programmes de Smart Cities mais dans leur volet sécuritaire des technologiques de type prédictif à des fins policières. Le Royaume-Uni fait également assez fort en la matière depuis quelques années, notamment à Londres au travers des JO de 2016, et on voit ces mêmes programmes arriver en France depuis un peu plus d’un an, avec des expérimentations. Là où je veux en venir, un peu ce processus d’essaimage de ces technologies, c’est que c’est graduel, que c’est souvent à titre expérimental soit sur des technologies relativement ciblées, délimitées, soit c’est un bouquet de technologies donc au-delà des technologies de big data qui vont faire de la prédiction et des recommandations ; il y a aussi des choses de l’ordre de la reconnaissance automatique des flux d’images, donc de la reconnaissance faciale et de la détection des comportements suspects ; il y a la surveillance des réseaux sociaux, qui peuvent faire partie des couteaux suisses qui sont expérimentés dans certaines villes françaises par certaine polices municipales. Et même si on est encore largement dans le discours marketing – si on revient à la question du projet de société – ce discours marketing contribue non seulement à construire nos imaginaires et la manière dont on appréhende ces technologies, la manière dont ces technologies sont ensuite appropriées, utilisées par les forces de police et par les organisations auxquelles elles sont destinées. Et, encore une fois, ces discours qui nous vantent les mérites de la police prédictive pour résoudre catastrophes naturelles et crime organisé ou la délinquance de tous les jours, la petite délinquance de tous les jours, vantent du vent. On est encore dans le discours marketing, certes, mais ça transforme les appareils qui nous gouvernent et notamment les politiques policières.
Je fais partie des gens qui ont eu des discours très emphatiques à l’égard de la technologie et de sa promesse démocratique, notamment Internet. Clairement on est dans un climat ambiant beaucoup plus techno-sceptique, voire techno-critique depuis quelques années, mais je pense qu’on pourrait aussi se rassurer en se disant que c’est à la fois du discours marketing, que, du coup, ces technologies ne feront pas ce qu’on prétend qu’elles font et que, finalement, ce n‘est pas si grave et que la dystopie reste du domaine de la science-fiction.
Encore une fois, je pense que cette imaginaire dystopique qui est vraiment vu, pour le coup, comme une utopie par certains promoteurs de ces projets, transforme notre monde et qu’il y a une vraie vision politique derrière. C’est aussi contre ça qu’il faut se mobiliser et qu’il faut avoir en tête lorsqu’on cherche à analyser les effets politiques et les conséquences de ces technologies.

11’48

Estelle : Justement,