Reconnaissance faciale - Arrêt sur images

De April MediaWiki
Aller à la navigationAller à la recherche


Titre :

Titre : Reconnaissance faciale

Intervenant·e·s : Asma Mhalla - Olivier Tesquet - Didier Baichère - Juliette Gramaglia - Daniel Schneidermann

Lieu : Émission Arrêt sur images

Date : 15 novembre 2019

Durée : 1 h 13 min

Émission

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Daniel Schneidermann : Bonjour. La reconnaissance faciale est-elle une innovation formidable, qui va simplifier la vie des consommateurs ou des usagers de l’administration ou, au contraire, est-elle une redoutable technique liberticide de surveillance de masse ? À moins qu’elle ne soit la dernière ruse des marchands pour nous extorquer nos données, ce pétrole du 21e siècle, comme on dit.
Sur ce nouvel objet de craintes et de fantasmes, il fallait bien qu’on fasse une émission avec trois invités hautement qualifiés. Juliette.

Juliette Gramaglia : Olivier Tesquet vous êtes journaliste pour Télérama, vous avez publié récemment sur l’application Alicem sur laquelle on aura l’occasion de revenir et vous préparez par ailleurs un dossier plus globalement sur la reconnaissance faciale.
Asma Mhalla, vous êtes chercheuse et enseignante à Sciences Po et vous travaillez depuis années sur les enjeux démocratiques de la reconnaissance faciale et sur le concept de Smart City, de ville intelligente.
Didier Baichère, vous êtes député La République en Marche, vice-président de l’office parlementaire d’orientation des choix scientifiques et technologiques et vous avez oublié en juillet dernier une note sur la reconnaissance faciale demandant des expérimentations sérieuses pour pouvoir créer un cadre juridique.

La question de la surveillance généralisée se pose aussi en Europe

Daniel Schneidermann : Avant de discuter longuement, comme on va le faire, de la situation française, je voudrais qu’on commence cette émission par la Chine, puisque, dans l’inconscient collectif, dans l’imagination des gens comme dans les médias, quand on parle de reconnaissance faciale, on pense surtout à la Chine.

Juliette Gramaglia : Oui, c’est quand même difficile d’avoir une discussion sur le sujet sans que, à un certain moment, assez rapidement, on ne retombe sur la Chine qui est régulièrement et quasiment toujours mise en avant comme une possibilité d’avenir terrifiant qui nous attend et un Envoyé spécial d’octobre dernier en faisait d’ailleurs une description digne des plus grands films d’anticipation.

Extrait d’Envoyé spécial – octobre 2019

Voix off : Imaginez Shanghai dans un futur proche, plus personne ne passe inaperçu. Chaque fait, chaque geste est scruté par des centaines de milliers de caméras. À 18 ans Wuang Lu s’est vu attribuer une note, 1000 points, qui évolue en fonction de ses actions. Elle jette un papier par terre, c’est une incivilité qui lui coûte 50 points. Elle traverse au feu rouge, moins 100 points. Mais si elle décide d’aider son prochain, par exemple en donnant son sang, sa note remonte, 900 points. Elle signale la présence d’un délinquant à la police et la voilà qui atteint le niveau supérieur, 1100 points. De cette note dépend sa place dans la société. En dessous d’un certain seuil, elle risque de ne plus avoir d’existence sociale.
Ça vous parait incroyable et pourtant ce système de notation existe déjà. Il est testé dans 43 villes en Chine pour ficher et classer les habitants. Son nom : le crédit social.

Fin de l’extrait

Daniel Schneidermann : Première question avant d’en venir à la France. C’est vrai que là on a davantage l’impression d’être dans un numéro de la série d’anticipation Black Mirror que vraiment dans un reportage d’information. Je m’adresse au journaliste et à la chercheuse, je ne sais pas avec quelle précision vous connaissez la situation chinoise. Là on est en présence d’un reportage dramatisant où, en effet, ça se passe comme ça dans, je crois dans 43 villes test, c’est ce qui est dit dans le reportage.

Olivier Tesquet : Il y a un peu d’extrapolation de la réalité, notamment le système de crédit social dont il est question dans le reportage, s’il est déployé dans un certain nombre de villes et de provinces en Chine, n’est pas un système aussi unifié qu’on veut bien le présenter parfois. C’est vrai que quand on regarde la Chine d’ici, on a toujours cette espèce de prisme à travers lequel on voit ça comme un tout indivisible, on voit le Parti communiste chinois.
Or, le crédit social c’est une série d’expérimentations qui sont assez disparates, que les systèmes marchent aussi assez mal finalement, en tout cas moins bien que ce qu’on veut bien dire. Le couplage avec la reconnaissance faciale n’est pas systématique. Il y a tout un tas de réserves ou d’observations à apporter à ce qu’on voit.

Daniel Schneidermann : L’impulsion est gouvernementale ou elle est municipale ?, c’est-à-dire que ce sont les communes chinoises qui décident de tester ?

Olivier Tesquet : Ce sont les provinces qui décident de le faire. Après c’est évidemment quand même sous une impulsion assez forte de l’État et des entreprises qui sont, elles-mêmes, sous perfusion de fonds publics. Effectivement en Chine, c’est aussi pour ça que c’est vu comme l’horizon suprême de la reconnaissance faciale et de la technologie en général aujourd’hui, en tout cas l’horizon sécuritaire de la technologie, c’est parce que vous avez des entreprises qui sont largement financées par l’État qui, du coup, ont les moyens de développer tout un tas de technologie plus futuristes les unes que les autres.

Daniel Schneidermann : Et on va y revenir. Asma Mhalla, sur la Chine.

Asma Mhalla : Ce qui est intéressant dans le cas de la Chine, du crédit social, c’est que la raison initiale qui avait été avancée ce n’était pas du tout le flicage de la population c’était, en fait, comment on crée un indice de confiance pour les entrepreneurs étrangers. Donc initialement, une des raisons qui était avancée, c’est comment de façon très objectivable on crée un indice de confiance dans les commerçants.

Daniel Schneidermann : En quoi ce système était censé un indice de confiance pour les investisseurs étrangers ?

Asma Mhalla : La première cible c’était les commerçants.

Daniel Schneidermann : Chinois ?

Asma Mhalla : Chinois, donc les TPE, PME, l’ensemble du tissu entrepreneurial chinois et comment, par un système de notation, donc de crédit, on note la solvabilité, la confiance, le respect des délais, etc. C’était, en fait, la raison officielle, première, invoquée. On voit que ça a été très vite amplifié et, évidemment, appliqué à l’individu.
Ce qui est aussi intéressant dans le cas chinois c’est que d’ici, de France, ce qu’on dit souvent c’est qu’en réalité ça n’arrivera pas, et c’est ce que vous disiez, c’est dystopique parce qu’on n’est pas dans le même système de valeurs, parce que c’est le gouvernement panoptique, communiste, chinois, etc. En réalité, et vous nous éclairerez peut-être là-dessus [Asma Mhalla se tourne vers Didier Baichère, NdT], peut-être qu’en France on n’aura pas ou on n’aura pas exactement ce format-là, n’empêche que la question de la surveillance généralisée, quel que soit son format, pose question. Le cas chinois est intéressant parce que c’est le paroxysme du modèle. Se cacher derrière la question ou l’excuse de « nous n’avons pas les mêmes valeurs », c’est un peu trop rapide.

Daniel Schneidermann : Le cas chinois, le cas des 43 communes chinoises. 43 ce n’est rien à l’échelle chinoise.

Asma Mhalla : Le cas social mis en place dans les provinces chinoises.

Daniel Schneidermann : Le paysage de ces 43 communes, tel qu’il ressort de cet extrait qu’on vient de voir, c’est un objectif vers lequel vous croyez que la France doit aller ? Au contraire c’est quelque chose qui vous épouvante ? Comment vous réagissez ?

Didier Baichère : Je pense que c’est important de montrer ce cas-là, parce que c’est probablement l’exemple de ce vers quoi on ne tend absolument pas, ça c’est extrêmement clair.

Daniel Schneidermann : On ne souhaite pas tendre.

Didier Baichère : Absolument pas, ce n’est pas le sujet et ce serait même dangereux. Je le dis souvent, la rapidité de la discussion autour de ça fait qu’on a la tentation, on a tendance à mettre un peu tout sur le même plan, comme si la Chine, la France, l’Europe ou les États-Unis pouvaient être exactement sur le même plan. Ce n’est pas le cas. Aujourd’hui la Chine peut faire ce type d’expérimentation parce qu’ils n’ont pas Informatique et libertés, parce qu’ils n’ont pas le Règlement RGPD [Réglement général sur la protection des données]. Ce qui n’empêche pas d’expérimenter aujourd’hui en France un certain nombre de choses. On reviendra probablement aux exemples précis de la France.

Daniel Schneidermann : C’est-à-dire que ce qui nous en prémunit c’est la CNIL ou le règlement…

Didier Baichère : Le règlement RGPD. Ce qui nous en prémunit c’est la voie française, la voie européenne. Aujourd’hui on a une voie très forte, en tout cas c’est mon rôle en tant que parlementaire d’exprimer quelle est la voie française et quelle est la voie française au sein de l’Europe parce qu’on n’est pas tout seuls et je pense qu’il y a beaucoup de pays européens qui nous regardent avec beaucoup d’attention sur ce sujet.

Daniel Schneidermann : La voie, v, o, i, e ?

Didier Baichère : La voix. Finalement… Moi j’aime bien la voie parce qu’on ne sait pas si c’est la voie, le chemin, ou la voix, l’expression. Dans tous les cas c’est ça, c’est exprimer fortement qu’on se raccroche au réglement RGPD, qu’il ne s’agit pas de faire n’importe quoi, qu’on n’a pas la volonté d’aller vers un système de surveillance généralisée, ce n’est pas ça. Sauf que le règlement, la loi que nous avons aujourd’hui, le système en place, permet des expérimentations qui ne sont pas, de mon point de vue, ni académiques, ni scientifiques et c’est là où il faut arriver à remettre du scientifique et de l’académique sur les algorithmes ; le rapport de Cédric Villani sur le sujet est extrêmement intéressant, il a déjà posé un certain nombre de pré-requis. Finalement qu’est-ce que les collectivités locales comprennent de ce sujet-là ? Est-ce qu’elles ont la compréhension scientifique du sujet ou est-ce qu’elles ne le couplent pas naïvement avec la vidéo-protection alors qu’en fait on est sur des sujets très différents. On peut avoir de la vidéo-protection sans forcément avoir de la reconnaissance faciale.
Tous ces sujets nécessitent de reposer le cadre très calmement, donc d’expérimenter et aussi de consulter de manière effective la population.

Daniel Schneidermann : Comment peut-on reposer le cadre ? Quels sont les gardes-fous qu’on peut ou pas être mettre en œuvre, ça va être le sujet de l’émission.
L’accroche d’actualités en France sur cette question de la reconnaissance faciale c’est ce projet Alicem, Juliette.

Alicem, confort d'utilisation et accoutumance

Juliette Gramaglia : Alicem qu’est-ce que c’est ? C’est une application gouvernementale dont la création a été décidée par un décret en mai dernier et qui doit permettre aux gens d’accéder, par un seul dispositif, à de très nombreux services publics en créant ce qu’on appelle une identité numérique.
C’est par Bloomberg que l’information a d’abord filtré fin septembre, début octobre, si je ne m’abuse, avec un certain nombre d’articles qui ont ensuite été écrits sur le sujet. Le site Bloomberg assurait que l’application devait être lancée fin novembre et l’une des raisons pour laquelle beaucoup se sont soudain intéressés à Alicem c’est l’utilisation de la reconnaissance faciale lors de l’inscription sur l’application. À quoi ça ressemblerait ? France 3 en faisait une démonstration le 17 octobre dernier.

Extrait France 3 – 17 octobre 2019

Voix off : Pour l’utiliser il faut s’inscrire, photographier son passeport, puis poser par-dessus son téléphone.

Jérôme Letier : Et là, pendant quelques secondes, l’application va lire la puce de votre passeport pour vérifier que c’est un passeport authentique et elle va en extraire la photographie que vous aviez remise lors de votre demande de passeport.

Voix off : Une photo que vous devrez comparer à vous-même, en train de sourire, cligner des yeux ou tourner la tête. Utiliser ce service ne sera pas obligatoire. Selon l’État les photos ne sont pas conservées. Ce n’est pas un fichage.

Jérôme Letier : Le projet Alicem ne porte en lui-même aucune possibilité d’utilisation abusive, c’est fait sous votre contrôle et à votre initiative et il n’y a aucune trace qui est gardée à l’extérieur de votre téléphone.

Fin de l’extrait

Daniel Schneidermann : On en est aujourd’hui ? Devant l’émotion suscitée, le gouvernement a reculé ? Je n’ai pas bien compris.

Juliette Gramaglia : En fait, du côté de l’Agence nationale des titres sécurisés, donc l’ANTS qui est celle qui gère le développement de cette application, on précise aujourd’hui qu’elle est encore en phase de test auprès des employées de l’ANTS et qu’aucune date de mise en accès pour le grand public n’a encore été fixée, c’est le gouvernement qui doit la fixer. Jérôme Letier, le directeur de l’ANTS qu’on a vu dans le reportage, qu’on a contacté, vise une sortie pour fin 2019/début 2020, mais pour le moment il n’y a pas de date plus précise.

Daniel Schneidermann : Alors que ça devait être fin novembre. On est sur un report ou deux mois. Pour l’instant c’est bien ça ?

Juliette Gramaglia : Mi-novembre. La Bloomberg parlait de mi-novembre.

Daniel Schneidermann : Qu’est-ce qu’il y a à craindre dans cette application ? En quoi ce n’est pas un plus pour les usagers de pouvoir effectivement, quand ils se connectent au site de la Sécu, au site des impôts, à je ne sais quoi, être reconnus facilement plutôt que de rentrer un mot de passe compliqué ?

12’ 00

Asma Mhalla : Il y a plusieurs sujets. Le premier sujet c’est la question de l’efficacité, de la légitimité de type d’usage. Aujourd’hui on a déjà un certain nombre de moyens qui sont à disposition des citoyens pour accéder à leurs divers portails, e.gov ou même en physique.

Daniel Schneidermann : e-gov ?

Asma Mhalla : E-gouvernement, toutes les applications étatiques donc impots.gouv, Pôle emploi pour ceux qui ont au chômage, la Sécurité sociale, etc.

Daniel Schneidermann : Excusez-moi, mais la reconnaissance faciale c’est plus simple ! C’est-à-dire que moi, quand je me connecte sur impots.gouv.fr, il faut à chaque fois que je tape un code de 13 chiffres, je crois. Si j’étais reconnu par le site !

Asma Mhalla : Oui, et c’est souvent l’argument qui est avancé, c’est le confort d’usage, donc c’est le gain de temps, on le voit aussi avec le PARAFE [Passage automatisé rapide aux frontières extérieures] dans les aéroports, c’est la fluidité, c’est raccourcir le temps. C’est en permanence l’argument de l’expérience, du confort, de l’ergonomie.
En réalité ce qui se joue, et qui est un peu plus problématique, c’est l’accoutumance à ces usages et on le voit très bien. Tous les cas de reconnaissance faciale ont commencé par des paiements en ligne par appli mobile plus simple, retrouver des amis sur les réseaux sociaux qui sont tagués de façon automatique, c’est déverrouiller l’iPhone, le smartphone. Donc on commence par ce qu’on appelle pseudo-morphisme, on introduit des usages commerciaux, marketing ou pour des raisons, d’ailleurs, parfaitement argumentées de confort d’usage et la question c’est qu’est-ce qu’on fait demain ? Ce qui est intéressant avec Alicem c’est qu’on ne le met en assez en lien avec ce qui s’est passé un an auparavant, c’est-à-dire la validation du fichier TES [fichier des titres électroniques sécurisés ] qui est une base de comparaison absolument énorme de l’ensemble de la population française, qui consolide l’ensemble de nos données, y compris les données biométriques. En réalité, on a déjà mis en place la base de comparaison. Juste pour revenir, qu’est-ce que c’est que la reconnaissance faciale ?

Daniel Schneidermann : Excusez-moi, j’ai entendu dans le sujet de France 3 « les données ne seront pas gardées. Le gouvernement nous assure que les données ne seront pas gardées. »

Olivier Tesquet : Oui, il n’y a pas d’interrogation du fichier TES dans la comparaison faciale qui intervient. Par contre, là où je rejoins ma camarade sur la question de l’accoutumance, ce qu’on appelle l’accoutumance, le gouvernement l’appelle acceptabilité, c’est le mot qui revient perpétuellement sur les questions de reconnaissance faciale en ce moment. C’est le terme qui était utilisé lors du dernier congrès Technopolice qui réunissait un peu le gratin de la police, de la gendarmerie et des industriels. On en est à débattre des modalités.
Aujourd’hui, Alicem n’est pas pour moi l’usage le plus inquiétant de la reconnaissance faciale. Effectivement c’est présenté comme une simplification administrative.

Didier Baichère : Ce n’est pas une application de reconnaissance faciale, ça touche à l’identité numérique, ça n’a rien à voir.

Daniel Schneidermann : C’est quoi la différence ?

Didier Baichère : Le sujet de départ c’est qui est mieux à même que l’État peut-être – mais c’est un débat qu’on peut avoir avec les citoyens à un moment donné – de valider, de garantir votre identité numérique. Il se trouve que dans la validation pour dire c’est bien moi, Alicem s’est inspiré de PARAFE, c’est la déclinaison parfaite de PARAFE. Quand vous allez dans un aéroport, vous passez votre passeport et la caméra qui est en face vous dit « c’est vous ? », « oui c‘est moi, non ce n’est pas moi », le truc s’ouvre et toutes les données disparaissent. Là c’est la même chose.

Daniel Schneidermann : En quoi ce n’est pas de la reconnaissance faciale ?

Didier Baichère : On utilise la technologie de reconnaissance faciale pour authentifier à un moment donné une personne. On fait une comparaison entre un gabarit.

Daniel Schneidermann : Je voudrais qu’on s’entende bien sur les mots. Si Alicem n’est pas de la reconnaissance faciale, en fait qu’est-ce qui lui manque pour être de la reconnaissance faciale ?

Asma Mhalla : C’est de la reconnaissance faciale.

Didier Baichère : Le problème c’est qu’on fait toujours des raccourcis, encore une fois ça va trop vite. Alicem n’est pas un dispositif de reconnaissance faciale, c’est un dispositif qui vise à garantir l’identité numérique.

Asma Mhalla : C’est l’objectif de la reconnaissance faciale

Didier Baichère : Et qui utilise, pour valider que c’est bien vous, une technologie de reconnaissance faciale. Mais dans l’expérimentation, je pense que c’est important de redire qu’on est dans le cadre d’une expérimentation, d’ailleurs tous les débats vous nourrir les évolutions d’Alicem, on dit bien que dans la proportionnalité peut-être que finalement on ne sera pas obligé de passer par la reconnaissance faciale pour garantir son identité numérique. Peut-être qu’on gardera, c’est cette histoire de la proportionnalité, d’aller dans sa mairie pour valider qu’on est bien la personne.

Daniel Schneidermann : D’accord. Je voudrais qu’on s’entende sur les mots parce que sinon l’émission va être compliquée, pour l’instant on est bien dans un dispositif de reconnaissance faciale ?

Asma Mhalla : D’un point de vue technique oui.

Didier Baichère : On est un dispositif qui utilise la reconnaissance faciale pour valider que vous êtes bien réellement cette personne.

Olivier Tesquet : Je pense que c’est le moment d’opérer un distinguo qui est important. On a un ensemble qui est la reconnaissance faciale, là-dedans on a l’authentification. L’authentification c’est Alicem, l’authentification c’est PARAFE quand vous passez les contrôles aux frontières, que vous prenez l’avion. L’autre question, qui est la question qui me préoccupe peut-être davantage aujourd’hui quand on parle de reconnaissance faciale, c’est la question de l’identification, c‘est-à-dire identifier quelqu’un : on va avoir une caméra ici qui va déterminer que vous êtes bien Daniel Schneidermann en interrogeant, par exemple, une base de données. Ça c’est notamment l’application policière qui est un peu l’eldorado sécuritaire aujourd’hui quand on parle de la reconnaissance faciale. Donc il y a ce distinguo entre l’authentification d’un côté, l’identification de l’autre, mais dans tous les cas c’est de la reconnaissance faciale.

Daniel Schneidermann : Ce qui est fait à la limite c’est :est-ce qu’on a recours à une base de données ou pas ? C’est bien ça ?

Olivier Tesquet : C’est ça. C’est-à-dire qu’à partir du moment où on interroge une base de données, là on est dans l’identification, on change d’échelle, mais, encore une fois, les deux questions sont liées. À partir du moment où on crée cette accoutumance où Alicem est une brique logicielle, après on peut la présenter comme on veut, mais en tout cas, on pose la question et je trouve qu’on doit se saisir de cette question-là pour savoir est-ce qu’en tant que société on veut être dans un univers et dans un milieu où on peut identifier les individus ?

Didier Baichère : Je ne suis pas d’accord.

Daniel Schneidermann : Vaste question. Avant de poser les questions, je voulais qu’on s’entende sur les mots. Juliette.

Juliette Gramaglia : Je voulais juste donner une précision parce que vous disiez qu’on pourrait peut-être utiliser autre chose que la reconnaissance facile. La CNIL a rendu un avis dans lequel elle critiquait notamment le fait que dans Alicem il n’y a aucune autre possibilité que la reconnaissance faciale pour confirmer son identité, ce qui irait à l’encontre du RGPD, le Réglement sur la protection de données. Du coup j’ai contacté Jérôme Letier, de l’ANTS et dans la phase de test qui est encore en cours, l’ANTS n’envisage pas de faire une alternative à la reconnaissance faciale à l’intérieur d’Alicem, considérant qu’il existe d’autres moyens par ailleurs d’accéder aux services publics qui seraient accessibles sur Alicem, donc il n’y a pas besoin à l’intérieur d’Alicem.

Daniel Schneidermann : D’accord.
On a démarré sur les chapeaux de roue sur les questions de surveillance, de flicage universel, etc., mais ce n’est pas la seule question que pose Alicem et que posent ces dispositifs. Il y en a une autre que je voudrais qu’on évacue tout de suite pour revenir ensuite à la surveillance et elle a été posée par le Défenseur des droits, Jacques Toubon.

Juliette Gramaglia : Oui, l’autre question que ça pose d’une manière plus globale c’est celle de la fracture numérique, puisqu’on est quand même sur une numérisation de l’intégralité des services publics demandée et voulue pour 2022. Est-ce que ça ne va pas conduire à mettre sur le carreau un certain nombre de Français ?, on pense notamment aux personnes âgées, aux zones blanches où l’accès à Internet est compliqué. On pense aussi aux immigrés qui n’ont pas forcément les compétences, les connaissances pour accéder aux services publics sur Internet et qui en ont besoin pour leurs démarches administratives. C’était effectivement l’ inquiétude qui était exprimée par Jacques Toubon, le Défenseur des droits, le 12 novembre dernier.

Jacques Toubon, voix off : C’est plus qu’une fracture numérique. C’est une organisation des services publics, des procédures, des effectifs qui fait qu’il y a de moins en moins de présence humaine dans les services publics, dans les administrations en face des usagers, des prestataires, des justiciables, toutes les personnes, les hommes et les femmes, qui ont besoin des services publics.
À partir de ce moment-là, cela crée une inégalité profonde entre les personnes qui peuvent accéder aux services publics, donc à leurs droits, et celles qui ne peuvent pas. Et ce que j’ai dit en ce qui concerne la numérisation, c’est qu’il existe 20 à 25 % de la population qui ne peut pas accéder aux services publics donc à ses droits à travers des demandes en ligne. C’est une question qui est plus essentielle : est-ce que le service public va continuer à être universel, c’est-à-dire à s’adresser de manière égale à toutes celles et à tous ceux qui vivent dans notre pays, qui ont besoin du service public ou est-ce qu’il y aura des laissés pour compte ?

Daniel Schneidermann : Est-ce qu’un des objectifs d’Alicem, je ne dis pas le seul, un des objectifs est de contribuer à la réduction du nombre de fonctionnaires en France ?

Didier Baichère : Absolument pas.

Daniel Schneidermann : Ah bon, mais ça risque d’être un effet. Ça peut être un effet.

Didier Baichère : Non, non. On n’a pas attendu Alicem pour numériser les services publics. Aujourd’hui, cette question de l’accès au numérique est posée de manière générale. Ce que pointe Jacques Toubon est essentiel. C’est pour ça que vous avez les Maisons de services au public ou les Maisons France Services demain. Si vous ne pouvez pas déclarer vos revenus avec Internet il n’y a pas de question de reconnaissance faciale dans ce sujet-là. Tout simplement aujourd’hui, quand vous devez commander un billet même de train, on peut prendre cet exemple très concret, vous n’avez quasiment de guichets grandes lignes dans les villes, donc la question de la fracture numérique se pose. C’est pour ça qu’il faut qu’il y ait dans le service public – et je pense que les mairies, de manière générale, sont le lieu où on peut faire ça – toujours une possibilité d’accéder à ces services numériques, parce que, sinon, on va effectivement engager une fracture numérique qui n’est pas souhaitable.

Daniel Schneidermann : Sur ce point du risque de la fracture numérique, est-ce qu’il existe indépendamment de la reconnaissance faciale ? Est-ce que la reconnaissance faciale l’accentue ?

Olivier Tesquet : Sur le cas d’Alicem par exemple, c’est aussi l’argument que m’avait donné Jérôme Letier, le directeur de l’ANTS, qui était de dire vous pouvez toujours aller en mairie faire les démarches en accédant directement au site de la sécu, au site de a CAF ou que sais-je encore. Encore une fois, il y a quand même une prime à la littératie numérique, c’est-à-dire que si vous avez l’habitude de manipuler un smartphone, que vous savez vous en servir, que vous en possédez un, vous être privilégié, on va dire, c’est plus facile pour vous. Vous avez effectivement le choix de ces différents dispositifs. À partir du moment où, demain, peut-être que vous n’avez pas de connexion à Internet, où il n’y a plus de service public près de chez vous, est-ce que vous allez avoir le choix d’utiliser ou non cette technologie ?, la question peut se poser. Donc la question du consentement, qui était le point soulevé par la CNIL, est effectivement une réalité dans un certain nombre d’endroits en France, et il en existe beaucoup, où les alternatives ne sont peut-être pas aussi évidentes qu’ici à Partis ou dans une grande ville.

L'interpénétration public-privé

Daniel Schneidermann : C’est clair.
La surveillance, le risque que fait peser la reconnaissance faciale de flicage universel, on va dire, on va aborder le débat à travers l’exemple de la radieuse ville de Nice.

Juliette Gramaglia : Oui, parce qu’en matière de reconnaissance faciale, comme d’ailleurs auparavant en matière de vidéosurveillance, l’un des politiques qui poussent le plus pour adopter cette technologie dans un usage sécuritaire, c’est Christian Estrosi, le maire LR de Nice. Parmi les dispositifs qu’il a, avec d’autres, défendus, l’introduction de la reconnaissance faciale dans deux lycées, l’un à Nice et l’autre à Marseille, TF1 en parlait en novembre 2018.

Extrait TF1 – novembre 2018

Voix off : La CNIL surveille de près un projet de la région PACA digne d’un film de science-fiction. Dans ce lycée, les élèves ne seront plus seulement surveillés mais identifiés par reconnaissance faciale, des portiques devraient être installés en début d’année.

Philippe Albert, proviseur du lycée les Eucalyptus de Nice, voix off : Le système va être installé dans cette partie-ci de la cour avec trois couloirs qui vont distribuer le passage des personnes qui sont volontaires pour participer à cette expérimentation.

Voix off : Les élèves pris en photo disposeront d’un badge biométrique et devront se présenter devant une caméra pour entrer au lycée. Si le visage n’est pas reconnu les surveillants seront immédiatement alertés sur leur tablette.

Philippe Albert, proviseur du lycée les Eucalyptus de Nice, voix off : C’est un dispositif qui se veut complémentaire par rapport au rôle du surveillant, mais en aucun cas il ne saurait le remplacer.

Voix off : Les professeurs, eux, ne sont pas concernés par le dispositif mais certains s’interrogent sur l’utilisation des données de leurs élèves.

Didier Giaufer, professeur, secrétaire départemental SNES Alpes- maritimes, voix off : Ce fichier va être donné à une entreprise extérieure, privée, et derrière il y a toute une utilisation des données personnelles. Ça pose un problème d’éthique par rapport à notre public d’élèves mineurs.

Fin de l’extrait

Juliette Gramaglia : Il faut savoir que la Quadrature du Net qui est une association de défense des libertés numériques, avec d’autres organisations, a déposé un recours contre ce projet. Fin octobre la CNIL a rendu un avis indiquant que le dispositif, je cite, « ne saurait légalement être mis en œuvre, notamment parce que le projet n’était pas conforme au principe de proportionnalité », c’est-à-dire pour faire rentrer des élèves dans un lycée, il y a peut-être d’autres moyens que la reconnaissance faciale. L’avis de la CNIL n’est pas contraignant en soi et le recours devant le tribunal administratif n’a pas encore été examiné. Christian Estrosi continue à défendre le projet comme il le faisait encore cette semaine au micro de France Info.

Extrait France Info

Christian Estrosi, voix off : Nous avions décidé une expérimentation dans un lycée de Nice et un lycée de Marseille. D’ailleurs ce n’est pas de la reconnaissance faciale, c’est de la comparaison faciale. C’est d’autant plus incompréhensible de la part de la CNIL.

Voix off : C’est quoi la différence ?

Christian Estrosi, voix off : La comparaison faciale c’est ce que vous faites avec votre passeport lorsque vous passez au contrôle aux frontières. · Voix off : Un lycée n’est pas une frontière.

Christian Estrosi, voix off : Si ce n’est que nous avions choisi des élèves volontaires, avec l’accord parental, l’accord du conseil d’administration, simplement qu’avec le badge d’accès on vérifie que ce ne soit pas un badge volé, que ce soit bien le vôtre par de la comparaison faciale. C’est donc inexplicable de la part de la CNIL de prendre une décision qui, pourtant, s’applique aux frontières avec nos passeports.

Fin de l’extrait

25’ 33

Daniel Schneidermann : Si je comprends bien, Estrosi est raccord avec vous, c’est-à-dire qu’il faisait le distinguo reconnaissance-comparaison et dans le dispositif mis en œuvre dans les lycées, on voyait que la comparaison.

Didier Baichère : Il a raison et il a tort. Là où il a raison c’est qu’on pourrait se borner à se dire « le lycée est un endroit privé, j’ai les badges de mes élèves de toute façon, je pourrais avoir aujourd’hui un badge papier avec la photo et un humain qui regarde si c’est bien la bonne personne ». Lui dit : « J’ai le droit de faire ce que je veux dans un environnement privé, le RGPD ne m’interdit pas le faire, donc je vais juste remplacer l’homme par une machine qui comparera. » Là où il a complètement tort, c’est déjà que les élèves sont mineurs, donc comment ils peuvent donner un consentement à un moment donné.

Daniel Schneidermann : On parle d’élèves volontaires dans le sujet.

Asma Mhalla : Ce sont des mineurs.

Olivier Tesquet : Leur consentement n’est pas très éclairé.

Didier Baichère : Ils sont mineurs De toute façon ils ne peuvent pas, au sens juridique du terme, donner un consentement clair et précis. Là on dépasse complètement le cadre légal. Le cadre légal interdit de le faire, ils arrêtent et on n’ira pas au-delà avec cette expérimentation, bien sûr.

Asma Mhalla : Ce qui est encore plus gênant dans le cas de l’expérimentation, outre la question du consentement en particulier sur un public mineur, c’est la question des entreprises privées qui était évoquée dans le reportage. En réalité l’expérimentation dans les deux lycées, à Nice et à aussi Marseille, Ampère et Eucalyptus, a été donnée à une entreprise privée. Comment on transfère progressivement et petit à petit des questions régaliennes, de sécurité en fait, sous format de partenariats privé-public qui génèrent des millions, des dizaines de millions d’euros à chaque fois, sur chaque projet. Sur Alicem je crois que c’était trois millions et demi d’euros, etc.
En réalité, on vide petit à petit l’État de droit de sa substance, on vide petit à petit les compétences de l’État et on les transfère vers des méga-industriels privés. C’est ce truchement permanent entre privé et public qui pose réellement question et qui, depuis quelque temps on le voit, et Snowden l’a beaucoup documenté. Ce sont en permanence les collusions entre l’État et les intérêts privés où le punitif et le divertissement s’interpellent en permanence. Tout à l’heure on parlait d’accoutumance par les usages : on commence par l’iPhone, on commence par Facebook et, en fait, on s’anesthésie, on dépolitise le sujet et petit à petit on arrive à ce que Macron lui-même appelait la cogouvernance.

Didier Baichère : Il faut qu’on s’arrête deux secondes là-dessus, parce que c’est vraiment essentiel. Il y a ce que vous dites, bien sûr, je suis très soucieux de la dimension souveraineté régalienne, etc., mais il y a aussi, quand on fait des expérimentations qui ne sont pas des expérimentations scientifiques, académiques, donc avec un cadre qui a été validé par des gens dont c’est le métier.

Daniel Schneidermann : Du genre Nice ?

Didier Baichère : Du genre Nice, ce n’est pas une expérimentation académique et scientifique. En fait on donne des données à un industriel, il fait travailler son algorithme avec des données, des images, etc., et on ne sait pas ce qu’il en fait après.
Quand on appelle à de l’expérimentation scientifique et académique, et c’est d’ailleurs ce que dit la CNIL dans sa note du jour, elle explique très clairement qu’il faut dire comment sont bornées les données, comment on les utilise et comment on les détruit. La reconnaissance faciale ne marche que parce que les algorithmes se sont entraînés et si on veut diminuer les bais on sait bien qu’il faut, à un moment donné, avoir des photos françaises et européennes, ce qui n’est absolument pas le cas aujourd’hui. Sauf que circonscrire une expérimentation avec 3000 personnes à Nice par exemple, le cas des élèves, ne permet pas d’entraîner correctement les algorithmes.

Daniel Schneidermann : Vous appelez de vos vœux des expérimentations encadrées. Mais encadrées par qui ?

Didier Baichère : J’appelle à deux choses.

Daniel Schneidermann : Encadrées par qui ?

Didier Baichère : Un Conseil national scientifique, un Conseil national d’éthique qui existe, qui existe dans le cadre des lois de bioéthique, qui est étendu parce qu’il vient d’être nommé aujourd’hui à l’extension sur l’intelligence artificielle de manière générale, donc un collège de scientifiques, de gens qualifiés qui, à un moment donné, vont pouvoir dire ce qu’est un algorithme ? Comment on peut vérifier que l’algorithme qui est utilisé pour des sujets qui vont toucher au public, aux collectivités locales, à l’État, etc., est un algorithme qui a mis la transparence, l’éthique en premier lieu. Ça veut dire que les industriels qui seront qualifiés à un moment donné auront ouvert les codes sources sur ces sujets-là.

Olivier Tesquet : Je voudrais juste revenir sur les expérimentations menées à Nice et à Marseille. Il faut quand même un peu rappeler ce qui s’est passé. C’est une entreprise américaine, Cisco, qui a démarché la région pour venir expérimenter son dispositif de reconnaissance faciale dans les lycées. Je suis allé à Marseille. Ce n’est pas n’importe quel lycée dans lequel ils expérimentent ça. Ils ne vont pas mettre ça dans un lycée du 7e ou du 8e arrondissement marseillais. Ils vont mettre ça dans un lycée professionnel du 10e arrondissement, qui est un quartier populaire, où ce sont des élèves qui sont majoritairement issus des quartiers nord. Vous avez une population extrêmement racisée et c’est sur cette population-là qu’on va décider de tester ces dispositifs. C’est déjà quand même un premier point qui m’interpelle. Le fait qu’on le fasse à l’école, je trouve que c’est tout sauf un hasard. L’école est une institution disciplinaire au sens où la décrivait Foucault, c’est une institution disciplinaire avec une population qui est homogène, c’est-à-dire que d’une année sur l’autre l’échantillon des élèves va toujours être semblable. Vous avez déjà des écoles et des établissements scolaires, et en particulier dans la région sud, qui collectent un certain nombre d’informations. Ils ont les photos des élèves. Il y a des bases de données biométriques dans les collèges de la région sud parce que, maintenant, on n’utilise plus les badges de cantine, mais on utilise son empreinte digitale pour aller se restaurer le midi. Tout ça intervient quand même dans un contexte assez particulier. À Nice les portiques ont été installés pendant les vacances scolaires, en douce, sans que personne ne soit au courant. Les associations de parents d’élèves, les syndicats de professeurs, n’étaient pas conviés on va dire aux interventions et aux réunions pour mettre en place le dispositif et les pouvoirs publics de la région sont allés jusqu’à invoquer le risque d’attentat pour justifier la mise en place de ces dispositifs auprès des parents d’élèves et des enseignants. Quand on parle de transparence, juste refaire cette petite histoire-là montre à quel point, aujourd’hui, on est dans une espèce d’hybridation public-privé assez mortifère et d’une opacité assez effrayante.

Daniel Schneidermann : Vous avez des explications sur les raisons pour lesquelles ça a été expérimenté dans des lycées populaires, accueillant essentiellement des élèves racisés ?

Didier Baichère : Si vous n’avez pas de cadre, aujourd’hui vous faites ce que vous voulez, la collectivité locale fait ce qu’elle veut du moment qu’elle respecte le RGPD. Encore une fois il faut s’exprimer fortement sur ces sujets-là en disant que ce n’est pas la voie qu’on veut prendre et que ce n’est pas ça qu’on encourage, par contre, quand je me mets dans leurs chaussures deux minutes, le cadre légal qui permettrait de contrôler ce qu’ils font et de le faire de manière scientifique et académique, n’existe pas. Pourquoi on appelle à une régulation sur ces sujets-là ?, pour éviter que les collectivités locales, qui ont été beaucoup dans L’Apprenti sorcier sur la vidéo-protection, débordent à un moment donné de leurs compétences et se mettent à faire ce type d’expérimentation qui ne sont pas souhaitées.

Daniel Schneidermann : Asma Mhalla.

Asma Mhalla : Quand on parlait justement des cibles qu’on utilise pour les expérimentations, donc des populations racisées, défavorisées, ce qu’on voit aussi dans les biais des algorithmes de reconnaissance faciale et des algorithmes de façon générale, ce sont les biais, c’est un fait, c’est une reproduction des discriminations. On se rend compte que typiquement les bases de comparaison, TES ou peu importe, toutes les bases de comparaison qu’on peut avoir, en réalité ont des taux de fiabilité très élevés quand ce sont des hommes caucasiens, donc blancs. On a des taux d’erreur qui peuvent monter à plus de 30 % quand ce sont des femmes noires, par exemple.

Daniel Schneidermann : Comment ça se fait ?

Asma Mhalla : Ça se fait parce que techniquement les bases de comparaison ne consolident pas suffisamment, en fait, d’images de femmes et de noirs, puisque les bases sont essentiellement nourries, donc les algorithmes sont essentiellement entraînés sur des hommes blancs. En réalité ils sont parfaitement entraînés et en effet on a des taux de succès, des taux de fiabilité plutôt élevés sur des cibles blanches et on a des taux d’erreur qui sont beaucoup plus élevés, donc inacceptables, quand on est sur des taux d’erruer à 30 %, sur des personnes noires, des femmes, etc.

Daniel Schneidermann : Est-ce que ce n’est pas contradictoire avec le fait de craindre que ces dispositifs visent en premier lieu les racisés ? Si ça vise en premier lieu les racisés, les bases de données de racisés devraient être mieux fournies, si j’ose dire, que les bases d’hommes blancs.

Asma Mhalla : En l’occurrence non. En l’occurrence aujourd’hui, par ailleurs, l’algorithme est une boîte noire. Donc Cisco, etc., on n’a aucune façon aujourd’hui d’auditer la façon dont les algorithmes et les arbres de décision qui sont injectés dans les logiciels sont construits qui est une des clefs du sujet…

Didier Baichère : Qui est une des clefs du sujet. Dans le rapport de Villani, souvenez-vous, il y a le point essentiel.

Asma Mhalla : Absolument. Que vous avez vous-même repris. La question c’est comment on va plus loin.

Daniel Schneidermann : C’est quoi la clef du sujet ?

Didier Baichère : L’audit des algorithmes.

Asma Mhalla : L’audit des algorithmes, comment on ouvre la boîte noire pour comprendre quels sont les biais sont intégrés.

Daniel Schneidermann : Bien sûr.

Didier Baichère : Le rôle d’un État, à un moment, c’est celui-là.

Asma Mhalla : Juste sur la question de l’expérimentation, je terminerai là-dessus, de ma compréhension, quand même, de ce qu’est un pilote, une expérimentation, ce sont toujours des phases 0 avant une généralisation. On est bien d’accord ? On n’expérimente pas pour l’amour de l’expérimentation ou pour l’amour de la science, on expérimente pour tirer des premières conclusions, pour généraliser. Si l’idée c’est d’expérimenter on ne sait pas trop quoi, sur on ne sait pas trop quel périmètre, pour généraliser.

Didier Baichère : On sait précisément. On sait quoi expérimenter, quels cas d’usage, quelle région, quelle durée, etc. Ça on le sait. Désolé. Je ne suis pas un sachant.

Asma Mhalla : Quels sont-ils ?Typiquement quelles expérimentations appelez-vous de vos vœux ?

Didier Baichère : Très simplement aujourd’hui il y a trois cas d’usage qu’il faut tester : les aspects de sécurité, on en a parlé ; les aspects de gestion de flux, on en a parlé aussi rapidement ; et il y a surtout tous ces cas d’usage en fait commerciaux qui sont probablement – je ne donne qu’un avis personnel mais c’est à la lumière de toutes ses auditions que j’ai pu faire depuis 12 mois sur le sujet – tous ces cas d’usage commerciaux qui, à mon avis, vont probablement être rejetés en masse par les citoyens.
Quand vous arrivez, à un moment donné, dans une expérience commerciale où quand vous allez rentrer dans un magasin qui vend des cosmétiques et que, compte-tenu de votre morphologie, on va vous proposer de l’antirides ; quand vous rentrez dans un restaurant et qu’on va vous proposer la version XXL versus la version normale parce que votre morphologie semble plus importante que celle d’une autre personne, on atteint la limite de ce qui est le respect de la liberté individuelle. Et ça, en termes de pédagogie sur ces sujets, il y a un énorme travail à faire. C’est pour ça que j’appelle à une consultation citoyenne effective pour s’assurer qu’à travers cette consultation on fasse cette pédagogie.

Olivier Tesquet : Oui et non. Parce que, en récupérant les attendus du Congrès de Technopolice qui s’est tenu au mois de septembre, je lisais un colonel de la gendarmerie qui était, par ailleurs, un colonel de la gendarmerie qui avait écrit une note du Centre de recherche des officiers de la gendarmerie nationale, qui appelait de ses vœux la reconnaissance faciale en disant justement que si on arrivait à réduire les biais dont il était question, on résoudrait le problème des contrôles au faciès par un contrôle d’identité permanent et général. Je laisse à tout un chacun le soin de se faire une idée.

Didier Baichère : Ce qui légalement n’est pas possible. Encore une fois c’est important de revenir sur le cadre .

Asma Mhalla : Ce qui légalement n’est pas possible aujourd’hui.

Olivier Tesquet : C’est important de redonner le cadre légal mais c’est aussi important de dire que c’est la parole d’un colonel de gendarmerie.

Daniel Schneidermann : J’ajoute qu’on a tenté d’inviter ce colonel de gendarmerie qui n’a pas répondu à notre répondu à notre invitation.

Juliette Gramaglia :  ???, qui n’a pas souhaité venir s’exprimer.

Daniel Schneidermann : On aurait adoré entendre ce colonel de gendarmerie.

Olivier Tesquet : Et ce colonel de gendarmerie disait aussi qu’en Chine, on est toujours face à ce repoussoir chinois, qui est un repoussoir mais qui est quand même aussi quelque chose sur lequel on peut s’appuyer, y compris parce qu’on aura peut-être l’occasion d’y revenir, on rechigne au modèle chinois mais pas forcément à l’achat de technologies chinoises. Ce colonel de gendarmerie disait qu’en Chine les usages commerciaux de la reconnaissance faciale avaient été admis et qu’il ne voyait pas pourquoi chez nous, où on peut estimer qu’on suit un peu la même pente – effectivement aujourd’hui vous pouvez déverrouiller votre téléphone avec votre visage, il y a déjà des usages commerciaux de la reconnaissance faciale qui se sont démocratisés – pourquoi on serait réfractaires à une utilisation régalienne, au nom de la sécurité, de ces types de dispositifs.
Je pense qu’il est quand même important de garder à l’idée que cette articulation entre les usages commerciaux, qui préparent justement le terrain, sont ensuite utilisés comme des prétextes et comme des arguments par les tenants de cet eldorado sécuritaire.

Daniel Schneidermann : Ce colonel de gendarmerie raisonne comme un colonel de gendarmerie !

Asma Mhalla : La première brique de l’expérimentation c’est la sécurité.

35’ 53

Didier Baichère : Aujourd’hui, quand vous demandez