« Surveillance algorithmique : punir l’intention avant l’action » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
 
Ligne 92 : Ligne 92 :
==13’28==
==13’28==


<b>Vanessa Perez : </b>Pour continuer
<b>Vanessa Perez : </b>Pour continuer cette émission spéciale surveillance algorithmique, j’ai le plaisir de recevoir maître Gerald Pandelon, avocat spécialisé en droit pénal des affaires au Barreau de Paris et à la Cour pénale internationale de La Haye. Gerald bonjour.
 
<b>Gerald Pandelon : </b>Bonjour. Merci pour votre invitation.
 
<b>Vanessa Perez : </b>Merci. Quand on écoute Philippe Latombe, on se dit qu’on va bientôt punir l’intention de nos actes et non plus de l’acte lui-même, c’est-à-dire que si on pense faire un crime, on va être puni alors qu’on n’allait pas le commettre du tout. C’est cela qu’il faut comprendre ?
 
<b>Gerald Pandelon : </b>Pour l’instant, ce n’est pas possible. Sur un plan juridique, notamment en matière pénale, il faut toujours un élément intentionnel, matériel et formel. On ne peut pas punir l’intention. En revanche, même si la matérialité, l’infraction est réunie, si fait défaut l’élément moral, l’élément intentionnel, ce n’est pas poursuivable.
 
<b>Vanessa Perez : </b>J’ai envie de vous demander si les algorithmes qui sont mis, justement cette couche d’intelligence qu’on met sur les caméras, sont une forme de surveillance illégale aujourd’hui, ou alors sont-ils conformes au droit ?
 
<b>Gerald Pandelon : </b>Ils sont considérés aussi bien par la jurisprudence française qu’européenne comme légaux lorsqu’ils ne sont pas disproportionnés, lorsqu’il n’y a pas une disproportion entre les mécanismes mis en œuvre, les caméras intelligentes, etc., et les conséquences attendues. Là, ce n’est pas considéré comme attentatoire aux libertés. En revanche, et c’est ce que dit la Cour européenne des droits de l’homme, notamment dans un arrêt de 2020, lorsque c’est disproportionné, alors c’est considéré comme une surveillance généralisée des masses, etc., donc c’est contraire à notre édifice normatif.
 
<b>Vanessa Perez : </b>On le sait, quand on est sur Internet, pour avoir accès à certains services, on est obligé de donner son consentement et on ne va pas lire les centaines de pages, on va dire juridiques, qui sont derrière. Est-ce que, pour vous, ça masque des choses qu’on ne devrait pas accepter, quelque part, et qui sont non conformes à nos droits de l’homme ?
 
<b>Gerald Pandelon : </b>Oui, parce que ça nous permet bien souvent de consentir à des éléments, à des choses qu’on n’a pas comprises. Pourquoi ? Parce qu’il y a une forme d’asymétrie de l’information, puisque les entreprises ont un niveau de connaissance que les utilisateurs potentiels n’ont pas et, par conséquent, ça pose effectivement un problème de consentement. Mais, on est, je dirais, surveillé même par des mécanismes qui nous paraissent anodins.
 
<b>Vanessa Perez : </b>Par exemple.
 
<b>Gerald Pandelon : </b>Spotify, Netflix, YouTube ou ce qu’on appelle aujourd’hui le design persuasif, les cookies, que sais-je encore, il y aurait encore pas mal d’exemples. Tout est mémorisé, tout est enregistré. Regarder : chaque fois que vous discutez avec une amie sur un sujet, si vous avez un smartphone qui est éclairé, tout de suite vous recevez des notifications sur le même sujet. C’est incroyable ! C’est la preuve, quand même, que notre liberté est relativement encadrée sans que ça conduise systématiquement à des poursuites.
 
<b>Vanessa Perez : </b>Justement, il y a pas de poursuites pénales. Est-ce que ça veut dire que la loi européenne sur la protection des données est correctement appliquée ? Ou alors, justement, les entreprises préfèrent plutôt payer des sanctions et récupérer la data des gens qui se servent de leurs services ?
 
<b>Gerald Pandelon : </b>À ma connaissance, une seule décision, mais vous pourrez vérifier, a été prise par la Cour européenne : 20 millions d’euros ont été infligés à une entreprise qui ne respectait pas, en toute transparence, ces éléments-là. Bien souvent, je pense que les entreprises ont le réflexe de payer d’abord pour ne pas être sanctionnées sur un plan judiciaire.
 
<b>Vanessa Perez : </b>Quelles seraient les sanctions ? Elles sont violentes si on ne respecte pas ce texte ?
 
<b>Gerald Pandelon : </b>Oui, l’article 225-1 du Code pénal prévoit des sanctions assez lourdes, dans l’hypothèse où, bien sûr, les éléments intentionnel et matériel auraient été réunis dans le cadre de cette infraction, mais vous avez également des sanctions fiscales, pas que les sanctions pénales, vous avez des sanctions fiscales. Dans le Code du travail, il est prévu qu’une forme de surveillance peut conduire…
 
<b>Vanessa Perez : </b>Par exemple de votre ordinateur. On voit que vous n’êtes pas assez productif ou alors que vous n’avez pas respecté les horaires, là, vous êtes surveillé. On peut avoir accès à ces données.
 
<b>Gerald Pandelon : </b>Absolument !
 
<b>Vanessa Perez : </b>Aujourd’hui, cela est observé, ou alors, pour l’instant, on fait fi ?
 
<b>Gerald Pandelon : </b>C’est très embryonnaire.
 
<b>Vanessa Perez : </b>C’est très embryonnaire. Qu’en pense Philippe Latombe ? On peut effectivement observer des collaborateurs qui ne seraient pas assez productifs ou qui ne délivrent pas dans les temps impartis ?
 
<b>Philippe Latombe : </b>Il y a eu quelques tentatives, par certaines entreprises, de faire des licenciements sur ce motif-là. La jurisprudence n’est pas encore suffisamment établie pour qu’on puisse déterminer si c’est légal ou pas. Il y a eu quelques cas où c’était flagrant, donc, en fait, il y avait d’autres éléments matériels qui permettaient de justifier le licenciement, donc, ça avait été accepté. D’autres qui étaient uniquement basés sur de l’espionnage du salarié, ce qui n’était pas prévu dans le règlement intérieur, ce qui n’était pas prévu dans la convention collective ou dans l’ensemble du contrat de travail, donc ça avait été rejeté. Pour l’instant, on est sur des décisions de première instance, c’est-à-dire de prud’hommes. On a eu une ou deux affaires qui sont passées en appel. Pour l’instant, on n’a pas de cour de cassation suffisamment établie. Aujourd’hui, clairement, le droit du travail est très protecteur du salarié sur le sujet.
 
<b>Vanessa Perez : </b>Philippe, Gerald vient de l’évoquer : les entreprises préfèrent parfois payer des amendes qui sont monstrueuses, plutôt que de respecter la loi sur la protection des données. De votre point de vue, c’est effectivement cet équilibre qui est en train de se dessiner ?
 
<b>Philippe Latombe : </b>Non, il est en train de changer. La Cour de justice de l’Union a eu une décision très récente, très intelligente, qui va rebattre les cartes : elle a infligé à une entreprise la possibilité qu’un de ses concurrents puisse l’attaquer en concurrence déloyale parce qu’elle ne respectait pas le RGPD. Aujourd’hui, ça donc va faire glisser la possibilité de pouvoir attaquer une entreprise qui ne respecte pas le RGPD du domaine uniquement de la protection des données, donc de la CNIL, avec une sanction administrative, vers une procédure pour concurrence déloyale et ça se jugera devant des tribunaux totalement différents, des tribunaux de commerce, des tribunaux au civil, donc ça va être intéressant de voir comment ça va se passer. Mais l’arrêt de la Cour de justice, là-dessus, va donner un nouveau coup de projecteur sur la protection des données.
 
<b>Vanessa Perez : </b>Vous êtes tous les deux dans le domaine du droit. Il y a beaucoup de bouleversements et une accélération de l’innovation. On sait que la régulation ne va pas forcément à la même vitesse que celle de l’innovation. Sur quoi êtes-vous en train de travailler pour vous dire on va prendre un coup d’avance et on sera capable d’encadrer et de protéger les citoyens ? Qui veut prendre la parole ?
 
<b>Gerald Pandelon : </b>Pour rebondir sur ce que dit Monsieur le député, je crois que nous ne sommes pas non plus totalement démunis en termes de textes.<br/>
Il y a effectivement le RGPD. L’article 22 dit quand même qu’on ne peut pas faire l’objet d’une décision automatisée. Vous avez la loi informatique et libertés qui a été réécrite en partie en 2018.v
Vous avez quand même la loi pour une République numérique de 2016.<br/>
Nous ne sommes pas totalement démunis.<br/>
Mais en fait, au-delà du débat juridique, me semble-t-il, ce qui, à mon avis, est important de soulever c’est ce que j’appelle l’arbitrage entre la sécurité et la liberté. C’est vrai qu’on pourrait considérer que le fait d’être trop surveillé, etc., peut enfreindre nos libertés, d’autant plus qu’il n’y a pas de liberté en retour qui nous soit donnée. On pourrait considérer également que la République, la <em>res publica</em>, c’est la chose visible et que là, manifestement, c’est le secret et l’invisibilisation du pouvoir qui l’emportent. Mais, compte-tenu des faits, du terrorisme, on ne va pas rentrer dans les détails, qui ont frappé la France depuis maintenant une quinzaine d’années, si l’intelligence artificielle permettait que la sécurité accrue permettait à ce qu’il y ait davantage de liberté, de protection des citoyens, on peut légitimement se poser la question de savoir si ce ne serait pas plutôt un bienfait.
 
<b>Vanessa Perez : </b>Pour conclure, Philippe Latombe, votre position. Sur quoi travaillez-vous concrètement pour avoir un coup d’avance par rapport à l’innovation ?
 
<b>Philippe Latombe : </b>Il va falloir qu’on travaille sur la transposition de la directive NIS 2 sur la cybersécurité, qui va, du coup, toucher beaucoup les données personnelles, les fuites de données personnelles. On a des exemples très récents, on va citer un grand opérateur de téléphonie. C’est donc l’adéquation entre NIS 2, la protection des données personnelles et le RGPD.
 
<b>Vanessa Perez : </b>Gerald Pandelon, Philippe Latombe, merci beaucoup pour vos éclairages.<br/>
<em>Le numérique pour tous </em>, c’est fini pour aujourd’hui. Pour prolonger la discussion, on se retrouve sur vos réseaux sociaux préférés.<br/>
Je vous souhaite une excellente fin de week-end et je vous dis à la semaine prochaine.

Dernière version du 7 janvier 2025 à 13:08


Titre : Surveillance algorithmique : punir l’intention avant l’action

Intervenant·es : Philippe Latombe - Gerald Pandelon - Vanessa Perez

Lieu : Podcast Le numérique pour tous - Sud Radio

Date : 10 novembre 2024

Durée : 22 min 16

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription[modifier]

Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.

Vanessa Perez : Bonjour et bienvenue dans Le numérique pour tous , l’émission dédiée au digital, à l’innovation et à la tech responsable.
Vous le savez, dès que nous levons la tête, il est impossible de passer à côté d’une caméra de vidéosurveillance pour garantir notre sécurité. D’ailleurs, on estime leur nombre environ à 1,5 million sur notre territoire, et ça n’est qu’un début. Mais, avec l’avènement de l’intelligence artificielle, leur utilisation soulève des questions sur la vie privée et nos libertés individuelles dès lors que nos gestes sont désormais anticipés. Jusqu’où chaque geste de notre quotidien peut-il désormais être analysé ? Avec la présence de la data dans tous les objets connectés, peut-on être puni dès lors que l’on ne respecte pas le mode d’emploi ? Et, surtout, quelles sont les conséquences sur nos libertés individuelles. C’est ce que nous tenterons de comprendre avec nos invités.
Le numérique pour tous spécial surveillance algorithmique, c’est parti et c’est sur Sud Radio.

Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.

Vanessa Perez : Pour commencer cette émission, nous avons le plaisir de recevoir Philippe Latombe. Bonjour, Philippe.

Philippe Latombe : Bonjour.

Vanessa Perez : Vous êtes membre du groupe Modem et secrétaire de la commission des lois. Pour commencer, parce qu’on aime commencer par une définition dans Le numérique pour tous , qu’est-ce qu’on appelle la surveillance algorithmique dans notre quotidien ?

Philippe Latombe : C’est un terme juridiquement impropre. Vidéosurveillance algorithmique, c’est de la vidéo-protection avec une surcouche algorithmique. La vidéo-protection, c’est tout ce qui est caméra, ce sont les caméras qui sont sur la voie publique. Quand on parle de vidéosurveillance, c’est dans les domiciles, dans les lieux privés, pour faire de la protection périmétrique ou pour éviter les intrusions.
Donc là, on parle essentiellement de vidéo-protection avec une surcouche algorithmique, c’est-à-dire que ce ne sont pas les caméras qui ont, dans la caméra elle-même, un algorithme d’intelligence artificielle. Le flux vidéo va sur un serveur et c’est le serveur qui a un filtre algorithmique qui permet de repérer des comportements ou des situations anormales.

Vanessa Perez : Très concrètement, si on lève la tête, on va les voir au niveau des feux urbains, même, peut-être, dans des supermarchés. Lesquelles sont équipées ou lesquelles seraient équipées ? Dans les villes, toutes ces petites boules que l’on voit sur nos feux de signalisation, ce sont des caméras qui sont équipées d’une couche algorithmique ?

Philippe Latombe : Non. Ce sont des caméras qui renvoient un flux vidéo dans une salle particulière, avec un serveur qui, lui, a la capacité de faire de l’algorithmie. On n’est pas encore en capacité d’avoir des caméras avec de l’algorithmie directement embarquée dans la caméra. Ça nécessite des réseaux de neurones très compressés – on ne va pas rentrer dans la technique –, c’est une technologie qui émerge, mais qui est très chère, qui est essentiellement portée par nos camarades chinois, parce que eux l’utilisent à fond sur l’espace public en Chine.

Vanessa Perez : Quand on se balade, soit dans l’espace public, soit dans un supermarché ou ailleurs, quels sont les objets qui peuvent nous trahir ou qui peuvent observer nos comportements et mettre cette intelligence ?

Philippe Latombe : Le premier instrument, c’est celui que tout le monde a dans sa poche, qui s’appelle le smartphone. C’est le principal outil, aujourd’hui, de localisation, de récupération de données, de traçabilité de comportements anormaux. C’est aussi la première chose que les forces de l’ordre essaient de récupérer lors d’un crime ou d’un délit grave, parce qu’il y a des traces numériques. Si vous en voulez une autre, qui est celle de tout le monde, tous les jours, c’est la voiture. Dans la voiture, le GPS, tout le système embarqué de la voiture laisse des traces partout et à tout moment.
On fait une fixation sur la vidéosurveillance algorithmique, qui n’est pas le bon terme, encore une fois, mais il y a des choses qui sont déjà dans notre quotidien, qui nous fliquent beaucoup plus que la vidéosurveillance algorithmique, le téléphone et la voiture. Imaginez le GPS, il vous dit exactement par où vous êtes passé à n’importe quel moment, c’est une traçabilité. Et je parle même pas des systèmes qui, ensuite, envoient vers les constructeurs des informations pour savoir comment va la voiture et comment elle a roulé.

Vanessa Perez : Justement, on va rebondir sur le GPS et la voiture. À un moment où les notions de radars sont en train d’être débattues et peut-être même implémentées, à partir du moment où on voit que votre voiture va accélérer et qu’elle dépasse peut-être un 50 à l’heure sur le périphérique, la connaissance de la data dans la voiture fait que vous allez pouvoir être vidéo-verbalisé, une fois de plus.

Philippe Latombe : C’est là où le corpus juridique est très important. Il n’est pas possible de pouvoir sanctionner un automobiliste pour un comportement qu’il a eu, qui n’a pas été vérifié par une métrologie particulière, c’est le radar, en l’occurrence, qui doit faire l’objet de vérifications préalables, de mesures préalables et qui est installé dans des conditions très particulières : on doit avertir plusieurs centaines de mètres avant qu’on rentre dans une zone de radar, sauf cas particuliers de radars mobiles dans des cas précis ; il faut que l’emplacement du radar soit signifié sur la cartographie, c’est pour cela que vous avez des alertes radars sur des applications ou sur les smartphones. Il y a donc des règles très particulières. On ne peut pas, aujourd’hui, aller verbaliser quelqu’un en allant se brancher sur la voiture pour savoir si, il y a trois jours, il a dépassé le 50 à l’heure à tel endroit. Ce n’est pas possible.

Vanessa Perez : Là, on parle de la mobilité, mais on a aussi vu récemment des applications, dans les supermarchés, qui modélisent le geste du voleur après avoir analysé des milliers et des milliers de gestes. Elle les donne à une intelligence artificielle qui est capable de détecter, justement, le potentiel geste de vol de quelqu’un, un petit larcin dans un hypermarché. Là est-on hors-la-loi ou est-ce quelque chose qui va se généraliser ?

Philippe Latombe : On est aujourd’hui hors-la-loi. Ça pourrait éventuellement se généraliser s’il y avait une décision juridique légale, avec une mise en place d’une loi qui devrait passer la censure du Conseil constitutionnel, ça serait quand même très compliqué dans le cas qui nous occupe. L’IA Act va aussi bloquer, donc on aura un problème de conventionnalité, de conformité au règlement et au corpus juridique européen. Et, en plus, technologiquement, ça ne marche pas très bien. Les essais qui ont été faits par quelques enseignes de supermarchés pour essayer d’ouvrir des supermarchés sans personne 24 heures sur 24, 7 jours sur 7, ne marchent pas très bien parce qu’on se rend compte qu’il y a beaucoup de faux positifs : des gens qui prennent un objet, qui le mettent dans le panier, mais qui le reposent dans un autre rayon. En fait, il faut avoir la totalité de la traçabilité de l’action : je prends l’objet, j’identifie l’objet, je vois où il est mis ; s’il est ressorti, il faut que je le retrace, donc, c’est un peu compliqué. La meilleure des solutions et la moins chère pour les supermarchés, à l’heure actuelle, c’est de mettre des petites puces RFID sur les produits : quand on sort et qu’on a volé, ça sonne.

Vanessa Perez : Exactement.
On sait que pendant les Jeux olympiques, on a effectivement équipé les principaux sites de nombreux dispositifs. Est-ce que c’était juste pour assurer une sécurité pendant cette actualité, ou alors, en fait, y avait-il une anticipation d’une généralisation d’un système de surveillance beaucoup plus critique par l’État ?

Philippe Latombe : On m’a beaucoup reproché ce texte, parce que j’ai beaucoup travaillé sur le texte des JO. On avait beaucoup travaillé avec le Conseil constitutionnel, avec le Conseil d’État, sur les ensembles des mesures de protection qu’il devait y avoir.
D’abord, c’est un texte expérimental, c’est-à-dire que c’est une expérimentation qui se termine en mars 2025, avec un bilan obligatoire avant le 31 décembre. Une mission parlementaire qui été lancée. C’est Éric Martineau, pour le groupe Modem, qui va la conduire avec un membre du groupe GDR, donc des communistes. Il y a le rapport du Comité d’éthique de Paris qui va, lui aussi, donner un avis, et il y aura évidemment la CNIL qui va aussi donner un avis. À partir de là, on pourra ouvrir une phase de réflexion pour voir si c’est efficace ou pas efficace, et, si c’est efficace, est-ce qu’il faut le généraliser ou pas et dans quels cas de figure on le généralise. Ça passera forcément par la loi. On en a rediscuté avec le Conseil constitutionnel qui avait validé une expérimentation, mais si on doit généraliser, ce sera encore plus strict sur les règles d’encadrement. Les règles d’encadrement sont assez simples : il n’y a pas de biométrie, contrairement à ce que tout le monde pense, aucune empreinte de biométrie n’est prise par les caméras. Elles ont beaucoup servi pendant les JO sur des comportements anormaux de type mouvement de foule, parce que là ça marche très bien, comptabilisation de la densité d’une foule, parce qu’on sait qu’à partir d’un certain nombre de personnes au mètre carré, s’il se passe n’importe quel petit événement, ça peut provoquer des catastrophes, ça a été très bien documenté et ça marche bien. Ça marche pour voir s’il y a des gens qui courent après d’autres personnes, et là on est plutôt dans le cas d’une personne qui fuit un danger et, dans ce cas-là, on peut l’identifier et intervenir, là encore, sans biométrie. Ça ne marche pas très bien pour tous les gestes qu’on pensait être les gestes dangereux de terroriste, c’est-à-dire passer la main sous une veste pour sortir une arme, ça ne marche pas, il y a trop de faux positifs : les gens mettent sous leur veste pour chercher leur téléphone portable, pour aller chercher n’importe quoi, et ça donne des faux positifs, donc ce n’est pas utile. Et sur les colis abandonnés, les bagages abandonnés, on arrive à identifier qu’il y a un colis abandonné, on a du mal à tracer le lien avec une personne qui l’aurait oublié.

Vanessa Perez : Il y a donc encore un peu de travail.

Philippe Latombe : Il y a encore du boulot.

Vanessa Perez : Philippe, une célèbre universitaire américaine, qui est un peu la prophète du numérique, qui s’appelle Shoshana Zuboff, nous décrit un futur où on va être espionné quel que soit l’endroit. Est – ce qu’il y a encore des zones où on peut être complètement anonyme dans cette société ? Ou, pour l’instant, ce n’est pas possible et peut-être qu’un jour on va y réfléchir, on fera machine arrière ?

Philippe Latombe : Là encore, je pense que la principale source de non-anonymat, c’est le smartphone, cet outil que vous avez dans la poche, que tout le monde a apprivoisé, dont personne ne pourrait se passer, ou quasiment, maintenant, c’est celui-là qui est, aujourd’hui, la source d’absence d’anonymat principal. Pour le reste, la vidéo-protection sur la voie publique, qu’il y ait une surcouche algorithmique ou qu’il n’y en ait pas, les forces de l’ordre – sauf à ce que vous soyez hyper connu, que vous soyez une star – qui regardent les écrans savent pas qui vous êtes quand vous passez dans la rue.

Vanessa Perez : Mais on pourrait le faire avec la reconnaissance biométrique. Maintenant, on a quand même votre visage et si on bascule dans un État totalitaire, comme en Chine, on peut faire une reconnaissance de l’individu et de son identité.

Philippe Latombe : Technologiquement, c’est parfaitement faisable et les Chinois le font très bien. Nous avons quand même des protections très fortes en France et en Europe. En France, c’est la Constitution, les décisions du Conseil constitutionnel sont claires sur le sujet, ça n’est pas possible, et la protection par l’IA Act qui interdit expressément la surveillance généralisée d’une population à l’aide de ces outils. Et puis, il y aura très certainement, dans les semaines/mois qui viennent, à l’occasion des différents sommets sur l’IA, des sortes de pactes multilatéraux d’utilisation éthique de l’IA, notamment pour les pays démocratiques, le refus d’utilisation de la surveillance généralisée de la population. Je pense que c’est d’ailleurs un marqueur assez fort que nous aurons quand nous accueillerons le sommet sur l’IA en France en début d’année 2025.

Vanessa Perez : Si on fait un peu de science-fiction, Philippe, on sait qu’aujourd’hui l’IA peut détecter vos émotions et anticiper, peut être, une réponse qui est adaptée à votre colère ou à votre bienveillance ; on peut monétiser vos données de sommeil, donc on peut tout savoir sur vous. Le jour où on agrège tout ça, une fois de plus, la liberté part en vrille. Néanmoins, tout part du téléphone portable, comme vous le dites.

Philippe Latombe : On est parfaitement d’accord. C’est pour cela que l’ensemble de ces données doit être considéré comme des données sensibles. Elles doivent faire l’objet de protections particulières, c’est le cas avec le RGPD. Il va falloir qu’on renforce le RGPD. Il va surtout falloir qu’on fasse converger le RGPD et l’IA Act. Aujourd’hui, RGPD et IA Act ne se fondent pas l’un dans l’autre, il y a des zones de frottement qu’il va falloir pouvoir régler. Je pense qu’on va aller vers un RGPD 2.0 qui sera un RGPD compatible avec l’IA Act. De toute façon, nous allons en avoir besoin parce que, effectivement, les algorithmes d’IA ont besoin de beaucoup de données, de données très précises et très bien calibrées, pour pouvoir fonctionner correctement. Et, aujourd’hui, on a besoin d’IA. On a besoin d’IA sur les données de santé pour faire du dépistage, pour permettre d’accélérer un certain nombre de processus médicaux et, si on n’a pas ces données, si on ne nourrit pas les algorithmes, on ne les aura pas, on en a besoin, mais il ne faut pas non plus que ces données partent n’importe où. D’où l’obligation, la nécessité de sécuriser les clouds, d’avoir une réglementation sur les clouds très protectrice, notamment pour les données de santé.

Vanessa Perez : Si on n’a pas toutes ces réglementations, on peut facilement basculer dans un État avec un score social comme on a en Chine, c’est-à-dire que si vous ne vous êtes pas bien comporté, vous avez brûlé trois feux rouges et vous n’avez pas honoré vos dettes, vous êtes mal noté ?

Philippe Latombe : Oui, c’est, c’est technologiquement possible, c’est là tout l’intérêt du législateur, d’un certain nombre d’associations et de professionnels du droit, pour être sûr que les garde-fous sont bien présents et bien respectés. On peut toujours faire la politique du pire. Il faut aussi voir que l’IA est une révolution industrielle qui va pouvoir nous aider sur beaucoup de sujets. Je reviens sur la santé : sans IA, vu la démographie médicale que nous avons, nous allons avoir des problèmes de santé publique. Il va absolument nous falloir de l’IA pour faire de la prévention, pour faire du dépistage, pour faire un certain nombre de prédictions de risques de maladie ce qui fait qu’on va pouvoir spécifier des tests, du dépistage sur un certain nombre de maladies, parce qu’on sait qu’elles sont dans la famille depuis relativement longtemps, qu’on a documenté que ça pourrait arriver, un cas sur cinq, etc. On en aura besoin parce qu’on n’aura pas suffisamment de médecins et de professionnels de santé pour suivre la population générale.

Vanessa Perez : Merci, Philippe Latombe. Je rappelle que vous êtes membre du groupe Modem et membre du collège de la CNIL.
Restez avec nous. On marque une courte pause avant de comprendre comment le droit nous protège, ou pas du tout, des dérives de l’intelligence artificielle.
Le numérique pour tous , spécial surveillance algorithmique. Ça continue dans quelques instants et c’est sur Sud Radio.

Voix off : Sud Radio – Le numérique pour tous – Vanessa Perez.

13’28[modifier]

Vanessa Perez : Pour continuer cette émission spéciale surveillance algorithmique, j’ai le plaisir de recevoir maître Gerald Pandelon, avocat spécialisé en droit pénal des affaires au Barreau de Paris et à la Cour pénale internationale de La Haye. Gerald bonjour.

Gerald Pandelon : Bonjour. Merci pour votre invitation.

Vanessa Perez : Merci. Quand on écoute Philippe Latombe, on se dit qu’on va bientôt punir l’intention de nos actes et non plus de l’acte lui-même, c’est-à-dire que si on pense faire un crime, on va être puni alors qu’on n’allait pas le commettre du tout. C’est cela qu’il faut comprendre ?

Gerald Pandelon : Pour l’instant, ce n’est pas possible. Sur un plan juridique, notamment en matière pénale, il faut toujours un élément intentionnel, matériel et formel. On ne peut pas punir l’intention. En revanche, même si la matérialité, l’infraction est réunie, si fait défaut l’élément moral, l’élément intentionnel, ce n’est pas poursuivable.

Vanessa Perez : J’ai envie de vous demander si les algorithmes qui sont mis, justement cette couche d’intelligence qu’on met sur les caméras, sont une forme de surveillance illégale aujourd’hui, ou alors sont-ils conformes au droit ?

Gerald Pandelon : Ils sont considérés aussi bien par la jurisprudence française qu’européenne comme légaux lorsqu’ils ne sont pas disproportionnés, lorsqu’il n’y a pas une disproportion entre les mécanismes mis en œuvre, les caméras intelligentes, etc., et les conséquences attendues. Là, ce n’est pas considéré comme attentatoire aux libertés. En revanche, et c’est ce que dit la Cour européenne des droits de l’homme, notamment dans un arrêt de 2020, lorsque c’est disproportionné, alors c’est considéré comme une surveillance généralisée des masses, etc., donc c’est contraire à notre édifice normatif.

Vanessa Perez : On le sait, quand on est sur Internet, pour avoir accès à certains services, on est obligé de donner son consentement et on ne va pas lire les centaines de pages, on va dire juridiques, qui sont derrière. Est-ce que, pour vous, ça masque des choses qu’on ne devrait pas accepter, quelque part, et qui sont non conformes à nos droits de l’homme ?

Gerald Pandelon : Oui, parce que ça nous permet bien souvent de consentir à des éléments, à des choses qu’on n’a pas comprises. Pourquoi ? Parce qu’il y a une forme d’asymétrie de l’information, puisque les entreprises ont un niveau de connaissance que les utilisateurs potentiels n’ont pas et, par conséquent, ça pose effectivement un problème de consentement. Mais, on est, je dirais, surveillé même par des mécanismes qui nous paraissent anodins.

Vanessa Perez : Par exemple.

Gerald Pandelon : Spotify, Netflix, YouTube ou ce qu’on appelle aujourd’hui le design persuasif, les cookies, que sais-je encore, il y aurait encore pas mal d’exemples. Tout est mémorisé, tout est enregistré. Regarder : chaque fois que vous discutez avec une amie sur un sujet, si vous avez un smartphone qui est éclairé, tout de suite vous recevez des notifications sur le même sujet. C’est incroyable ! C’est la preuve, quand même, que notre liberté est relativement encadrée sans que ça conduise systématiquement à des poursuites.

Vanessa Perez : Justement, il y a pas de poursuites pénales. Est-ce que ça veut dire que la loi européenne sur la protection des données est correctement appliquée ? Ou alors, justement, les entreprises préfèrent plutôt payer des sanctions et récupérer la data des gens qui se servent de leurs services ?

Gerald Pandelon : À ma connaissance, une seule décision, mais vous pourrez vérifier, a été prise par la Cour européenne : 20 millions d’euros ont été infligés à une entreprise qui ne respectait pas, en toute transparence, ces éléments-là. Bien souvent, je pense que les entreprises ont le réflexe de payer d’abord pour ne pas être sanctionnées sur un plan judiciaire.

Vanessa Perez : Quelles seraient les sanctions ? Elles sont violentes si on ne respecte pas ce texte ?

Gerald Pandelon : Oui, l’article 225-1 du Code pénal prévoit des sanctions assez lourdes, dans l’hypothèse où, bien sûr, les éléments intentionnel et matériel auraient été réunis dans le cadre de cette infraction, mais vous avez également des sanctions fiscales, pas que les sanctions pénales, vous avez des sanctions fiscales. Dans le Code du travail, il est prévu qu’une forme de surveillance peut conduire…

Vanessa Perez : Par exemple de votre ordinateur. On voit que vous n’êtes pas assez productif ou alors que vous n’avez pas respecté les horaires, là, vous êtes surveillé. On peut avoir accès à ces données.

Gerald Pandelon : Absolument !

Vanessa Perez : Aujourd’hui, cela est observé, ou alors, pour l’instant, on fait fi ?

Gerald Pandelon : C’est très embryonnaire.

Vanessa Perez : C’est très embryonnaire. Qu’en pense Philippe Latombe ? On peut effectivement observer des collaborateurs qui ne seraient pas assez productifs ou qui ne délivrent pas dans les temps impartis ?

Philippe Latombe : Il y a eu quelques tentatives, par certaines entreprises, de faire des licenciements sur ce motif-là. La jurisprudence n’est pas encore suffisamment établie pour qu’on puisse déterminer si c’est légal ou pas. Il y a eu quelques cas où c’était flagrant, donc, en fait, il y avait d’autres éléments matériels qui permettaient de justifier le licenciement, donc, ça avait été accepté. D’autres qui étaient uniquement basés sur de l’espionnage du salarié, ce qui n’était pas prévu dans le règlement intérieur, ce qui n’était pas prévu dans la convention collective ou dans l’ensemble du contrat de travail, donc ça avait été rejeté. Pour l’instant, on est sur des décisions de première instance, c’est-à-dire de prud’hommes. On a eu une ou deux affaires qui sont passées en appel. Pour l’instant, on n’a pas de cour de cassation suffisamment établie. Aujourd’hui, clairement, le droit du travail est très protecteur du salarié sur le sujet.

Vanessa Perez : Philippe, Gerald vient de l’évoquer : les entreprises préfèrent parfois payer des amendes qui sont monstrueuses, plutôt que de respecter la loi sur la protection des données. De votre point de vue, c’est effectivement cet équilibre qui est en train de se dessiner ?

Philippe Latombe : Non, il est en train de changer. La Cour de justice de l’Union a eu une décision très récente, très intelligente, qui va rebattre les cartes : elle a infligé à une entreprise la possibilité qu’un de ses concurrents puisse l’attaquer en concurrence déloyale parce qu’elle ne respectait pas le RGPD. Aujourd’hui, ça donc va faire glisser la possibilité de pouvoir attaquer une entreprise qui ne respecte pas le RGPD du domaine uniquement de la protection des données, donc de la CNIL, avec une sanction administrative, vers une procédure pour concurrence déloyale et ça se jugera devant des tribunaux totalement différents, des tribunaux de commerce, des tribunaux au civil, donc ça va être intéressant de voir comment ça va se passer. Mais l’arrêt de la Cour de justice, là-dessus, va donner un nouveau coup de projecteur sur la protection des données.

Vanessa Perez : Vous êtes tous les deux dans le domaine du droit. Il y a beaucoup de bouleversements et une accélération de l’innovation. On sait que la régulation ne va pas forcément à la même vitesse que celle de l’innovation. Sur quoi êtes-vous en train de travailler pour vous dire on va prendre un coup d’avance et on sera capable d’encadrer et de protéger les citoyens ? Qui veut prendre la parole ?

Gerald Pandelon : Pour rebondir sur ce que dit Monsieur le député, je crois que nous ne sommes pas non plus totalement démunis en termes de textes.
Il y a effectivement le RGPD. L’article 22 dit quand même qu’on ne peut pas faire l’objet d’une décision automatisée. Vous avez la loi informatique et libertés qui a été réécrite en partie en 2018.v Vous avez quand même la loi pour une République numérique de 2016.
Nous ne sommes pas totalement démunis.
Mais en fait, au-delà du débat juridique, me semble-t-il, ce qui, à mon avis, est important de soulever c’est ce que j’appelle l’arbitrage entre la sécurité et la liberté. C’est vrai qu’on pourrait considérer que le fait d’être trop surveillé, etc., peut enfreindre nos libertés, d’autant plus qu’il n’y a pas de liberté en retour qui nous soit donnée. On pourrait considérer également que la République, la res publica, c’est la chose visible et que là, manifestement, c’est le secret et l’invisibilisation du pouvoir qui l’emportent. Mais, compte-tenu des faits, du terrorisme, on ne va pas rentrer dans les détails, qui ont frappé la France depuis maintenant une quinzaine d’années, si l’intelligence artificielle permettait que la sécurité accrue permettait à ce qu’il y ait davantage de liberté, de protection des citoyens, on peut légitimement se poser la question de savoir si ce ne serait pas plutôt un bienfait.

Vanessa Perez : Pour conclure, Philippe Latombe, votre position. Sur quoi travaillez-vous concrètement pour avoir un coup d’avance par rapport à l’innovation ?

Philippe Latombe : Il va falloir qu’on travaille sur la transposition de la directive NIS 2 sur la cybersécurité, qui va, du coup, toucher beaucoup les données personnelles, les fuites de données personnelles. On a des exemples très récents, on va citer un grand opérateur de téléphonie. C’est donc l’adéquation entre NIS 2, la protection des données personnelles et le RGPD.

Vanessa Perez : Gerald Pandelon, Philippe Latombe, merci beaucoup pour vos éclairages.
Le numérique pour tous , c’est fini pour aujourd’hui. Pour prolonger la discussion, on se retrouve sur vos réseaux sociaux préférés.
Je vous souhaite une excellente fin de week-end et je vous dis à la semaine prochaine.