Table ronde sur les influences étrangères dans l'espace numérique

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Table ronde sur les influences étrangères dans l'espace numérique

Intervenant·es : Catherine Morin-Desailly - Nathalie Goulet - Sylvie Robert - Dominique de Legge - Bernard Benhamou - David Chavalarias - Tariq Krim - Julien Nocetti - Rachid Temal - André Reichardt

Lieu : Sénat

Date : 4 juin 2024

Durée : 2 h 01 min 38

Vidéo

Audio

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Dominique de Legge : Mes chers collègues, je vous propose de poursuivre notre nos travaux cet après-midi avec cette table ronde qui réunit quatre spécialistes du sujet qui nous intéresse.
Monsieur Bernard Benhamou, vous êtes secrétaire général de l’Institut de la souveraineté numérique, vous avez publié de nombreux travaux sur la géopolitique de l’Internet.
Monsieur David Chavalarias, vous êtes directeur de recherche au CNRS et directeur de l’Institut des systèmes complexes. Vos travaux portent notamment sur les dynamiques sociales et cognitives liées au numérique. Les algorithmes des plateformes, nous le savons, exploitent des biais qui sont ensuite utilisés par les auteurs d’opérations d’influence malveillante.
Monsieur Tariq Krim, vous êtes fondateur du think tank Cybernetica, vous êtes également spécialiste des plateformes numériques et des enjeux politiques qui leur sont associés.
Monsieur Julien Nocetti, vous êtes chercheur au Centre d’analyse de prévision et stratégie du ministère des Affaires étrangères. Votre expertise porte sur la géopolitique des technologies numériques et vous êtes, en particulier, spécialiste de la Russie.

Avant de vous donner la parole, il me revient de rappeler qu’un faux témoignage devant notre commission d’enquête est passible des peines prévues aux articles 434-13,14 et 15 du Code pénal. Je précise également qu’il vous appartient, le cas échéant, d’indiquer vos éventuels liens ou conflits d’intérêt en relation avec l’objet de notre commission. Je vous invite à prêter serment, de dire « toute la vérité, rien que la vérité » en levant la main droite et en disant « je le jure ».
Je vous remercie cette audition fait l’objet d’une captation vidéo qui sera diffusée sur le site internet et, le cas échéant, les réseaux sociaux du Sénat puis consultable en vidéo. À la demande, elle fera l’objet d’un compte-rendu.
Je propose de vous donner à chacun sept minutes pour faire un propos introductif, 4 fois 7 ça fait 28, ça fait déjà une demi-heure d’introduction pour nous. À la suite de quoi, le rapporteur et mes collègues ne manqueront pas de vous poser des questions pour approfondir tel ou tel point. Je vous propose de démarrer par un tirage au sort aléatoire qui fait que nous allons retenir l’ordre alphabétique, donc donner la parole à Monsieur Benhamou.

Bernard Benhamou : Merci Monsieur le Président. Merci à vous tous. C’est un plaisir que d’évoquer ces questions aujourd’hui.
Je vais me présenter. Donc Bernard Benhamou, je dirige et j’ai fondé donc l’Institut la souveraineté numérique en 2015 après avoir exercé les fonctions de délégué interministériel aux usages de l’Internet et de négociation européenne sur les questions de régulation du numérique ainsi qu’aux Nations-Unies auparavant, en tant que conseiller de la délégation française. J’ai fait partie du groupe de travail des États généraux de l’information dédiés à souveraineté et ingérence qui rendra ces travaux très bientôt, je pense donc que ça sera utile de pouvoir les transmettre dans le cadre de l’élaboration de votre commission d’enquête.
Pour revenir effectivement sur l’actualité, je dirais qu’il n’y a pas de sujet plus brûlant que le sujet de l’ingérence aujourd’hui. J’ai eu le plaisir, ici même, dans cette salle, d’intervenir lors de la précédente commission d’enquête cette fois-ci consacrée à TikTok, on voit que l’actualité rebondit et rebondit encore, et je précise, je dirais d’entrée d’entrée de jeu, que j’avais eu l’occasion de dire que les risques d’ingérence n’étaient pas simplement hypothétiques, mais qu’ils étaient d’autant plus réels que de la part des services chinois, ne pas utiliser la manne que constituent les informations recueillies sur plus d’un milliard et demi d’utilisateurs de TikTok constituerait, de leur part, une faute professionnelle, ce qui, d’ailleurs, avait été même repris par l’un de nos représentants des services de renseignement, lors de ces mêmes auditions.
Il est clair, aujourd’hui, que nous arrivons à un point non pas de rupture mais, je dirais, d’apogée non seulement des risques mais des actions d’ingérence de pays hostiles sur les réseaux numériques de manière générale qui prennent diverses formes.
Dans un passé pas si lointain, les premiers auxquels on pensait étaient les Russes. Il se trouve, effectivement, que désormais, ça nous a été confirmé récemment encore, les Chinois prennent de plus en plus part à des mesures de désinformation dans le cadre électoral, c’est le cas aux États-Unis, on l’a vu, de manière pas toujours intuitive, en soutenant d’ailleurs les groupes proches de Trump ; on l’a effectivement vu dans le passé, mais on le voit aussi en Europe et je dirais que l’année 2024 est l’année de tous les dangers puisque c’est l’année où plus de quatre milliards d’individus sont amenés à aller aux urnes. C’est donc un champ d’expérience comme jamais il n’a été possible dans ce domaine et il est clair, effectivement, qu’à la fois les grandes plateformes et, je dirais, l’ensemble des acteurs de l’Internet ont été là-dessus, pour dire les choses clairement et franchement, d’une coupable naïveté, voire d’une coupable lâcheté ou d’une coupable complaisance par rapport à des acteurs potentiellement toxiques, qu’il s’agisse de pays étrangers hostiles mais aussi, évidemment, de groupes terroristes, on le voit régulièrement. On a vu, non pas une complicité de ces plateformes, mais une convergence d’intérêts toxiques entre les groupes extrémistes et le modèle de fonctionnement de ces plateformes, sur lequel, j’imagine, mes voisins auront l’occasion de revenir. Le modèle de fonctionnement de ces plateformes privilégie les propos polarisants, clivants, parce qu’ils sont les plus vecteurs d’audience, dans ce métier on parle d’engagement, on disait avant vecteurs de retweets, vecteurs de partage, donc, par définition il n’y a pas une convergence politique par exemple entre des groupes terroristes et des plateformes comme YouTube ou Facebook, non !, mais il y a une convergence d’intérêts toxiques. La nouveauté, aujourd’hui, c’est qu’au-delà même de telle ou telle action ponctuelle, ces processus, et on l’a vu dans le passé par exemple avec l’affaire Cambridge Analytica aux États-Unis, qui n’était que la première du genre, beaucoup d’autres ont suivi et, malheureusement, beaucoup d’autres risquent de suivre, on voit bien que ça peut jouer aussi sur la formation des opinions publiques, d’où les inquiétudes que l’on pouvait avoir et que l’on peut toujours avoir. On l’a vu avec la Nouvelle-Calédonie sur la formation de l’opinion publique, voire des réactions ou des risques d’insurrection, d’actions violentes, comme on l’a vu aux États-Unis, là encore avec Cambridge Analytica, où les groupes qui ont mené l’action au Capitole, que j’appelle un coup d’État, que certains appellent une insurrection, peu importe le nom qu’on lui donne, étaient coordonnés et avaient pu grandir grâce aux algorithmes – le mot reviendra certainement beaucoup aujourd’hui –, aux algorithmes de ciblage, on parle, dans notre métier, de micro-ciblage qui sont liés à toutes les données extraordinairement précises que l’on possède sur les individus, données liées à leur goût, à leurs échanges, à l’ensemble des captations que l’on peut avoir sur eux, y compris les captations du domaine médical, psychologique. On est donc capable effectivement de savoir – et Facebook, jusqu’à une période récente ne l’empêchait pas – qui se reconnaît comme raciste, donc envoyer, de la part de ces groupes, qu’il s’agisse de QAnon, ??? [7 min 57] et quelques autres, d’envoyer des publicités ciblées pour recruter des personnes en fonction de leur profil politique et, dans le cadre des campagnes électorales, être en mesure de créer des messages, et c’est peut-être la nouveauté de ces deux dernières années avec la montée en puissance de l’intelligence artificielle qui fait l’objet du rapport que nous rendrons bientôt, être en mesure de créer des contenus spécifiquement conçus pour telle ou telle personne en fonction de son profil. La nouveauté, c’est qu’auparavant, dans le cas de Cambridge Analytica, vous aviez une série d’ingénieurs qui étaient capables de concevoir des contenus et de les diffuser vers des dizaines ou des centaines de millions de personnes, aujourd’hui, tout cela peut se faire entièrement automatiquement par un système d’intelligence artificielle à qui l’on donne une feuille de route en disant « il faut favoriser l’élection de telle personne dans tel pays », et il va concevoir des contenus, répondre en ligne à des personnes qui penseront, de bonne foi, que c’est un humain qui leur répond, créer et inonder des centaines de millions de comptes de façon très rapide. J’avais eu l’occasion de dire, lors de la commission d’enquête sur TikTok, qu’en année moyenne Facebook efface tous les trimestres 1,5 milliard, je dis bien milliard, de faux comptes, donc plus de six milliards sur l’année précédente.
On voit bien que les outils de la désinformation, donc de l’ingérence se sont démocratisés dans le plus mauvais sens du terme et constituent, maintenant, un véritable risque sur le fonctionnement démocratique de nos sociétés. D’ailleurs, les experts de ces pays le disent très bien : l’ouverture des démocraties libérales à des ingérences extérieures est une manne, est une merveille pour ces régimes autoritaires qui y voient l’occasion d’interagir dans les temps à venir, et ils s’en vantent, la Russie s’en est vantée encore il y a peu.
Par définition, je crois, un comme ont pu le dire certains responsables européens, que nous devons effectivement abolir la naïveté par rapport à cela.
Nous savons aujourd’hui que nos démocraties sont vulnérables, qu’elles ont mis beaucoup trop de temps à réagir par rapport à ces processus. Aujourd’hui seulement se posent des questions concernant effectivement les risques politiques et non plus simplement économiques, d’abus de position dominante ou autres, non, de risques politiques sur le fonctionnement démocratique de nos sociétés. C’est un réveil brutal, parce qu’il s’inscrit dans une période de tensions internationales comme rarement : en plus de la guerre en Ukraine, on a maintenant une tension internationale liée à l’affrontement à la fois politique et industrielle entre la Chine et les États-Unis avec, effectivement là aussi, la possibilité très claire de faire intervenir ces tensions comme élément de débat dans le processus démocratique.
Donc je dirais, puisqu’on m’a enjoint d’être bref, que je suis d’autant plus heureux que cette commission d’enquête se réunisse aujourd’hui et qu’elle effectue ses travaux en cette période, qu’il y a urgence, c’est-à-dire que ce n’est pas pour une consommation lointaine vu du politique par rapport à vos travaux, c’est pour une mise en œuvre immédiate. Je crois que nous devrons, collectivement, réexaminer le modèle économique de ces sociétés que l’on a longtemps considéré comme étant inoffensif et je sais que mon voisin, Monsieur Chavalarias a eu l’occasion de l’écrire dans son livre, Toxic Data. Non ! Leur modèle économique est, je dirais, à l’origine même du problème qui se pose aujourd’hui. Je fais partie de ceux qui pensent, comme le dit aussi madame Shoshana Zuboff, que ce modèle économique de ciblage extrême, donc d’extraction massive, de plus en plus massive des données personnelles, constitue une impossibilité de fonctionnement pour les régimes démocratiques et je pense que nous, Européens, n’avons pas simplement vocation à réguler les plateformes existantes mais à créer les conditions d’émergence d’un autre type de plateformes qui ne serait pas lié à l’extraction de plus en plus massive et de plus en plus toxique, de plus en plus dangereuse de ces données, au profit, effectivement, d’autres modèles économiques. Je citerai là-dessus un autre ouvrage, Empires numériques de madame Anu Bradford, professeur à Columbia, qui disait que l’Europe doit effectivement être la source d’inspiration de l’ensemble des grands blocs, y compris des États-Unis. C’est une Américaine qui réclame que les États-Unis s’inspirent davantage de nous, ce qui n’est pas si fréquent. Je crois qu’il est effectivement important de penser que nous ne pouvons pas être uniquement sur un rôle défensif, avec tout le respect que j’ai pour les textes importants auxquels beaucoup d’entre vous ont été associés, dont vous Madame la Présidente – DSA, DMA, DGA, AIA pour l’intelligence artificielle. Non ! Il faut être en mesure de développer une politique volontariste, à l’échelle de l’Union, pour effectivement développer sur les segments critiques, dont l’intelligence artificielle, qui est déjà notre quotidien, mais qui deviendra, d’un point de vue industriel, un élément central des stratégies des différents blocs. Là, je vous en parle en tant qu’ancien rédacteur de textes de régulation : si nous ne le faisons pas, toutes les mesures de régulation seront contournées.
Je maintiens que la politique industrielle est un élément clé de la régulation de ce secteur. Ça ne parait pas évident parce qu’on se dit qu’il y a d’un côté l’industrie, de l’autre côté… Non ! La régulation fait partie de la politique industrielle et la politique industrielle fera partie de la régulation.
Voilà, j’en ai terminé pour l’instant.

13’ 45

David Chavalarias : Monsieur le Président,