Table ronde sur les influences étrangères dans l'espace numérique
Titre : Table ronde sur les influences étrangères dans l'espace numérique
Intervenant·es : Catherine Morin-Desailly - Nathalie Goulet - Sylvie Robert - Dominique de Legge - Bernard Benhamou - David Chavalarias - Tariq Krim - Julien Nocetti - Rachid Temal - André Reichardt
Lieu : Sénat
Date : 4 juin 2024
Durée : 2 h 01 min 38
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Transcription
Dominique de Legge : Mes chers collègues, je vous propose de poursuivre notre nos travaux cet après-midi avec cette table ronde qui réunit quatre spécialistes du sujet qui nous intéresse.
Monsieur Bernard Benhamou, vous êtes secrétaire général de l’Institut de la souveraineté numérique, vous avez publié de nombreux travaux sur la géopolitique de l’Internet.
Monsieur David Chavalarias, vous êtes directeur de recherche au CNRS et directeur de l’Institut des systèmes complexes. Vos travaux portent notamment sur les dynamiques sociales et cognitives liées au numérique. Les algorithmes des plateformes, nous le savons, exploitent des biais qui sont ensuite utilisés par les auteurs d’opérations d’influence malveillante.
Monsieur Tariq Krim, vous êtes fondateur du think tank Cybernetica, vous êtes également spécialiste des plateformes numériques et des enjeux politiques qui leur sont associés.
Monsieur Julien Nocetti, vous êtes chercheur au Centre d’analyse de prévision et stratégie du ministère des Affaires étrangères. Votre expertise porte sur la géopolitique des technologies numériques et vous êtes, en particulier, spécialiste de la Russie.
Avant de vous donner la parole, il me revient de rappeler qu’un faux témoignage devant notre commission d’enquête est passible des peines prévues aux articles 434-13,14 et 15 du Code pénal. Je précise également qu’il vous appartient, le cas échéant, d’indiquer vos éventuels liens ou conflits d’intérêt en relation avec l’objet de notre commission. Je vous invite à prêter serment, de dire « toute la vérité, rien que la vérité » en levant la main droite et en disant « je le jure ».
Je vous remercie cette audition fait l’objet d’une captation vidéo qui sera diffusée sur le site internet et, le cas échéant, les réseaux sociaux du Sénat puis consultable en vidéo. À la demande, elle fera l’objet d’un compte-rendu.
Je propose de vous donner à chacun sept minutes pour faire un propos introductif, 4 fois 7 ça fait 28, ça fait déjà une demi-heure d’introduction pour nous. À la suite de quoi, le rapporteur et mes collègues ne manqueront pas de vous poser des questions pour approfondir tel ou tel point. Je vous propose de démarrer par un tirage au sort aléatoire qui fait que nous allons retenir l’ordre alphabétique, donc donner la parole à Monsieur Benhamou.
Bernard Benhamou : Merci Monsieur le Président. Merci à vous tous. C’est un plaisir que d’évoquer ces questions aujourd’hui.
Je vais me présenter. Donc Bernard Benhamou, je dirige et j’ai fondé donc l’Institut la souveraineté numérique en 2015 après avoir exercé les fonctions de délégué interministériel aux usages de l’Internet et de négociation européenne sur les questions de régulation du numérique ainsi qu’aux Nations-Unies auparavant, en tant que conseiller de la délégation française. J’ai fait partie du groupe de travail des États généraux de l’information dédiés à souveraineté et ingérence qui rendra ces travaux très bientôt, je pense donc que ça sera utile de pouvoir les transmettre dans le cadre de l’élaboration de votre commission d’enquête.
Pour revenir effectivement sur l’actualité, je dirais qu’il n’y a pas de sujet plus brûlant que le sujet de l’ingérence aujourd’hui. J’ai eu le plaisir, ici même, dans cette salle, d’intervenir lors de la précédente commission d’enquête cette fois-ci consacrée à TikTok, on voit que l’actualité rebondit et rebondit encore, et je précise, je dirais d’entrée d’entrée de jeu, que j’avais eu l’occasion de dire que les risques d’ingérence n’étaient pas simplement hypothétiques, mais qu’ils étaient d’autant plus réels que de la part des services chinois, ne pas utiliser la manne que constituent les informations recueillies sur plus d’un milliard et demi d’utilisateurs de TikTok constituerait, de leur part, une faute professionnelle, ce qui, d’ailleurs, avait été même repris par l’un de nos représentants des services de renseignement, lors de ces mêmes auditions.
Il est clair, aujourd’hui, que nous arrivons à un point non pas de rupture mais, je dirais, d’apogée non seulement des risques mais des actions d’ingérence de pays hostiles sur les réseaux numériques de manière générale qui prennent diverses formes.
Dans un passé pas si lointain, les premiers auxquels on pensait étaient les Russes. Il se trouve, effectivement, que désormais, ça nous a été confirmé récemment encore, les Chinois prennent de plus en plus part à des mesures de désinformation dans le cadre électoral, c’est le cas aux États-Unis, on l’a vu, de manière pas toujours intuitive, en soutenant d’ailleurs les groupes proches de Trump ; on l’a effectivement vu dans le passé, mais on le voit aussi en Europe et je dirais que l’année 2024 est l’année de tous les dangers puisque c’est l’année où plus de quatre milliards d’individus sont amenés à aller aux urnes. C’est donc un champ d’expérience comme jamais il n’a été possible dans ce domaine et il est clair, effectivement, qu’à la fois les grandes plateformes et, je dirais, l’ensemble des acteurs de l’Internet ont été là-dessus, pour dire les choses clairement et franchement, d’une coupable naïveté, voire d’une coupable lâcheté ou d’une coupable complaisance par rapport à des acteurs potentiellement toxiques, qu’il s’agisse de pays étrangers hostiles mais aussi, évidemment, de groupes terroristes, on le voit régulièrement. On a vu, non pas une complicité de ces plateformes, mais une convergence d’intérêts toxiques entre les groupes extrémistes et le modèle de fonctionnement de ces plateformes, sur lequel, j’imagine, mes voisins auront l’occasion de revenir. Le modèle de fonctionnement de ces plateformes privilégie les propos polarisants, clivants, parce qu’ils sont les plus vecteurs d’audience, dans ce métier on parle d’engagement, on disait avant vecteurs de retweets, vecteurs de partage, donc, par définition il n’y a pas une convergence politique par exemple entre des groupes terroristes et des plateformes comme YouTube ou Facebook, non !, mais il y a une convergence d’intérêts toxiques. La nouveauté, aujourd’hui, c’est qu’au-delà même de telle ou telle action ponctuelle, ces processus, et on l’a vu dans le passé par exemple avec l’affaire Cambridge Analytica aux États-Unis, qui n’était que la première du genre, beaucoup d’autres ont suivi et, malheureusement, beaucoup d’autres risquent de suivre, on voit bien que ça peut jouer aussi sur la formation des opinions publiques, d’où les inquiétudes que l’on pouvait avoir et que l’on peut toujours avoir. On l’a vu avec la Nouvelle-Calédonie sur la formation de l’opinion publique, voire des réactions ou des risques d’insurrection, d’actions violentes, comme on l’a vu aux États-Unis, là encore avec Cambridge Analytica, où les groupes qui ont mené l’action au Capitole, que j’appelle un coup d’État, que certains appellent une insurrection, peu importe le nom qu’on lui donne, étaient coordonnés et avaient pu grandir grâce aux algorithmes – le mot reviendra certainement beaucoup aujourd’hui –, aux algorithmes de ciblage, on parle, dans notre métier, de micro-ciblage qui sont liés à toutes les données extraordinairement précises que l’on possède sur les individus, données liées à leur goût, à leurs échanges, à l’ensemble des captations que l’on peut avoir sur eux, y compris les captations du domaine médical, psychologique. On est donc capable effectivement de savoir – et Facebook, jusqu’à une période récente ne l’empêchait pas – qui se reconnaît comme raciste, donc envoyer, de la part de ces groupes, qu’il s’agisse de QAnon, ??? [7 min 57] et quelques autres, d’envoyer des publicités ciblées pour recruter des personnes en fonction de leur profil politique et, dans le cadre des campagnes électorales, être en mesure de créer des messages, et c’est peut-être la nouveauté de ces deux dernières années avec la montée en puissance de l’intelligence artificielle qui fait l’objet du rapport que nous rendrons bientôt, être en mesure de créer des contenus spécifiquement conçus pour telle ou telle personne en fonction de son profil. La nouveauté, c’est qu’auparavant, dans le cas de Cambridge Analytica, vous aviez une série d’ingénieurs qui étaient capables de concevoir des contenus et de les diffuser vers des dizaines ou des centaines de millions de personnes, aujourd’hui, tout cela peut se faire entièrement automatiquement par un système d’intelligence artificielle à qui l’on donne une feuille de route en disant « il faut favoriser l’élection de telle personne dans tel pays », et il va concevoir des contenus, répondre en ligne à des personnes qui penseront, de bonne foi, que c’est un humain qui leur répond, créer et inonder des centaines de millions de comptes de façon très rapide. J’avais eu l’occasion de dire, lors de la commission d’enquête sur TikTok, qu’en année moyenne Facebook efface tous les trimestres 1,5 milliard, je dis bien milliard, de faux comptes, donc plus de six milliards sur l’année précédente.
On voit bien que les outils de la désinformation, donc de l’ingérence se sont démocratisés dans le plus mauvais sens du terme et constituent, maintenant, un véritable risque sur le fonctionnement démocratique de nos sociétés. D’ailleurs, les experts de ces pays le disent très bien : l’ouverture des démocraties libérales à des ingérences extérieures est une manne, est une merveille pour ces régimes autoritaires qui y voient l’occasion d’interagir dans les temps à venir, et ils s’en vantent, la Russie s’en est vantée encore il y a peu.
Par définition, je crois, un comme ont pu le dire certains responsables européens, que nous devons effectivement abolir la naïveté par rapport à cela.
Nous savons aujourd’hui que nos démocraties sont vulnérables, qu’elles ont mis beaucoup trop de temps à réagir par rapport à ces processus. Aujourd’hui seulement se posent des questions concernant effectivement les risques politiques et non plus simplement économiques, d’abus de position dominante ou autres, non, de risques politiques sur le fonctionnement démocratique de nos sociétés. C’est un réveil brutal, parce qu’il s’inscrit dans une période de tensions internationales comme rarement : en plus de la guerre en Ukraine, on a maintenant une tension internationale liée à l’affrontement à la fois politique et industrielle entre la Chine et les États-Unis avec, effectivement là aussi, la possibilité très claire de faire intervenir ces tensions comme élément de débat dans le processus démocratique.
Donc je dirais, puisqu’on m’a enjoint d’être bref, que je suis d’autant plus heureux que cette commission d’enquête se réunisse aujourd’hui et qu’elle effectue ses travaux en cette période, qu’il y a urgence, c’est-à-dire que ce n’est pas pour une consommation lointaine vu du politique par rapport à vos travaux, c’est pour une mise en œuvre immédiate. Je crois que nous devrons, collectivement, réexaminer le modèle économique de ces sociétés que l’on a longtemps considéré comme étant inoffensif et je sais que mon voisin, Monsieur Chavalarias a eu l’occasion de l’écrire dans son livre, Toxic Data. Non ! Leur modèle économique est, je dirais, à l’origine même du problème qui se pose aujourd’hui. Je fais partie de ceux qui pensent, comme le dit aussi madame Shoshana Zuboff, que ce modèle économique de ciblage extrême, donc d’extraction massive, de plus en plus massive des données personnelles, constitue une impossibilité de fonctionnement pour les régimes démocratiques et je pense que nous, Européens, n’avons pas simplement vocation à réguler les plateformes existantes mais à créer les conditions d’émergence d’un autre type de plateformes qui ne serait pas lié à l’extraction de plus en plus massive et de plus en plus toxique, de plus en plus dangereuse de ces données, au profit, effectivement, d’autres modèles économiques. Je citerai là-dessus un autre ouvrage, Empires numériques de madame Anu Bradford, professeur à Columbia, qui disait que l’Europe doit effectivement être la source d’inspiration de l’ensemble des grands blocs, y compris des États-Unis. C’est une Américaine qui réclame que les États-Unis s’inspirent davantage de nous, ce qui n’est pas si fréquent. Je crois qu’il est effectivement important de penser que nous ne pouvons pas être uniquement sur un rôle défensif, avec tout le respect que j’ai pour les textes importants auxquels beaucoup d’entre vous ont été associés, dont vous Madame la Présidente – DSA, DMA, DGA, AIA pour l’intelligence artificielle. Non ! Il faut être en mesure de développer une politique volontariste, à l’échelle de l’Union, pour effectivement développer sur les segments critiques, dont l’intelligence artificielle, qui est déjà notre quotidien, mais qui deviendra, d’un point de vue industriel, un élément central des stratégies des différents blocs. Là, je vous en parle en tant qu’ancien rédacteur de textes de régulation : si nous ne le faisons pas, toutes les mesures de régulation seront contournées.
Je maintiens que la politique industrielle est un élément clé de la régulation de ce secteur. Ça ne parait pas évident parce qu’on se dit qu’il y a d’un côté l’industrie, de l’autre côté… Non ! La régulation fait partie de la politique industrielle et la politique industrielle fera partie de la régulation.
Voilà, j’en ai terminé pour l’instant.
13’ 45
David Chavalarias : Monsieur le Président, Mesdames Messieurs les sénatrices et sénateurs, merci de me faire l’honneur de contribuer, avec mon expertise, à cette commission. J’ai déjà entendu ce que vous avez eu l’occasion d’écouter, donc je vais essayer de me concentrer sur mon expertise sur ce que je peux apporter de nouveau, d’une part en vous montrant comment s’opèrent les opérations d’ingérence et en essayant de vous faire sentir comment l’architecture même des plateformes la favorise et, ensuite, en proposant quelques pistes.
On a lancé, à l’Institut des systèmes complexes, en 2016, un observatoire de l’espace numérique Twitter – Twitter parce que c’était un endroit où il y avait beaucoup d’influenceurs, notamment beaucoup de politiques, et où se passaient des campagnes présidentielles, notamment – de manière à essayer de comprendre comment s’articulaient les dynamiques d’opinion, mais aussi comment on pouvait avoir des campagnes d’influence et d’ingérence étrangère.
Je vais vous montrer un petit film qui retrace une reconstitution de ce qui s’est passé au moment des Gilets jaunes où on a pu voir des groupes Gilets jaunes très actifs, relayés sur Twitter, donc des citoyens, qui se sont faits, en gros, accompagnés, amplifiés, relayés par des groupes étrangers.
Sur cette vidéo, chaque point est un compte Twitter ; on reconstitue dans le temps, une pulsation c’est quelques jours ; en jaune, vous avez toutes les personnes qui relayaient le mouvement Gilets jaunes ; en marron, vous avez les comptes étrangers et, quand vous avez un lien, c’est un passage d’informations. Vous voyez bien la communauté très cohésive des Gilets jaunes qui, en fait, relayait les informations sur ce qui se passait en France et puis toute une communauté internationale, qui s’est mise autour, pour amplifier ce mouvement-là.
Autre exemple, juste avant la guerre en Ukraine, quelques jours avant le 24 février, tout un ensemble de comptes vont s’activer pour commencer à relayer la propagande du Kremlin. Beaucoup de ces comptes étaient des personnalités officielles françaises, officiellement pro-russes, ce qui n’est évidemment pas un délit, c’est la liberté d’expression, et ils étaient également entourés de tout un ensemble de relais pour relayer ce genre de propagande.
Donc, là vous avez un exemple de dynamique de relais d’amplification soit de divisions à l’intérieur de la France soit d’installation d’un certain narratif en France autour d’un conflit comme la guerre en Ukraine.
Dans les différentes études, qu’on a pu faire, on a notamment montré, on a pu détecter quasiment en temps réel les Macron Leaks, c’est là où on a pu voir que c’était, d’un côté, l’extrême droite américaine et, de l’autre côté, l’extrême-droite française qui avaient essayé de relayer ce hashtag avec la désinformation qu’elle contenait. Cet événement souligne, en particulier, le fait que les fausses informations restent en général à l’endroit où elles ont été inséminées, donc, ici, dans une communauté très particulière en France, à moins qu’elles soient reprises par les médias ou par les algorithmes de recommandation et c’est notamment l’un des problèmes des algorithmes de recommandation.
Autre chose problématique sur la question de l’ingérence, c’est que, souvent, elle se fait à travers de contenus qui n’ont pas de statuts vrai/faux, par exemple des mèmes, des contenus ironiques ou des choses du type « Vladimir Poutine va utiliser les armes nucléaires », pour l’instant ça n’a pas de statut vrai/faux, c’est une supposition, mais, en amplifiant une croyance, vous pouvez aménager, en fait modifier la perception des citoyens de l’environnement, donc amener à soutenir telle ou telle cause.
Cela veut dire que la modération, le fait d’enlever ou de retirer des contenus qui seraient faux, n’est pas suffisante, puisque là on a vraiment affaire à une espèce d’encerclement informationnel où on va essayer de modifier la perception qu’ont les citoyens d’un problème.
Mais même au-delà, on peut dire c’est qu’un des buts, on va dire long terme, c’est de modifier la structure même des rapports sociaux et des groupes sociaux au sein d’un pays. Entre 2016 et 2021, on a observé l’espace politique français, chaque point est un compte Twitter, les petits filaments sont les relais entre les comptes tweeters, vous en avez à peu près 80 000 sur cette image. Vous avez deux images du paysage politique français, entre 2016 et 2022, et on voit la restructuration du paysage politique français : en 2016, on allait de LFI au Rassemblement national en passant par les partis modérés, PS et LR ; en 2022, PS et LR étaient complètement déstructurés, on a eu un gros bloc d’extrême droite qui a émergé avec, notamment, des nouvelles communautés Reconquête et la nouvelle communauté numérique qui s’est formée pendant la pandémie autour de deux Florian Philippot sur le thème antivax, anti-vaccin/résistance au système. Donc, là, une nouvelle passerelle s’est formée entre, en gros, le spectre de l’extrême gauche et le spectre de l’extrême droite et qui a joué pour la circulation narrative bien au-delà de la pandémie. Par exemple, en ce moment, il y a une reconfiguration autour du climato-dénialisme et cette communauté, qui s’est insérée entre les deux extrêmes, est en train de le promouvoir.
Si ce genre de reconfiguration est possible, bien sûr ce n’est pas qu’à cause des plateformes, mais les plateformes et leur conception même les favorisent. Je vais vous donner un exemple. Bien sûr, je ne peux pas tout présenter, mais je vais vous donner un exemple et vous expliquer pourquoi notamment la conception même des plateformes amplifie les discours toxiques.
Les plateformes ont mis en place, depuis 2018, ce qu’on appelle le fil d’actualité qui est l’endroit où les personnes consultent la majorité de leur contenu. Ce que quelqu’un voit sur son fil d’actualité n’est qu’un petit pourcentage de ce que produit son environnement social, ce sont quelques pourcents, c’est moins 10 %, ce qui veut dire qu’un filtre est opéré entre ce que produisent les gens auxquels vous vous êtes abonnés et ce que vous voyez effectivement. La question est comment se produit ce filtre-là ?
On a mesuré très précisément. On a montré, par exemple sur le réseau Twitter, que, entre ce à quoi vous vous abonnez et ce que vous recevez dans votre fil d’actualité, il y a 50 % en plus de contenus toxiques, c’est-à-dire du contenu avec des insultes, du dénigrement, des attaques personnelles, etc., et ce, quel que soit, en gros, ce à quoi vous vous abonnez. Si vous vous abonnez à des choses très toxiques vous aurez 50 % de toxicité encore en plus et si vous êtes abonné à des contenus peu toxiques, vous n’avez que 50 % en plus. Cela fait que ça va déformer la perception de millions d’utilisateurs – et on a le même fonctionnement sur Facebook et sur Instagram, etc., parce qu’à la base, derrière, il y a la question de l’optimisation de l’engagement –, modifier la perception de millions d’utilisateurs vers un environnement plus hostile et vous hostilisez les débats. On a montré que dès que vous optimisez l’engagement, c’est-à-dire que vous voulez mettre dans les fils d’actualité des utilisateurs les contenus qui ont le plus de clics, de likes, de partage – ce qui est fait depuis 2018 – vous avez automatiquement ce genre de biais de négativité. C’est un gros problème parce que ça va donc renforcer l’hostilité des échanges et, notamment indirectement, ça va renforcer les personnalités, les comptes qui s’expriment de manière hostile. On a pu montrer que non seulement ça change la circulation d’informations, mais ça change la structure du réseau au sens où ça va mettre, au centre du réseau, au cœur du réseau, les personnes qui s’expriment de la manière la plus polémique et la plus hostile, avec une surreprésentation de 40 % dans le top 1 % des influenceurs de personnes qui s’expriment de manière hostile. C’est vraiment du design de plateformes, le modèle économique utilisé par les plateformes.
Il faut bien comprendre que quand vous avez des plateformes comme Facebook, plus de trois milliards d’utilisateurs, Twitter, Instagram, etc., vous avez votre opinion publique qui se forme dans des environnements où, de manière centralisée, vous changez une ligne de code et vous changez complètement la manière de circuler de l’information, la manière des personnes de s’exprimer, c’est-à-dire que les journalistes et les politiques vont changer leur manière de s’exprimer parce que, sinon, leurs discours ne sont pas diffusés, etc.
Maintenant, je veux juste donner quelques pistes pour éviter ce genre de choses. Je quitte les visuels.
Ma thèse – comme on l’a dit aussi à côté, je ne suis vraiment pas le seul à la défendre –, c’est qu’il faut choisir entre le modèle économique des plateformes tel qu’il est actuellement et la démocratie. On ne va pas pouvoir avoir les deux très longtemps. Pour cela, il faut agir de manière systémique, rapidement, et je vais vous donner un certain nombre de pistes qui pourraient être appliquées vraiment en un temps assez court, genre moins de 12 mois.
La première, c’est qu’il faut défendre les utilisateurs contre les clauses abusives, les clauses actuellement des réseaux sociaux ; par exemple celles de Twitter, que personne ne lit jamais, sont abusives. Je vous fais le parallèle avec la poste : imaginez un service postal qui vous dit : « J’ai le droit de lire ce que vous écrivez, j’ai le droit de modifier ce que vous écrivez, j’ai le droit de le distribuer aux destinataires ou à d’autres personnes, j’ai le droit de ne pas le distribuer, j’ai droit de mettre dans votre boîte aux lettres le courrier des gens qui vous écrivent ou d’autres personnes et, quand je le souhaite, je peux fermer votre boîte aux lettres et je n’ai aucun compte à vous rendre. » C’est exactement, mot pour mot, les conditions actuelles de Twitter et de beaucoup de boîtes de ce genre-là, qui sont abusives, et qui laissent les utilisateurs à la merci des grands réseaux. Quand on sait que, maintenant, les jeunes ne donnent même plus leur 06 ou leur 07 mais leur Instagram, cela veut dire, en fait, que ces personnes-là sont complètement captives de ce genre de chose.
La deuxième chose. Par rapport aux ingérences étrangères, on pourrait, par exemple, forcer les utilisateurs, permettre à un utilisateur de s’authentifier en tant que Français, la solution technologique peut exister, tout en restant anonyme et sans donner d’autres informations à la plateforme, il suffit de passer par un intermédiaire comme FranceConnect, qui certifie que la personne est française, ce qui permettrait aussi aux utilisateurs de filtrer les contenus en disant « je ne veux voir que les contenus émis par mes compatriotes » ce qui permettrait d’éliminer pas mal d’ingérences qui se font, justement, à partir de faux comptes.
Toujours par rapport aux utilisateurs, on peut réguler et imposer la portabilité des données et de l’influence sociale. Avant, quand vous aviez un numéro de téléphone, vous ne pouviez pas changer d’opérateur, donc vous étiez captif et vous payiez plus cher quand vous appeliez un autre opérateur. Il y a eu une régulation, maintenant vous pouvez repartir avec votre numéro. Pareil pour les réseaux sociaux, la plupart des utilisateurs des réseaux sociaux sont captifs, c’est ce qui se passe par exemple actuellement sur Twitter. Beaucoup de personnalités très influentes restent sur Twitter parce qu’elles y ont pas développé à la fois tout leur thread et qu’elles y ont leur audience alors que le réseau devient toxique. On pourrait tout à fait imposer le fait qu’un utilisateur puisse partir d’un réseau pour aller vers un autre sans perdre ni ses données ni son audience, et il y a des réseaux, par exemple Mastodon, qui sont, en fait, des protocoles qui permettent de faire ça.
Sur la question d’atténuer l’ingérence. On a parlé tout à l’heure de la publicité ciblée qui est vraiment une catastrophe. Il faut savoir qu’en ce moment-même, en mai 2024, il y a des milliers de publicités russes sur le territoire français, en Italie, en Pologne et en Allemagne, on les a identifiées dans le laboratoire, c’est un des doctorants, Paul Bouchaud, qui l’a fait. On est donc sous le feu alors même que Facebook est censé les modérer et on a mesuré que Facebook modère à peine 20 % des publicités politiques, sachant que c’est très difficile, en fait, de faire une publicité politique. Si vous dites « en ce moment, ils n’arrivent même pas à contrôler le Caillou alors comment voulez-vous qu’ils assurent la sécurité en France », tout le monde sait à quoi on se réfère et ça passera, ça ne sera jamais identifié comme une publicité politique. Vous envoyez ça, de manière massive, au moment où il y a des problèmes en Nouvelle-Calédonie et vous avez un impact.
Il y a un gros problème d’accès, évidemment, aux données. On a fait les analyses que je vous ai montrées tout à l’heure au moment où Twitter avait son API ouverte, d’ailleurs c’était la seule plateforme à avoir ouvert ses données, on a pu démontrer tout d’un ensemble de biais des algorithmes et des failles de la plateforme qui sont vraies aussi pour Facebook. Maintenant, tout cela est fermé, on n’a plus accès, donc on est complètement aveugle. J’ai regardé beaucoup d’auditions où des plateformes disaient : « On modère, on enlève 90 % des contenus, etc. », vous n’avez aucun moyen de le vérifier et nous non plus. À partir du moment où quelque chose n’est pas vérifiable, vous n’êtes pas tenu de le croire à priori. On nous parle aussi souvent de ce qu’on a détecté et, parmi ce qu’on a détecté, ce qui est vrai ou faux, mais on ne sait pas ce qu’on n’a pas détecté et on ne peut pas le vérifier.
On peut mettre en place des routines d’audit. Par exemple, on peut tout à fait vérifier le biais de toxicité en temps réel, sur une plateforme, pour autant qu’on ait les données et cela se fait en temps réel et, comme ça, on peut vérifier que ??? [26 min 35], en gros, du discours est bonne. Là, encore une fois, il ne s’agit pas d’agir sur les contenus, mais de faire en sorte que certains types de contenus ne soient pas amplifiés par rapport à la ligne de référence.
On peut aussi appliquer les principes de réciprocité : des plateformes étrangères qui sont interdites de déploiement dans leur pays, on ne devrait pas autoriser leur déploiement chez nous. C’est comme si vous autorisiez votre voisin à garder vos enfants, alors que lui ne veut surtout pas que vous gardiez les siens, c’est juste un principe de bon sens.
Côté institutionnel, il y a également plusieurs pistes : le fait de renforcer les espaces publics numériques, on pourrait, comme le disait tout à l’heure Monsieur Benhamou, renforcer l’émergence de plateformes alternatives. On subventionne bien les journaux, d’ailleurs aussi les télévisions, qui respectent une certaine charte déontologique, on pourrait le faire les réseaux sociaux qui respectent, par exemple, la portabilité.
Il faut savoir aussi que dans ce contexte-là, on pourra le détailler tout à l’heure, les élections sont très vulnérables par la conception même de nos élections actuellement. Quelque chose qui m’a frappé c’est que, autant en 2017 qu’en 2022, on appelle de plus en plus à voter contre plutôt qu’à voter pour. Pourquoi ? Parce qu’on a des campagnes très hostiles. On a plusieurs candidats au premier tour dont la plupart ne passent pas au deuxième tour, évidemment. Au deuxième tour, il reste deux candidats qui sont haïs par toutes les autres communautés, donc, après, il s’agit de manipuler et de savoir qui est le moins pire. Or, manipuler qui est le moins pire, c’est très facile avec des campagnes de mèmes. Ce qui veut dire que vous pouvez très bien avoir un candidat qui passe au premier tour avec 30 % de soutien, ce qui est déjà beaucoup pour un premier tour, qui est rejeté à 60/70 % par la population et qui passe le deuxième tour, suite à des manipulations. Ça veut dire qu’on a élu, qu’on va élire une personne qui a 70 % de rejet dans la population, ce qui n’est pas vraiment pratique. Des modes de vote pourraient éviter ça, le mode de scrutin actuel est un mode de scrutin archaïque qui date de 300 ans, on sait qu’il a plein de failles liées, il y a des modes de scrutin beaucoup plus récents et meilleurs – je défends beaucoup le jugement majoritaire, mais ce n’est pas le seul – qui permettraient d’éviter tous ces travers. On pourra y revenir.
Dernièrement, juste pour conclure, j’observe beaucoup sur les réseaux sociaux, actuellement et depuis la pandémie, une récupération des valeurs fondamentales de la République, notamment, par exemple, le concept de liberté et, si ce concept-là est récupéré, ainsi que fraternité, égalité, je pense qu’on aura perdu vraiment beaucoup. Il faut donc vraiment veiller à ce que ces valeurs fondamentales soient remises à la bonne place dans le débat public.
Merci beaucoup.
29’ 14
Tariq Krim : Bonjour Monsieur le Président, Monsieur le Rapporteur, Mesdames et Messieurs les sénateurs, merci de m’auditionner sur ces questions.
En préalable, je vais peut-être dire je ne suis pas forcément un spécialiste des questions d’ingérence, j’ai plutôt un profil d’entrepreneur – dans le numérique j’ai monté deux start-ups, donc je connais bien la manière dont fonctionnent ces plateformes. J’ai également suivi les questions de géopolitique du numérique depuis plus d’une trentaine d’années, ce sont des sujets qui me sont évidemment familiers. J’ai été également à la fois au Conseil national du numérique et auteur d’une mission pour le Gouvernement, une mission préalable à la création de la French Tech, un défenseur infatigable des questions de souveraineté et de savoir-faire français dans le domaine du numérique.
Pour prendre un peu plus de hauteur par rapport à cette question, j’avais proposé de séparer mon propos liminaire en trois parties :
la première, c’est peut-être comprendre plus généralement les enjeux de la géopolitique du numérique et dans quelle mesure les questions d’ ingérence se positionnent ;
la deuxième, c’est évidemment soulever les nouvelles questions liées à l’IA, ce qu’on pourrait appeler, ce qu’on commence à appeler aux États-Unis, « la sécurité épistémologique », c’est-à-dire la capacité, pour un pays, de sauvegarder sa propre culture, sa propre connaissance et son propre rapport au vrai ; la question également de l’autonomie cognitive. Comme vous le savez, on utilise de plus en plus des plateformes extérieures à soi pour réfléchir et résoudre des problèmes ;
et puis enfin, si vous me l’autorisez, je parlerai un peu de la question la souveraineté numérique, plutôt, à mon avis, la fin de ce qu’est la souveraineté numérique et les conséquences que ça aura sur ce sujet.
Je vais être assez rapide
En fait, ce qui est intéressant, c’est de comprendre qu’il y a trois choses qui se passent en même temps depuis à peu près une vingtaine d’années.
Tout d’abord, après une grande phase d’expansion d’Internet, on est aujourd’hui dans une phase de déglobalisation, on appelle souvent ça le Splinternet. Je donne un exemple : la Chine se connecte en 1994 à l’Internet. Trois ans, plus tard, elle décide de se déconnecter, de construire un réseau avec une sorte de firewall : elle laissera passer tout le contenu du reste du monde, mais elle va gérer elle-même ses plateformes, c’est d’ailleurs un des grands sujets. Vous parliez tout à l’heure de TikTok, TikTok peut opérer sur le reste du monde, mais le reste du monde ne peut pas opérer en Chine.
Aujourd’hui, on voit que ce réseau augmente, on parle parfois de ce qu’on appelle un « dictateurnet » où on aurait la Russie, la Corée du Nord, l’Iran, un ensemble d’acteurs. On peut imaginer à terme que ce réseau va se séparer, donc, ça pose d’énormes questions économiques, géopolitiques.
La deuxième, quand on parle de ces fameuses guerres, il y a aujourd’hui trois approches, trois types de guerre :
la première c’est ce qu’on appelle la cyberguerre, c’est l’attaque des infrastructures. Quand on entend que tel hôpital ou tel endroit a été victime d’une cyberattaque, ça veut donc dire qu’on est dans cette logique de hacking des infrastructures ;
la deuxième qui a plusieurs noms, on peut parler de guerre cognitive, narrative, warfare, likewar, c’est une guerre qui consiste à vouloir hacker les cerveaux, donc à changer, cela a été bien expliqué auparavant. Ce qui est nouveau c’est que, pendant très longtemps dans le domaine militaire, on avait une forme de dualité où on avait clairement le domaine militaire et, de l’autre côté, le domaine civil. C’est la guerre en Afghanistan où l’armée américaine a proposé à ses soldats de pouvoir utiliser Facebook et, soudain, on s’est retrouvé avec des conversations entre d’un côté les talibans et de l’autre côté l’armée américaine qui communiquaient sur Facebook Messenger, donc, soudain, une plateforme commerciale s’est retrouvée au cœur. Depuis, on s’est bien rendu compte que les plateformes commerciales sont utilisées à la fois pour les opérations d’ingérence ou des attaques militaires. ;
et puis la dernière, qu’il ne faut pas oublier, c’est ce qu’on appelle la « lawfare », c’est utiliser le droit. Ça tombe bien, quand on contrôle l’Internet et qu’on a accès à l’ensemble du monde entier à travers des serveurs, à travers des services, en fait on peut intégrer la loi que l’on veut, notamment le CLOUD Act, le FISA, toutes ces lois extraterritoriales.
La troisième chose, c’est cette bataille de l’amplification qui est en train d’arriver. Tout ce dont on a parlé se basait sur la question des réseaux sociaux, sur le fait qu’on était dans un environnement où on avait des algorithmes et on est en train de basculer, aujourd’hui, dans un nouveau modèle, en tout cas il y a une vision qui s’est mise en place qui consiste à dire que si demain on dispose de suffisamment de puissance de calcul, on va pouvoir répondre à des problématiques très importantes, donc tout le monde est dans une course affolante là-dessus.
À mon avis, il y a deux de batailles qui se passent en même temps : la première, la plus connue, la bataille entre la Chine et les États-Unis, une bataille qui est un peu bizarre parce que, en même temps, la Chine et les États-Unis ont besoin l’une de l’autre pour leurs économies, c’est la fameuse militarisation des interdépendances dont mon voisin parle souvent ; la deuxième chose qui, à mon avis, est une guerre qu’on voit beaucoup moins, c’est une guerre avec un accord plutôt tacite entre les États-Unis et la Chine, pour se dire que, finalement, la Chine va pouvoir utiliser les nouvelles technologies pour dépecer l’Europe de ses industries du 20e siècle – nucléaire, automobile, 5G, Télécoms –, toutes les industries classiques dans lesquelles nous avons prospéré sont aujourd’hui ouvertes.
Donc, quand on parle de cette configuration, il faut comprendre que l’IA va aussi, à un moment ou un autre, remplacer, en tout cas prendre le savoir-faire européen.
Ce qui est intéressant, c’est qu’on est dans un nouvel environnement. Depuis l’arrivée de l’IA, il y a trois choses qu’il faut bien comprendre :
la première c’est qu’on est passé d’un monde déterministe – les conditions initiales définissent les conditions de sortie, on sait ce qu’on a en entrée, ce qu’on a en sortie ; avec l’IA générative, on est en train de rentrer dans ce qu’on appelle un monde non déterministe, c’est-à-dire que, finalement, on est dans un environnement où, en fonction des points d’entrée – on le voit quand on tape la même phrase sur ChatGPT –, on a des réponses différentes et cela va être vrai dans plein de domaines, dans le domaine créatif. Avec l’IA générative, cela veut dire qu’on peut faire quelque chose qui n’existait pas avant et c’est d’ailleurs ce qu’expliquait très bien le fondateur d’OpenAI : les techniques classiques, qu’on connaissait, c’étaient des messages qui étaient ensuite diffusés sur les réseaux sociaux ; aujourd’hui on est dans un monde où l’IA peut construire des centaines de milliers d’agents traitants synthétiques qui vont convaincre une par une, chacune d’entre elles, les personnes. On est rentrés dans une ère où on va être non plus dans une personnalisation de masse, mais véritablement une massification de la personnalisation, on va être dans du one on one avec des milliers, des millions d’agents. Cela a un impact évidemment économique. Vous avez n’êtes pas sans savoir qu’il y a eu d’énormes annonces, en France, notamment avec Choose France, des investissements de Microsoft, de Google dans les datacenters.
Pour cette bataille de l’IA, en fait, on a besoin de trois choses : on a besoin de talents, l’Europe en a beaucoup, on a besoin de puces, elles sont quasiment toutes fabriquées, aujourd’hui, par une entreprise qui s’appelle Nvidia, à ceci près que, pour construire des puces, Nvidia a besoin de l’Europe : les licences, pour les puces, viennent d’Angleterre, l’IP [36 min 55] en Hollande, la machine qui fait les ultraviolets pour imprimer les puces vient de Hollande, une partie des technologies vient d’Allemagne, les lasers viennent de Californie, le coating, ce qu’on met par-dessus les puces, vient du Japon. En fait, on est dans un système qui est quand même très globalisé, donc on a besoin de l’Europe pour construire ça.
Et puis la troisième chose qui est importante, c’est d’avoir des datacenters. Ce que l’on voit aujourd’hui, depuis peut-être moins d’un an, c’est un changement complet de la stratégie des grandes plateformes qui, jusqu’à maintenant, ne voulaient pas rentrer dans ces datacenters, elles considéraient qu’elles étaient des vendeurs de pelles et de pioches mais ne voulaient pas posséder les mines, on va laisser ça à des acteurs tiers. Aujourd’hui, la pression financière est tellement importante, on est quand même passé de sociétés qui valaient des milliards de dollars à des centaines de milliards, aujourd’hui le terme trillion, c’est plutôt des mille milliards de dollars, ça vous rappellera peut-être un film bien connu qui parlait, entre autres, de ce sujet. On est dans une situation où on a tellement besoin de datacenters qu’on va acheter absolument tout. On a eu 18 milliards d’investissements, mais 18 milliards, c’est le prix qu’Amazon va payer uniquement en Espagne pour s’installer avec ses datacenters ; vous allez avoir des investissements colossaux. Pourquoi ? Parce que, à terme, on souhaite évidemment contrôler l’ensemble des données, l’ensemble des choses parce que l’IA va permettre, on l’espère en tout cas, de construire des environnements synthétiques, construire du savoir-faire. On est dans un changement radical aujourd’hui, la question de savoir si l’IA remplace l’emploi est, à mon avis, à un faux sujet, on a un problème démographique important et un effondrement des talents, c’est notamment vrai en Europe, c’est vrai en Chine, c’est vrai partout. Il faut plutôt de se demander si demain on va pouvoir utiliser l’IA pour résoudre des problèmes importants. On le voit par exemple dans le domaine militaire : si vous avez un drone, vous pouvez utiliser une personne pour le contrôler, ce qu’on appelle les fameux drones FPV qu’on voit en Ukraine ; si vous avez des millions de drones, un être humain ne peut pas le faire, donc on a besoin de l’IA. Soudain, tout le monde se dit « on a besoin de ça ».
D’une certaine manière, cet investissement va se faire dans plusieurs niveaux, dans le domaine militaire mais également le domaine de la culture. Ce qui est nouveau avec l’IA dite générative, c’est, déjà, qu’on ne parle plus d’algorithmes de modèles ; on n’apprend pas avec, on ne donne pas des paramètres, on demande à la machine d’apprendre, donc, la question qui se pose, c’est : qu’est-ce qu’elle apprend, c’est comme l’éducation d’un enfant : où va-t-il à l’école ?, on saura ce qu’il a appris.
L’autre chose importante : on ne s’intéresse plus à des données pures, mais à de la culture. Donc, là, on est dans une problématique qui est tout à fait nouvelle : on a des appareils ou des outils qui ont une capacité d’acculturer ou de déculturer des populations entières. On parle souvent d’autonomie cognitive : qu’elle va être l’autonomie cognitive d’un pays ? Se pose donc, évidemment, la question de la prochaine génération d’ingérence ; aujourd’hui on utilise les réseaux sociaux, d’une certaine manière on joue sur la stabilité émotionnelle d’un pays, finalement ce que l’on voit c’est ce qu’on a vu pendant la campagne américaine de Trump : tout le monde se déteste sans savoir pourquoi, on s’insulte sur Twitter, mais on ne sait plus vraiment pourquoi. Ça s’est maintenu, mais aujourd’hui on va passer à l’étape d’après qui va être de convaincre les gens de vivre dans une réalité qui est un peu unique. Peut-être avez-vous lu ce livre de Philip K. Dick qui s’appelait Le Maître du Haut Château, un chef-d’œuvre qu’il a écrit il y a des années, il y a eu également une série, où il imagine une Amérique qui est divisée en deux : une partie des États-Unis pensait qu’elle avait perdu la guerre, qu’Hitler avait gagné, avec les Japonais, et plus on s’approchait du centre des États-Unis, on avait, en fait, l’inverse, des gens qui s’approchaient de la vérité. On était donc dans un pays où on avait, en parallèle, deux visions de la vérité.
Ce qui va se passer avec l’IA, c’est qu’on va être dans un environnement où on aura des millions de versions de la vérité qui vont circuler : des gens, en fonction de leurs groupes d’influence, qui vont croire dur comme fer. On a parlé de Cambridge Analytica, il faut se souvenir de ce qui s’est passé avec le Brexit : le régulateur des élections s’est rendu compte que des publicités avaient été publiées sur le Brexit des mois, voire des années après les élections.
C’est un vrai sujet qui m’amène très rapidement à la troisième partie qui est la question de la souveraineté numérique. Évidemment, la question qu’on doit se poser est, si on veut agir dans cet environnement, soit on utilise les outils des autres, soit on utilise ses propres outils. Le monde de l’informatique a toujours basculé entre deux types de modèles : des modèles centralisés puis des modèles décentralisés. Dans les modèles centralisés, on n’a jamais été très bons, regardez Microsoft, Windows ou encore le cloud et, dans les modèles décentralisés, on a toujours été plutôt pas mauvais parce qu’on arrivait à s’adapter. Le problème, c’est qu’aujourd’hui on a une nouvelle technologie qui s’appelle l’IA, qui est probablement ultra centralisatrice, peut-être même plus centralisatrice que tout ce qui a existé, on se trouve donc dans une situation qui est très complexe.
On parlait de politique industrielle, le problème est le suivant. Prenons la fameuse taxe GAFAM de Bruno Le Maire ; évidemment, quand il propose cette idée, qui est une bonne idée, immédiatement les États-Unis vont dire nous allons faire ???[42 min 34] sur l’agriculture, les spiritueux, le luxe. On est dans une situation où, finalement, on a ce talon d’Achille : on ne peut pas développer de nouvelles technologies, les exporter parce qu’on a déjà nos industries existantes. La question qui se pose c’est : comment peut-on faire ? Si on prend l’agriculture, l’agriculture tourne quasiment exclusivement sur Microsoft. On n’a pas su, en fait, construire non seulement une politique publique d’achats, Small Business Act, mais également une politique de solidarité de façon à ce que les entreprises françaises qui exportent achètent des entreprises de technologie qui fabriquent localement qui, demain, vont exporter. On est donc dans une espèce de système qui fait que, pour l’instant, on n’a pas réussi à trouver la bonne approche et pour l’instant, pour être très honnête, je ne suis pas très positif sur l’avenir, mais c’est un vrai sujet.
En guise de conclusion brève, aujourd’hui on est dans un environnement complètement nouveau dans lequel nous avons une partie de la solution, mais nous n’avons pas suffisamment d’argent pour investir dans ces domaines et, surtout, nous avons un autre vrai sujet : aujourd’hui, nos meilleurs talents partent travailler pour les grands de ce monde qui savent les attirer. Une des questions c’est : si on veut changer les choses et, surtout, si on veut exister à la fois dans le soft power et dans le cultural power de la France, il faudra changer ça.
Merci.
44’ 05
Julien Nocetti : Merci Monsieur