Table ronde sur les influences étrangères dans l'espace numérique

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Table ronde sur les influences étrangères dans l'espace numérique

Intervenant·es : Catherine Morin-Desailly - Nathalie Goulet - Sylvie Robert - Dominique de Legge - Bernard Benhamou - David Chavalarias - Tariq Krim - Julien Nocetti - Rachid Temal - André Reichardt

Lieu : Sénat

Date : 4 juin 2024

Durée : 2 h 01 min 38

Vidéo

Audio

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.

Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Dominique de Legge : Mes chers collègues, je vous propose de poursuivre notre nos travaux cet après-midi avec cette table ronde qui réunit quatre spécialistes du sujet qui nous intéresse.
Monsieur Bernard Benhamou, vous êtes secrétaire général de l’Institut de la souveraineté numérique, vous avez publié de nombreux travaux sur la géopolitique de l’Internet.
Monsieur David Chavalarias, vous êtes directeur de recherche au CNRS et directeur de l’Institut des systèmes complexes. Vos travaux portent notamment sur les dynamiques sociales et cognitives liées au numérique. Les algorithmes des plateformes, nous le savons, exploitent des biais qui sont ensuite utilisés par les auteurs d’opérations d’influence malveillante.
Monsieur Tariq Krim, vous êtes fondateur du think tank Cybernetica, vous êtes également spécialiste des plateformes numériques et des enjeux politiques qui leur sont associés.
Monsieur Julien Nocetti, vous êtes chercheur au Centre d’analyse de prévision et stratégie du ministère des Affaires étrangères. Votre expertise porte sur la géopolitique des technologies numériques et vous êtes, en particulier, spécialiste de la Russie.

Avant de vous donner la parole, il me revient de rappeler qu’un faux témoignage devant notre commission d’enquête est passible des peines prévues aux articles 434-13,14 et 15 du Code pénal. Je précise également qu’il vous appartient, le cas échéant, d’indiquer vos éventuels liens ou conflits d’intérêt en relation avec l’objet de notre commission. Je vous invite à prêter serment, de dire « toute la vérité, rien que la vérité » en levant la main droite et en disant « je le jure ».
Je vous remercie cette audition fait l’objet d’une captation vidéo qui sera diffusée sur le site internet et, le cas échéant, les réseaux sociaux du Sénat puis consultable en vidéo. À la demande, elle fera l’objet d’un compte-rendu.
Je propose de vous donner à chacun sept minutes pour faire un propos introductif, 4 fois 7 ça fait 28, ça fait déjà une demi-heure d’introduction pour nous. À la suite de quoi, le rapporteur et mes collègues ne manqueront pas de vous poser des questions pour approfondir tel ou tel point. Je vous propose de démarrer par un tirage au sort aléatoire qui fait que nous allons retenir l’ordre alphabétique, donc donner la parole à Monsieur Benhamou.

Bernard Benhamou : Merci Monsieur le Président. Merci à vous tous. C’est un plaisir que d’évoquer ces questions aujourd’hui.
Je vais me présenter. Donc Bernard Benhamou, je dirige et j’ai fondé donc l’Institut la souveraineté numérique en 2015 après avoir exercé les fonctions de délégué interministériel aux usages de l’Internet et de négociation européenne sur les questions de régulation du numérique ainsi qu’aux Nations-Unies auparavant, en tant que conseiller de la délégation française. J’ai fait partie du groupe de travail des États généraux de l’information dédiés à souveraineté et ingérence qui rendra ces travaux très bientôt, je pense donc que ça sera utile de pouvoir les transmettre dans le cadre de l’élaboration de votre commission d’enquête.
Pour revenir effectivement sur l’actualité, je dirais qu’il n’y a pas de sujet plus brûlant que le sujet de l’ingérence aujourd’hui. J’ai eu le plaisir, ici même, dans cette salle, d’intervenir lors de la précédente commission d’enquête cette fois-ci consacrée à TikTok, on voit que l’actualité rebondit et rebondit encore, et je précise, je dirais d’entrée d’entrée de jeu, que j’avais eu l’occasion de dire que les risques d’ingérence n’étaient pas simplement hypothétiques, mais qu’ils étaient d’autant plus réels que de la part des services chinois, ne pas utiliser la manne que constituent les informations recueillies sur plus d’un milliard et demi d’utilisateurs de TikTok constituerait, de leur part, une faute professionnelle, ce qui, d’ailleurs, avait été même repris par l’un de nos représentants des services de renseignement, lors de ces mêmes auditions.
Il est clair, aujourd’hui, que nous arrivons à un point non pas de rupture mais, je dirais, d’apogée non seulement des risques mais des actions d’ingérence de pays hostiles sur les réseaux numériques de manière générale qui prennent diverses formes.
Dans un passé pas si lointain, les premiers auxquels on pensait étaient les Russes. Il se trouve, effectivement, que désormais, ça nous a été confirmé récemment encore, les Chinois prennent de plus en plus part à des mesures de désinformation dans le cadre électoral, c’est le cas aux États-Unis, on l’a vu, de manière pas toujours intuitive, en soutenant d’ailleurs les groupes proches de Trump ; on l’a effectivement vu dans le passé, mais on le voit aussi en Europe et je dirais que l’année 2024 est l’année de tous les dangers puisque c’est l’année où plus de quatre milliards d’individus sont amenés à aller aux urnes. C’est donc un champ d’expérience comme jamais il n’a été possible dans ce domaine et il est clair, effectivement, qu’à la fois les grandes plateformes et, je dirais, l’ensemble des acteurs de l’Internet ont été là-dessus, pour dire les choses clairement et franchement, d’une coupable naïveté, voire d’une coupable lâcheté ou d’une coupable complaisance par rapport à des acteurs potentiellement toxiques, qu’il s’agisse de pays étrangers hostiles mais aussi, évidemment, de groupes terroristes, on le voit régulièrement. On a vu, non pas une complicité de ces plateformes, mais une convergence d’intérêts toxiques entre les groupes extrémistes et le modèle de fonctionnement de ces plateformes, sur lequel, j’imagine, mes voisins auront l’occasion de revenir. Le modèle de fonctionnement de ces plateformes privilégie les propos polarisants, clivants, parce qu’ils sont les plus vecteurs d’audience, dans ce métier on parle d’engagement, on disait avant vecteurs de retweets, vecteurs de partage, donc, par définition il n’y a pas une convergence politique par exemple entre des groupes terroristes et des plateformes comme YouTube ou Facebook, non !, mais il y a une convergence d’intérêts toxiques. La nouveauté, aujourd’hui, c’est qu’au-delà même de telle ou telle action ponctuelle, ces processus, et on l’a vu dans le passé par exemple avec l’affaire Cambridge Analytica aux États-Unis, qui n’était que la première du genre, beaucoup d’autres ont suivi et, malheureusement, beaucoup d’autres risquent de suivre, on voit bien que ça peut jouer aussi sur la formation des opinions publiques, d’où les inquiétudes que l’on pouvait avoir et que l’on peut toujours avoir. On l’a vu avec la Nouvelle-Calédonie sur la formation de l’opinion publique, voire des réactions ou des risques d’insurrection, d’actions violentes, comme on l’a vu aux États-Unis, là encore avec Cambridge Analytica, où les groupes qui ont mené l’action au Capitole, que j’appelle un coup d’État, que certains appellent une insurrection, peu importe le nom qu’on lui donne, étaient coordonnés et avaient pu grandir grâce aux algorithmes – le mot reviendra certainement beaucoup aujourd’hui –, aux algorithmes de ciblage, on parle, dans notre métier, de micro-ciblage qui sont liés à toutes les données extraordinairement précises que l’on possède sur les individus, données liées à leur goût, à leurs échanges, à l’ensemble des captations que l’on peut avoir sur eux, y compris les captations du domaine médical, psychologique. On est donc capable effectivement de savoir – et Facebook, jusqu’à une période récente ne l’empêchait pas – qui se reconnaît comme raciste, donc envoyer, de la part de ces groupes, qu’il s’agisse de QAnon, ??? [7 min 57] et quelques autres, d’envoyer des publicités ciblées pour recruter des personnes en fonction de leur profil politique et, dans le cadre des campagnes électorales, être en mesure de créer des messages, et c’est peut-être la nouveauté de ces deux dernières années avec la montée en puissance de l’intelligence artificielle qui fait l’objet du rapport que nous rendrons bientôt, être en mesure de créer des contenus spécifiquement conçus pour telle ou telle personne en fonction de son profil. La nouveauté, c’est qu’auparavant, dans le cas de Cambridge Analytica, vous aviez une série d’ingénieurs qui étaient capables de concevoir des contenus et de les diffuser vers des dizaines ou des centaines de millions de personnes, aujourd’hui, tout cela peut se faire entièrement automatiquement par un système d’intelligence artificielle à qui l’on donne une feuille de route en disant « il faut favoriser l’élection de telle personne dans tel pays », et il va concevoir des contenus, répondre en ligne à des personnes qui penseront, de bonne foi, que c’est un humain qui leur répond, créer et inonder des centaines de millions de comptes de façon très rapide. J’avais eu l’occasion de dire, lors de la commission d’enquête sur TikTok, qu’en année moyenne Facebook efface tous les trimestres 1,5 milliard, je dis bien milliard, de faux comptes, donc plus de six milliards sur l’année précédente.
On voit bien que les outils de la désinformation, donc de l’ingérence se sont démocratisés dans le plus mauvais sens du terme et constituent, maintenant, un véritable risque sur le fonctionnement démocratique de nos sociétés. D’ailleurs, les experts de ces pays le disent très bien : l’ouverture des démocraties libérales à des ingérences extérieures est une manne, est une merveille pour ces régimes autoritaires qui y voient l’occasion d’interagir dans les temps à venir, et ils s’en vantent, la Russie s’en est vantée encore il y a peu.
Par définition, je crois, un comme ont pu le dire certains responsables européens, que nous devons effectivement abolir la naïveté par rapport à cela.
Nous savons aujourd’hui que nos démocraties sont vulnérables, qu’elles ont mis beaucoup trop de temps à réagir par rapport à ces processus. Aujourd’hui seulement se posent des questions concernant effectivement les risques politiques et non plus simplement économiques, d’abus de position dominante ou autres, non, de risques politiques sur le fonctionnement démocratique de nos sociétés. C’est un réveil brutal, parce qu’il s’inscrit dans une période de tensions internationales comme rarement : en plus de la guerre en Ukraine, on a maintenant une tension internationale liée à l’affrontement à la fois politique et industrielle entre la Chine et les États-Unis avec, effectivement là aussi, la possibilité très claire de faire intervenir ces tensions comme élément de débat dans le processus démocratique.
Donc je dirais, puisqu’on m’a enjoint d’être bref, que je suis d’autant plus heureux que cette commission d’enquête se réunisse aujourd’hui et qu’elle effectue ses travaux en cette période, qu’il y a urgence, c’est-à-dire que ce n’est pas pour une consommation lointaine vu du politique par rapport à vos travaux, c’est pour une mise en œuvre immédiate. Je crois que nous devrons, collectivement, réexaminer le modèle économique de ces sociétés que l’on a longtemps considéré comme étant inoffensif et je sais que mon voisin, Monsieur Chavalarias a eu l’occasion de l’écrire dans son livre, Toxic Data. Non ! Leur modèle économique est, je dirais, à l’origine même du problème qui se pose aujourd’hui. Je fais partie de ceux qui pensent, comme le dit aussi madame Shoshana Zuboff, que ce modèle économique de ciblage extrême, donc d’extraction massive, de plus en plus massive des données personnelles, constitue une impossibilité de fonctionnement pour les régimes démocratiques et je pense que nous, Européens, n’avons pas simplement vocation à réguler les plateformes existantes mais à créer les conditions d’émergence d’un autre type de plateformes qui ne serait pas lié à l’extraction de plus en plus massive et de plus en plus toxique, de plus en plus dangereuse de ces données, au profit, effectivement, d’autres modèles économiques. Je citerai là-dessus un autre ouvrage, Empires numériques de madame Anu Bradford, professeur à Columbia, qui disait que l’Europe doit effectivement être la source d’inspiration de l’ensemble des grands blocs, y compris des États-Unis. C’est une Américaine qui réclame que les États-Unis s’inspirent davantage de nous, ce qui n’est pas si fréquent. Je crois qu’il est effectivement important de penser que nous ne pouvons pas être uniquement sur un rôle défensif, avec tout le respect que j’ai pour les textes importants auxquels beaucoup d’entre vous ont été associés, dont vous Madame la Présidente – DSA, DMA, DGA, AIA pour l’intelligence artificielle. Non ! Il faut être en mesure de développer une politique volontariste, à l’échelle de l’Union, pour effectivement développer sur les segments critiques, dont l’intelligence artificielle, qui est déjà notre quotidien, mais qui deviendra, d’un point de vue industriel, un élément central des stratégies des différents blocs. Là, je vous en parle en tant qu’ancien rédacteur de textes de régulation : si nous ne le faisons pas, toutes les mesures de régulation seront contournées.
Je maintiens que la politique industrielle est un élément clé de la régulation de ce secteur. Ça ne parait pas évident parce qu’on se dit qu’il y a d’un côté l’industrie, de l’autre côté… Non ! La régulation fait partie de la politique industrielle et la politique industrielle fera partie de la régulation.
Voilà, j’en ai terminé pour l’instant.

13’ 45

David Chavalarias : Monsieur le Président, Mesdames Messieurs les sénatrices et sénateurs, merci de me faire l’honneur de contribuer, avec mon expertise, à cette commission. J’ai déjà entendu ce que vous avez eu l’occasion d’écouter, donc je vais essayer de me concentrer sur mon expertise sur ce que je peux apporter de nouveau, d’une part en vous montrant comment s’opèrent les opérations d’ingérence et en essayant de vous faire sentir comment l’architecture même des plateformes la favorise et, ensuite, en proposant quelques pistes.

On a lancé, à l’Institut des systèmes complexes, en 2016, un observatoire de l’espace numérique Twitter – Twitter parce que c’était un endroit où il y avait beaucoup d’influenceurs, notamment beaucoup de politiques, et où se passaient des campagnes présidentielles, notamment – de manière à essayer de comprendre comment s’articulaient les dynamiques d’opinion, mais aussi comment on pouvait avoir des campagnes d’influence et d’ingérence étrangère.
Je vais vous montrer un petit film qui retrace une reconstitution de ce qui s’est passé au moment des Gilets jaunes où on a pu voir des groupes Gilets jaunes très actifs, relayés sur Twitter, donc des citoyens, qui se sont faits, en gros, accompagnés, amplifiés, relayés par des groupes étrangers.
Sur cette vidéo, chaque point est un compte Twitter ; on reconstitue dans le temps, une pulsation c’est quelques jours ; en jaune, vous avez toutes les personnes qui relayaient le mouvement Gilets jaunes ; en marron, vous avez les comptes étrangers et, quand vous avez un lien, c’est un passage d’informations. Vous voyez bien la communauté très cohésive des Gilets jaunes qui, en fait, relayait les informations sur ce qui se passait en France et puis toute une communauté internationale, qui s’est mise autour, pour amplifier ce mouvement-là.
Autre exemple, juste avant la guerre en Ukraine, quelques jours avant le 24 février, tout un ensemble de comptes vont s’activer pour commencer à relayer la propagande du Kremlin. Beaucoup de ces comptes étaient des personnalités officielles françaises, officiellement pro-russes, ce qui n’est évidemment pas un délit, c’est la liberté d’expression, et ils étaient également entourés de tout un ensemble de relais pour relayer ce genre de propagande.
Donc, là vous avez un exemple de dynamique de relais d’amplification soit de divisions à l’intérieur de la France soit d’installation d’un certain narratif en France autour d’un conflit comme la guerre en Ukraine.

Dans les différentes études, qu’on a pu faire, on a notamment montré, on a pu détecter quasiment en temps réel les Macron Leaks, c’est là où on a pu voir que c’était, d’un côté, l’extrême droite américaine et, de l’autre côté, l’extrême-droite française qui avaient essayé de relayer ce hashtag avec la désinformation qu’elle contenait. Cet événement souligne, en particulier, le fait que les fausses informations restent en général à l’endroit où elles ont été inséminées, donc, ici, dans une communauté très particulière en France, à moins qu’elles soient reprises par les médias ou par les algorithmes de recommandation et c’est notamment l’un des problèmes des algorithmes de recommandation.

Autre chose problématique sur la question de l’ingérence, c’est que, souvent, elle se fait à travers de contenus qui n’ont pas de statuts vrai/faux, par exemple des mèmes, des contenus ironiques ou des choses du type « Vladimir Poutine va utiliser les armes nucléaires », pour l’instant ça n’a pas de statut vrai/faux, c’est une supposition, mais, en amplifiant une croyance, vous pouvez aménager, en fait modifier la perception des citoyens de l’environnement, donc amener à soutenir telle ou telle cause.
Cela veut dire que la modération, le fait d’enlever ou de retirer des contenus qui seraient faux, n’est pas suffisante, puisque là on a vraiment affaire à une espèce d’encerclement informationnel où on va essayer de modifier la perception qu’ont les citoyens d’un problème.
Mais même au-delà, on peut dire c’est qu’un des buts, on va dire long terme, c’est de modifier la structure même des rapports sociaux et des groupes sociaux au sein d’un pays. Entre 2016 et 2021, on a observé l’espace politique français, chaque point est un compte Twitter, les petits filaments sont les relais entre les comptes tweeters, vous en avez à peu près 80 000 sur cette image. Vous avez deux images du paysage politique français, entre 2016 et 2022, et on voit la restructuration du paysage politique français : en 2016, on allait de LFI au Rassemblement national en passant par les partis modérés, PS et LR ; en 2022, PS et LR étaient complètement déstructurés, on a eu un gros bloc d’extrême droite qui a émergé avec, notamment, des nouvelles communautés Reconquête et la nouvelle communauté numérique qui s’est formée pendant la pandémie autour de deux Florian Philippot sur le thème antivax, anti-vaccin/résistance au système. Donc, là, une nouvelle passerelle s’est formée entre, en gros, le spectre de l’extrême gauche et le spectre de l’extrême droite et qui a joué pour la circulation narrative bien au-delà de la pandémie. Par exemple, en ce moment, il y a une reconfiguration autour du climato-dénialisme et cette communauté, qui s’est insérée entre les deux extrêmes, est en train de le promouvoir.

Si ce genre de reconfiguration est possible, bien sûr ce n’est pas qu’à cause des plateformes, mais les plateformes et leur conception même les favorisent. Je vais vous donner un exemple. Bien sûr, je ne peux pas tout présenter, mais je vais vous donner un exemple et vous expliquer pourquoi notamment la conception même des plateformes amplifie les discours toxiques.
Les plateformes ont mis en place, depuis 2018, ce qu’on appelle le fil d’actualité qui est l’endroit où les personnes consultent la majorité de leur contenu. Ce que quelqu’un voit sur son fil d’actualité n’est qu’un petit pourcentage de ce que produit son environnement social, ce sont quelques pourcents, c’est moins 10 %, ce qui veut dire qu’un filtre est opéré entre ce que produisent les gens auxquels vous vous êtes abonnés et ce que vous voyez effectivement. La question est comment se produit ce filtre-là ?
On a mesuré très précisément. On a montré, par exemple sur le réseau Twitter, que, entre ce à quoi vous vous abonnez et ce que vous recevez dans votre fil d’actualité, il y a 50 % en plus de contenus toxiques, c’est-à-dire du contenu avec des insultes, du dénigrement, des attaques personnelles, etc., et ce, quel que soit, en gros, ce à quoi vous vous abonnez. Si vous vous abonnez à des choses très toxiques vous aurez 50 % de toxicité encore en plus et si vous êtes abonné à des contenus peu toxiques, vous n’avez que 50 % en plus. Cela fait que ça va déformer la perception de millions d’utilisateurs – et on a le même fonctionnement sur Facebook et sur Instagram, etc., parce qu’à la base, derrière, il y a la question de l’optimisation de l’engagement –, modifier la perception de millions d’utilisateurs vers un environnement plus hostile et vous hostilisez les débats. On a montré que dès que vous optimisez l’engagement, c’est-à-dire que vous voulez mettre dans les fils d’actualité des utilisateurs les contenus qui ont le plus de clics, de likes, de partage – ce qui est fait depuis 2018 – vous avez automatiquement ce genre de biais de négativité. C’est un gros problème parce que ça va donc renforcer l’hostilité des échanges et, notamment indirectement, ça va renforcer les personnalités, les comptes qui s’expriment de manière hostile. On a pu montrer que non seulement ça change la circulation d’informations, mais ça change la structure du réseau au sens où ça va mettre, au centre du réseau, au cœur du réseau, les personnes qui s’expriment de la manière la plus polémique et la plus hostile, avec une surreprésentation de 40 % dans le top 1 % des influenceurs de personnes qui s’expriment de manière hostile. C’est vraiment du design de plateformes, le modèle économique utilisé par les plateformes.

Il faut bien comprendre que quand vous avez des plateformes comme Facebook, plus de trois milliards d’utilisateurs, Twitter, Instagram, etc., vous avez votre opinion publique qui se forme dans des environnements où, de manière centralisée, vous changez une ligne de code et vous changez complètement la manière de circuler de l’information, la manière des personnes de s’exprimer, c’est-à-dire que les journalistes et les politiques vont changer leur manière de s’exprimer parce que, sinon, leurs discours ne sont pas diffusés, etc.

Maintenant, je veux juste donner quelques pistes pour éviter ce genre de choses. Je quitte les visuels.
Ma thèse – comme on l’a dit aussi à côté, je ne suis vraiment pas le seul à la défendre –, c’est qu’il faut choisir entre le modèle économique des plateformes tel qu’il est actuellement et la démocratie. On ne va pas pouvoir avoir les deux très longtemps. Pour cela, il faut agir de manière systémique, rapidement, et je vais vous donner un certain nombre de pistes qui pourraient être appliquées vraiment en un temps assez court, genre moins de 12 mois.
La première, c’est qu’il faut défendre les utilisateurs contre les clauses abusives, les clauses actuellement des réseaux sociaux ; par exemple celles de Twitter, que personne ne lit jamais, sont abusives. Je vous fais le parallèle avec la poste : imaginez un service postal qui vous dit : « J’ai le droit de lire ce que vous écrivez, j’ai le droit de modifier ce que vous écrivez, j’ai le droit de le distribuer aux destinataires ou à d’autres personnes, j’ai le droit de ne pas le distribuer, j’ai droit de mettre dans votre boîte aux lettres le courrier des gens qui vous écrivent ou d’autres personnes et, quand je le souhaite, je peux fermer votre boîte aux lettres et je n’ai aucun compte à vous rendre. » C’est exactement, mot pour mot, les conditions actuelles de Twitter et de beaucoup de boîtes de ce genre-là, qui sont abusives, et qui laissent les utilisateurs à la merci des grands réseaux. Quand on sait que, maintenant, les jeunes ne donnent même plus leur 06 ou leur 07 mais leur Instagram, cela veut dire, en fait, que ces personnes-là sont complètement captives de ce genre de chose.
La deuxième chose. Par rapport aux ingérences étrangères, on pourrait, par exemple, forcer les utilisateurs, permettre à un utilisateur de s’authentifier en tant que Français, la solution technologique peut exister, tout en restant anonyme et sans donner d’autres informations à la plateforme, il suffit de passer par un intermédiaire comme FranceConnect, qui certifie que la personne est française, ce qui permettrait aussi aux utilisateurs de filtrer les contenus en disant « je ne veux voir que les contenus émis par mes compatriotes » ce qui permettrait d’éliminer pas mal d’ingérences qui se font, justement, à partir de faux comptes.
Toujours par rapport aux utilisateurs, on peut réguler et imposer la portabilité des données et de l’influence sociale. Avant, quand vous aviez un numéro de téléphone, vous ne pouviez pas changer d’opérateur, donc vous étiez captif et vous payiez plus cher quand vous appeliez un autre opérateur. Il y a eu une régulation, maintenant vous pouvez repartir avec votre numéro. Pareil pour les réseaux sociaux, la plupart des utilisateurs des réseaux sociaux sont captifs, c’est ce qui se passe par exemple actuellement sur Twitter. Beaucoup de personnalités très influentes restent sur Twitter parce qu’elles y ont pas développé à la fois tout leur thread et qu’elles y ont leur audience alors que le réseau devient toxique. On pourrait tout à fait imposer le fait qu’un utilisateur puisse partir d’un réseau pour aller vers un autre sans perdre ni ses données ni son audience, et il y a des réseaux, par exemple Mastodon, qui sont, en fait, des protocoles qui permettent de faire ça.
Sur la question d’atténuer l’ingérence. On a parlé tout à l’heure de la publicité ciblée qui est vraiment une catastrophe. Il faut savoir qu’en ce moment-même, en mai 2024, il y a des milliers de publicités russes sur le territoire français, en Italie, en Pologne et en Allemagne, on les a identifiées dans le laboratoire, c’est un des doctorants, Paul Bouchaud, qui l’a fait. On est donc sous le feu alors même que Facebook est censé les modérer et on a mesuré que Facebook modère à peine 20 % des publicités politiques, sachant que c’est très difficile, en fait, de faire une publicité politique. Si vous dites « en ce moment, ils n’arrivent même pas à contrôler le Caillou alors comment voulez-vous qu’ils assurent la sécurité en France », tout le monde sait à quoi on se réfère et ça passera, ça ne sera jamais identifié comme une publicité politique. Vous envoyez ça, de manière massive, au moment où il y a des problèmes en Nouvelle-Calédonie et vous avez un impact.
Il y a un gros problème d’accès, évidemment, aux données. On a fait les analyses que je vous ai montrées tout à l’heure au moment où Twitter avait son API ouverte, d’ailleurs c’était la seule plateforme à avoir ouvert ses données, on a pu démontrer tout d’un ensemble de biais des algorithmes et des failles de la plateforme qui sont vraies aussi pour Facebook. Maintenant, tout cela est fermé, on n’a plus accès, donc on est complètement aveugle. J’ai regardé beaucoup d’auditions où des plateformes disaient : « On modère, on enlève 90 % des contenus, etc. », vous n’avez aucun moyen de le vérifier et nous non plus. À partir du moment où quelque chose n’est pas vérifiable, vous n’êtes pas tenu de le croire à priori. On nous parle aussi souvent de ce qu’on a détecté et, parmi ce qu’on a détecté, ce qui est vrai ou faux, mais on ne sait pas ce qu’on n’a pas détecté et on ne peut pas le vérifier.
On peut mettre en place des routines d’audit. Par exemple, on peut tout à fait vérifier le biais de toxicité en temps réel, sur une plateforme, pour autant qu’on ait les données et cela se fait en temps réel et, comme ça, on peut vérifier que ??? [26 min 35], en gros, du discours est bonne. Là, encore une fois, il ne s’agit pas d’agir sur les contenus, mais de faire en sorte que certains types de contenus ne soient pas amplifiés par rapport à la ligne de référence.
On peut aussi appliquer les principes de réciprocité : des plateformes étrangères qui sont interdites de déploiement dans leur pays, on ne devrait pas autoriser leur déploiement chez nous. C’est comme si vous autorisiez votre voisin à garder vos enfants, alors que lui ne veut surtout pas que vous gardiez les siens, c’est juste un principe de bon sens.
Côté institutionnel, il y a également plusieurs pistes : le fait de renforcer les espaces publics numériques, on pourrait, comme le disait tout à l’heure Monsieur Benhamou, renforcer l’émergence de plateformes alternatives. On subventionne bien les journaux, d’ailleurs aussi les télévisions, qui respectent une certaine charte déontologique, on pourrait le faire les réseaux sociaux qui respectent, par exemple, la portabilité.
Il faut savoir aussi que dans ce contexte-là, on pourra le détailler tout à l’heure, les élections sont très vulnérables par la conception même de nos élections actuellement. Quelque chose qui m’a frappé c’est que, autant en 2017 qu’en 2022, on appelle de plus en plus à voter contre plutôt qu’à voter pour. Pourquoi ? Parce qu’on a des campagnes très hostiles. On a plusieurs candidats au premier tour dont la plupart ne passent pas au deuxième tour, évidemment. Au deuxième tour, il reste deux candidats qui sont haïs par toutes les autres communautés, donc, après, il s’agit de manipuler et de savoir qui est le moins pire. Or, manipuler qui est le moins pire, c’est très facile avec des campagnes de mèmes. Ce qui veut dire que vous pouvez très bien avoir un candidat qui passe au premier tour avec 30 % de soutien, ce qui est déjà beaucoup pour un premier tour, qui est rejeté à 60/70 % par la population et qui passe le deuxième tour, suite à des manipulations. Ça veut dire qu’on a élu, qu’on va élire une personne qui a 70 % de rejet dans la population, ce qui n’est pas vraiment pratique. Des modes de vote pourraient éviter ça, le mode de scrutin actuel est un mode de scrutin archaïque qui date de 300 ans, on sait qu’il a plein de failles liées, il y a des modes de scrutin beaucoup plus récents et meilleurs – je défends beaucoup le jugement majoritaire, mais ce n’est pas le seul – qui permettraient d’éviter tous ces travers. On pourra y revenir.
Dernièrement, juste pour conclure, j’observe beaucoup sur les réseaux sociaux, actuellement et depuis la pandémie, une récupération des valeurs fondamentales de la République, notamment, par exemple, le concept de liberté et, si ce concept-là est récupéré, ainsi que fraternité, égalité, je pense qu’on aura perdu vraiment beaucoup. Il faut donc vraiment veiller à ce que ces valeurs fondamentales soient remises à la bonne place dans le débat public.
Merci beaucoup.

29’ 14

Tariq Krim : Bonjour Monsieur le Président, Monsieur le Rapporteur, Mesdames et Messieurs les sénateurs, merci de m’auditionner sur ces questions.
En préalable, je vais peut-être dire je ne suis pas forcément un spécialiste des questions d’ingérence, j’ai plutôt un profil d’entrepreneur – dans le numérique j’ai monté deux start-ups, donc je connais bien la manière dont fonctionnent ces plateformes. J’ai également suivi les questions de géopolitique du numérique depuis plus d’une trentaine d’années, ce sont des sujets qui me sont évidemment familiers. J’ai été également à la fois au Conseil national du numérique et auteur d’une mission pour le Gouvernement, une mission préalable à la création de la French Tech, un défenseur infatigable des questions de souveraineté et de savoir-faire français dans le domaine du numérique.

Pour prendre un peu plus de hauteur par rapport à cette question, j’avais proposé de séparer mon propos liminaire en trois parties :
la première, c’est peut-être comprendre plus généralement les enjeux de la géopolitique du numérique et dans quelle mesure les questions d’ ingérence se positionnent ;
la deuxième, c’est évidemment soulever les nouvelles questions liées à l’IA, ce qu’on pourrait appeler, ce qu’on commence à appeler aux États-Unis, « la sécurité épistémologique », c’est-à-dire la capacité, pour un pays, de sauvegarder sa propre culture, sa propre connaissance et son propre rapport au vrai ; la question également de l’autonomie cognitive. Comme vous le savez, on utilise de plus en plus des plateformes extérieures à soi pour réfléchir et résoudre des problèmes ;
et puis enfin, si vous me l’autorisez, je parlerai un peu de la question la souveraineté numérique, plutôt, à mon avis, la fin de ce qu’est la souveraineté numérique et les conséquences que ça aura sur ce sujet.
Je vais être assez rapide

En fait, ce qui est intéressant, c’est de comprendre qu’il y a trois choses qui se passent en même temps depuis à peu près une vingtaine d’années.
Tout d’abord, après une grande phase d’expansion d’Internet, on est aujourd’hui dans une phase de déglobalisation, on appelle souvent ça le Splinternet. Je donne un exemple : la Chine se connecte en 1994 à l’Internet. Trois ans, plus tard, elle décide de se déconnecter, de construire un réseau avec une sorte de firewall : elle laissera passer tout le contenu du reste du monde, mais elle va gérer elle-même ses plateformes, c’est d’ailleurs un des grands sujets. Vous parliez tout à l’heure de TikTok, TikTok peut opérer sur le reste du monde, mais le reste du monde ne peut pas opérer en Chine.
Aujourd’hui, on voit que ce réseau augmente, on parle parfois de ce qu’on appelle un « dictateurnet » où on aurait la Russie, la Corée du Nord, l’Iran, un ensemble d’acteurs. On peut imaginer à terme que ce réseau va se séparer, donc, ça pose d’énormes questions économiques, géopolitiques.

La deuxième, quand on parle de ces fameuses guerres, il y a aujourd’hui trois approches, trois types de guerre :
la première c’est ce qu’on appelle la cyberguerre, c’est l’attaque des infrastructures. Quand on entend que tel hôpital ou tel endroit a été victime d’une cyberattaque, ça veut donc dire qu’on est dans cette logique de hacking des infrastructures ;
la deuxième qui a plusieurs noms, on peut parler de guerre cognitive, narrative, warfare, likewar, c’est une guerre qui consiste à vouloir hacker les cerveaux, donc à changer, cela a été bien expliqué auparavant. Ce qui est nouveau c’est que, pendant très longtemps dans le domaine militaire, on avait une forme de dualité où on avait clairement le domaine militaire et, de l’autre côté, le domaine civil. C’est la guerre en Afghanistan où l’armée américaine a proposé à ses soldats de pouvoir utiliser Facebook et, soudain, on s’est retrouvé avec des conversations entre d’un côté les talibans et de l’autre côté l’armée américaine qui communiquaient sur Facebook Messenger, donc, soudain, une plateforme commerciale s’est retrouvée au cœur. Depuis, on s’est bien rendu compte que les plateformes commerciales sont utilisées à la fois pour les opérations d’ingérence ou des attaques militaires. ; et puis la dernière, qu’il ne faut pas oublier, c’est ce qu’on appelle la « lawfare », c’est utiliser le droit. Ça tombe bien, quand on contrôle l’Internet et qu’on a accès à l’ensemble du monde entier à travers des serveurs, à travers des services, en fait on peut intégrer la loi que l’on veut, notamment le CLOUD Act, le FISA, toutes ces lois extraterritoriales.

La troisième chose, c’est cette bataille de l’amplification qui est en train d’arriver. Tout ce dont on a parlé se basait sur la question des réseaux sociaux, sur le fait qu’on était dans un environnement où on avait des algorithmes et on est en train de basculer, aujourd’hui, dans un nouveau modèle, en tout cas il y a une vision qui s’est mise en place qui consiste à dire que si demain on dispose de suffisamment de puissance de calcul, on va pouvoir répondre à des problématiques très importantes, donc tout le monde est dans une course affolante là-dessus.
À mon avis, il y a deux de batailles qui se passent en même temps : la première, la plus connue, la bataille entre la Chine et les États-Unis, une bataille qui est un peu bizarre parce que, en même temps, la Chine et les États-Unis ont besoin l’une de l’autre pour leurs économies, c’est la fameuse militarisation des interdépendances dont mon voisin parle souvent ; la deuxième chose qui, à mon avis, est une guerre qu’on voit beaucoup moins, c’est une guerre avec un accord plutôt tacite entre les États-Unis et la Chine, pour se dire que, finalement, la Chine va pouvoir utiliser les nouvelles technologies pour dépecer l’Europe de ses industries du 20e siècle – nucléaire, automobile, 5G, Télécoms –, toutes les industries classiques dans lesquelles nous avons prospéré sont aujourd’hui ouvertes.
Donc, quand on parle de cette configuration, il faut comprendre que l’IA va aussi, à un moment ou un autre, remplacer, en tout cas prendre le savoir-faire européen.

Ce qui est intéressant, c’est qu’on est dans un nouvel environnement. Depuis l’arrivée de l’IA, il y a trois choses qu’il faut bien comprendre :
la première c’est qu’on est passé d’un monde déterministe – les conditions initiales définissent les conditions de sortie, on sait ce qu’on a en entrée, ce qu’on a en sortie ; avec l’IA générative, on est en train de rentrer dans ce qu’on appelle un monde non déterministe, c’est-à-dire que, finalement, on est dans un environnement où, en fonction des points d’entrée – on le voit quand on tape la même phrase sur ChatGPT –, on a des réponses différentes et cela va être vrai dans plein de domaines, dans le domaine créatif. Avec l’IA générative, cela veut dire qu’on peut faire quelque chose qui n’existait pas avant et c’est d’ailleurs ce qu’expliquait très bien le fondateur d’OpenAI : les techniques classiques, qu’on connaissait, c’étaient des messages qui étaient ensuite diffusés sur les réseaux sociaux ; aujourd’hui on est dans un monde où l’IA peut construire des centaines de milliers d’agents traitants synthétiques qui vont convaincre une par une, chacune d’entre elles, les personnes. On est rentrés dans une ère où on va être non plus dans une personnalisation de masse, mais véritablement une massification de la personnalisation, on va être dans du one on one avec des milliers, des millions d’agents. Cela a un impact évidemment économique. Vous avez n’êtes pas sans savoir qu’il y a eu d’énormes annonces, en France, notamment avec Choose France, des investissements de Microsoft, de Google dans les datacenters.
Pour cette bataille de l’IA, en fait, on a besoin de trois choses : on a besoin de talents, l’Europe en a beaucoup, on a besoin de puces, elles sont quasiment toutes fabriquées, aujourd’hui, par une entreprise qui s’appelle Nvidia, à ceci près que, pour construire des puces, Nvidia a besoin de l’Europe : les licences, pour les puces, viennent d’Angleterre, l’IP [36 min 55] en Hollande, la machine qui fait les ultraviolets pour imprimer les puces vient de Hollande, une partie des technologies vient d’Allemagne, les lasers viennent de Californie, le coating, ce qu’on met par-dessus les puces, vient du Japon. En fait, on est dans un système qui est quand même très globalisé, donc on a besoin de l’Europe pour construire ça.
Et puis la troisième chose qui est importante, c’est d’avoir des datacenters. Ce que l’on voit aujourd’hui, depuis peut-être moins d’un an, c’est un changement complet de la stratégie des grandes plateformes qui, jusqu’à maintenant, ne voulaient pas rentrer dans ces datacenters, elles considéraient qu’elles étaient des vendeurs de pelles et de pioches mais ne voulaient pas posséder les mines, on va laisser ça à des acteurs tiers. Aujourd’hui, la pression financière est tellement importante, on est quand même passé de sociétés qui valaient des milliards de dollars à des centaines de milliards, aujourd’hui le terme trillion, c’est plutôt des mille milliards de dollars, ça vous rappellera peut-être un film bien connu qui parlait, entre autres, de ce sujet. On est dans une situation où on a tellement besoin de datacenters qu’on va acheter absolument tout. On a eu 18 milliards d’investissements, mais 18 milliards, c’est le prix qu’Amazon va payer uniquement en Espagne pour s’installer avec ses datacenters ; vous allez avoir des investissements colossaux. Pourquoi ? Parce que, à terme, on souhaite évidemment contrôler l’ensemble des données, l’ensemble des choses parce que l’IA va permettre, on l’espère en tout cas, de construire des environnements synthétiques, construire du savoir-faire. On est dans un changement radical aujourd’hui, la question de savoir si l’IA remplace l’emploi est, à mon avis, à un faux sujet, on a un problème démographique important et un effondrement des talents, c’est notamment vrai en Europe, c’est vrai en Chine, c’est vrai partout. Il faut plutôt de se demander si demain on va pouvoir utiliser l’IA pour résoudre des problèmes importants. On le voit par exemple dans le domaine militaire : si vous avez un drone, vous pouvez utiliser une personne pour le contrôler, ce qu’on appelle les fameux drones FPV qu’on voit en Ukraine ; si vous avez des millions de drones, un être humain ne peut pas le faire, donc on a besoin de l’IA. Soudain, tout le monde se dit « on a besoin de ça ».
D’une certaine manière, cet investissement va se faire dans plusieurs niveaux, dans le domaine militaire mais également le domaine de la culture. Ce qui est nouveau avec l’IA dite générative, c’est, déjà, qu’on ne parle plus d’algorithmes de modèles ; on n’apprend pas avec, on ne donne pas des paramètres, on demande à la machine d’apprendre, donc, la question qui se pose, c’est : qu’est-ce qu’elle apprend, c’est comme l’éducation d’un enfant : où va-t-il à l’école ?, on saura ce qu’il a appris.
L’autre chose importante : on ne s’intéresse plus à des données pures, mais à de la culture. Donc, là, on est dans une problématique qui est tout à fait nouvelle : on a des appareils ou des outils qui ont une capacité d’acculturer ou de déculturer des populations entières. On parle souvent d’autonomie cognitive : qu’elle va être l’autonomie cognitive d’un pays ? Se pose donc, évidemment, la question de la prochaine génération d’ingérence ; aujourd’hui on utilise les réseaux sociaux, d’une certaine manière on joue sur la stabilité émotionnelle d’un pays, finalement ce que l’on voit c’est ce qu’on a vu pendant la campagne américaine de Trump : tout le monde se déteste sans savoir pourquoi, on s’insulte sur Twitter, mais on ne sait plus vraiment pourquoi. Ça s’est maintenu, mais aujourd’hui on va passer à l’étape d’après qui va être de convaincre les gens de vivre dans une réalité qui est un peu unique. Peut-être avez-vous lu ce livre de Philip K. Dick qui s’appelait Le Maître du Haut Château, un chef-d’œuvre qu’il a écrit il y a des années, il y a eu également une série, où il imagine une Amérique qui est divisée en deux : une partie des États-Unis pensait qu’elle avait perdu la guerre, qu’Hitler avait gagné, avec les Japonais, et plus on s’approchait du centre des États-Unis, on avait, en fait, l’inverse, des gens qui s’approchaient de la vérité. On était donc dans un pays où on avait, en parallèle, deux visions de la vérité.
Ce qui va se passer avec l’IA, c’est qu’on va être dans un environnement où on aura des millions de versions de la vérité qui vont circuler : des gens, en fonction de leurs groupes d’influence, qui vont croire dur comme fer. On a parlé de Cambridge Analytica, il faut se souvenir de ce qui s’est passé avec le Brexit : le régulateur des élections s’est rendu compte que des publicités avaient été publiées sur le Brexit des mois, voire des années après les élections.

C’est un vrai sujet qui m’amène très rapidement à la troisième partie qui est la question de la souveraineté numérique. Évidemment, la question qu’on doit se poser est, si on veut agir dans cet environnement, soit on utilise les outils des autres, soit on utilise ses propres outils. Le monde de l’informatique a toujours basculé entre deux types de modèles : des modèles centralisés puis des modèles décentralisés. Dans les modèles centralisés, on n’a jamais été très bons, regardez Microsoft, Windows ou encore le cloud et, dans les modèles décentralisés, on a toujours été plutôt pas mauvais parce qu’on arrivait à s’adapter. Le problème, c’est qu’aujourd’hui on a une nouvelle technologie qui s’appelle l’IA, qui est probablement ultra centralisatrice, peut-être même plus centralisatrice que tout ce qui a existé, on se trouve donc dans une situation qui est très complexe.
On parlait de politique industrielle, le problème est le suivant. Prenons la fameuse taxe GAFAM de Bruno Le Maire ; évidemment, quand il propose cette idée, qui est une bonne idée, immédiatement les États-Unis vont dire nous allons faire ???[42 min 34] sur l’agriculture, les spiritueux, le luxe. On est dans une situation où, finalement, on a ce talon d’Achille : on ne peut pas développer de nouvelles technologies, les exporter parce qu’on a déjà nos industries existantes. La question qui se pose c’est : comment peut-on faire ? Si on prend l’agriculture, l’agriculture tourne quasiment exclusivement sur Microsoft. On n’a pas su, en fait, construire non seulement une politique publique d’achats, Small Business Act, mais également une politique de solidarité de façon à ce que les entreprises françaises qui exportent achètent des entreprises de technologie qui fabriquent localement qui, demain, vont exporter. On est donc dans une espèce de système qui fait que, pour l’instant, on n’a pas réussi à trouver la bonne approche et pour l’instant, pour être très honnête, je ne suis pas très positif sur l’avenir, mais c’est un vrai sujet.

En guise de conclusion brève, aujourd’hui on est dans un environnement complètement nouveau dans lequel nous avons une partie de la solution, mais nous n’avons pas suffisamment d’argent pour investir dans ces domaines et, surtout, nous avons un autre vrai sujet : aujourd’hui, nos meilleurs talents partent travailler pour les grands de ce monde qui savent les attirer. Une des questions c’est : si on veut changer les choses et, surtout, si on veut exister à la fois dans le soft power et dans le cultural power de la France, il faudra changer ça.
Merci.

44’ 05

Julien Nocetti : Merci Monsieur le Président, Monsieur le rapporteur, Mesdames les sénatrices, Messieurs les sénateurs, merci beaucoup de votre invitation à m’exprimer sur cette thématique passionnante, avec, peut-être, un propos liminaire de ma part qui vise d’abord à vous dire que je m’exprime au nom du CAPS, le Centre d’analyse de prévision et de stratégie du ministère de l’Europe et des Affaires étrangère, que j’ai rejoint récemment, qui a pour but, depuis une cinquantaine d’années, d’éclairer la réflexion à la décision du ministre, c’est, en quelque sorte, un think tank du ministère qui assume, aussi parfois, son rôle de poil à gratter. Tout ça pour vous dire que cette liberté a une contrepartie qui est que tout ce que je vais pouvoir vous dire n’engagera pas la parole du ministère ni du gouvernement, c’est ma parole personnelle qui fera foi. Précision importante.
Je vais peut-être fonctionner en entonnoir en repartant de mon expertise en relations internationales pour resituer l’enjeu dans sa perspective, une nouvelle fois internationale, européenne, avec une thématique qui est traversée, comme vous le savez, par une terminologie abondante. Ce qui m’a surpris, quand j’ai reçu votre invitation, ça a été de voir que vous avez employé le terme d' « influence » étrangère. Je ne vais pas me lancer dans une digression sur la différence entre influence et ingérence, mais l’enjeu est de taille. De récents travaux parlementaires, dans la chambre basse, sont revenus sur cette différence qui est fondamentale : l’ingérence veut vraiment viser à déstabiliser le pays qu’elle cible, ce sont des tactiques qui ont pour objectif une malveillance, une dissimulation, voire une clandestinité dans leurs modalités, alors que l’influence va reposer sur la conviction, la séduction, la persuasion, etc. Il peut évidemment y avoir un fil conducteur entre ces différentes notions : l’influence peut, dans certains cas, paver la voie à des tactiques d’ingérence.
J’arrête ici ces comparaisons, mais, pour le coup, sur nos thématiques numériques, elles ont vraiment une importance. Pour revenir à ma maison, le rapport CAPS, en 2018, s’était déjà arrêté, il y a six ans, sur cette différenciation et sur l’expression de manipulation d’information pour catégoriser ce qui, parfois, fait l’objet d’un grand gloubi-boulga dans le discours public et médiatique, avec l’emploi de termes comme la désinformation, la propagande, la subversion, les fake news, les infox, la guerre politique, etc. Tout cela afin de souligner le caractère qui est à la fois malveillant, donc l’intention de nuire, et aussi clandestin, de stratégie informationnelle hostile, parce que vous êtes supposé ne pas être au courant, évidemment des manœuvres qui vous visent.
L’autre point préliminaire, que je trouvais important de mentionner devant vous, c’est que cette thématique qui nous rassemble aujourd’hui, au fond brasse une myriade de problématiques qui sont autant d’enjeux à traiter pour les décideurs. Ces ingérences numériques vont être, à la fois, un enjeu de stratégies étatiques d’acteurs hostiles, en l’occurrence quand on regarde l’enjeu, évidemment, de Paris, ce sera un enjeu aussi de confiance dans les médias, un enjeu de modération des contenus des grandes plateformes, et Monsieur Chalarias, notamment, l’a très bien abordé, la question des infrastructures numériques, et j’aurai peut-être l’occasion d’y revenir, et enfin, la politique des sanctions, et ça aussi depuis notamment février/mars 2022, on est bien placé pour savoir que les différentes initiatives du législateur européen, qui peuvent être mises en place, ont des impacts très concrets sur la réception de contenus hostiles et manipulés.
Tout cela pose donc une question très concrète pour nous tous : déjà, quelle hauteur de vue peut-on avoir quand on a une telle panoplie de sujets à traiter et comment décider dans un tel contexte, sachant qu’on peut difficilement être expert de toutes ces thématiques ?

Évidemment, je ne vais pas aborder tous ces différents champs, je vais me focaliser sur trois/quatre enseignements relatifs à ces ingérences numériques, en soulignant aussi quelques points d’attention très particuliers, notamment l’un d’entre eux sur la réception.
Le premier point, on l’a aussi un peu abordé : c’est un enjeu qui est devenu vraiment un facteur structurant des relations internationales. C’est évidemment un lieu commun que de le dire, mais quand on allume son radio, son poste de télévision, on est saisi quasiment d’un effet de saturation devant les nouvelles qui ont trait à ces sujets d’ingérence numérique et informationnelle. J’ai compilé juste deux/trois exemples, histoire de vous donner un aperçu de cette densité et de cette complexité.
En avril, il y a quelques semaines, Meta a supprimé son outil de lutte contre la désinformation, qui s’appelle CrowdTangle, avant les élections américaines, pour le coup, dans une période de campagne électorale. Meta est une plateforme sur laquelle prolifèrent les propagandes ciblées, affiliées à la Russie, qui ciblent, en amont des élections européennes, des pays comme la France, l’Allemagne, l’Italie et la Pologne, ce qui a été rappelé tout à l’heure.
Dans le même temps, la Cour suprême du Brésil a lancé une enquête contre Elon Musk pour instrumentalisation criminelle de X, donc Twitter.
Quelques jours plus tard, OpenAI, la maison de la maison-mère de ChatGPT, reconnaissait, dans un rapport, que ses modèles ont été utilisés pour générer des contenus à la fois textuels et visuels dans plusieurs campagnes d’influence internationale, dont l’opération russe RRN Doppelgänger.
Il y a quelques jours, on l’a tous remarqué aisément, sous couvert d’aider ses ressortissants à l’étranger, Pravfond, qui est une fondation du ministère russe des Affaires étrangères, finançait des projets de désinformation et la défense légale de suspects d’espionnage, notamment sur le sol européen, pas seulement, mais en particulier.
Point qui est lié, c’est évidemment une actualité qui est extrêmement dense et qui doit nous nous interpeller, bien évidemment, même si ça peut entraîner un retour à une forme de lassitude, mais c’est un point de vigilance qu’il est extrêmement important d’avoir à l’esprit quand on n’est en mesure d’agir dans ce champ.
Dans une perspective peut-être plus macro, ces manipulations de l’information sont une source majeure de déstabilisation classée par le Forum économique mondial, le WEF, parmi les principaux risques mondiaux en 2024, aux côtés des risques climatiques et environnementaux. En fait, de manière générale, quasiment la totalité des grandes enceintes internationales de débat ont, ces dernières années, réévalué à la hausse le degré de nocivité, de corrosivité que font peser les manipulations internationales sur nos systèmes. À titre d’exemple, prenez la Conférence de Munich sur la sécurité, dès 2017, qui proposait de considérer la démocratie comme étant une sorte d’infrastructure critique qu’il fallait à tout prix à protéger des visées hostiles de nos compétiteurs.
Dans une lecture tout aussi macro, je reviendrai ensuite sur un point de vigilance, je voulais relever le hiatus qui est même assez formidable entre cet accès à la connaissance et à la transparence permis par la dissémination des moyens numériques et les capacités, pour les États, d’agir via ces manipulations de l’information dans des interstices de conflictualité, parce que c’est bien de cela dont on parle, ce sont des interstices à la fois juridiques, sociétaux, économiques, etc., sous le seuil, tout en masquant leur responsabilité et c’est bien pour cela qu’on est tout à fait en peine d’agir de façon satisfaisante dans ce domaine informationnel et numérique.
Autre point qui est aussi illustré par différents points d’actualité : ces actions informationnelles ne font plus l’objet d’aucun frein de type moral et visent, aujourd’hui, à instrumentaliser des enjeux, des visuels régaliens. On l’a tous vu ces derniers jours, mais je soulignerai peut-être davantage le récit diffusé selon lequel il existerait un projet de partage de la dissuasion nucléaire française, avec la conscience parfaite, chez les adversaires, que ce type de désinformation sera repris par une partie de la classe politique et des communautés affinitaires sur les réseaux sociaux. Donc, là, vous avez une continuité entre la dimension internationale et intérieure, étatique, qui est tout à fait, aujourd’hui, évidente et qui mérite, là aussi, un regard beaucoup plus fouillé.
Un point de vigilance et c’est, à mon avis, un point assez fondamental quand on cherche, là aussi, à saisir en finesse toute l’importance de cet enjeu des ingérences numériques. C’est la différence qu’il y a entre une partie de la parole politique sur ces questions et le discours scientifique, monsieur Chavalarias l’a aussi souligné, avec l’enjeu d’aller déterminer des métriques, d’aller s’intéresser à la réception de différents types de discours, etc. La politique, pas seulement en France bien sûr, a le souci, désormais de plus en plus, d’alerter les opinions publiques, les concitoyens, sur les menaces liées aux manipulations d’informations, notamment en allant déclassifier, en allant exposer, de façon beaucoup plus offensive, ces stratégies hostiles.

Le problème est qu’il y a potentiellement un effet négatif de porter des discours alarmistes sur cette menace que représente la désinformation, en particulier sur les perceptions, soit sur la perception qu’on peut avoir des media, de leur rôle, de leur responsabilité et de la confiance qu’on peut conserver vis-à-vis des institutions démocratiques. Ce que je veux dire ici c’est qu’on a une ligne de crête très complexe ces avertissements alarmistes, entre la documentation de la présence d’une désinformation numérique et le fait de devoir rendre des comptes, de devoir rendre compte des limites de sa réception, de son influence, donc de son caractère persuasif et corrosif.

À cet égard, vous avez une série de travaux académiques, notamment aux États-Unis, qui a commencé à souligner cet impact à priori négatif des discours publics sur la lutte contre les manipulations de l’information. C’est un prisme américain, pour faire court, qui renvoie à la fois à la modélisation encore parcellaire de la réception de la désinformation – est-ce que ça fonctionne vraiment ? – à l’idée aussi que toutes les stratégies adverses ne se valent pas toutes et ne fonctionnent pas toujours. Au fond, ici, c’est l’idée qu’on met en avant des stratégies russes, des stratégies chinoises, des stratégies iraniennes, etc., ce n’est pas pour autant que ces stratégies verticales auront des effets de nature stratégique vis-à-vis des cibles de ces États.
Dernièrement, et ça mériterait de faire l’objet de travaux sociologiques en particulier, ces discours alarmistes peuvent susciter une forme d’anxiété au sein de la population. Dit autrement, vous avez toute une pollution, tout un bruit médiatique autour de ces sujets qui est également l’un des objectifs des acteurs qui vont propager des manipulations d’informations. Pour forcer le trait, au risque d’offrir une chambre d’écho au malheur [56 min 13] hostile – en l’occurrence dans l’actualité immédiate, la Russie, c’est souvent russe – voire, en plus, de favoriser une forme de soutien vis-à-vis de la restriction de liberté d’expression en ligne et, à plus long terme, d’aller contribuer à ce fameux désenchantement vis-à-vis de la démocratie.
Vous avez donc une forme d’hyper-vigilance qui va, certes, capter votre attention, mais exposer des campagnes informationnelles sans apporter d’éléments nourris sur leur impact ne va pas forcément contribuer à l’efficacité des réponses qu’on pourra mettre en œuvre par la suite.
Je sais bien que c’est une problématique extrêmement difficile et sensible, mais ça renvoie aussi, chez nos décideurs, à toute une série de biais, à la fois le mythe du public nécessairement attentif et réceptif à ces discours hostiles. Un autre biais est celui de l’effet magique de la propagande qui, nécessairement, va fonctionner. Je m’arrête ici, pour le coup, mais ça pose des questions tout à fait concrètes.

Un dernier point lié à ça et, ensuite, je m’arrêterai, Monsieur le Président, pour souligner les risques liés à la prolifération, aujourd’hui, d’une industrie privée de lutte contre les manipulations de l’information. Vous avez, aujourd’hui, une attention médiatique qui est assez importante vis-à-vis de différentes études, de différents rapports qui émanent d’acteurs privés, dont il était question ce matin quand on a tous allumé la radio, sauf que ça peut, d’une part, aggraver la crise de confiance qu’il peut y avoir entre nos différentes institutions, à la fois publiques, les concitoyens. Le secteur privé obéira avant tout, on le sait tous, à des motifs mercantiles. Est-ce qu’il faut laisser, aujourd’hui, la réponse, la quasi-attribution de campagnes informationnelles hostiles à de grands acteurs privés technologiques ?, je n’en suis pas certain. Est-ce qu’il ne faut pas favoriser l’éclosion, le développement d’une industrie européenne ? On a, aujourd’hui, tout un tissu de start-ups qui est extrêmement compétent et performant pour aller, justement, retisser des fils et essayer de travailler en particulier sur la réception de cette fameuse désinformation. Mais, pour le coup, l’empreinte médiatique des grands acteurs extra-européens est telle que ça met entre parenthèses, très largement, leurs travaux tout à fait passionnants.
Je vais peut-être m’arrêter ici, mais juste souligner qu’il y a aussi des tendances de fond, notamment sur la clandestinisation de plus en plus marquée de ces stratégies relationnelles hostiles et une autre tendance qui est celle de s’attaquer aux infrastructures numériques pour ensuite viser la réception que des populations entières auront vis-à-vis de l’information qu’elles vont recevoir.
Merci à vous.

Dominique de Legge : Merci à vous quatre, je vais laisser la parole à notre rapporteur. Peut-être une première série de questions, si tu en es d’accord et, après, on pourra laisser la parole aux autres collègues sachant que, pour l’instant, Sylvie Robert a sollicité, Nathalie aussi et peut-être d’autres.

59’ 33

Rachid Temal : Merci Monsieur le président.
D’abord, je vous remercie pour la très grande qualité de vos interventions, de vos analyses croisées et puis de vos propositions. Un commentaire pour arriver après à une question.
Vous évoquez le stade un, la naïveté, j’ai envie de dire le stade deux, la défense et le stade trois, être offensif.
Peut-être qu’un des sujets de cette commission d’enquête, une des raisons, c’est effectivement de voir le rôle croissant des ingérences dans la sphère politique, donc dans l’ensemble des sphères, c’est pour cela que nous l’avons mise en place, avec l’idée de dire qu’il faut sortir de la naïveté.
Sur les structures étatiques, on peut dire que, globalement, on en est sorti, j’ai dit globalement, même si on fera des priorisations. Là où ça devient plus compliqué, c’est, peut-être, sur la société civile où là on voit bien qu’on est peut-être encore dans la naïveté.
C’est vrai que vous évoquez plusieurs sujets, vous évoquez le modèle économique de ces plateformes avec leur puissance, en y ajoutant quand même que sur la dualité on voit bien que les Big Tech sont aussi parfois très puissants dans les dispositifs civils et militaires, notamment aux États-Unis. Ils ont donc aussi un rôle aujourd’hui de béquille de l’État, ça renforce les difficultés que vous évoquez, avec la question démocratique, vous l’avez mis, l’industrie, également la question des concurrences de vérité et du rôle d’une puissance publique justement où sa parole est dorénavant soit contestée, en tout cas remise en doute.
Une fois que j’ai dit tout cela, ma question est relativement simple : est-ce qu’il est trop tard ou pas ? Est-ce qu’il est possible ou pas ? Quand je vous entends, je ne suis pas un expert comme vous, vous avez plein de solutions et je ne demande qu’à les croire. Vous l’avez dit vous-même, Monsieur Krim disait d’ailleurs « est-ce qu’on a les moyens financiers ? », « est-ce que, en face, il y a la capacité ou pas », « est-ce qu’il y a les talents, etc. » Ma question est simple, Monsieur le Président, nous sommes en fin de commission, nous rendrons les conclusions début juillet, donc ma question : est-ce que ce n’est pas trop tard ? Et, si c’est encore possible, comment pouvons-nous actionner les choses, faire en sorte, justement, que ce rapport-là, via vos préconisations, permette de dire que nous avons compris qu’il ne fallait plus être naïf, il faut de la défense notamment via un ensemble d’outils améliorés, etc., et on a déjà des propositions, mais il y a aussi l’offensive. Je sais que Madame Sylvie Robert évoquera le narratif, elle a raison, mais moi je m’intéresse surtout aux infrastructures : comment créer un autre système d’infrastructures qui soit justement en capacité d’être moins sujet à l’économie de l’attention, donc à ce qu’est leur modèle économique algorithmique.
Voilà ma seule question qui, je crois, permettra d’avancer.

Dominique de Legge : Je sens que Monsieur Benhamou a envie de réagir ou de répondre à la question, donc je vais lui donner la parole, mais il ne faudrait pas que ça gêne ou empêche ses collègues de pouvoir également intervenir et dire un mot s’ils le souhaitent. Monsieur Benhamou, allez-y.

Bernard Benhamou : Si vous me permettez. Je n’ai pas abusé de votre temps, j’ai été économe de mon temps pour l’introduction, je vais essayer de l’être sur la réponse.
Je crois que vous posez la seule véritable question qui vaille, c’est-à-dire, effectivement, sommes-nous déjà trop tard ?
Sur les moyens financiers, je vais tout de suite répondre. Je pense que les quatre dernières années nous montrent que ce qu’étaient des dogmes européens, et moi je l’ai vécu quand, justement bien avant cela, on parlait effectivement de programmes européens ; quand il était question d’un endettement européen, nos voisins allemands répondaient « Nine, quelle était la question ? », c’est-à-dire que ce n’était même pas envisageable, même pas en rêve. Aujourd’hui, on l’a vu pour le plan Covid avec un investissement de 800 milliards, donc un emprunt européen, la même chose risque d’avoir lieu par rapport à la guerre en Ukraine, je pense et je sais même que ça fait partie de certaines des préconisations de certains candidats aux élections européennes, on sait très bien qu’un qu’un emprunt massif européen sur des objectifs stratégiques est non seulement possible, mais il est souhaitable. Quant au fait de savoir si on peut débloquer des milliards de milliards, donc des trillions, je sais qu’il y a tout un doute sur les unités mais peu importe, oui c’est possible, c’est souhaitable et je dirais que ce que font les Américains avec leurs plans sur l’IRA, Inflation Reduction Act est effectivement un exemple, sachant qu’il s’agit déjà, pour eux, d’une distorsion de concurrence vis-à-vis de nous et on le voit effectivement de manière claire.
Là-dessus, je pense que ces dernières années nous montrent que le schéma possible.

Sur la guerre perdue de la vérité, certains chercheurs se sont répandus en disant que c’est trop tard. Je considère que c’est dangereux d’envisager une forme de résignation morale par rapport, effectivement, aux narratifs adverses qui sont multiples, ça a été dit, qui peuvent effectivement être d’autant plus dangereux qu’ils ont des instruments et des leviers d’instrumentation qui sont extraordinairement puissants. Je pense qu’il nous faut, là-dessus, nous inspirer d’un autre ouvrage, que je vous recommande, dont la lecture est éclairante dans ce domaine, Les ingénieurs du chaos de monsieur Giuliano Da Empoli, qui, avant de parler du Mage du Kremlin, parlait effectivement des mouvements extrémistes qui ont tendance à se regrouper, ce que disait très bien Monsieur Chavalarias dans son schéma. On voit effectivement que la politique devient centrifuge, là où auparavant, gagnait la politique au centre, maintenant ce sont les extrêmes qui s’agrègent pour constituer effectivement une voix majoritaire.
Je rappellerai, et c’est l’actualité qui nous occupe ces derniers temps : vous parliez des instruments de l’État en matière de défense. C’est vrai dans les démocraties, ça devrait l’être ! Aujourd’hui, un grand journal de ce secteur, Wired, évoquait effectivement les plans d’un certain monsieur Donald Trump, s’il a le pouvoir, donc son agenda, agenda 47, c’est comme ça, présidence 47e, par rapport effectivement à ces domaines et qui est tout simplement de mettre en coupe réglée l’ensemble des instruments de surveillance de l’administration américaine pour en faire un outil de répression politique, de contrôle et de répression politique.
Vous parliez de naïveté. Notre naïveté a été de penser que la démocratie était un fait inéluctable, dans les démocraties. Nous avons à nous préoccuper de ce que seront nos instruments de contrôle si un gouvernement extrémiste venait au pouvoir, y compris en France, et ce n’est pas, malheureusement, de la politique-fiction.
Un dernier point sur les instruments de régulation, le Small Business Act a été très brièvement évoqué, c’est un instrument qui existe depuis 70 ans aux États-Unis, 1953, et que nous nous refusons, par le biais d’une influence et d’un lobbying forcenés de certains grands acteurs industriels, à mettre en place en Europe. Je pense qu’il n’est que temps.
De la même manière, des mots qui étaient auparavant tabous sur le protectionnisme que pratiquent massivement les Américains et, plus encore massivement, les Chinois, c’est l'European Buy Act, EBA ; on parle de SBA et de EBA. Il nous faut effectivement limiter. J’ai eu l’occasion, dans le cadre d’un rapport sur le numérique et le développement durable, dont je ferai une communication dans peu de temps, de dire qu’il faudrait une taxe carbone aux frontières, sachant que nos interlocuteurs chinois ont une énergie dix ou quinze fois plus carbonée que la nôtre et qu’on les laisse vendre des voitures dont le bilan carbone global est délirant, parce que, dans la réalité, elles ne seront jamais carbone neutre et encore moins carbone positif du fait de l’énergie, sans parler des matières premières et de l’extraction des matières premières, terres rares et métaux critiques en question.
Je pense en avoir terminé.
En gros, le propos est de dire que si volonté politique il y a en matière de politique industrielle, l’idée suivant laquelle nous serions nécessairement incapables de la mettre en œuvre est une idée défaitiste, on parlait de résignation dans ces domaines. Je pense effectivement que les échecs nombreux et les scandales nombreux, dont Cambridge Analytica dont on parlait, mais d’autres, montrent une voie. Je vous parlais d’Anu Bradford. Dans son livre, Empires numériques, elle dit très bien que ces échecs nombreux conduisent l’ensemble des pays qui observent les différentes plateformes de régulation, les différents blocs de régulation, à considérer que la vision européenne est la bonne et c’est aussi le cas de vos collègues parlementaires américains qui savent qu’une régulation devrait avoir lieu, dans ces domaines, depuis au moins dix ans, depuis l’administration Obama, qu’elle n’a pas eu lieu du fait, là encore, d’un lobbying forcené de ces plateformes et qu’il est temps effectivement. Même en Chine, et c’est assez étrange, on remarque que le texte de régulation sur les données chinoises empreinte au RGPD, évidemment en ayant une grosse exception sur l’État qui se permet à peu près tout et n’importe quoi en termes d’accès aux données personnelles, mais globalement, on voit bien que nous avons un rôle à la fois industriel à développer, un muscle industriel à développer, avec une commande publique dont le Small Business Act pourrait être l’un des l’un des vecteurs et avec une exemplarité de l’État dans le choix des plateformes, ce qui nous a occupés avec certains de vous ici par rapport à certains acteurs publics qui, effectivement, considèrent de façon, je dirais là encore naïve, la participation des grandes plateformes américaines à ce qui devrait être des missions de l’État, en particulier sur les données médicales, on en avait sur la sûreté nucléaire. Sur les données médicales, sur l’ensemble des données sensibles, là on peut parler d’une naïveté historique qui confine à la complaisance. Il est temps, il est encore temps d’y veiller pour changer les choses.

David Chavalarias : Je suis d’accord sur le fait qu’il est encore temps, d’ailleurs, les différentes propositions que j’ai mentionnées ne sont absolument pas exhaustives et pas forcément tout le temps ; je pense qu’elles peuvent être mises en place en moins d’un an. Vous les avez dans le rapport, bien sûr, mais il y a beaucoup de choses qui peuvent être faites très rapidement.
Il faut quand même se rendre compte, si vous pensez à Facebook : en 2017, nous avons identifié plein d’informations sur Facebook, d’autres l’ont fait avant nous. Aujourd’hui, dans notre laboratoire, une seule personne, certes très intelligente, mais une seule personne a montré que Facebook a raté 20 % des désinformations sur la campagne politique européenne maintenant. Ça veut dire qu’une entreprise comme ça ne met tout simplement par les moyens et ça fait plusieurs années. Donc un pays est souverain peut légiférer, peut imposer des amendes, il est temps de faire les choses.
Sur des choses à mettre en place de manière très concrète, on a beaucoup parlé de l’IA tout à l’heure, il faut savoir que c’est aussi un peu une course. C’est vrai que l’IA va créer de la désinformation massive, mais on peut aussi essayer de changer les espaces informationnels et, par exemple, le jour où vous arrivez à imposer le fait qu’un utilisateur puisse filtrer ses interlocuteurs par citoyenneté, en fait vous n’avez plus d’interférence avec les IA parce que les IA ne vont pas se connecter à FranceConnect pour obtenir un badge comme quoi ils sont français.
En fait, il y a pas mal de solutions qui ne sont pas forcément très coûteuses, qui peuvent avoir des résultats quasi immédiats et des solutions qui vont effectivement demander un peu plus d’argent, mais qui demandent une volonté politique. Ce qu’il faut savoir, et ce n’est pas pour être alarmiste, mais si vous n’avez pas de volonté politique aujourd’hui, personne ne pourra en avoir demain, parce que c’est de cela dont il s’agit.

Tariq Krim : Très brièvement. On parlait tout à l’heure, si j’ai bien compris, naïveté, défense, offensif ; l’offensif est toujours possible, après il faut l’assumer, c’est un sujet important, c’est vrai qu’il est limité par le fait que l’on n’a pas accès à des réseaux locaux. On dit souvent que l’opinion russe n’existe pas ou l’opinion iranienne n’existe pas, c’est évidemment faux. On a plein de moyens de le faire.
Ce qui me semble important, c’est qu’on parlait beaucoup des modèles économiques et il y a deux choses que je voulais préciser : la première c’est pourquoi Facebook est développé de la manière dont il est développé, ou n’importe quelle application, en fait. Évidemment, aucun des acteurs n’a envie d’avoir un produit qui soit fondamentalement biaisé, mais, dans la manière même dont ces produits sont construits, ils le sont pour des raisons très simples : vous avez plusieurs équipes, la première équipe qui est l’équipe la plus importante, c’est l’équipe qui développe le produit ; son bonus est basé sur la capacité à faire un produit qui est à la fois très addictif mais aussi qui est capable de croître le plus vite, on parle de grow. Des techniques ont été inventées par Facebook et, d’après une personne que je connais chez Facebook, ont fait passer Facebook de 100 à un milliard, avec des stratégies pour grandir dans des pays qui étaient réputés difficiles pour les réseaux sociaux, notamment le Japon. Juste pour l’exemple, la Norvège : on considérait intégralement que moins de 50 personnes allaient sur Facebook en une demi-journée, donc la croissance a été très rapide.
Ensuite, vous avez une deuxième équipe qui s’occupe de la monétisation, donc c’est bonus puisque ce sont des êtres humains qui sont payés en fonction de fonctions précises : on a fait quelque chose de gigantesque, donc vous devez trouver une façon de monétiser l’espace le plus possible. À partir de là, on leur donne toutes les possibilités.
Et puis, enfin, vous avez une troisième équipe, qu’on appelle souvent en anglais trust and safety, qui s’occupe de vérifier que le produit respecte les règles et cette équipe arrive après, donc, évidemment, elle arrive après qu’on a demandé en injonction, qui est une injonction aussi du marché de grandir le plus vite possible et de ramener le plus d’argent possible. Elle arrive véritablement dans un troisième point, donc c’est vrai que, fondamentalement, ces questions arrivent toujours à la fin. C’est aussi une des raisons pour lesquelles on est dans la situation dans laquelle on est.
Maintenant, il faut comprendre que le modèle économique est en train de changer. D’ailleurs, il a changé avec TikTok qui a vraiment inquiété Facebook parce que, si vous regardez le modèle de Facebook, ou d’Instagram, c’était un modèle de socialisation, on parle à ses amis, on se compare à ses amis, on fait des choses avec ses amis, on se connecte à ses amis, etc. D’ailleurs, ce qui a créé des problèmes chez les jeunes, puisqu’en général quand vous êtes à l’école, que vous êtes le vilain petit canard, vous n’avez pas envie d’aller sur Facebook ou Instagram parce qu’on va passer son temps à vous buller, à s’attaquer à vous. Ce qui est génial avec TikTok, c’est que, soudain, on a un système automatisé, on n’a pas besoin de parler aux autres, ça vient tout seul. Et Facebook est dans une poursuite, depuis des années – d’ailleurs ils ont embauché plusieurs personnes, notamment des Français –, pour construire une intelligence artificielle qui soit aussi bonne que celle de TikTok, mais, pour l’instant ça n’a pas marché. Avec l’arrivée de l’IA, on a un risque, non seulement nous sommes des gens qui parlons à des flux uniques, mais que ces flux soient totalement synthétiques, donc n’aient plus aucune phase avec la réalité, donc on rentre dans un nouvel univers.
Ce qui est important c’est que la valorisation actuelle de ces entreprises est basée exclusivement sur l’exécution d’un projet IA, depuis un an, deux ans à peu près, et tout ce qui existait avant, d’une certaine manière, est mis sur le côté.
Quand on se pose la question de savoir, comme tu le disais, si l’équipe de Facebook ne s’occupe plus de ça, elle a été rebasculée sur les questions d’IA parce que c’est là que Facebook, Google et tous les autres imaginent des revenus futurs. On est aussi dans un domaine très opportuniste où, en fait, on doit créer des narratifs, le narratif des réseaux sociaux est terminé, ça n’attire plus personne, ça n’excite plus personne, les investisseurs ne veulent pas en entendre parler, le cloud lui-même est d’ailleurs maintenant moins intéressant. Ce qui est nouveau, c’est l’IA et c’est comment construire ces fameux services qui vont être utilisés par des milliards de personnes et dont on espère que les revenus seront évidemment importants.