Ingérences étrangères, opérations de déstabilisation : comment regagner la bataille sur les réseaux sociaux

De April MediaWiki
Version datée du 26 mars 2024 à 13:44 par Morandim (discussion | contributions) (Annulation des modifications 109251 de Morandim (discussion))
Aller à la navigationAller à la recherche


Titre : Ingérences étrangères, opérations de déstabilisation : comment regagner la bataille sur les réseaux sociaux

Intervenant·e·s : Laurent Cordonier - Thomas Huchon - Camille Grenier - Romain Pigenel - Delphine Sabattier

Lieu : Podcast Politiques Numériques, alias POL/N

Date : 15 mars 2024

Durée : 51 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Quelle est la réelle efficacité des campagnes d'influence des opinions sur les réseaux sociaux ? Quels sont les objectifs visés dans les cas d'ingérences étrangères ? Et nos armes, à nous, face aux manipulations politiques ?

Transcription

Dephine Sabattier : Bonjour à tous. Vous écoutez Politiques numériques alias POL/N. Je suis Delphine Sabattier. Aujourd’hui, le débat avec quatre pointures. On va parler ensemble des risques d’ingérence étrangère à la veille d’échéances électorales ou comment les pires stratèges politiques s’emparent des nouveaux outils de communication pour influencer les opinions et mettre à mal notre esprit critique.
En studio, Laurent Cordonier. Bonjour Laurent.

Laurent Cordonier : Bonjour.

Dephine Sabattier : Docteur en sciences sociales, directeur de la recherche de la Fondation Descartes, auteur de multiples rapports et papiers scientifiques, je vais en citer juste quelques-uns : le rapport « Comment les Français s’informent-ils sur Internet ? Analyse des comportements d’information et de désinformation en ligne », c’était pour la Fondation Descartes et puis on va citer, évidemment, ce rapport que vous avez écrit avec Gérald Bronner, commandité par le président de la République, « Les lumières à l’ère numérique ».
Avec vous Thomas Huchon, journaliste d’investigation. Bonjour Thomas.

Thomas Huchon : Bonjour.

Dephine Sabattier : Cher confrère, auteur, réalisateur. Pareil, je ne vais pas tout citer, mais j’avais envie de citer quand même Comment Trump a manipulé l’Amérique ou encore Conspi Hunter – Comment nous avons piégé les complotistes. Vous êtes également consultant, enseignant, spécialiste du Web, des infox et des théories du complot.
Autour de la table également Camille Grenier, Directeur des opérations du Forum sur L’Information et la Démocratie. Bonjour Camille.

Camille Grenier : Bonjour.

Dephine Sabattier : Vous collaborez avec de nombreux gouvernements signataires du partenariat pour l’information et la démocratie, un accord intergouvernemental qui a été initié par Reporters sans frontières et qui publie un nouveau rapport « Pour un contrôle démocratique de l’intelligence artificielle » ; ça fera partie, évidemment, de notre conversation.
Et enfin Romain Pigenel. Bonjour Romain.

Romain Pigenel : Bonjour.

Dephine Sabattier : Directeur du développement des publics et de la communication à Universcience, institution publique qui réunit la Cité des sciences et de l’industrie et le Palais de la découverte. Vous êtes également enseignant en communication politique digitale à Science Po Paris, ancien directeur-adjoint du service d’information du gouvernement en charge du numérique et conseiller du président de la République à l’époque de François Hollande.

Bonjour à tout le monde. Est-ce que, selon vous, nous sommes à un moment vraiment crucial, aujourd’hui, pour notre démocratie face, justement, à ces stratèges politiques qui utilisent les outils du numérique pas toujours à des fins très transparentes ? Thomas.

Thomas Huchon : Je crois que tout va bien. On vit dans une période hyper apaisée, les informations de qualité circulent vraiment de manière très pondérée ! Non, ça va pas du tout, on est dans un moment de panique totale. Je crois que tous les manques, en termes de régulation, qu’on a pu observer depuis une dizaine d’années dans l’espace numérique et dans l’espace informationnel, vont être encore plus amplifiés par l’apparition de l’intelligence artificielle et la possibilité de fabriquer des contenus, de générer des contenus sans qu’ils soient vrais, mais en ayant l’air de plus en plus vrais.

Dephine Sabattier : Là, tu parles au futur, n’est-ce pas déjà un peu le présent.

Thomas Huchon : Si, c’est déjà le présent. Un journaliste de France 24 s’est fait usurper son identité en deepfake la semaine dernière, on a une campagne de Trump qui a lancé ses premiers visuels, fabriqués par IA, où monsieur Trump est soutenu par des dizaines d’Afro-américains qui ont l’air de le trouver absolument génial alors qu’il n’en est probablement rien, on est quand même assez loin de la réalité là-dessus. Je crois, en fait, que nous sommes confrontés à un problème qu’on n’a pas voulu régler depuis dix ans qui est la nouvelle forme de la circulation de l’information, qui n’est pas régulée. En fait, le problème, ce sont plus les réseaux sociaux que l’IA.

Dephine Sabattier : Comment ça, ce n’est pas régulé ?

Thomas Huchon : Il n’y a absolument aucune forme de régulation concrète sur la circulation de l’information en ligne aujourd’hui, en tout cas pas du tout suffisamment. Les plateformes ne respectent pas ce qu’elles devraient respecter, on continue à les considérer comme ???

Dephine Sabattier : Parce que du côté des médias, du côté de l’information contrôlée par les médias officiels, il y a cette régulation.

Thomas Huchon : Je n’utiliserais pas le terme de « médias officiels ».

Dephine Sabattier : C’est vrai, je dois faire attention, je parle avec un spécialiste de la théorie des complots.

Thomas Huchon : Si on imagine l’idée de médias officiels, on peut parler de l’ORTF, on peut parler des médias russes, on peut parler de la Corée du Nord, je n’ai aucun problème, mais en France il y a des médias professionnels et des désinformateurs professionnels, mais il n’y pas de médias officiels, ça n’existe pas, sinon il y aurait des médias officieux et là ça nous poserait un autre type de problème.

Dephine Sabattier : Laurent.

Laurent Cordonier : Peut-être, pour nuancer un peu le tableau, je suis d’accord dans les grandes lignes, mais il faut pas oublier non plus qu’en France, quand nos concitoyens s’informent sur Internet, ils s’informent avant tout par le biais des médias traditionnels et de façon extrêmement massive. C’est ce que j’ai pu montrer dans l’étude que vous avez citée « Comment les Français s’informent-ils sur Internet » où on voit que les grands médias traditionnels, en France, restent la source numéro une d’information des Français. Après, on va dire que la difficulté ce sont les réseaux sociaux parce que, là, on est on ne sait pas très bien à quoi leurs utilisateurs sont confrontés en termes de contenu informationnel puisque c’est très difficile à étudier simplement. Chacun a un mur personnalisé sur lequel apparaissent des posts qui lui sont propres, on ne peut pas faire des mesures d’audience comme on le ferait sur d’autres médias. Sur les réseaux sociaux, on a bien l’impression, en effet, que la part d’information de mauvaise qualité, trompeuse, voire manipulée, est plus importante que dans le reste de l’environnement informationnel, évidemment, donc mécaniquement, le fait de s’y trouver, d’y circuler pour s’informer, ou non d’ailleurs, mais d’y être exposé à des formes de manipulation d’informations, augmente le risque d’être induit en erreur. C’est ce qu’on observe, par exemple, dans d’autres études que j’ai pu faire sur l’information et la santé ou l’information et le climat.

Dephine Sabattier : Ça augmente le risque d’avoir de fausses informations, d’être confronté à la désinformation, mais est-ce que ça n’augmente pas, aussi, la possibilité d’être davantage informé, d’entendre plus de points de vue ?

Laurent Cordonier : En tout cas, ce n’est tellement ce qu’on mesure. Quand je mesure, par exemple, la connaissance sur des questions de santé ou la connaissance sur des questions climatiques, j’observe que les personnes qui s’informent avant tout sur les réseaux sociaux ont de plus faibles niveaux de connaissance sur ces sujets, seront donc plus sensibles à des informations fausses qui circulent sur ces réseaux. Par contre, vous avez raison de souligner le fait que rien n’est mécanique. Ce n’est pas parce qu’on est exposé à une information fausse qu’on va y croire. De même que ce n’est pas non plus parce qu’on est exposé à une information vraie qu’on va y croire. Il y a des facteurs individuels, des facteurs sociaux aussi qui protègent ou qui rendent, au contraire, davantage sensibles à des informations fausses ou trompeuses.

Dephine Sabattier : Romain.

Romain Pigenel : Je vais aussi un peu nuancer. Thomas a raison ; c’est vrai qu’il y a une espèce d’accélération qui fait qu’on a l’impression, ce n’est pas qu’une impression, que les problèmes se multiplient dans tous les sens. Je crois qu’il y a deux choses : il y a d’abord une révolution qui a, en réalité, plus de 20 ans quasiment 30 ans, qui a été l’arrivée d’Internet, même avant les réseaux sociaux, et qui a fracassé ce qui était avant le monopole de l’accès à l’information. La dérégulation est donc ancienne et pas que mauvaise. Ça me frappe toujours de voir comment, pour reprendre un anglicisme horrible, en dix ans on est passé d’un narratif à un autre : dans les années 2000, le discours ambiant c’était « Internet c’est formidable, ça donne la parole à tout le monde », c’était l’époque des blogs, c’était aussi toutes les utopies avec la démocratie participative qui allait être permise par ces nouveaux moyens ; il y a aussi eu toute cette idée qui n’était pas totalement fausse, pas totalement vraie non plus, que le Printemps arabe avait été permis par internet. Il y a eu tout ce discours-là qui était mirifique et puis, depuis quelques années, et je crois que le point de bascule c’est Cambridge Analytica, on a basculé, de mon point de vue, dans un discours qui est n’est pas beaucoup plus exact mais qui est radicalement inverse, où, finalement, tout est la faute à Internet, les réseaux sociaux sont catastrophiques, etc. Ce qui n’est pas faux, mais qui n’est pas complètement vrai non plus.
Deux choses en réaction.
La propagande politique a toujours existé et, comme dans toute course à l’armement, elle s’empare des nouveaux outils. Je ne suis pas certain que les stratégies d’influence à l’ancienne, par exemple de lobbies industriels ou autres, qui pouvaient payer des élus ou essaye de faire de l’infiltration dans les médias, étaient beaucoup moins efficaces que les techniques actuelles. Je pense que c’est un jeu du chat et de la souris. Il y a, je ne dirais pas un camp du bien et du mal puisque ce n’est évidemment pas ça, mais il y a des gens qui essayent de faire de l’information sérieuse, il y a des propagandistes de tous ordres, ça va depuis la communication politique jusqu’à la propagande, et ils s’emparent des nouveaux moyens.
Il y a aussi un autre sujet qui m’intéresse et je pense qu’il va être à creuser qui est en deux temps : c’est d’abord quelle est l’efficacité tout cela ? Je dis cela aussi en tant que communicant d’abord politique et, aujourd’hui, dans le domaine scientifique et culturel, ça se saurait si la com’ fonctionnait tout le temps à 100 %. Évidemment qu’il faut combattre les dérives, surtout quand elles prennent la forme de stratégies d’État pour déstabiliser des démocraties, mais ce n’est pas aussi simple de dire « on va arroser de vidéos et ça va transformer l’opinion, ça va faire basculer une élection ». D’ailleurs, quand on regarde la littérature, qui est complexe parce que, en fait, c’est à la connexion des sciences d’information, de la sociologie, des sciences politiques, c’est compliqué d’arriver à établir le poids précis d’une campagne numérique ou d’une campagne de communication en général. Vous connaissez sans doute Hugo Mercier, un chercheur en sciences cognitives, qui a sorti, je crois il y a un peu plus d’un an, un petit ouvrage formidable qui s’appelle Pas né de la dernière pluie. C’est un grand chercheur en sciences cognitives, mais il a fait un peu une revue de littérature, de bonne vulgarisation, sur tout ce qui démontre que, au fond, on n’est pas si dupe ou si crédule qu’on pourrait le croire. C’est assez orienté puisque la thèse d’Hugo Mercier c’est d’aller à contre-sens du courant dominant, mais c’est intéressant de voir, et il le rappelle avec beaucoup de choses qu’on oublie parfois, que ce n’est pas parce qu’il y a une propagande qu’elle fonctionne forcément. Après, évidemment, ce n’est pas parce qu’elle ne fonctionne pas ou qu’elle ne fonctionne pas totalement qu’il ne faut rien faire.

Dephine Sabattier : Toutes ces fractures qu’on voit aujourd’hui dans la société, est-ce qu’on peut quand même les attribuer aux réseaux sociaux ou est-ce que c’est juste le reflet, finalement, de la réalité, de la colère populaire, peut-être, je ne sais pas, de la déchéance des démocraties ? Thomas

Thomas Huchon : C’est sûr que la démocratie, qui est, par essence, un modèle frustrant, génère un peu ce sentiment-là. Je crois que là où nos systèmes d’information, nos systèmes de régulation, l’existence d’une presse professionnelle avec tous les défauts qu’elle peut avoir, permettait de limiter ces impacts-là, eh bien ces impacts sont en permanence multipliés, amplifiés, par les réseaux sociaux et par la nouvelle circulation de l’information. Le vrai problème ce n’est pas tant que circulent des choses vraies ou fausses sur les réseaux sociaux, c’est qu’en fait on ne partage plus rien. Comme on est chacun enfermé dans une réalité dans laquelle on voit des choses qui correspondent à ce qu’on croit déjà un peu, c’est donc vachement difficile de se rendre compte qu’on est en train d’être manipulé. On est en train d’être radicalisé contre nous-mêmes et la radicalisation c’est un escalier, on ne sent jamais les premières marches, on se rend pas compte qu’on est en train d’être radicalisé. Le problème ce n’est pas tant qu’il n’y ait plus de vérité, ça n’a jamais existé, je partage totalement ce que dit Romain et ce que dit Laurent là-dessus, mais je crois que le problème c’est qu’on ne partage plus les faits.
Pour moi, le point de bascule ce n’est pas tant Cambridge Analytica, même si ce truc-là est énorme, j’ai enquêté là-dessus et, à l’époque, personne ne voulait entendre parler de cette histoire.

Dephine Sabattier : D’ailleurs, on ne peut pas formellement dire que Cambridge Analytica a fait élire Donald Trump.

Thomas Huchon : Ah si, on peut le dire clairement.

Dephine Sabattier : J’ai lu des études qui contredisent ce point de vue.

Thomas Huchon : Je sais bien, mais je ne crois pas du tout à ces études-là.

Dephine Sabattier : Thomas, vous en êtes convaincu.

Thomas Huchon : Je veux dire que c’est le 21 janvier 2017 que ça bascule, c’est ce jour-là, quand la porte-parole non pas du candidat Trump mais de la Maison-Blanche vient expliquer qu’il existe des faits alternatifs. C’est ce jour-là que le monde bascule.

Dephine Sabattier : Je voulais donner la parole aussi à Camille. Vous publiez, j’en ai parlé, un nouveau rapport sur le contrôle démocratique et l’intelligence artificielle. Est-ce qu’il vous semble qu’on est à un point de bascule avec un nouvel outil qu’on a du mal à maîtriser, finalement ?

Camille Grenier : Ce qu’on voit, et ça a déjà été dit il y a 10/20 ans, c’est la disruption de la distribution de l’information. Là, on est arrivé à la disruption de la production de l’information-même : on sait plus de quelle façon est produite, nécessairement, l’information. Après, il y a les enjeux de circulation, d’amplification, ça a été dit. Il suffit de prendre le métro pour voir que nous sommes tous dans des espaces informationnels. Nous sommes dans un espace commun qui est une rame de métro, mais nous sommes tous dans notre petite bulle : des personnes achètent des chaussures, d’autres regardent des recettes sur Instagram et tout le monde est dans sa bulle. C’est vraiment, je pense, un manque de commun aujourd’hui.
Le rapport qu’on a publié avant celui sur l’IA c’était justement sur le pluralisme et la curation algorithmique et comment on peut mettre en place des solutions techniques ou de régulation pour assurer un peu plus de pluralisme et d’accès à l’information fiable.
Sur l’IA, c’est vrai qu’on voit, aujourd’hui, que ce sont des entreprises privées, encore une fois, qui lancent leurs produits et puis on verra ce qui se passe. Il faut remettre certains garde-fous en place. Nous avons publié notre rapport qui était le fruit de six mois de réflexion d’un groupe de travail avec contribution de 150 experts à travers le monde, on l’a publié la semaine dernière depuis cinq villes à travers le monde.

Dephine Sabattier : C’était fin février puisque nous serons diffusés un petit peu plus tard.

Camille Grenier : On décline toute une série de recommandations à la fois sur la construction de ces modèles et de ces systèmes d’IA, leur déploiement, les cadres de régulation qu’il faut mettre en place, notamment sur la transparence puisque, aujourd’hui, on ne sait pas vraiment comment ces systèmes d’IA sont entraînés et l’impact que ça peut avoir sur l’intégrité de l’information derrière. Et ce n’est pas seulement l’IA générative, c’est aussi toute la curation qui est faite et l’analyse des données personnelles qui est faite. On en revient aux différents espaces qui ne sont plus tant des espaces communs mais des espaces hyper personnalisés.
Je regardais aussi les premiers symptômes qu’on a sur des deep fakes. C’est vrai qu’on est quand même, cette année, dans l’année des élections, il y a plus de deux milliards de personnes.

Thomas Huchon : Quatre !

Camille Grenier : Quatre ! Ça dépend des chiffres, j’ai du mal à trouver le bon chiffre. Quatre, oui c’est la moitié de la population. C’est vrai que 2024 est une année quand même assez cruciale pour la démocratie. En Europe, on est déjà rentré dans la campagne, mais aussi à travers le monde : l’Indonésie, par exemple, un pays ultra peuplé a ses élections. On voit, finalement, que les deep fakes ce n’est pas seulement sur les réseaux sociaux. Il y a les premiers cas de phoning où une IA prend la voix d’un président ou d’un candidat pour dire « non, n’allez pas voter à telle échéance, le plus important, c’est en novembre ».
Il y a donc les réseaux sociaux, mais il y a aussi, quand même, la production de l’information qui est, aujourd’hui, tout à fait changée par ces nouveaux systèmes,

Dephine Sabattier : Dans les recommandations que vous faites, je me suis arrêtée sur le mot « authenticité d’un contenu ». Comment fait-on, aujourd’hui, pour vérifier l’authenticité d’un contenu ?

Camille Grenier : C’est un grand sujet, c’est assez marrant parce qu’on a commencé à publier notre rapport et c’est vrai que la technologie avance extrêmement vite. Il y a cette idée du watermarking qui fait qu’on pourrait identifier et obliger, finalement, les producteurs de contenu à ce que ce soit tout à fait transparent avec les personnes qui sont exposées à ce type de contenu.

Dephine Sabattier : C’est-à-dire apposer un filigrane qui permette de montrer que ce contenu a été généré par une intelligence artificielle.

Camille Grenier : Et puis il y a d’autres d’autres possibilités. Quand on est exposé à une information, il y a toute la discussion autour du fact checking mais qui, en général, a quand même assez moins de portée que le contenu initial. On a fait une recommandation, notamment dans le cadre des élections : si une personne est exposée à un contenu qu’on pourrait qualifier de désinformation, comment s’assure-t-on que les mêmes utilisateurs sont aussi exposés au fact checking et au fait que cette information était fausse ?

Dephine Sabattier : Laurent Cordonier, vous allez participer, vous me l’avez confié, à une commission d’enquête sur les politiques publiques face aux opérations d’influence étrangère. Donc, en France, on a conscience, aujourd’hui, des risques en pleine période électorale européenne ?

Laurent Cordonier : La conscience est en train de se créer en France. Il y a eu un peu de retard au démarrage de la part des autorités et aussi, il faut le dire, des services de renseignement qui, par rapport aux États-Unis par exemple, ont été un peu plus lents à réagir sur ces questions, notamment d’ingérence numérique étrangère. Je pense que, aujourd’hui, la conscience est prise, la difficulté va être de trouver les bons moyens, les bons leviers d’action évidemment.
Je pense que ça repose la question qui était tout à l’heure sur la table et qui est vraiment centrale : est-ce que la désinformation fonctionne ?, parce que c’est vraiment ça le nerf de la guerre. Je l’ai indiqué, au début : être exposé à un contenu faux n’a pas ça par un effet mécanique sur nos croyances. Mais ce qu’il faut bien considérer, d’ailleurs mon collègue et ami Hugo Mercier fait très bien de le rappeler dans son livre, il y a une abondante littérature qui montre que nous sommes loin d’être naïfs, pour peu qu’elles aient un peu d’éducation, les populations sont en général capables de séparer le bon grain de l’ivraie informationnelle. Par contre, la question du fonctionnement des informations c’est : que vise la désinformation, notamment les ingérences numériques étrangères ? Que visent-elles à faire ? Si l’idée c’est de se dire qu’elles veulent nous faire gober un message particulier, probablement que ça marche mal. Par contre, si l’objectif de la désinformation et des ingérences numériques étrangères, c’est de créer du doute et de polariser la société cible de ces attaques, en général une démocratie libérale, alors là on peut vraiment penser que ça fonctionne beaucoup mieux. C’est bien ce qu’on voit avec les campagnes russes qui ont notamment attaqué la France déjà pendant la période des Gilets jaunes et avant, et qui continuent depuis. Ces campagnes de désinformation ont pour objectif d’appuyer sur des lignes de fracture qui sont préexistantes au sein de la société, dans le but de les renforcer et, là-dessus en tout cas, on a pas mal d’études qui laissent penser que fréquenter davantage les réseaux sociaux, des réseaux comme X ex-Twitter, augmente, en effet, la polarisation affective, c’est-à-dire le niveau auquel vous détestez le camp adverse. D’ailleurs, il y a des résultats assez amusants qui montrent qu’on a tendance à surestimer la détestation du camp adverse à notre égard et, comme tout le monde fait ça, on a l’impression, à la fin, que tout le monde se déteste et, évidemment, ce n’est pas très bon pour des questions de cohésion nationale. On voit bien que quand ces fractures sont amplifiées dans des sociétés qui sont confrontées à des questions, aujourd’hui, de guerre à leur porte, aux portes de l’Europe, etc., c’est évidemment l’objectif visé et l’objectif qui peut fonctionner par des campagnes, pour le coup, de désinformation ou, en tout cas, d’amplification de certains phénomènes internes.

33’ 49

Laurent Cordonier : En effet, je pense qu’il ne faut pas chercher à opposer l’intervention sur l’environnement informationnel, la régulation de ce milieu-là, et puis les interventions qui visent à renforcer la résilience de la population. Je pense que ce sont deux pistes qu’il faut suivre en même temps.
Pour ce qui est de question de la résilience des populations, donc la formation à l’esprit critique, un terme très délicat, en effet, parce qu’il a été beaucoup dévoyé, on peut imaginer que c’est la tabula rasa cartésienne, en réalité il faudrait douter de tout, etc., mais, en réalité, c’est une autre définition du complotisme, si l’on veut. Une définition correcte de l’esprit critique, c’est vraiment considérer et réaliser qu’on est tous dans un état de dépendance épistémique « je dépends du témoignage d’autrui pour savoir quoi que ce soit sur le monde », s’il n’y a un journaliste en Ukraine pour me dire qu’il y a une guerre, je n’en sais rien, etc. Une fois qu’on a réalisé que ce que l’on sait, on ne le sait quasiment jamais par nos propres sens et par nos propres expériences, on réalise qu’on a besoin de faire confiance pour savoir quoi que ce soit sur le monde, donc on réalise aussi, par rebond, l’importance d’attribuer sa confiance sur des bases rationnelles.
Des indices comme le ??? [34 min 50], une note non pas de fiabilité de l’information mais de respect de certains critères de création de l’information, de certaines normes, etc., ça peut être un indice tout à fait fiable pour l’individu mais aussi comme levier, par exemple pour les réseaux sociaux s’ils veulent jouer le jeu et ils le voudront quand on décidera de l’exiger de leur part et, pour cela, le Digital Services Act ouvre des fenêtres d’opportunité. Ce règlement, au niveau européen, permet d’avoir des exigences de résultat à l’égard des plateformes pour peu, et le pour peu est vraiment central, que le régulateur national, français pour ce qui nous concerne, décide de jouer le jeu et de mettre en avant ce levier. En France, c’est l’Arcom. L’Arcom a été timide sur un certain nombre d’applications jusqu’à présent en ce qui concerne l’audiovisuel – je ne dis pas que c’est bien ou mal, je le constate –, je peux espérer, par contre, que l’Arcom sera plus assidue à faire respecter le Digital Services Act au sein des frontières françaises. C’est une volonté qui relève, pour le coup clairement vraiment du politique : veut-on utiliser ce levier, qui nous est offert par l’Union européenne, pour réguler l’information sur les réseaux sociaux ? Je pense que c’est l’occasion à ne pas rater, en quelque sorte. C’est vraiment une occasion qui peut avoir des effets importants, parce qu’on peut tout à fait imaginer que l’Arcom puisse, par le biais du Digital Services Act, presser les plateformes pour mettre davantage en avant des contenus informationnels de qualité, quel que soit le sujet, plutôt que de chercher à censurer, à modérer ou à faire disparaître certains posts. Je crois qu’il est plus efficace de mettre en avant des contenus de qualité. C’est un peu ce que Google a fait, comme il a été rappelé, sous la pression.

Dephine Sabattier : Parce que, en fait, il y a deux pièges. Il y a le piège de la censure, apparaître comme un censeur, et puis il y a aussi le piège d’apparaître comme celui qui veut remettre la main sur l’information.

Laurent Cordonier : Oui. Ce n’est pas seulement apparaître. En fait, ce qui nous concerne ici c’est la défense de la démocratie : une information de qualité, une information libre, faite selon certains standards, etc., c’est consubstantiel à la démocratie ; une démocratie n’existe pas son cette information-là.
Il y a un piège dans lequel il ne faut pas tomber, c’est abîmer cette démocratie en voulant la défendre avec des mesures qui seraient, pour le coup, liberticides. C’est pour cela que je crois plus à la piste de renforcer la résilience des populations, mais à réguler aussi les réseaux sociaux pour qu’ils redeviennent, en quelque sorte, des environnements dans lesquels toutes les voix comptent de la même manière, aujourd’hui ce n’est pas le cas. Aujourd’hui, des campagnes de désinformation sont organisées et jouent sur les mécanismes de personnalisation des contenus des réseaux sociaux, etc., donc, la concurrence est biaisée en faveur de la désinformation. C’est rétablir une situation dans laquelle l’information de qualité, produite selon certains standards, puisse réapparaître avant les autres types d’information.

Dephine Sabattier : On arrive déjà, pratiquement, à la fin de notre débat, mais, Thomas, je voulais qu’on revienne sur l’expérimentation que vous avez menée, avant les élections européennes de 2019, avec des étudiants de Sciences Po, pour voir comment, justement, comment se fabriquait l’opinion.

Thomas Huchon : On était juste après la crise des Gilets jaunes et effectivement, pendant la crise des Gilets jaunes je crois nous sommes nombreux, en nous informant sur les réseaux sociaux, à avoir vécu dans des mondes parallèles. Moi, par exemple, je ne voyais, sur mes réseaux sociaux, que des Gilets jaunes complotistes, d’extrême droite, qui faisaient des choses horribles, qui disaient des trucs horribles, et j’ai plein de gens, dans mon cercle proche, qui avaient plutôt une autre vision des Gilets jaunes : de nouvelles formes de mobilisation, de l’investissement politique de gens qui étaient abstentionnistes traditionnellement, qui ne s’intéressaient pas à la chose publique. Ces deux réalités existaient, il y avait des complotistes chez les Gilets jaunes et il y avait aussi des gens qui ont tenté de nouvelles formes de mobilisation militante.
Après avoir interrogé, pendant des années, le problème du contenu, c’est-à-dire de la circulation de la désinformation, j’ai essayé d’interroger, je me suis posé la question : est-ce que le problème, finalement, ce n’est pas Facebook ? Je dis « Facebook » comme on pourrait dire « frigidaire » à la place de « réfrigérateur ». Facebook c’est le plus gros, ce sont trois milliards d’utilisateurs sur la planète, ce sont plusieurs réseaux sociaux différents, donc, quand je dis Facebook dans cette explication, je veux dire « les réseaux sociaux en général ». Nous avons travaillé sur le réseau Facebook parce que c’était le plus utilisé à l’époque.
Qu’a-t-on fait ? On a créé six profils, sur les réseaux, qui étaient occupés par des étudiants qui essayaient de documenter non pas ce que les communautés militantes fabriquaient comme contenu en ligne, mais de regarder ce que la plateforme Facebook leur montrait comme information. On avait un profil Insoumis, un profil Macron, un profil Rassemblement national, un profil républicain, un profil Gilet jaune et un profil gauche avec, à l’époque, ce conflit entre Benoît Hamon et Raphaël Glucksmann. Sur les trois mois durant lesquels ces profils ont observé ce que Facebook leur montrait de la réalité, on a constaté qu’on n’a pas un seul contenu commun aux six univers que nous avons créés. C’est-à-dire qu’on a des jeunes, étudiants, qui vivent dans la même ville, qui s’intéressent à la chose publique, qui ont, grosso modo, 70 % de leur profil qui est commun et 30 % qui est différent parce qu’il a une orientation politique – ce ne sont pas des militants, ils ne publiaient rien, ils regardaient ce qui se passait –, on n’a pas un seul contenu qui est commun. Pire ! À un moment de crispation de l’actualité, à un moment où il se passe quelque chose que non seulement les réseaux sociaux nous montrent, mais que tous les médias français et de la planète observent, l’incendie de Notre-Dame de Paris. On a l’incendie de Notre-Dame de Paris et là, immédiatement, j’écris aux étudiants et je leur dis « regardez ce qui va se passer sur vos réseaux, ça va être quelque chose de très intéressant ». Eh bien là, on n’a pas seulement six univers différents, on a six univers contradictoires : chez les Insoumis, cette histoire de Notre-Dame était horrible parce que les riches, qui ne veulent pas payer d’impôts, voulaient tous rembourser les travaux de Notre-Dame ; chez le Rassemblement national, c’était un coup de terroristes musulmans ; chez Macron c’était un coup des Gilets jaunes ; chez les Gilets jaunes, c’était un coup de Macron ; chez les Républicains, on pleurait le drame des Chrétiens qui avaient perdu ce symbole et, dans cet univers, Glucksmann et Hamon ne se sont même pas rendu compte que Notre-Dame avait brûlé, ils ont continué à s’engueuler !
On était vraiment dans un truc qui était très problématique pour nos démocraties, non pas sur la qualité de l’information, non pas sur la qualité des contenus, mais sur le fait qu’une démocratie c’est aussi partager un certain nombre de choses. Si nous pouvons vivre avec des vérités différentes, avec des idéologies différentes, avec des choses qu’on pense qui sont totalement différentes, des croyances différentes, c’est parce que nous partageons un point de départ. Ce point de départ ce sont les faits, comme si sur cette table, qui est entre nous, nous posions ce sur quoi nous pouvons nous mettre d’accord. Quelque part, ce nouvel univers de l’information dans lequel nous sommes tous mis – même ceux qui ne sont pas inscrits sur les réseaux sociaux sont victimes de cette segmentation de l’opinion à laquelle on assiste –, eh bien quand on ne partage plus rien, on ne peut plus faire société.
Et en réalité, le vrai problème auquel nous sommes confrontés aujourd’hui mais aussi pour les années à venir, c’est cela : comment on refait du commun ? Comment on refait quelque chose qui nous permet peut-être de nous engueuler, mais, au moins, de partager un point de départ et, potentiellement, d’arriver à continuer à discuter. Quand on ne partage plus rien, on ne peut pas discuter, on ne peut pas débattre et, à la fin, on peut pas vivre ensemble. La nature humaine a tendance à remplacer ses positions de débat, de discussions, de dialogues, par une logique de l’affrontement et quand on rentre dans une logique de l’affrontement, ça devient absolument destructeur pour la société. Je crois que la campagne américaine de cette année 2024 va nous montrer un exemple de cela : on a deux camps qui sont ultra polarisés, qui ne partagent presque plus rien de leur point de départ qui permet de construire leurs opinions et leurs orientations, comment cela va-t-il se passer ? Comment cela va-t-il se passer non pas dans la plus grande démocratie du monde, mais, peut-être, la plus importante – ce sont les Indiens la plus grande démocratie du monde, même plus grande que l’Indonésie dont tu parlais tout à l’heure Camille.
Je crois que le vrai problème auquel nous sommes confrontés c’est ça. Ces réseaux devaient, quelque part, nous permettre de nous rassembler et de créer de la discussion. En réalité, ils ont fractionné la société et ils sont en train de détruire la démocratie. C’est cela le vrai problème qu’ils nous posent. Ce n’est pas qu’ils laissent circuler des mensonges, il y en a toujours eu, ce n’est pas qu’il laisse les gens dire n’importe quoi, tout le monde a toujours dit un peu n’importe quoi, ça se passait plutôt au café du commerce et comme on avait tous un coup dans le nez, à la fin, le lendemain matin, on ne s’en souvenait pas toujours. Là ça reste, le truc reste en place et il est poussé par des algorithmes qui cherchent, en plus, à capter notre attention. Il y a donc un autre jeu trouble derrière tout ça : pour arriver à nous maintenir connectés à ces plateformes, on nous montre plutôt des choses choquantes, plutôt des choses clivantes, plutôt des choses qui font appel à nos émotions, à la colère, à l’indignation. C’est toute cette espèce de mécanique-là qui nous ramène, quelque part, à un stade de sous-citoyen.

Dephine Sabattier : Justement, en prenant conscience de cette mécanique, en la découvrant comme vos étudiants qui ont mis le doigt sur quelque chose de vraiment très concret, on progresse, on apprend à s’en servir, on peut sortir de ces mécaniques.

Thomas Huchon : Ils n’étaient que six, malheureusement, nous sommes 70 millions !

Dephine Sabattier : On est un petit peu plus nombreux, peut-être, à nous écouter !
Romain, vous vouliez réagir et puis je voulais vous demander, parce que ça va être un peu un dernier tour de table, comment on se prépare, justement là, sur le registre de l’information dans le cadre de cette échéance électorale européenne. J’ai un peu posé la question, personne n’a répondu : est-ce qu’on doit nous aussi, Europe, jouer le jeu de la désinformation face à ces ingérences étrangères ?

Romain Pigenel : En complément de tout ce qui a été dit, on a à peu près tout dit à nous quatre, je crois qu’il y a quand même une question qui reste fondamentale, c’est : comment occupe-t-on le terrain et comment va-t-on parler à tout le monde ? Quand je dis « on », ce sont les producteurs de contenu fiable, pour qu’il n’y ait, pas, comme on parle parfois des territoires perdus de la République, des territoires perdus du numérique.
Un des enseignements structurels, sur les premières éditions de notre baromètre de l’esprit critique à Universcience, on voit des polarisations, pas forcément en termes d’âge, mais quand on combine âge, sociodémographie, etc. Par exemple, quand on regarde le rapport à la science et à l’esprit critique, c’est-à-dire qui sont ceux qui pratiquent, qui semblent faire le plus preuve d’esprit critique, être prudents dans leur usage des médias et s’intéresser à l’actualité scientifique, c’est un profil qui est plutôt masculin et qui est plutôt dans les centres urbains. En revanche, plus on va dans les périphéries, plus on va sur des personnes qui sont plutôt de sexe féminin, de faible niveau d’éducation, de faible au niveau social et plus âgées, et plus on a un éloignement sur tous ces critères-là. On voit donc qu’il y a des vraies problématiques de rupture sociodémographique de territoire, qui rejoignent d’ailleurs des choses qu’on voit en politique plus globalement. La question aussi c’est comment est-ce qu’on arrive à occuper tous les territoires et aller parler à tout le monde. Et, là-dessus, j’ai dit ce qui ne marche pas, mais il y a aussi des initiatives formidables. Avez-vous déjà entendu parler, sur TikTok, d’un média qui s’appelle Curieux ?

Dephine Sabattier : Moi oui !

Romain Pigenel : Parce que tu connais tout, comme Thomas ! C’est aujourd’hui, peut-être, la plus grosse chaîne de média sur TikTok, c’est devant les médias français et, en fait, c’est un compte qui a été créé par un collectif d’animateurs de centres de science du Sud-ouest de la France, donc des structures du type d’Universcience, et qui ont tiré parti de tout ce qu’on a vu, qui on dit « il faut être présent sur TikTok ». Ils y sont allés tôt et c’est aujourd’hui une chaîne qui a, je ne vais pas vous dire de bêtise, des millions d’abonnés, qui cartonne. Pourquoi ? Parce qu’ils produisent des vidéos amusantes, mais sur des sujets de science sérieux, donc ça marche et ils jouent le jeu. Ce qui est intéressant c’est qu’avec des moyens, je pense, bien moindres que des gros médias français, ils ont beaucoup plus d’abonnés. On voit donc que ça peut fonctionner, mais il faut jouer le jeu et, encore une fois, si on n’occupe pas le terrain, d’autres l’occuperont. Il faut aussi être prêt à parler avec les codes qui sont efficaces sur ces plateformes.

Dephine Sabattier : Je fais tourner la parole. C’est la fin de cette émission. Sur ce sujet, Laurent.

Laurent Cordonier : Peut-être juste pour répondre directement à votre question : non je ne pense pas que les démocraties libérales doivent riposter avec l’arme de la désinformation face aux attaques qu’elles subissent. Je ne pense pas que ce soit une piste à suivre parce que c’est un jeu dangereux. Les démocraties vivent sur la notion de confiance entre les institutions et les citoyens, confiance qui doit être réciproque, confiance qui est aujourd’hui abîmée, ce qui fait que nos démocraties sont abîmées. Mais, si nos démocraties se mettent à produire de la désinformation à l’égard de populations étrangères, comme ça peut être le cas à notre égard, je pense qu’on peut aussi abîmer ce lien de confiance. On n’utilise pas ces armes-là dans la guerre informationnelle, je ne pense pas que ce soit à nous de le faire.
Après, je parle dans la situation d’aujourd’hui. Évidemment que dans un contexte encore plus dégradé, dans un contexte de guerre, etc., on rentre dans un autre régime de fonctionnement et, là, l’information devient une arme j’ai envie de dire comme les autres, mais on n’en est pas là pour l’instant, espérons qu’on n’y soit pas avant longtemps. Dans ce contexte, je pense que ce serait une erreur de le faire, d’ailleurs ça serait aussi casser la possibilité d’exiger de la part des plateformes qu’elles respectent les exigences qu’on leur impose si, nous-mêmes, démocraties, nous mettons à diffuser de la désinformation et de l’ingérence à l’égard d’autres pays, elles vont simplement nous rétorquer « arrêtez déjà de le faire et ça améliora un peu le problème. »

Dephine Sabattier : Camille.

Camille Grenier : Très rapidement, la Commission va publier sous peu des recommandations justement pour cette période électorale. J’étais au lancement d’un rapport de l’OCDE sur la désinformation.

Dephine Sabattier : On n’a pas eu le temps d’en parler, il y a eu un super ??? [47 min 56] de David Colon là-dessus.

Camille Grenier : Avec David Colon et, notamment, Jean-Noël Barrot, ministre de l’Europe, était présent et disait justement pour revenir sur la prise de conscience des ingérences étrangères que leur stratégie c’est de les dénaturer en les rendant publiques. C’est une stratégie qui a son mérite, à voir si ce sera suffisant. La Commission européenne va donc publier certaines lignes directrices, on vient de contribuer.
Juste pour revenir, si on se recule un peu, je pense qu’il y a une chose qu’il va falloir adresser un moment, c’est l’ouverture des espaces démocratiques face à des espaces fermés dans des régimes autoritaires qui bénéficient, en quelque sorte, de l’ouverture des démocraties. De la même façon que certains États peuvent jouer avec le débat public, en France, en Europe et ailleurs, pour nous c’est beaucoup plus difficile, tout simplement parce qu’en Chine il y a pas Twitter, il n’y a pas Facebook. Donc, à un moment, il faudra peut-être trouver des accords internationaux, de la même façon qu’il y a des accords sur le libre-échange, peut-être des accords sur l’échange de l’information entre États. Merci beaucoup.

Dephine Sabattier : Thomas, juste un mot.

Thomas Huchon : Je vais essayer de faire très court. Quand on parle d’occuper le terrain, je crois, effectivement, que l’un des vrais problèmes auxquels on est confronté aujourd’hui c’est la conséquence du fait que les pouvoirs publics, les grands partis politiques, les grands médias, les journalistes professionnels, n’ont pas voulu aller sur Internet et n’ont pas voulu utiliser cette techno. On n’a pas voulu l’utiliser, ça a été récupéré et, en fait, ce qu’ont gagné « nos adversaires », entre guillemets, c’est la bataille technologique, donc, derrière, la bataille éditoriale. J’ai décidé de faire un truc un peu différent là, en ce moment, c’est de créer un moi en deepfake, donc j’utilise l’intelligence artificielle pour fabriquer beaucoup plus rapidement des vidéos de contre-discours qui vont venir répondre, dans le temps de la diffusion du mensonge, aux théories du complot et aux fake news qui circulent. On essaye de faire de nouvelles choses, on essaye d’utiliser ces technologies. Ma réflexion vient vraiment du fait que j’ai l’impression qu’on a perdu cette bataille parce qu’on n’a pas voulu aller sur le terrain, donc, j’ai décidé d’aller occuper ce terrain, j’espère que nous serons nombreux à le faire. Je précise juste un truc : si c’est bien un faux Thomas Huchon qui vous parle dans ce compte Twitter anti-fake news IA, les mots de cet avatar sont tous humains et sont le fruit d’enquêtes réalisées par des humains. Je crois que c’est aussi cela qui fait la vraie différence, c’est de conserver l’esprit critique, mais d’être capable d’utiliser ces nouvelles technologies et d’essayer de retourner l’arme contre celui qui l’utilise contre nous.

Dephine Sabattier : Merci Thomas Huchon, Romain Pigenel, Laurent Cordonier, Camille Grenier.
Merci aussi à la réalisation, c’était aujourd’hui Stéphane ??? [50 min 37].
POL/N sera de retour dans une semaine pour de nouveaux débats politiques et numériques et, pour ne rien rater, surtout mettez POL/N dans vos favoris.
À très vite.

33’ 49

Laurent Cordonier : En effet, je pense qu’il ne faut pas chercher à opposer l’intervention sur l’environnement informationnel, la régulation de ce milieu-là, et puis les interventions qui visent à renforcer la résilience de la population. Je pense que ce sont deux pistes qu’il faut suivre en même temps.
Pour ce qui est de question de la résilience des populations, donc la formation à l’esprit critique, un terme très délicat, en effet, parce qu’il a été beaucoup dévoyé, on peut imaginer que c’est la tabula rasa cartésienne, en réalité il faudrait douter de tout, etc., mais, en réalité, c’est une autre définition du complotisme, si l’on veut. Une définition correcte de l’esprit critique, c’est vraiment considérer et réaliser qu’on est tous dans un état de dépendance épistémique « je dépends du témoignage d’autrui pour savoir quoi que ce soit sur le monde », s’il n’y a un journaliste en Ukraine pour me dire qu’il y a une guerre, je n’en sais rien, etc. Une fois qu’on a réalisé que ce que l’on sait, on ne le sait quasiment jamais par nos propres sens et par nos propres expériences, on réalise qu’on a besoin de faire confiance pour savoir quoi que ce soit sur le monde, donc on réalise aussi, par rebond, l’importance d’attribuer sa confiance sur des bases rationnelles.
Des indices comme le ??? [34 min 50], une note non pas de fiabilité de l’information mais de respect de certains critères de création de l’information, de certaines normes, etc., ça peut être un indice tout à fait fiable pour l’individu mais aussi comme levier, par exemple pour les réseaux sociaux s’ils veulent jouer le jeu et ils le voudront quand on décidera de l’exiger de leur part et, pour cela, le Digital Services Act ouvre des fenêtres d’opportunité. Ce règlement, au niveau européen, permet d’avoir des exigences de résultat à l’égard des plateformes pour peu, et le pour peu est vraiment central, que le régulateur national, français pour ce qui nous concerne, décide de jouer le jeu et de mettre en avant ce levier. En France, c’est l’Arcom. L’Arcom a été timide sur un certain nombre d’applications jusqu’à présent en ce qui concerne l’audiovisuel – je ne dis pas que c’est bien ou mal, je le constate –, je peux espérer, par contre, que l’Arcom sera plus assidue à faire respecter le Digital Services Act au sein des frontières françaises. C’est une volonté qui relève, pour le coup clairement vraiment du politique : veut-on utiliser ce levier, qui nous est offert par l’Union européenne, pour réguler l’information sur les réseaux sociaux ? Je pense que c’est l’occasion à ne pas rater, en quelque sorte. C’est vraiment une occasion qui peut avoir des effets importants, parce qu’on peut tout à fait imaginer que l’Arcom puisse, par le biais du Digital Services Act, presser les plateformes pour mettre davantage en avant des contenus informationnels de qualité, quel que soit le sujet, plutôt que de chercher à censurer, à modérer ou à faire disparaître certains posts. Je crois qu’il est plus efficace de mettre en avant des contenus de qualité. C’est un peu ce que Google a fait, comme il a été rappelé, sous la pression.

Dephine Sabattier : Parce que, en fait, il y a deux pièges. Il y a le piège de la censure, apparaître comme un censeur, et puis il y a aussi le piège d’apparaître comme celui qui veut remettre la main sur l’information.

Laurent Cordonier : Oui. Ce n’est pas seulement apparaître. En fait, ce qui nous concerne ici c’est la défense de la démocratie : une information de qualité, une information libre, faite selon certains standards, etc., c’est consubstantiel à la démocratie ; une démocratie n’existe pas son cette information-là.
Il y a un piège dans lequel il ne faut pas tomber, c’est abîmer cette démocratie en voulant la défendre avec des mesures qui seraient, pour le coup, liberticides. C’est pour cela que je crois plus à la piste de renforcer la résilience des populations, mais à réguler aussi les réseaux sociaux pour qu’ils redeviennent, en quelque sorte, des environnements dans lesquels toutes les voix comptent de la même manière, aujourd’hui ce n’est pas le cas. Aujourd’hui, des campagnes de désinformation sont organisées et jouent sur les mécanismes de personnalisation des contenus des réseaux sociaux, etc., donc, la concurrence est biaisée en faveur de la désinformation. C’est rétablir une situation dans laquelle l’information de qualité, produite selon certains standards, puisse réapparaître avant les autres types d’information.

Dephine Sabattier : On arrive déjà, pratiquement, à la fin de notre débat, mais, Thomas, je voulais qu’on revienne sur l’expérimentation que vous avez menée, avant les élections européennes de 2019, avec des étudiants de Sciences Po, pour voir comment, justement, comment se fabriquait l’opinion.