Différences entre les versions de « Ingérences étrangères, opérations de déstabilisation : comment regagner la bataille sur les réseaux sociaux »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 197 : Ligne 197 :
 
==33’ 49==
 
==33’ 49==
  
<b>Laurent Cordonier : </b>En effet,
+
<b>Laurent Cordonier : </b>En effet, je pense qu’il ne faut pas chercher à opposer l’intervention sur l’environnement informationnel, la régulation de ce milieu-là, et puis les interventions qui visent à renforcer la résilience de la population. Je pense que ce sont deux pistes qu’il faut suivre en même temps.<br/>
 +
Pour ce qui est de question de la résilience des populations, donc la formation à l’esprit critique, un terme très délicat, en effet, parce qu’il a été beaucoup dévoyé, on peut imaginer que c’est la tabula rasa cartésienne, en réalité il faudrait douter de tout, etc., mais, en réalité, c’est une autre définition du complotisme, si l’on veut. Une définition correcte de l’esprit critique, c’est vraiment considérer et réaliser qu’on est tous dans un état de dépendance épistémique « je dépends du témoignage d’autrui pour savoir quoi que ce soit sur le monde », s’il n’y a un journaliste en Ukraine pour me dire qu’il y a une guerre, je n’en sais rien, etc. Une fois qu’on a réalisé que ce que l’on sait, on ne le sait quasiment jamais par nos propres sens et par nos propres expériences, on réalise qu’on a besoin de faire confiance pour savoir quoi que ce soit sur le monde, donc on réalise aussi, par rebond, l’importance d’attribuer sa confiance sur des bases rationnelles.<br/>
 +
Des indices comme le ??? [34 min 50], une note non pas de fiabilité de l’information mais de respect de certains critères de création de l’information, de certaines normes, etc., ça peut être un indice tout à fait fiable pour l’individu mais aussi comme levier, par exemple pour les réseaux sociaux s’ils veulent jouer le jeu et ils le voudront quand on décidera de l’exiger de leur part et, pour cela, le <em>Digital Services Act</em> ouvre des fenêtres d’opportunité. Ce règlement, au niveau européen, permet d’avoir des exigences de résultat à l’égard des plateformes pour peu, et le pour peu est vraiment central, que le régulateur national, français pour ce qui nous concerne, décide de jouer le jeu et de mettre en avant ce levier. En France, c’est l’Arcom. L’Arcom a été timide sur un certain nombre d’applications jusqu’à présent en ce qui concerne l’audiovisuel – je ne dis pas que c’est bien ou mal, je le constate –, je peux espérer, par contre, que l’Arcom sera plus assidue à faire respecter le <em>Digital Services Act</em> au sein des frontières françaises. C’est une volonté qui relève, pour le coup clairement vraiment du politique : veut-on utiliser ce levier, qui nous est offert par l’Union européenne, pour réguler l’information sur les réseaux sociaux ? Je pense que c’est l’occasion à ne pas rater, en quelque sorte. C’est vraiment une occasion qui peut avoir des effets importants, parce qu’on peut tout à fait imaginer que l’Arcom puisse, par le biais du <em>Digital Services Act</em>, presser les plateformes pour mettre davantage en avant des contenus informationnels de qualité, quel que soit le sujet, plutôt que de chercher à censurer, à modérer ou à faire disparaître certains posts. Je crois qu’il est plus efficace de mettre en avant des contenus de qualité. C’est un peu ce que Google a fait, comme il a été rappelé, sous la pression.
 +
 
 +
<b>Dephine Sabattier : </b>Parce que, en fait, il y a deux pièges. Il y a le piège de la censure, apparaître comme un censeur, et puis il y a aussi le piège d’apparaître comme celui qui veut remettre la main sur l’information.

Version du 26 mars 2024 à 11:19


Titre : Ingérences étrangères, opérations de déstabilisation : comment regagner la bataille sur les réseaux sociaux

Intervenant·e·s : Laurent Cordonier - Thomas Huchon - Camille Grenier - Romain Pigenel - Delphine Sabattier

Lieu : Podcast Politiques Numériques, alias POL/N

Date : 15 mars 2024

Durée : 51 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Quelle est la réelle efficacité des campagnes d'influence des opinions sur les réseaux sociaux ? Quels sont les objectifs visés dans les cas d'ingérences étrangères ? Et nos armes, à nous, face aux manipulations politiques ?

Transcription

Dephine Sabattier : Bonjour à tous. Vous écoutez Politiques numériques alias POL/N. Je suis Delphine Sabattier. Aujourd’hui, le débat avec quatre pointures. On va parler ensemble des risques d’ingérence étrangère à la veille d’échéances électorales ou comment les pires stratèges politiques s’emparent des nouveaux outils de communication pour influencer les opinions et mettre à mal notre esprit critique.
En studio, Laurent Cordonier. Bonjour Laurent.

Laurent Cordonier : Bonjour.

Dephine Sabattier : Docteur en sciences sociales, directeur de la recherche de la Fondation Descartes, auteur de multiples rapports et papiers scientifiques, je vais en citer juste quelques-uns : le rapport « Comment les Français s’informent-ils sur Internet ? Analyse des comportements d’information et de désinformation en ligne », c’était pour la Fondation Descartes et puis on va citer, évidemment, ce rapport que vous avez écrit avec Gérald Bronner, commandité par le président de la République, « Les lumières à l’ère numérique ».
Avec vous Thomas Huchon, journaliste d’investigation. Bonjour Thomas.

Thomas Huchon : Bonjour.

Dephine Sabattier : Cher confrère, auteur, réalisateur. Pareil, je ne vais pas tout citer, mais j’avais envie de citer quand même Comment Trump a manipulé l’Amérique ou encore Conspi Hunter – Comment nous avons piégé les complotistes. Vous êtes également consultant, enseignant, spécialiste du Web, des infox et des théories du complot.
Autour de la table également Camille Grenier, Directeur des opérations du Forum sur L’Information et la Démocratie. Bonjour Camille.

Camille Grenier : Bonjour.

Dephine Sabattier : Vous collaborez avec de nombreux gouvernements signataires du partenariat pour l’information et la démocratie, un accord intergouvernemental qui a été initié par Reporters sans frontières et qui publie un nouveau rapport « Pour un contrôle démocratique de l’intelligence artificielle » ; ça fera partie, évidemment, de notre conversation.
Et enfin Romain Pigenel. Bonjour Romain.

Romain Pigenel : Bonjour.

Dephine Sabattier : Directeur du développement des publics et de la communication à Universcience, institution publique qui réunit la Cité des sciences et de l’industrie et le Palais de la découverte. Vous êtes également enseignant en communication politique digitale à Science Po Paris, ancien directeur-adjoint du service d’information du gouvernement en charge du numérique et conseiller du président de la République à l’époque de François Hollande.

Bonjour à tout le monde. Est-ce que, selon vous, nous sommes à un moment vraiment crucial, aujourd’hui, pour notre démocratie face, justement, à ces stratèges politiques qui utilisent les outils du numérique pas toujours à des fins très transparentes ? Thomas.

Thomas Huchon : Je crois que tout va bien. On vit dans une période hyper apaisée, les informations de qualité circulent vraiment de manière très pondérée ! Non, ça va pas du tout, on est dans un moment de panique totale. Je crois que tous les manques, en termes de régulation, qu’on a pu observer depuis une dizaine d’années dans l’espace numérique et dans l’espace informationnel, vont être encore plus amplifiés par l’apparition de l’intelligence artificielle et la possibilité de fabriquer des contenus, de générer des contenus sans qu’ils soient vrais, mais en ayant l’air de plus en plus vrais.

Dephine Sabattier : Là, tu parles au futur, n’est-ce pas déjà un peu le présent.

Thomas Huchon : Si, c’est déjà le présent. Un journaliste de France 24 s’est fait usurper son identité en deepfake la semaine dernière, on a une campagne de Trump qui a lancé ses premiers visuels, fabriqués par IA, où monsieur Trump est soutenu par des dizaines d’Afro-américains qui ont l’air de le trouver absolument génial alors qu’il n’en est probablement rien, on est quand même assez loin de la réalité là-dessus. Je crois, en fait, que nous sommes confrontés à un problème qu’on n’a pas voulu régler depuis dix ans qui est la nouvelle forme de la circulation de l’information, qui n’est pas régulée. En fait, le problème, ce sont plus les réseaux sociaux que l’IA.

Dephine Sabattier : Comment ça, ce n’est pas régulé ?

Thomas Huchon : Il n’y a absolument aucune forme de régulation concrète sur la circulation de l’information en ligne aujourd’hui, en tout cas pas du tout suffisamment. Les plateformes ne respectent pas ce qu’elles devraient respecter, on continue à les considérer comme ???

Dephine Sabattier : Parce que du côté des médias, du côté de l’information contrôlée par les médias officiels, il y a cette régulation.

Thomas Huchon : Je n’utiliserais pas le terme de « médias officiels ».

Dephine Sabattier : C’est vrai, je dois faire attention, je parle avec un spécialiste de la théorie des complots.

Thomas Huchon : Si on imagine l’idée de médias officiels, on peut parler de l’ORTF, on peut parler des médias russes, on peut parler de la Corée du Nord, je n’ai aucun problème, mais en France il y a des médias professionnels et des désinformateurs professionnels, mais il n’y pas de médias officiels, ça n’existe pas, sinon il y aurait des médias officieux et là ça nous poserait un autre type de problème.

Dephine Sabattier : Laurent.

Laurent Cordonier : Peut-être, pour nuancer un peu le tableau, je suis d’accord dans les grandes lignes, mais il faut pas oublier non plus qu’en France, quand nos concitoyens s’informent sur Internet, ils s’informent avant tout par le biais des médias traditionnels et de façon extrêmement massive. C’est ce que j’ai pu montrer dans l’étude que vous avez citée « Comment les Français s’informent-ils sur Internet » où on voit que les grands médias traditionnels, en France, restent la source numéro une d’information des Français. Après, on va dire que la difficulté ce sont les réseaux sociaux parce que, là, on est on ne sait pas très bien à quoi leurs utilisateurs sont confrontés en termes de contenu informationnel puisque c’est très difficile à étudier simplement. Chacun a un mur personnalisé sur lequel apparaissent des posts qui lui sont propres, on ne peut pas faire des mesures d’audience comme on le ferait sur d’autres médias. Sur les réseaux sociaux, on a bien l’impression, en effet, que la part d’information de mauvaise qualité, trompeuse, voire manipulée, est plus importante que dans le reste de l’environnement informationnel, évidemment, donc mécaniquement, le fait de s’y trouver, d’y circuler pour s’informer, ou non d’ailleurs, mais d’y être exposé à des formes de manipulation d’informations, augmente le risque d’être induit en erreur. C’est ce qu’on observe, par exemple, dans d’autres études que j’ai pu faire sur l’information et la santé ou l’information et le climat.

Dephine Sabattier : Ça augmente le risque d’avoir de fausses informations, d’être confronté à la désinformation, mais est-ce que ça n’augmente pas, aussi, la possibilité d’être davantage informé, d’entendre plus de points de vue ?

Laurent Cordonier : En tout cas, ce n’est tellement ce qu’on mesure. Quand je mesure, par exemple, la connaissance sur des questions de santé ou la connaissance sur des questions climatiques, j’observe que les personnes qui s’informent avant tout sur les réseaux sociaux ont de plus faibles niveaux de connaissance sur ces sujets, seront donc plus sensibles à des informations fausses qui circulent sur ces réseaux. Par contre, vous avez raison de souligner le fait que rien n’est mécanique. Ce n’est pas parce qu’on est exposé à une information fausse qu’on va y croire. De même que ce n’est pas non plus parce qu’on est exposé à une information vraie qu’on va y croire. Il y a des facteurs individuels, des facteurs sociaux aussi qui protègent ou qui rendent, au contraire, davantage sensibles à des informations fausses ou trompeuses.

Dephine Sabattier : Romain.

Romain Pigenel : Je vais aussi un peu nuancer. Thomas a raison ; c’est vrai qu’il y a une espèce d’accélération qui fait qu’on a l’impression, ce n’est pas qu’une impression, que les problèmes se multiplient dans tous les sens. Je crois qu’il y a deux choses : il y a d’abord une révolution qui a, en réalité, plus de 20 ans quasiment 30 ans, qui a été l’arrivée d’Internet, même avant les réseaux sociaux, et qui a fracassé ce qui était avant le monopole de l’accès à l’information. La dérégulation est donc ancienne et pas que mauvaise. Ça me frappe toujours de voir comment, pour reprendre un anglicisme horrible, en dix ans on est passé d’un narratif à un autre : dans les années 2000, le discours ambiant c’était « Internet c’est formidable, ça donne la parole à tout le monde », c’était l’époque des blogs, c’était aussi toutes les utopies avec la démocratie participative qui allait être permise par ces nouveaux moyens ; il y a aussi eu toute cette idée qui n’était pas totalement fausse, pas totalement vraie non plus, que le Printemps arabe avait été permis par internet. Il y a eu tout ce discours-là qui était mirifique et puis, depuis quelques années, et je crois que le point de bascule c’est Cambridge Analytica, on a basculé, de mon point de vue, dans un discours qui est n’est pas beaucoup plus exact mais qui est radicalement inverse, où, finalement, tout est la faute à Internet, les réseaux sociaux sont catastrophiques, etc. Ce qui n’est pas faux, mais qui n’est pas complètement vrai non plus.
Deux choses en réaction.
La propagande politique a toujours existé et, comme dans toute course à l’armement, elle s’empare des nouveaux outils. Je ne suis pas certain que les stratégies d’influence à l’ancienne, par exemple de lobbies industriels ou autres, qui pouvaient payer des élus ou essaye de faire de l’infiltration dans les médias, étaient beaucoup moins efficaces que les techniques actuelles. Je pense que c’est un jeu du chat et de la souris. Il y a, je ne dirais pas un camp du bien et du mal puisque ce n’est évidemment pas ça, mais il y a des gens qui essayent de faire de l’information sérieuse, il y a des propagandistes de tous ordres, ça va depuis la communication politique jusqu’à la propagande, et ils s’emparent des nouveaux moyens.
Il y a aussi un autre sujet qui m’intéresse et je pense qu’il va être à creuser qui est en deux temps : c’est d’abord quelle est l’efficacité tout cela ? Je dis cela aussi en tant que communicant d’abord politique et, aujourd’hui, dans le domaine scientifique et culturel, ça se saurait si la com’ fonctionnait tout le temps à 100 %. Évidemment qu’il faut combattre les dérives, surtout quand elles prennent la forme de stratégies d’État pour déstabiliser des démocraties, mais ce n’est pas aussi simple de dire « on va arroser de vidéos et ça va transformer l’opinion, ça va faire basculer une élection ». D’ailleurs, quand on regarde la littérature, qui est complexe parce que, en fait, c’est à la connexion des sciences d’information, de la sociologie, des sciences politiques, c’est compliqué d’arriver à établir le poids précis d’une campagne numérique ou d’une campagne de communication en général. Vous connaissez sans doute Hugo Mercier, un chercheur en sciences cognitives, qui a sorti, je crois il y a un peu plus d’un an, un petit ouvrage formidable qui s’appelle Pas né de la dernière pluie. C’est un grand chercheur en sciences cognitives, mais il a fait un peu une revue de littérature, de bonne vulgarisation, sur tout ce qui démontre que, au fond, on n’est pas si dupe ou si crédule qu’on pourrait le croire. C’est assez orienté puisque la thèse d’Hugo Mercier c’est d’aller à contre-sens du courant dominant, mais c’est intéressant de voir, et il le rappelle avec beaucoup de choses qu’on oublie parfois, que ce n’est pas parce qu’il y a une propagande qu’elle fonctionne forcément. Après, évidemment, ce n’est pas parce qu’elle ne fonctionne pas ou qu’elle ne fonctionne pas totalement qu’il ne faut rien faire.

Dephine Sabattier : Toutes ces fractures qu’on voit aujourd’hui dans la société, est-ce qu’on peut quand même les attribuer aux réseaux sociaux ou est-ce que c’est juste le reflet, finalement, de la réalité, de la colère populaire, peut-être, je ne sais pas, de la déchéance des démocraties ? Thomas

Thomas Huchon : C’est sûr que la démocratie, qui est, par essence, un modèle frustrant, génère un peu ce sentiment-là. Je crois que là où nos systèmes d’information, nos systèmes de régulation, l’existence d’une presse professionnelle avec tous les défauts qu’elle peut avoir, permettait de limiter ces impacts-là, eh bien ces impacts sont en permanence multipliés, amplifiés, par les réseaux sociaux et par la nouvelle circulation de l’information. Le vrai problème ce n’est pas tant que circulent des choses vraies ou fausses sur les réseaux sociaux, c’est qu’en fait on ne partage plus rien. Comme on est chacun enfermé dans une réalité dans laquelle on voit des choses qui correspondent à ce qu’on croit déjà un peu, c’est donc vachement difficile de se rendre compte qu’on est en train d’être manipulé. On est en train d’être radicalisé contre nous-mêmes et la radicalisation c’est un escalier, on ne sent jamais les premières marches, on se rend pas compte qu’on est en train d’être radicalisé. Le problème ce n’est pas tant qu’il n’y ait plus de vérité, ça n’a jamais existé, je partage totalement ce que dit Romain et ce que dit Laurent là-dessus, mais je crois que le problème c’est qu’on ne partage plus les faits.
Pour moi, le point de bascule ce n’est pas tant Cambridge Analytica, même si ce truc-là est énorme, j’ai enquêté là-dessus et, à l’époque, personne ne voulait entendre parler de cette histoire.

Dephine Sabattier : D’ailleurs, on ne peut pas formellement dire que Cambridge Analytica a fait élire Donald Trump.

Thomas Huchon : Ah si, on peut le dire clairement.

Dephine Sabattier : J’ai lu des études qui contredisent ce point de vue.

Thomas Huchon : Je sais bien, mais je ne crois pas du tout à ces études-là.

Dephine Sabattier : Thomas, vous en êtes convaincu.

Thomas Huchon : Je veux dire que c’est le 21 janvier 2017 que ça bascule, c’est ce jour-là, quand la porte-parole non pas du candidat Trump mais de la Maison-Blanche vient expliquer qu’il existe des faits alternatifs. C’est ce jour-là que le monde bascule.

Dephine Sabattier : Je voulais donner la parole aussi à Camille. Vous publiez, j’en ai parlé, un nouveau rapport sur le contrôle démocratique et l’intelligence artificielle. Est-ce qu’il vous semble qu’on est à un point de bascule avec un nouvel outil qu’on a du mal à maîtriser, finalement ?

Camille Grenier : Ce qu’on voit, et ça a déjà été dit il y a 10/20 ans, c’est la disruption de la distribution de l’information. Là, on est arrivé à la disruption de la production de l’information-même : on sait plus de quelle façon est produite, nécessairement, l’information. Après, il y a les enjeux de circulation, d’amplification, ça a été dit. Il suffit de prendre le métro pour voir que nous sommes tous dans des espaces informationnels. Nous sommes dans un espace commun qui est une rame de métro, mais nous sommes tous dans notre petite bulle : des personnes achètent des chaussures, d’autres regardent des recettes sur Instagram et tout le monde est dans sa bulle. C’est vraiment, je pense, un manque de commun aujourd’hui.
Le rapport qu’on a publié avant celui sur l’IA c’était justement sur le pluralisme et la curation algorithmique et comment on peut mettre en place des solutions techniques ou de régulation pour assurer un peu plus de pluralisme et d’accès à l’information fiable.
Sur l’IA, c’est vrai qu’on voit, aujourd’hui, que ce sont des entreprises privées, encore une fois, qui lancent leurs produits et puis on verra ce qui se passe. Il faut remettre certains garde-fous en place. Nous avons publié notre rapport qui était le fruit de six mois de réflexion d’un groupe de travail avec contribution de 150 experts à travers le monde, on l’a publié la semaine dernière depuis cinq villes à travers le monde.

Dephine Sabattier : C’était fin février puisque nous serons diffusés un petit peu plus tard.

Camille Grenier : On décline toute une série de recommandations à la fois sur la construction de ces modèles et de ces systèmes d’IA, leur déploiement, les cadres de régulation qu’il faut mettre en place, notamment sur la transparence puisque, aujourd’hui, on ne sait pas vraiment comment ces systèmes d’IA sont entraînés et l’impact que ça peut avoir sur l’intégrité de l’information derrière. Et ce n’est pas seulement l’IA générative, c’est aussi toute la curation qui est faite et l’analyse des données personnelles qui est faite. On en revient aux différents espaces qui ne sont plus tant des espaces communs mais des espaces hyper personnalisés.
Je regardais aussi les premiers symptômes qu’on a sur des deep fakes. C’est vrai qu’on est quand même, cette année, dans l’année des élections, il y a plus de deux milliards de personnes.

Thomas Huchon : Quatre !

Camille Grenier : Quatre ! Ça dépend des chiffres, j’ai du mal à trouver le bon chiffre. Quatre, oui c’est la moitié de la population. C’est vrai que 2024 est une année quand même assez cruciale pour la démocratie. En Europe, on est déjà rentré dans la campagne, mais aussi à travers le monde : l’Indonésie, par exemple, un pays ultra peuplé a ses élections. On voit, finalement, que les deep fakes ce n’est pas seulement sur les réseaux sociaux. Il y a les premiers cas de phoning où une IA prend la voix d’un président ou d’un candidat pour dire « non, n’allez pas voter à telle échéance, le plus important, c’est en novembre ».
Il y a donc les réseaux sociaux, mais il y a aussi, quand même, la production de l’information qui est, aujourd’hui, tout à fait changée par ces nouveaux systèmes,

Dephine Sabattier : Dans les recommandations que vous faites, je me suis arrêtée sur le mot « authenticité d’un contenu ». Comment fait-on, aujourd’hui, pour vérifier l’authenticité d’un contenu ?

Camille Grenier : C’est un grand sujet, c’est assez marrant parce qu’on a commencé à publier notre rapport et c’est vrai que la technologie avance extrêmement vite. Il y a cette idée du watermarking qui fait qu’on pourrait identifier et obliger, finalement, les producteurs de contenu à ce que ce soit tout à fait transparent avec les personnes qui sont exposées à ce type de contenu.

Dephine Sabattier : C’est-à-dire apposer un filigrane qui permette de montrer que ce contenu a été généré par une intelligence artificielle.

Camille Grenier : Et puis il y a d’autres d’autres possibilités. Quand on est exposé à une information, il y a toute la discussion autour du fact checking mais qui, en général, a quand même assez moins de portée que le contenu initial. On a fait une recommandation, notamment dans le cadre des élections : si une personne est exposée à un contenu qu’on pourrait qualifier de désinformation, comment s’assure-t-on que les mêmes utilisateurs sont aussi exposés au fact checking et au fait que cette information était fausse ?

Dephine Sabattier : Laurent Cordonier, vous allez participer, vous me l’avez confié, à une commission d’enquête sur les politiques publiques face aux opérations d’influence étrangère. Donc, en France, on a conscience, aujourd’hui, des risques en pleine période électorale européenne ?

Laurent Cordonier : La conscience est en train de se créer en France. Il y a eu un peu de retard au démarrage de la part des autorités et aussi, il faut le dire, des services de renseignement qui, par rapport aux États-Unis par exemple, ont été un peu plus lents à réagir sur ces questions, notamment d’ingérence numérique étrangère. Je pense que, aujourd’hui, la conscience est prise, la difficulté va être de trouver les bons moyens, les bons leviers d’action évidemment.
Je pense que ça repose la question qui était tout à l’heure sur la table et qui est vraiment centrale : est-ce que la désinformation fonctionne ?, parce que c’est vraiment ça le nerf de la guerre. Je l’ai indiqué, au début : être exposé à un contenu faux n’a pas ça par un effet mécanique sur nos croyances. Mais ce qu’il faut bien considérer, d’ailleurs mon collègue et ami Hugo Mercier fait très bien de le rappeler dans son livre, il y a une abondante littérature qui montre que nous sommes loin d’être naïfs, pour peu qu’elles aient un peu d’éducation, les populations sont en général capables de séparer le bon grain de l’ivraie informationnelle. Par contre, la question du fonctionnement des informations c’est : que vise la désinformation, notamment les ingérences numériques étrangères ? Que visent-elles à faire ? Si l’idée c’est de se dire qu’elles veulent nous faire gober un message particulier, probablement que ça marche mal. Par contre, si l’objectif de la désinformation et des ingérences numériques étrangères, c’est de créer du doute et de polariser la société cible de ces attaques, en général une démocratie libérale, alors là on peut vraiment penser que ça fonctionne beaucoup mieux. C’est bien ce qu’on voit avec les campagnes russes qui ont notamment attaqué la France déjà pendant la période des Gilets jaunes et avant, et qui continuent depuis. Ces campagnes de désinformation ont pour objectif d’appuyer sur des lignes de fracture qui sont préexistantes au sein de la société, dans le but de les renforcer et, là-dessus en tout cas, on a pas mal d’études qui laissent penser que fréquenter davantage les réseaux sociaux, des réseaux comme X ex-Twitter, augmente, en effet, la polarisation affective, c’est-à-dire le niveau auquel vous détestez le camp adverse. D’ailleurs, il y a des résultats assez amusants qui montrent qu’on a tendance à surestimer la détestation du camp adverse à notre égard et, comme tout le monde fait ça, on a l’impression, à la fin, que tout le monde se déteste et, évidemment, ce n’est pas très bon pour des questions de cohésion nationale. On voit bien que quand ces fractures sont amplifiées dans des sociétés qui sont confrontées à des questions, aujourd’hui, de guerre à leur porte, aux portes de l’Europe, etc., c’est évidemment l’objectif visé et l’objectif qui peut fonctionner par des campagnes, pour le coup, de désinformation ou, en tout cas, d’amplification de certains phénomènes internes.

18’43

Dephine Sabattier : Quand on est capable, justement, d’identifier ces campagnes de désinformation, ça veut dire qu’on est capable de les stopper ? Thomas ? Que fait-on face à ça ? Là, il y a une commission d’enquête qui est lancée, mais ça veut dire que, derrière, il va y avoir des décisions à prendre. Tout le monde veut réagir.

Thomas Huchon : On a un vrai problème qui est que tout ça est très difficile à remonter. Il s’agit d’opérations d’influence, bien souvent secrètes, menées par des agences de renseignement, on n’est donc pas exactement sur des gens qui ont toujours pignon sur rue. Ça été le cas avec la création d’un certain nombre de médias, je pense à Russia Today, à Sputnik,, qui ont été aidés des agents de la déstabilisation de la démocratie française, pendant des années, en essayant de se faire passer pour des journalistes, c’est-à-dire en revendiquant un certain nombre de valeurs journalistiques de manière un peu lunaire, mais bon !, c’est aussi ce que permet, finalement, ce marché complètement dérégulé de l’information aujourd’hui. La seule vraie manière de se prémunir contre ces opérations d’influence, c’est de développer l’esprit critique et la résilience dans la société, malheureusement ce n’est pas si facile que ça.

Dephine Sabattier : Vous parlez de marché dérégulé, il faut quand même mettre en place des politiques publiques aussi.

Thomas Huchon : Oui, c’est sûr que ça serait beaucoup plus difficile pour les Russes de foutre le bazar dans nos démocraties si les réseaux sociaux respectaient le fait qu’ils sont des médias, donc, qu’ils sont responsables de ce qui est diffusé sur leur page.

Dephine Sabattier : Et pas de simples hébergeurs.

Thomas Huchon : Eh bien oui ! À un moment, il va falloir arrêter de considérer que quelqu’un qui éditorialiste le contenu pour vous, qui gagne de l’argent avec de la publicité et qui vous diffuse de l’information, n’est pas un média. À un moment, il va falloir qu’on comprenne ce truc-là !

Dephine Sabattier : Ils ont des obligations de modération qui s’imposent aujourd’hui.

Thomas Huchon : Visiblement, ils n’ont pas l’obligation de déclarer leur chiffre d’affaires publicitaire dans notre pays, ce qui est la majeure partie de l’argent qu’ils gagnent, ils n’ont pas l’obligation de répondre systématiquement à la justice française quand on les interpelle sur des campagnes de harcèlement qu’on peut subir ; c’est mon cas depuis des années, je suis injurié et menacé de mort sur Twitter, sur Facebook sur Instagram, sur TikTok, j’ai beau faire des procédures de manière assez régulière, il ne se passe jamais rien ! Donc, à un moment, tout cela pose quand même un vrai problème. Et enfin, il y a un moment où on ne peut pas laisser des entreprises étrangères, qui ont des lois qui ne correspondent pas aux nôtres, foutre en l’air nos démocraties. On ne peut pas rester assis à regarder ce qui se passe, ce n’est pas possible ! On est dans Politiques numériques, il va falloir que les politiques comprennent qu’ils ont plus d’intérêts à réguler Facebook qu’à faire un live sur Facebook eux-mêmes. Il faut qu’ils comprennent que le jeu de la démocratie ce n’est pas uniquement de décider quand ils veulent parler à leur communauté et, potentiellement, déclencher des raids numériques sur les gens qu’ils détestent. Il va falloir qu’on remette le truc au centre de la table. À un moment, il faut un arbitre, on ne peut pas laisser les équipes continuer comme ça, j’attends donc cet arbitre avec impatience.

Dephine Sabattier : Romain, vous vouliez réagir, et puis on va parler de l’esprit critique.

Romain Pigenel : Justement, ça fera lien. Que faire face à ces campagnes de désinformation ? Je pense qu’il y a trois niveaux de réponse :
déjà, il y a le niveau de réponse sur le plan des médias au sens technique, c’est-à-dire des vecteurs eux-mêmes, soit avec des solutions technologiques, comme vous l’évoquiez, c’est-à-dire le watermarking, etc. Ma conviction profonde c’est que ça sera, malheureusement toujours, un peu une course entre le chat et la souris et qu’il y aura toujours un temps d’avance pour le fraudeur, ce n’est pas pour cela qu’il ne faut pas le faire ; il y a cette piste-là ;
il y a la piste de la régulation, je ne vais pas y revenir, elle a été évoquée. Je trouve que les choses avancent lentement, mais lentement dans le bon sens, notamment l’Europe, qui est une machine lente mais puissante, commence à poser des jalons avec le Digital Markets Act qui vient de rentrer en action.

Dephine Sabattier : Et le DSA.

Romain Pigenel : Aussi. Je trouve, quand même, que l’Europe joue plutôt un rôle plutôt intéressant.
Après, il y a un deuxième plan qui est le plan de la production de contenus. C’est vrai qu’on peut avoir le sentiment que, souvent, les désinformateurs ont un temps d’avance et je le crois pour plusieurs raisons.
D’abord parce que, pour ce qui est des désinformateurs je dirais non étatiques, c’est un fait historiquement vérifié : comme ils n’avaient pas accès aux canaux de communication traditionnels, ils ont été les premiers à se jeter sur Internet et c’est pour cela que, quand on regarde y compris les phénomènes complotistes, sectaires, extrémistes, ils ont souvent eu un temps d’avance dès les années 2000 sur la présence sur le Web parce que, justement, ils avaient compris que c’était la porte d’entrée qui leur permettait de contourner le système, mais qui existait bien puisqu’il avait un système médiatique auquel, heureusement, ils n’avaient pas accès. Le constat que je fais depuis 15 ans et contre lequel je me bats dans tous mes postes successifs, c’est quand même le retard à l’allumage de la puissance publique, au sens large, pour arriver, je vais prendre un terme excessif à dessein, à inonder de contenus Internet. On est dans une bataille de trouvabilité des contenus. À un moment, sans rentrer dans des considérations techniques que, par ailleurs, les auditeurs connaissent, mais si on n’a pas des contenus nombreux et bien optimisés, on ne remonte pas.
Après, sinon on peut choisir un autre biais, le biais de la censure, c’est une autre voie, et on peut dire, pourquoi pas, qu’il faut fermer ces réseaux, je dis ça sans rire. Mais si on dit qu’ils sont ouverts, il faut les réguler et il faut jouer le jeu. Alors ça va mieux, je vais prendre simplement un exemple.

Dephine Sabattier : Il y a une autre voie qui est de devenir nous-mêmes des désinformateurs pour contrer les propagandes. Aujourd’hui, c’est envisagé, en tout cas aux États-Unis ils le font, c’est une pratique.

Romain Pigenel : Un exemple très concret, si vous voulez bien, et je vais finir. En 2016, Congrès de lancement de Santé publique France, qui est l’opérateur que vous connaissez, je me souviens que j’avais fait la démonstration en direct : quand vous regardiez YouTube, vous tapiez « vaccin », les 20 premiers résultats étaient tous des vidéos anti-vaccin. Aujourd’hui c’est mieux, pourquoi ? Parce que, heureusement, les centres de culture scientifique comme celui que je représente, Universcience, les institutions scientifiques, commencent, par exemple sur les vaccins, à produire des contenus, mais on voit bien qu’il y a un retard à l’allumage. Là-dessus, de toute évidence, ça va mieux, mais ça ne va pas encore assez bien. C’est un débat que j’ai souvent, quand j’entends ou que je vois des universités qui disent « on va fermer notre compte Twitter pour faire mal à Elon Musk », d’abord ça ne fait pas mal à Elon Musk et je pense que c’est une décision catastrophique. Selon un vieil adage, « quand partent les dégoûtés restent les dégoûtants », donc, quand il y a un terrain, il faut l’occuper ou alors il faut couper le terrain.
Et puis, le troisième vecteur de réaction, ce sont évidemment les individus, les récepteurs eux-mêmes, avec, en effet, l’importance de développer l’esprit critique, c’est en partie pour cela que je suis invité. Comme vous le savez, à Universcience, on a lancé un programme qui ??? [24 min 48] nationale, avec une cinquantaine d’opérateurs, centres et musées de science, bibliothèques qui sont des super acteurs de terrain sur l’éducation aux médias, on le dit trop peu, mais heureusement c’est souvent dans des territoires peu équipés culturellement qu’il y a des bibliothèques qui font un super travail, c’est arriver à développer l’esprit critique. L’esprit critique c’est quoi ? C’est la capacité à trier et qualifier l’information pour se construire son opinion de manière libre et éclairée. Mais l’esprit critique tout seul ne suffit pas. Il faut aussi le compléter par une culture scientifique. Pourquoi ? Parce que si vous êtes uniquement dans un esprit supercritique, ça peut donner, au bout du compte, ce qu’on voit et ce que Thomas connaît bien, qui est le complotiste, puisque, d’un certain point de vue, certaines formes de complotisme, c’est un hyper-criticisme. Donc, si on ne sait rien et qu’on critique tout, on peut se retrouver dans une forme de paranoïa. C’est pour cela qu’on défend à Universcience, Cité des sciences et de l’industrie, Palais de la découverte, l’idée qu’il faut développer l’esprit critique grâce à l’éducation aux médias, grâce à l’enseignement de la méthode scientifique, parce que la méthode scientifique expérimentale est aussi une manière parallèle à la méthode journalistique d’arriver à analyser les faits, construire une opinion de manière fondée, mais il faut aussi, derrière, développer la culture scientifique, parce que sinon, on doute de tout ! Après tout, moi qui ne suis pas ingénieur en bâtiment, qu’est-ce qui me permet de savoir que les tours du World Trade Center n’ont pas été dynamitées par le gouvernement américain ! Si je pars de rien, d’aucune compréhension sur ce qu’est un consensus scientifique, d’aucun fond scientifique et technologique, je peux douter tout. L’esprit critique n’est pas douter de tout, tout le temps, c’est savoir bien douter. En tout cas, je pense que c’est ce qu’il faut arriver à développer.

Dephine Sabattier : Vous allez publier les résultats du troisième baromètre dans quelques jours. Pouvez-vous nous dévoiler déjà quelques chiffres ? Qu’est-ce qu’il en ressort ? Comment s’en ressort-on, en France, quant à l’esprit critique ?

Romain Pigenel : Je ne vais pas redire ce qu’a j’ai déjà dit Laurent Cordonier, parce que plein de choses sont concordantes entre nos études. Quand même quelques faits massifs. C’est du déclaratif, évidemment, mais, quand on interroge les répondants sur leur manière de discriminer l’information, quelle est la bonne, moins bonne, etc., ils sont plutôt bons, mais il y a un élément sur lequel ils se plantent toujours, c’est sur l’importance de se méfier de ses propres intuitions. Dans une partie de notre questionnaire, on a une question où on demande : « Pour vous, qu’est-ce que c’est que l’esprit critique ? Comment qualifiez-vous la bonne information ? ». Donc, les réponses évidentes du type « regarder la source, l’émetteur, etc. », en général les gens répondent à quinze ??? [27 min], mais quand on leur dit : « Pour vous, est-ce que l’esprit critique c’est se méfier de ses propres intuitions ? », il n’y en a que 18 % qui répondent oui. Et là, on fait le lien avec la problématique des biais cognitifs, c’est-à-dire qu’il y a une très faible connaissance ou une mauvaise connaissance, justement dans le grand public, de la problématique des biais cognitifs. Il faut de toute évidence, là-dessus, notamment au niveau de l’éducation primaire, mais aussi de la formation professionnelle, mettre le paquet sur cette question parce qu’on voit bien que, là-dessus, il y a vraiment quelque chose qui n’est pas tout à fait clair.
Un autre élément intéressant, c’est que ça ne va pas si mal que ça chez les jeunes. Je sais que d’autres études ont pu sortir des résultats catastrophistes, il y a un an, pour dire « les jeunes sont complotistes, croient que la terre est plate, etc. », étude qui pose plein de problèmes méthodologiques, je n’entrerai pas dans ce genre de débat. En revanche, nous, quand on interroge plus spécifiquement les 18- 24 ans on voit, par exemple, qu’ils sont beaucoup plus intéressés et beaucoup plus actifs par rapport à la pratique scientifique et à la formation scientifique que leurs aînés, en revanche, c’est un point d’attention, mais je n’apprendrai rien, la hiérarchie des sources d’information et la confiance qu’ils portent aux sources d’information est radicalement différente. C’est-à-dire que sur l’ensemble du panel quand on demande : « Comment vous renseignez-vous ? », ce qui ressort c’est Internet en numéro un, la télévision à peu près au même niveau, 60/70 %, et les réseaux sociaux ne comptent que pour 30 %, alors que quand vous regardez sur les 18/24 ans, on est sur l’entourage qui compte pour 70 % – on y pense rarement, mais l’entourage est la première source d’information – avec, derrière, Internet à 67 %, les réseaux sociaux à 54 % et la télévision s’effondre à un peu plus de 30 %. Et quand vous demandez « à qui faites-vous confiance ? », sur l’ensemble du panel, on a radio, Internet, télévision qui tiennent le haut du panier. En revanche, chez les jeunes, c’est Internet, l’entourage, les réseaux sociaux et la télévision s’effondre.
Les jeunes d’aujourd’hui étant les vieux de demain, par construction, on voit qu’il faut évidemment revoir beaucoup de choses sur la manière dont on conçoit les stratégies d’information et je reviens à ce que je disais, mettre le paquet sur les réseaux sociaux et sur Internet, à la fois pour les réguler, mais aussi pour y être présent quand on est la puissance publique.

Dephine Sabattier : Je voulais juste faire réagir Camille. Vous parlez aussi de la problématique des algorithmes de recommandation, ce n’est pas l’entourage, mais c’est une forme de nouvel entourage, finalement ?

Camille Grenier : D’entourage technique. Juste pour réagir à ce que disait Romain, il y a cette question de où est-ce qu’on met la responsabilité ? Est-ce qu’on met la responsabilité sur les individus qui reçoivent de l’information ?, il y a notamment tous les programmes de l’éducation aux médias, ou est-ce qu’on met la responsabilité sur les plateformes, les réseaux sociaux, qui distribuent l’information en se nourrissant de nos données personnelles, puisqu’ils vont voir que, selon nos intérêts, un certain type de contenu va être poussé ou non ?
Au début, Romain parlait aussi du l’évolution du narratif. On est passé d’un narratif, il y a cinq ans, qui était très sur le contenu lui-même – comment on enlève-t-on les fake news, comment laboure-t-on la mer – à une approche beaucoup plus structurelle aujourd’hui. Nous, nous avons posé cela il y a cinq ans : quels doivent être les principes qui régissent ce bien commun qu’est l’espace de l’information et de la communication, avec des principes de transparence, de promotion de la fiabilité de l’information, de responsabilité ou de redevabilité des acteurs, etc. ? Quand on regarde cet aspect structurel ou systémique, on se rend compte, en effet, que la propagande, la désinformation, la rumeur, les contenus haineux dans la rue, ça a toujours existé, mais aujourd’hui tout cela est un peu au centre du village et la question c’est plutôt comment on remet les producteurs d’informations qui respectent les normes éthiques et professionnelles du journalisme au centre.
À Reporters sans frontières, on a développé la Journalism Trust Initiative, désolé pour les anglicismes, une idée empruntée à de nombreux secteurs économiques et industriels, l’idée d’un standard qui n’est pas sur le contenu. L’idée ce n’est pas de faire la distinction entre le vrai le faux, mais qui est plutôt sur les processus de production de l’information. Produire une information, ici nous sommes dans un magnifique studio, ça coûte quand même de l’argent, ça coûte de l’investissement, Thomas le sait bien. Par contre, quand vous êtes tout seul dans votre garage avec un ordinateur, IA ou non, pour propager n’importe quel type de contenu sans enquête, sans vérification des faits, ça coûte quand même beaucoup moins d’argent.
La question c’est donc comment redonner un avantage comparatif à ces sources, à ces producteurs d’informations fiables ; là, il y a donc l’idée du standard.

Dephine Sabattier : Qu’il faudrait pouvoir partager avec les plateformes numériques ?

Camille Grenier : Exactement. Et surtout, ce qu’on demande et, malheureusement, j’ai l’impression qu’elles sont un peu réticentes – quand on touche à leur business modèle c’est toujours un peu plus compliqué – c’est justement que dans leurs algorithmes de curation, elles intègrent les données qui sont issues de ce standard pour donner un avantage comparatif à ces sources réputées fiables, à travers un standard qui est audité.

Dephine Sabattier : Est-ce que le politique a à se mêler de ça ou pas ?

Camille Grenier : Il y a une distinction, aujourd’hui, entre l’intérêt public et l’intérêt du public. L’intérêt public c’est l’intérêt général et, là, il est tout à fait légitime de poser des cadres de régulation. Ce qui intéresse les plateformes c’est l’intérêt du public, c’est notre intérêt avec nos instincts.

Dephine Sabattier : Et, pour elles, c’est leur intérêt économique.

Camille Grenier : Je pense que poser des obligations aux plateformes de promotion de la fiabilité de l’information, c’est, en ce moment, pas mal repris notamment, désolé encore pour les anglicismes, European Media Freedom Act, où, justement ??? [32 min 55] devrait, à priori, être inclus, donc poser un cadre, encore une fois, pas sur le contenu mais sur la structure de l’espace informationnel, de la façon dont on produit, partage, dont on a accès à l’information, c’est l’histoire des démocraties. Il y a toujours eu des cadres – la loi de 86, par exemple, en France – qui régissent ça, les démocraties sont bâties sur ces cadres démocratiques. On pouvait être d’accord ou pas d’accord, mais l’avantage est qu’elles étaient transparentes et, si on n’était pas d’accord, on pouvait voter, les lois sont transparentes.
Aujourd’hui, les lois qui régissent notre espace informationnel sont les lois qui sont définies à la Silicon Valley par quelques entreprises privées qui n’ont, en effet, comme disait Thomas, d’intérêt que leur valorisation capitalistique.

Dephine Sabattier : Laurent.

33’ 49

Laurent Cordonier : En effet, je pense qu’il ne faut pas chercher à opposer l’intervention sur l’environnement informationnel, la régulation de ce milieu-là, et puis les interventions qui visent à renforcer la résilience de la population. Je pense que ce sont deux pistes qu’il faut suivre en même temps.
Pour ce qui est de question de la résilience des populations, donc la formation à l’esprit critique, un terme très délicat, en effet, parce qu’il a été beaucoup dévoyé, on peut imaginer que c’est la tabula rasa cartésienne, en réalité il faudrait douter de tout, etc., mais, en réalité, c’est une autre définition du complotisme, si l’on veut. Une définition correcte de l’esprit critique, c’est vraiment considérer et réaliser qu’on est tous dans un état de dépendance épistémique « je dépends du témoignage d’autrui pour savoir quoi que ce soit sur le monde », s’il n’y a un journaliste en Ukraine pour me dire qu’il y a une guerre, je n’en sais rien, etc. Une fois qu’on a réalisé que ce que l’on sait, on ne le sait quasiment jamais par nos propres sens et par nos propres expériences, on réalise qu’on a besoin de faire confiance pour savoir quoi que ce soit sur le monde, donc on réalise aussi, par rebond, l’importance d’attribuer sa confiance sur des bases rationnelles.
Des indices comme le ??? [34 min 50], une note non pas de fiabilité de l’information mais de respect de certains critères de création de l’information, de certaines normes, etc., ça peut être un indice tout à fait fiable pour l’individu mais aussi comme levier, par exemple pour les réseaux sociaux s’ils veulent jouer le jeu et ils le voudront quand on décidera de l’exiger de leur part et, pour cela, le Digital Services Act ouvre des fenêtres d’opportunité. Ce règlement, au niveau européen, permet d’avoir des exigences de résultat à l’égard des plateformes pour peu, et le pour peu est vraiment central, que le régulateur national, français pour ce qui nous concerne, décide de jouer le jeu et de mettre en avant ce levier. En France, c’est l’Arcom. L’Arcom a été timide sur un certain nombre d’applications jusqu’à présent en ce qui concerne l’audiovisuel – je ne dis pas que c’est bien ou mal, je le constate –, je peux espérer, par contre, que l’Arcom sera plus assidue à faire respecter le Digital Services Act au sein des frontières françaises. C’est une volonté qui relève, pour le coup clairement vraiment du politique : veut-on utiliser ce levier, qui nous est offert par l’Union européenne, pour réguler l’information sur les réseaux sociaux ? Je pense que c’est l’occasion à ne pas rater, en quelque sorte. C’est vraiment une occasion qui peut avoir des effets importants, parce qu’on peut tout à fait imaginer que l’Arcom puisse, par le biais du Digital Services Act, presser les plateformes pour mettre davantage en avant des contenus informationnels de qualité, quel que soit le sujet, plutôt que de chercher à censurer, à modérer ou à faire disparaître certains posts. Je crois qu’il est plus efficace de mettre en avant des contenus de qualité. C’est un peu ce que Google a fait, comme il a été rappelé, sous la pression.

Dephine Sabattier : Parce que, en fait, il y a deux pièges. Il y a le piège de la censure, apparaître comme un censeur, et puis il y a aussi le piège d’apparaître comme celui qui veut remettre la main sur l’information.