Souveraineté numérique, la douche froide - Tariq Krim et Bernard Benhamou

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Souveraineté numérique, la douche froide ?

Intervenants : Tariq Krim - Bernard Benhamou - Sky

Lieu : Thinkerview

Date : 17 juillet 2020

Durée : 2 h 20 min 21

Visualiser la vidéo

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Transcription

Sky : Messieurs, bonsoir.

Tariq Krim : Bonsoir.

Bernard Benhamou : Bonsoir.

Sky : Nous vous recevons pour une chaîne internet qui s’appelle Thinkerview. Nous sommes en direct. Est-ce que vous pouvez vous présenter succinctement, on a va commencer par Tariq.

Tariq Krim : Tariq Krim. Je suis entrepreneur dans le Web. J’ai eu plusieurs carrières. J’ai démarré très tôt en informatique, c’était ma passion. Je suis parti dans la Silicon Valley et je suis revenu en France où j’ai monté plusieurs boîtes. En ce moment, je m’intéresse essentiellement aux questions de souveraineté numérique.

Sky : Bernard.

Bernard Benhamou : Bernard Benhamou. Je dirige actuellement l’Institut de la souveraineté numérique. Après avoir été à de nombreuses reprises du côté obscur de la force dans différentes fonctions auprès des gouvernements successifs et toujours autour des questions numériques, d’usage du numérique, j’étais délégué interministériel, et autour, effectivement, de tout ce qui était régulation du numérique depuis, en gros, une vingtaine d’années. J’ai eu l’occasion de rencontrer Tariq à plusieurs reprises sur ces questions.

Sky : Merci. On a décidé de vous faire venir ce soir pour parler de souveraineté numérique pour parler de privacy shield, pour parler de tout un tas de choses qui ont trait à notre souveraineté numérique et d’autres sujets connexes. On va commencer par Tariq.
Tariq, comment ça se passe en France la souveraineté numérique ? C’est open bar pour les sociétés américaines, pour les sociétés jordaniennes, israéliennes, pour les sociétés saoudiennes ? C’est comment ? Est-ce qu’on a, pour être tout à fait trivial, le pantalon en dessous des genoux ?

Tariq Krim : Vaste question. Je pense qu’on a un vrai problème en France c’est qu’on a l’impression qu’on n’est pas capable de faire des choses, qu’on n’est pas capable de construire ces infrastructures. Ce qui est fascinant c’est que depuis 40 ans en fait, je dirais plus, même 50 ans, je revoyais récemment un document YouTube sur le plan Calcul. Michel Debré parlait de la souveraineté numérique, tu ne changerais pas une seule ligne.

[Problème technique]

Sky : On revient sur la souveraineté numérique et le fait qu’on essaie de courir avec le pantalon en dessous des genoux.

Tariq Krim : Ça n’a pas toujours été le cas. Ce qu’il faut comprendre c’est qu’après la Deuxième Guerre mondiale, en gros, les Américains ne veulent pas que l’Europe dispose d’une industrie informatique pour une simple raison c’est que qui dit ordinateur dit arme nucléaire, donc dissuasion. À ce moment-là on a vraiment un alignement parfait entre la vision, notamment celle du général De Gaulle, la création de la C2I (???), de toute une infrastructure. Ce qui est d’ailleurs assez fascinant, c’est qu’ à l’époque ils n’ont pas décidé de créer une boite, c’est de regrouper un ensemble de boîtes autour d’un projet, donc construire des calculateurs. À l’époque Control Data faisait des calculateurs un peu puissants, on n’avait pas vraiment accès à ce genre de machine. On a eu cette vision qui est assez française, c’est de dire on fait nos trucs, dans notre coin – on a fait ça avec le TGV, on a fait ça avec le Minitel –, on construit nos réseaux, nos infrastructures. Et ce qui est fascinant, dans une ancienne vie j’ai passé beaucoup de temps à bidouille des Minitels, quand on ouvre un Minitel la première chose qui est impressionnante c’est que tout est fabriqué en France, absolument tout. Les gens ne le savent pas, mais le Minitel a inspiré Steve Jobs pour le Macintosh, la poignée, le design, donc on est parti d’un modèle où on faisait tout à un modèle où on ne fait presque plus grand-chose maintenant. On veut faire le Health Data Hub, on est obligé de passer par Microsoft on veut faire telle chose, des appels d’offres, on nous explique qu’on ne sait plus faire. Il y a plusieurs raisons, l’expertise est là, mais les gens qui ont l’expertise ne sont jamais les gens qui décident. Ce n’était pas le cas avant on avait beaucoup d’ingénieurs, de polytechniciens, des gens un peu stricts, mais qui étaient des vrais ingénieurs, qui savaient construire, mettre en place des équipes. Maintenant on a plutôt, j’appelle ça un peu des consultants, des gens qui font des Powerpoints.

Sky : Technocrates !

Tariq Krim : Mais il y a eu des technocrates éclairés. Là on est vraiment dans le modèle où on a vu une présentation de Google c’est super – et c’est vrai que c’est très beau – c’est ça qu’il faut faire. Alors qu’en fait, quand on produit des projets sur le long terme, par exemple le Health Data Hub, mais tout ce qu’on va faire, tout ce qui est nouveau dans le numérique, on ne le fait pas pour cinq ans, on le fait pour 20 ans, 30 ans. Quand on a fait le TGV on n’a pas dit c’est un produit qu’on va faire pour quelques années ; il y a une vision long terme, il faut donc la construire et la construire c’est difficile. Il y a deux visions : il y a la vision Uber, on clique, la voiture arrive en bas et on rentre dans la voiture et puis il y a la vision où on passe son permis de conduire, on achète sa voiture, on apprend à la conduire, c’est plus compliqué, c’est plus cher, mais c’est ce qu’on doit faire.

Sky : Bernard, ce n’est pas un peu trop tard de passer son permis de conduire, de prendre sa voiture, d’apprendre à mettre la transition dans un climat de guerre économique où tout s’accélère ?

Bernard Benhamou : On pourrait penser et je pense que ce qui est, d’une certaine manière, le constat que font beaucoup aujourd’hui c’est que, justement, une fois que la guerre est perdue autant faire alliance avec les vainqueurs. C’est une triste résignation, une molle résignation de certains, y compris au sein de l’État. Donc non, je crois que non seulement il n’est pas trop tard, mais je dirais que l’actualité des technologies, c’est-à-dire l’actualité des GAFAM pour les appeler comme ça, c’est-à-dire les grandes sociétés américaines du secteur, montrent qu’on est quasiment entrés dans une crise – certains disent crise systémique, peu importe le terme – une crise de confiance à l’échelle mondiale. C’est-à-dire que maintenant Facebook est en trajectoire de collision avec un nombre infini d’acteurs aussi bien publics que privés et c’est aussi, quelque part, le cas de Google avec YouTube qui lui aussi est un accélérateur de radicalisation. Donc par définition je crois que ce modèle-là n’est pas durable, on est convaincus de ça. Mieux encore, j’entendais le mot privacy shield qui était prononcé en tout début d’émission ; c’est un plaisir de venir le lendemain de l’annulation d’un traité transatlantique qui était je dirais l’ombrelle pour 1500 ou 2000 sociétés américaines pour essayer effectivement de traiter des données des Européens aux États-Unis.
Moi je fais partie de ceux qui pensent qu’à terme, Tariq citait le Heatlth Data Hub, le nouveau système de rassemblement des données de santé des Français en un seul lieu à des fins de développer des systèmes d’intelligence artificielle, je pense que ces données ne peuvent pas, quoi qu’il en soit, sortir du territoire européen, peut-être pas du territoire français mais au moins européen.
À l’heure qu’il est, le fait que Microsoft puisse traiter une partie de ces données directement aux États-Unis pose un problème. On vient de voir avec l’annulation du privacy shield que la justice européenne considère que les données des Européens ne sont plus sécurisées correctement par rapport aux intrusions des systèmes des services de renseignement, par rapport effectivement à l’usage que peuvent en faire des sociétés. Maintenant il y a une sorte de tenaille qui est en train de s‘établir. Ce qui était quasiment inenvisageable il y a cinq ans quand justement le prédécesseur du privacy shield qui s’appelait à l’époque, pour les plus férus, le safe harbor a été annulé, personne ne pensait que le suivant serait annulé. Maintenant tout le monde est conscient que c’était quasiment inéluctable et surtout, on se rend compte à quel point on ne peut plus reproduire la chose, faire comme si de rien n’était et continuer effectivement comme si, j’allais dire, il n’y avait pas eu de scandale Snowden, il n’y avait pas eu d’affaire Cambridge Analytica, il n’y avait pas eu toute une série d’évènements qui font que les Européens doivent sortir de l’innocence, je dirais de la naïveté des Européens par rapport aux Américains qui leur faisaient dire « mieux vaut effectivement leur confier nos données, de toute manière ce sont de belles et grandes sociétés ». Non ! Aujourd’hui on se rend compte que Facebook non seulement est un acteur économiquement toxique pour son écosystème – on pourrait dire la même chose de Google –, mais que ce sont des acteurs politiquement toxiques et qui l’ont montré à plusieurs reprises. Je citerais des gens qui ne sont pas des anarcho-libertaires extrêmes, je citerais le rapport du Parlement britannique qui parle de Facebook en disant « ce sont des gangsters numériques qui subvertissent la démocratie ».
Ce propos-là intervient neuf ans après qu’une certaine Hillary Clinton dise par la voix de son conseiller, Alec Ross à l’époque, que le numérique, l’Internet, est devenu le Che Guevara du 21e siècle – c’était l’époque des Printemps arabes – en pensant que c’était l’outil de libération des peuples.
Aujourd’hui, on se rend compte que l’Internet peut être tout, y compris un outil d’asservissement, y compris un outil de contrôle. Nos amis chinois le montrent tous les jours avec le crédit social, ce système orwellien de contrôle. Donc nous, Européens, qui étions entre guillemets « les mauvais élèves » du monde numérique dans le sens où nous n’avions pas notre industrie propre, avec le Réglement européen sur les données, avec cette volonté que l’on a justement de protéger une notion presque dépassée, surannée, qu’on appelle la vie privée, eh bien quelque part on avait raison.
Donc je pense que le rebond européen pourrait prendre appui sur, en gros, notre singularité par rapport aux acteurs chinois évidemment et effectivement aussi aux acteurs américains.

Sky : Tariq, ça pose quels types de problème plus en détail le fait que nos data soient stockées aux États-Unis ou soient envoyées aux États-Unis ou peuvent être exploitées aux États-Unis depuis une loi extra-européenne ? Par exemple si les services secrets tombent sur nos data qu’est-ce qu’ils peuvent faire ?

Tariq Krim : Déjà je dirais que ce qu’il faut déjà comprendre c’est que l’Internet depuis au moins 2002, c’est à peu près la date qu’on se donne de temps en temps, est un espace militarisé. C’est-à-dire qu’on prend un ordinateur, on le sort d’une boîte, on le connecte, à l’époque je crois qu’il fallait deux minutes pour qu’il soit transformé en zombie, maintenant je pense que ça ne prendrait même pas 30 secondes, peut-être même moins. Ça veut dire que le fait que l’ordinateur soit connecté, il y a des bots, des services, qui cherchent en permanence des machines à hacker automatiquement puisque comme elles ne sont pas mises à jour, elles sortent de la boite, les patchs de sécurité n’ont pas été mis, et on va les utiliser ensuite pour plein d’actions coordonnées.
En fait, l’espace d’Internet est à la fois un théâtre militaire, mais également un espace commercial qu’il faut sécuriser, donc ça pose un vrai problème parce que, finalement, ce sont les mêmes les tuyaux qu’Amazon utilise pour nous vendre des chaussures et que la NSA la CIA, CyVerse Commons et évidemment les services de tous les autres pays utilisent, donc on a le même réseau. Donc on a ce problème c’est qu’on n’a pas su, à un moment donné, définir d’un point de vue politique, et ça Bernard l’a suivi, des règles d’usage parce qu’en gros dans les guerres de type cyber, à la différence du nucléaire où c’est le premier qui a tiré qui a perdu, dans les guerres cyber c’est l’inverse, c’est le premier qui a tiré et qui a gagné. Je sais que dans les vieux magazines Wired qui est magazine californien que tout le monde connaît, il y a un auteur de science-fiction, un peu des parrains du mouvement cyberpunk, qui expliquait quelles sont les dix services – c’était en 1993 – qu’il faudrait faire tomber pour faire tomber les États-Unis. À l’époque l’Internet était numéro 4 parce qu’il y avait encore des ??? privés. Aujourd’hui, évidemment, ce serait la première chose. On l’a vu hier sur Twitter. Finalement, on peut hacker le compte Twitter de quelqu’un de très connu. Le plus connu d’entre eux, si c’était Donald Trump, on pourrait presque déclarer une guerre nucléaire.
Le problème qu’on a, pour revenir sur la question des services de renseignement, c’est que de toute façon l’écoute existe depuis toujours. Ce qui se fait aujourd’hui avec Google, avec les GAFAM, ce que Snowden a dévoilé, existait déjà avant, dans les années 50/60 avec d’autres projets, le projet Minaret, ce qui a donné ensuite Echelon et ensuite on a eu plein de sujets. Ce qui est nouveau aujourd’hui, c’est que ces centres de données analysent non plus les données personnelles : oon oublie c’est que ces sociétés, Facebook, Google, ne travaillent plus uniquement sur les données, mais sur le comportement. En gros il y a dix ans, je veux savoir qui tu es pour te vendre quelque chose. Aujourd’hui, je vais utiliser ton comportement – le nombre de fois que tu vas sur Instagram, si tu t’arrêtes quelques millisecondes sur une photo, ah tiens tu as envie de voyager ?, est-ce que tu es déprimé ?, est-ce que tu es euphorique ? – pour transformer ton comportement.
Ce qui s’est passé, c’est que la plupart des acteurs de la Valley se sont rencontrés. Nathan Myhrvold qui était le <em<chief science de Microsoft, a présenté – je crois que c’est Daniel Kahneman qui avait fait la Thinking Fast and Slow – le marketing comportemental. En fait, il y avait des gens de Google, il y avait des gens d’Amazon, il y avait des gens de Facebook, la personne de Facebook qui a parfaitement compris comment utiliser ces techniques c’est Sean Parker qui était à l’époque le président de Facebook.
Ce qu’il faut savoir c’est que Facebook n’était pas très intéressé à ça jusqu’à ce que Sheryl Sandberg vienne de Google avec la vision du capitalisme de surveillance, c’est-à-dire monétiser les données à outrance, et avec cette idée qu’on peut modifier les comportements pour vendre.
Le problème que l’on a aujourd’hui c’est que quand qu’on modifie le comportement d’un consommateur, c’est-à-dire qu’on veut le rendre dépressif parce que quand il est dépressif il va plutôt acheter des voyages, quand il est euphorique il va s’acheter des chaussures – je schématise – mais on touche à la psyché des gens. D’une certaine manière ce qui est fascinant c’est que quand on rêve le soir, en fait notre subconscient est alimenté par toutes les images qu’on a vues dans la rue, à la télévision. Aujourd’hui une grande partie, voire la majorité des images qui sont en fait perçues par notre cerveau viennent des écrans. Ce sont des images qui ont été choisies. Ce que l’on voit sur Instagram a été choisi. Si on veut vous déprimer, on va vous montrer la photo de votre ancienne petite amie au lever et immédiatement on va changer votre caractère. Vous allez dire non ! Mais ça marche, ça marche très bien. J’avais rencontré un garçon, ??, chez Facebook, ils avaient fait des tests, ils ont arrêté, d’ailleurs lui depuis a quitté Facebook, il déprimait, il disait « on est capable de modifier les comportements. On modifie les comportements pour le commerce et quand on modifie le comportement pour le commerce on modifie aussi la partie citoyenne d’une personne ».

Sky : Pour les élections.

Tariq Krim : Pour les élections.
Ce qui est fascinant c’est qu’on est aujourd’hui dans un monde qui est compliqué parce qu’on a un hyper-fragmentation algorithmique. Avant on avait la télévision, on avait 15/20 niches. Maintenant on est rentré dans des micro-niches qui targettent parfois quelques personnes. Il y a un groupe terroriste un peu d’extrême droite, je dis terroriste parce qu’ils ont tué des gens en Californie, il s’appelle ???, je crois que tous les membres se sont rencontrés grâce à Facebook.
Donc on a construit une place de fragmentation algorithmique permanente, on crée des micro-niches. Ce que je pense c’est que les micro-niches créent de la médiocrité, parce qu’on est un peu le borgne au milieu d’un micro-monde d’aveugles et, en fait, on ne communique plus. Effectivement ça a construit, avec YouTube mais aussi avec Facebook, ce que j’appelle souvent la radicalisation algorithmique, c’est-à-dire qu’on travaille une personne mentalement et ces techniques qui sont des techniques de comportement, de modification comportementale, sont des techniques qui ont été inventées dans les années 60 par les CIA, par tous les services de renseignement pour modifier la psyché. Elles ont été boostées par le fait que désormais avec le téléphone on est seul. On va aller voter, on doit voter pour Hillary, et puis on va aux toilettes, on prend son téléphone et là on voit un truc, une fake news sur Hillary, on est énervé, on est vraiment énervé, c’est le bon moment et puis on change son vote à la dernière minute.
Ce qui a changé entre l’élection de Trump et l’élection d’Obama c’est que l’élection d’Obama c’est une élection internet alors que l’élection de Trump c’est devenu une élection sur le smartphone et le smartphone, en fait, est un appareil unique. Personne ne regarde votre téléphone, personne ne regarde ton téléphone Bernard, c’est quelque chose de privé. Donc on a cette capacité et elle a été utilisée. Les services de renseignement, à mon avis, n’osent pas faire ce genre de chose. Ils le font peut-être. Je pense honnêtement aujourd’hui que Facebook, Google et toutes ces plateformes ont moins de scrupules à utiliser ces techniques, parce que c’est du commerce, que les services de renseignement.

Sky : Il y a une porosité entre les services de renseignement et les GAFA ? Bernard.

17’ 46

Bernard Benhamou : C’est possible, bien sûr que si. S’il y a bien une chose que l’affaire Cambridge Analytica a bien démontrée, cette énorme affaire effectivement durant la préparation de l’élection américaine, pour ceux qui n’en auraient pas entendu parler, c’est que d’une part les données peuvent être traitées par des psychologues spécialistes d’opérations psychologiques.

Sky : PSYOP.

Bernard Benhamou : PSYOP. Typiquement, on voit bien qu’il y avait plusieurs convergences, je dirais. Ce que décrit très bien Shoshana Zuboff dans son bouquin sur le capitalisme de surveillance, d’ailleurs je le conseille à tous vos auditeurs et spectateurs, qui malheureusement n’est pas traduit en français, il est traduit en allemand mais pas encore en français, j’espère qu’il y aura un éditeur très bientôt, je crois que c’est le cas. On voit bien qu’il y a une convergence entre l’activité économique qui se nourrit de la data et l’activité des services de renseignement qui, c’est une tendance de ces dernières décennies, a de plus en plus été vers le signal technologique plutôt que le signal humain, donc utilise de plus en plus la data.
Comme le rappelait justement Tariq, on n’en est plus au stade d’analyser, on est au stade de manipuler. Pour ceux qui sont en mesure d’agir – Tariq faisait référence au fait de pouvoir changer l’état d’esprit, l’humeur d’une personne – on sait très bien que pour aller vers un vote extrême on aura plus intérêt à faire que la personne soit en colère. Une personne qui est sereine, qui est zen, à priori aura moins tendance à aller vers un vote extrême, en tout cas c’est comme ça que la chose a été articulée.
Donc oui, typiquement on sait maintenant que modifier le newsfeed sur Facebook permet de modifier l’état d’humeur des gens. On sait qu’en leur montrant, ce qu’a très bien démontré une autre spécialiste ??? une turco-américaine, remarquable sociologue sur la radicalisation via les vidéos justement, en particulier sur YouTube, on sait effectivement que si on montre des choses de plus en plus hard, ce qu’elle dit très bien, elle dit que rien n’est jamais trop hard pour YouTube, voila ce qu’elle dit, et elle concluait un de ses articles en disant « YouTube est peut-être devenu le principal outil de radicalisation du 21e siècle », parce que justement la puissance du choix algorithmique en fonction des personnes, en allant vers des vidéos de plus en plus hard, en montrant des messages de plus en plus radicaux ! Tout à l’heure Tariq évoquait les micro-niches, c’est-à-dire les bulles informationnelles comme on les appelle. La particularité aujourd’hui c’est qu’on fait en sorte que des gens ne rentrent jamais en contact avec des idées qui les dérangent, pas simplement des idées différentes, non, des idées qui remettent en cause leur schéma de vie. Donc on crée des groupes qui ne se parlent jamais entre eux.

Sky : C’est qui « on » ?

Bernard Benhamou : Ceux qui ont intérêt à le faire, c’est-à-dire ceux qui tant d’un point de vue économique que d’un point de vue politique ont envie de faire en sorte qu’une partie de la population devienne captive par rapport à un certain type de comportement.

Sky : Ou d’idéologie.

Bernard Benhamou : Ou d’idéologie. Sachant que la consommation, ça a très bien été étudié par des publicitaires depuis plusieurs dizaines d’années, y compris nos actes de consommation quotidiens : la soupe Campbell qu’on voyait dans le tableau de Warhol était apparemment plutôt une soupe consommée par les Républicains, ne me demandez pas pourquoi, je n’en sais strictement rien. De même pour les voitures, je crois que certaines marques étaient plus, entre guillemets, progressistes, démocrates », d’autres étaient plus républicaines, Chevrolet versus Ford, je crois.
Typiquement on sait qu’on est capable d’agir sur le comportement des gens en fonction de toutes sortes d’informations qui nous viennent. Et après, évidemment, ceux qui yont intérêt pour des raisons politiques, que ce soit des puissances étrangères, que ce soit effectivement des partis politiques parfois même en collusion l’un avec l’autre puisque c’était un peu de ça dont il était question, sur la Russie en particulier ; l’affaire Stone qui vient juste de rebondir récemment était liée à des contacts répétés avec des officiels russes, des officiers du renseignement russe. Typiquement on voit bien qu’aujourd’hui on a les instruments avec des moyens limités, avec des groupes de personnes limités, la célèbre agence russe, Internet Research Agency, ce sont des moyens qui ne sont pas énormes mais qui permettent d’influencer, comme on l’a vu pour Cambridge Analytica.

Sky : Agence russe privée. C’est un privé, qui a des porosités avec le gouvernement. Il semblerait.

Bernard Benhamou : Oui. Il semblerait, je ne suis pas un russologue aussi distingué que certains de vos invités, mais on pense effectivement qu’il y a eu une interaction de l’un par rapport à l’autre.

Sky : Ils ont laissé faire.

Bernard Benhamou : Oui. Et ce qui est amusant c’est de voir le processus. C’est-à-dire ce n’était pas « votez Trump », c’était « vous ne serez pas bien représentés par Hillaty Clinton, à quoi bon aller voter ». Donc c’était éteindre le vote démocrate, en particulier pour les afro-américains.
On maîtrise de mieux en mieux ces phénomènes-là et ce qui le plus inquiétant, pour revenir aux questions de souveraineté numérique, c’est que pour l’instant les États ne sont pas en mesure de faire valoir la défense de certains principes, y compris à des sociétés comme Facebook.

Sky : Tariq, on fait comment pour éviter l’astroturfing de nos élections ? Est-ce qu’on fait du brouhaha médiatique comme les dix dernières années, du moins les cinq dernières années, avec un gouvernement qui, excusez-moi d’être très trivial, fait sa pleureuse en disant « oh ! là, là, les Russes ils font des bêtises, ce n’est pas bien, ce n’est pas bien les Russes, ce sont des méchants les Russes ! », ou est-ce qu’on muscle un peu le cerveau de nos concitoyens ? Est-ce qu’on se donne les outils pour les repérer plus facilement ? Qu’est-ce qu’on fait ?

Tariq Krim : Il y a plusieurs sujets.

Sky : Comment on fait pour réinvestir la dialectique ? Comment on fait pour éviter que la population soit laissée au quatre vents de toutes les propagandes ?

Tariq Krim : Il y a un vrai sujet là-dessus. Déjà on a très rarement appris la rhétorique. Aujourd’hui celui qui parle le mieux, on l’a vu avec les débats – qu’elles que soient les opinions des uns et des autres, hydroxychloroquine, etc. – on a vu avec le covid, on est sur un sujet scientifique et médical, la plupart des gens qui aimeraient en parler, qui aimeraient être présents sur les plateaux de télé, se disent je n’y comprends rien et on a même vu en parler des journalistes qui ne savaient même pas ce qu’est une courbe exponentielle, donc on était vraiment à un niveau zéro en science. La réthorique est importante. C’est là où c’est très intéressant. Quand on voit par exemple les dissents de la Cour suprême, vous avez des gens qui disent, qui défendent des points opposés à leur vue mais de manière tellement brillante que vous êtes prêts à dire « il a raison » et de dire l’inverse. Donc il faudrait qu’on apprenne un peu !

Sky : Un concours d’éloquence.

Tariq Krim : Un concours d’éloquence. Voilà. Ça c’est la première chose.
La deuxième c’est qu’on a un cancer. Si vous voulez, on est passé de ce qu’on a appelé dans les années 90, les online communities, des milliers de personnes, on a connu les débuts, le WELL, toutes ces communautés, aux médias sociaux, des blogs, des millions d’utilisateurs à des plateformes, on a désormais des milliards d’utilisateurs. Ce dont on ne parle pas, ce dont tu parlais tout à l’heure Bernard, avec YouTube, c’est qu’aujourd’hui on est dans un monde de fast-food. Pour moi Facebook, Google, c’est le Mac Donald de la pensée. Ce qui est fascisant avec Mac Donald c’est que le Big Mac c‘est la même recette quasiment dans tous les pays. Par contre, en France on prend de la viande française, de la salade française, des pommes de terre françaises. Donc on a construit un algorithme qui est finalement le même – je n’aime pas dire un algorithme, parce que je déteste les gens qui parlent des algorithmes – on a créé un ensemble d’éléments de programme qui nous permettent d’identifier, d’analyser une personne, ce sont les mêmes, simplement le substrat, donc les matières sur lesquelles on va construire un profil sont différentes. On est tous énervés pour les mêmes raisons, on est tous euphoriques pour les mêmes raisons. On a créé, en fait, un système de massification de la personnalisation, on n’a pas de système personnel.
La deuxième chose, c’est que le cancer de nos dernières années, ce qu’on appelle le behavioral micro-targeting, le micro-ciblage comportemental, on vous cible en fonction de vos comportements, de vos habitudes, de ce qu’on a compris de vous, pas parce que vous vous intéressez à des céréales ou à acheter une Toyota. Le drame pour moi, la chose qui m’énerve le plus dans ces 20 dernières années, malheureusement ou heureusement je connais un peu les gens qui fabriquent ces choses chez Google, chez Facebook, les plus grands génies en mathématiques ont soit servi à détruire le système financier avec les marchés dérivés et les subprimes et aujourd’hui, la génération d’après qui normalement devrait réfléchir à d’autres sujets, en fait passe ses journées à optimiser des algorithmes pour vendre mieux des Toyota sur Facebook.
On a, en fait, un savoir-faire incroyable qui a été mis dans quelque chose qu’on pensait inviolable. Ce qui est assez incroyable dans l’histoire de Facebook c’est que un, ils l’ont su assez tôt. Alex Stamos qui était l’ancien patron de la sécurité a dit très rapidement « on a un problème », on a étouffé l’affaire. Mais surtout, ce qui s’est passé, c’est qu’ils se sont fait avoir. C’est-à-dire que d’un certain côté vous avez Facebook qui dit à son annonceur « on est capable de savoir exactement qui peut faire quoi, comment, combien de gens ont vu le clic » et dès qu’on parle des problématiques liées à la campagne « ah non, je crois qu’on n’a pas vraiment toutes des données ». Ils se sont fait avoir par des gens qui étaient bien plus malins qu’eux. Et surtout, on oublie de le dire, ce qui est génial dans la campagne de Trump, c’est que la campagne d’Hillary avait ses spécialistes en big data, etc., ils avaient fait leur sauce. L’équipe de Trump qui n’avait pas autant d’argent, d’ailleurs Brad Parscale vient apparemment, si j’ai compris, d’être viré par Trump, a dit aux gens de Facebook qui avaient ce qu’ils appelaient le projet Alamo – il y avait Cambridge Analytica et il y avait plein de gens, mais il y avait des gens de Facebook qui étaient « prêtés » entre guillemets par Facebook – comment on peut faire pour micro-targeter ? Donc ils l’ont fait de manière extrêmement efficace. Comme le disait Bernard, on a surtout travaillé à faire de la suppression de vote.
Cette technique, à mon avis, devrait être interdite en Europe, complètement interdite. On a les bénéfices, c’est-à-dire vendre plus de Toyota ou vendre des céréales.

Sky : Des Renault ou des Scénic.

Tariq Krim : Des Scénic et des Renault ou d’autres produits. C’est vrai que j’utilise toujours… Vendre des produits de consommation ne mérite pas de menacer la démocratie.
Je n’ai jamais de problème que les gens pensent ce qu’ils veulent, mais là, on sent que les gens sont manipulés par des méthodes grossières.

Sky : Pour toi.

Tariq Krim : Je m’explique. L’algorithme de YouTube, ce n’est pas moi qui le dit c’est Yann Le Cun qui est notre grande pointure en IA et qui a un peu vendu, il faut le dire, son âme à Facebook. Il le dit, il dit quand vous arrivez par exemple pour la première fois sur YouTube, il faut qu’au bout de cinq vidéos on soit capable de vous proposer une sixième vidéo que vous ayez envie de voir. En fait, on fait un travail assez grossier. Ce travail assez grossier c’est cette base, ce substrat sur lequel on va travailler ensuite. Fondamentalement on n’a jamais travaillé sur un approfondissement. Tous les algorithmes de ciblage, de micro-ciblage sont assez grossiers, c’est « on doit faire de l’argent très vite » et ça pose un problème parce qu’il n’y a aucune régulation. C’est difficile de réguler ce que vous ne voyez pas. Il y a des publicités sur le Brexit, en Angleterre que le régulateur n’a jamais vues, il ne sait même pas qu’elles existent, elles ont été vues trois mois après le vote. Donc on a vrai sujet. Je sais que ça ne plaît pas beaucoup aux gens de la tech quand je dis ça, mais il faut supprimer, arrêter le micro targeting, c’est-à-dire qu’il faut revenir à la publicité classique où on fait du ciblage un peu plus classique, un peu plus grossier, mais qui n’est pas après utilisé comme un outil.

Sky : Bernard je te redonne la parole tout de suite. Je repose une question à Tariq :est-ce qu’on peut intoxiquer, à l’échelle du particulier, l’algorithme ?

Tariq Krim : Par intoxiquer ? Juste pour bien être sûr d’avoir compris la question.

Sky : Je sais que tu es très fan des vidéos de Youtubeuses beauté, si tu regardes tes cinq premières vidéos de Youtubeuses beauté, est-ce que l’algo de YouTube – je sais que tu n’aimes pas dire l’algo – va penser que tu es fan de Youtubeuses beauté ? Est-ce que tu as compris le principe ?
Je te le fais en plus simple. Tu vas sur YouPorn, tu ne regardes que des vidéos où il y a des blacks, on ne va te proposer que des vidéos avec des blacks. Est-ce qu’il y a moyen de l’intoxiquer ?

Bernard Benhamou : De modifier le fonctionnement de l’algorithme de façon fausse, de manière à l’induire en erreur.

Sky : Exactement Bernard.

30’ 55

Tariq Krim : En fait il y a deux forces en ce moment