Entretien avec Shoshana Zuboff : les mutations du capitalisme de surveillance à l'ère de l'IA

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Entretien avec Shoshana Zuboff : les mutations du capitalisme de surveillance à l'ère de l'IA

Intervenant·es : Shoshana Zuboff - Traductrice - Juliette devaux - François Saltiel

Lieu : Émission Le Meilleur des mondes - France Culture

Date : 31 mai 2024

Durée : 1 h 01 min 26

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

En 2019, Shoshana Zuboff publiait L'Âge du capitalisme de surveillance, ouvrage mettant au jour les dynamiques secrètes de l’économie du web, basée sur l’extraction des données personnelles. Les prédictions alarmistes de l'autrice se sont-elles réalisées ? Pouvons-nous être optimistes ?

Transcription

François Saltiel : Bonsoir et bienvenue à toutes et à tous dans Le Meilleur des mondes, l’émission de France Culture qui s’intéresse aux bouleversements suscités par le numérique et les nouvelles technologies. Ce soir, nous profitons du passage éclair, à Paris, de l’universitaire américaine Shoshana Zuboff pour la convier à un grand entretien, afin de retracer son parcours, de revenir sur ses concepts fondamentaux et de les relire à l’aune de 2024 et des derniers soubresauts technologiques.
L’Âge du capitalisme de surveillance, son livre sorti aux États-Unis en 2019 et deux ans plus tard, chez nous en France, est devenu un ouvrage majeur sur la critique du modèle économique des géants du numérique, une référence absolue sur la manière dont les GAFAM extraient et utilisent nos données personnelles et comportementales par des procédés qui nous échappent.
Nous visiterons les concepts clés de l’auteur, du surplus comportemental, à la rente de surveillance en passant par le pouvoir instrumentarien ou la division des savoirs. Comment ces phénomènes ont-ils évolué depuis 2019, une période pré-Covid et avant l’ère de l’intelligence artificielle générative ? Qu’en est-il, aujourd’hui, de la prise de conscience citoyenne et de la menace que font peser les GAFAM sur nos démocraties ? Peut-on, néanmoins, être optimiste et miser sur une plus grande maturité des utilisateurs ? Que peut-on espérer du pouvoir politique entré dans une phase de régulation avec, notamment en Europe, les règlements en vigueur du DSA et du DMA ? En un mot, que reste-t-il du capitalisme de surveillance ? Beaucoup de questions et une invitée de choix pour nous répondre.
Shoshana Zuboff, bonsoir

Shoshana Zuboff : Bonsoir.

François Saltiel : Merci d’être avec nous. Merci d’avoir pris le temps de passer par le studio du Meilleur des mondes. Vous êtes professeur émérite, aujourd’hui retraitée, à la prestigieuse Harvard Business School, autrice de trois livres qui ont chacun éclairé, depuis la fin des années 80, une nouvelle ère de nos sociétés connectées. Je rappelle que la traduction française du dernier L’Âge du capitalisme de surveillance est à retrouver aux Éditions Zulma. Vous êtes également membre de l’Observatoire international sur l’information et la démocratie qui vise à ce que les citoyens reprennent le pouvoir et le contrôle de leur vie privée. Votre regard sera précieux pour analyser les grandes mutations technologiques de notre temps.
Au programme, également, une chronique de Juliette Devaux en lien avec votre vos travaux. Juliette reviendra notamment sur les espoirs portés par les régulateurs des États-Unis à l’Europe.
Le Meilleur des mondes s’écoute à la radio ou quand vous le désirez en podcast sur l’application radio France. C’est parti.

Diverses voix off : L’énorme visage vous fixait du regard. C’était un de ces portraits arrangés de telle sorte que les yeux semblent suivre celui qui passe. Une légende, sous le portrait, disait « Big Brother is watching you », « Big Brother vous regarde ».
À partir du moment où le régime de contrôle, qui apparaît dans les années 90, commence à se coupler avec l’outillage numérique, ça devient une puissance de feu colossale. On n’a jamais atteint des degrés de surveillance, de contrôle et de finesse de contrôle, on n’a jamais été aussi loin.
Facebook est accusé de cibler les gens en fonction de la couleur de leur peau, leurs origines ou même leur handicap.
Il semble que nous n’échapperons pas à une surveillance généralisée de nos faits et gestes, car c’est le cœur même du moteur capitaliste contemporain qui impose de récolter des données en grand nombre pour perfectionner ses modèles.
Oui c’est vraiment un nouvel ordre mondial de la tech qui est en train de se dessiner quasiment sous nos yeux. L’IA devient centrale dans la recherche Google, une véritable révolution baptisée Overviews à base de raisonnement à plusieurs niveaux.
La démo la plus impressionnante, c’était celle d’une personne qui filme une pièce avec son téléphone portable et qui lui demande « tu n’aurais pas vu mes lunettes ? »

François Saltiel : Shoshana Zuboff, pour celles et ceux qui découvriraient ce soir vos travaux et qui n’ont pas encore lu votre ouvrage de 700 pages, fruit de plus de dix ans de labeur, en quelques mots, le capitalisme de surveillance, c’est quoi ? Comment peut-on arriver à le définir avec pédagogie et rapidement ? Je sais que c’est un exercice compliqué.

Shoshana Zuboff traduite par Marguerite Capelle : « Capitalisme de surveillance », c’est une expression assez dramatique, mais, en fait, c’est un concept technique, il faut à la fois la surveillance et le capitalisme, sans les deux morceaux du puzzle, ça ne fonctionne pas.
Le capitalisme de surveillance a été inventé au cœur de l’urgence de la crise financière, le moment où ce qu’on appelle la bulle internet a explosé, c’était autour de 2001, quand les start-ups de la Silicon Valley étaient confrontées à des difficultés financières très graves parce que personne ne savait comment monétiser les données. Les gens de Google étaient censés être les plus avancés, les plus intelligents, ils avaient les meilleurs moteurs de recherche, mais même eux ne savaient pas comment en tirer profit. C’est sous l’effet de ces pressions qu’il s’est passé deux choses. La première c’est une découverte et la deuxième, c’est une très grande idée, une idée majeure.
Cette découverte, c’est qu’à chaque fois que quelqu’un se frotte à Internet, quelle que soit la façon dont ça se passe, il laisse des traces de ses comportements, des signaux comportementaux qu’on a commencé à essayer de comprendre chez Google. Ces signaux sont plein de données prédictives extrêmement riches et, en jouant avec ces données, les gens de Google se sont rendu compte qu’ils pouvaient commencer à prédire le comportement des gens à partir des traces, des signaux qu’ils laissaient derrière eux, mais nous, nous n’avons aucune idée que nous laissons ces traces, c’est quelque chose qui se passe sans qu’on en ait conscience. Donc tout cela est là, dans l’obscurité.
Alors qu’il commençait à apprendre à prédire nos comportements en récoltant tous ces signaux, Larry Page, l’un des fondateurs de Google, a eu une grande idée qui accompagne cette découverte. Son idée, c’est que les prédictions du comportement humain pourraient être vendues comme des marchandises, exactement comme nous vendons du pétrole, exactement de la même manière que nous vendons de la poitrine de porc, de la viande. Nous pouvons également vendre des prédictions du comportement humain futur et on pourrait les vendre en très grand volume, il y aurait des marchés pour ça, parce que partout dans le monde, et c’est vrai depuis le début de l’histoire, tout le monde veut connaître l’avenir.
La première application, c’est ce qu’on appelle le taux de clics. On a utilisé l’agrégation de ces signaux comportementaux, on les a associés et, avec ce système d’analyse du taux de clics, on a réussi à vendre une prédiction publicitaire pour savoir qui allait cliquer sur ces publicités. Ça a révolutionné le monde de la publicité et ça a initié une trajectoire qui a permis non seulement à Google de faire de l’argent, mais aussi qui nous a conduits, aujourd’hui, au capitalisme de surveillance.

François Saltiel : Et après, on a effectivement bien vu que ce modèle initié par Google a été reproduit, réutilisé par d’autres entreprises, ce modèle que vous expliquez assez bien de l’exploitation de ce surplus comportemental également, c’est-à-dire toutes ces données que nous laissons sans même le savoir.
Vous êtes, bien sûr, une fine analyste du monde de la technologie. Vous avez dû voir les nouvelles annonces de Google qui envisage de changer la manière de fonctionner de son moteur de recherche en intégrant les outils d’intelligence artificielle, ce qui pourrait, peut-être, modifier le modèle économique de Google. Quel est votre point de vue ?

Shoshana Zuboff traduite par Marguerite Capelle : Vous touchez maintenant à l’un des grands bouleversements de notre époque. Nous sommes tous en train d’assister à ce spectacle, un spectacle de quelque chose de nouveau, censé être nouveau, que nous appelons l’intelligence artificielle. D’un seul coup, cette intelligence artificielle, cette IA serait de notre côté, elle serait faite pour nous, elle serait prête à tout changer, mais voici ce qui se passe en réalité.
Même dès l’année 2000, les fondateurs de Google parlaient de leur moteur de recherche comme « notre intelligence artificielle ».
En 2001, Google a engagé Peter Norvig, un homme qui, à l’époque, travaillait pour la NASA. Il était considéré comme le premier expert mondial de l’intelligence artificielle. On a demandé à Peter Norvig de faire de Google quelque chose qui soit 100 % intelligence artificielle, c’était son travail, donc l’IA, ça n’a rien de nouveau.
Les entreprises cherchent en permanence des nouvelles formes de légitimité, des nouvelles sources de légitimité. Pourquoi ont-elles besoin de ça ? Quand je vous ai parlé de la création du capitalisme de surveillance, je vous ai dit qu’il fallait que ce soit secret, c’est-à-dire qu’il faut absolument que nous ne soyons pas conscients que nous laissons derrière nous ces traces comportementales qui deviennent leur matériau brut, que nous n’ayons aucune idée que nous donnons autant d’informations sur nous. Ces entreprises ont compris depuis le début que si elles devaient utiliser ces signaux pour faire de l’argent, il fallait que ça se passe en secret. Si les gens savaient ce qu’ils livrent d’eux-mêmes et ce que les entreprises utilisent, on se rebellerait et le législateur finirait par s’y intéresser, donc on redéfinirait ces collectes, cette captation, comme du vol.
Google s’est, en quelque sorte, condamnée à vie au secret. Ce qui signifie aussi qu’il faut mentir, qu’il faut soudoyer, qu’il faut développer des formes de rhétorique et de propagande, qu’il faut détourner l’attention de façon à ce qu’on ne comprenne jamais ce qui se passe vraiment.

Pour répondre à votre question, François, en 2004, Google a commencé à en parler en public. Ça a été la première fois qu’on a commencé à savoir un petit peu ce qui se passait dans cette entreprise.
Quand ils ont commencé à rentrer dans cette nouvelle logique de monétisation, la marchandisation des comportements humains comme source de rente et de profit, nous avons appris que le revenu de Google avait augmenté entre 2001 et 2004, qu’il avait été augmenté de 3500 %, donc une augmentation massive. Le résultat c’est que d’autres entreprises ont commencé à se mobiliser avec grande urgence, tout le monde voulait savoir ce que faisait Google, parce que, pour attirer des investisseurs, il fallait pouvoir promettre le même type de revenus et de profit. Facebook a été le premier et, ensuite, le reste du secteur des technologies a suivi.

Quand on observe, aujourd’hui, ce qui se passe avec l’IA, on voit que, d’un seul coup, les compagnies ont pris un virage, les entreprises ont pris un virage. Ce virage, c’était de ramener directement l’intelligence artificielle dans l’espace client, dans l’espace consommateur. Si on remonte en 2023, au moment où vraiment tout cela était en train d’exploser, ce qu’on voit comme des promesses extrêmement intéressantes, ce sont des promesses qu’ils font aux gens. Par exemple, ça va vous aider à faire vos devoirs, ça va vous aider à gérer votre maison, ça va vous aider même à tricher ! Ça va vous aider à être meilleur dans votre travail, ça va vous aider à travailler plus vite, à être plus compétitif. Ce qu’ils proposent, ce qu’ils promettent au consommateur final, c’est donc un outil qui leur permettra de réussir d’une nouvelle manière. Ce qui se passe en réalité, le sous-texte de tout cela, c’est que, d’une part, ils analysent toutes les données qui sortent de nos sociétés, que nos sociétés produisent, parce que, partout, nous voyons que les gens se lassent de cette surveillance commerciale privée, on en a marre d’être suivis et d’être surveillés en permanence, d’avoir des trackers sur l’endroit où nous sommes, qu’on utilise notre vie privée et qu’on la détruise. Il y a donc quand même eu énormément de résistance dans la société et c’est vrai aux États-Unis, pourtant on a très peu de lois pour se protéger. C’est vrai aussi en Europe et, d’ailleurs, dans d’autres régions du monde : jusqu’au Chili, jusqu’en Corée on voit des mouvements de résistance.
Alors que la société est en train vraiment de se révolter contre le capitalisme de surveillance, nous voyons aussi que les législateurs commencent à vouloir s’y opposer. Il y a, donc, effectivement ce Digital Services Act, ce Digital Markets Act, le DSA et le DMA. En Europe, le débat a commencé vraiment de façon très intense, en 2023, au Parlement européen sur ces nouvelles lois concernant l’intelligence artificielle. Tout cela fait peser des contraintes sur le capitalisme de surveillance, risque de le modifier en profondeur et même de remettre en question son existence. Il a donc fallu que les entreprises trouvent de nouveaux modèles pour se légitimer et c’est là où on en appelle au consommateur final et ça devient une nouvelle frontière, en quelque sorte, dans cette entreprise qui vise à développer encore ses projets, ses entreprises, et à acquérir une légitimité sociale pour dix ans de plus, juste pour les législateurs.

=15’ 40 (relu Véro)

François Saltiel : Pour bien comprendre. Selon vous, le déploiement rhétorique sur la question de l’intelligence artificielle, qui est aujourd’hui déployé par les GAFAM, serait une réponse à essayer de faire survivre ce capitalisme de surveillance qui a été, comme vous l’avez rappelé, largement attaqué ces derniers temps. C’était donc pour eux une manière de réinventer un nouveau discours, une nouvelle conquête, alors que si on vous lit et que si on vous comprend en sous-texte, les mêmes modalités de captation des données sont encore à l’œuvre, peut-être qu’elles sont même encore amplifiées ?

Shoshana Zuboff traduite par Marguerite Capelle : Je suis sûre que vous avez lu des articles sur le nouveau problème existentiel de cette nouvelle vague d’IA qui est son besoin de données. L’IA a besoin d’informations générées par les humains, l’IA est une machine à dévorer la donnée et il faut la nourrir, tout le temps. L’un des principaux problèmes, c’est le risque de manquer de données humaines pour alimenter cette machine. C’est pour cela qu’on prend tous les livres en se souciant peu du droit d’auteur, c’est pour cela qu’on prend tous les visages en dépit des lois sur la vie privée, c’est pour cela qu’on prend absolument tout ce qu’on peut dire, toutes les photos, tous les écrits, tous les films, toutes les vidéos, tout cela, tout ce qui est généré par les humains doit être collecté en permanence pour nourrir ce monstre, cet estomac gigantesque qu’on appelle l’intelligence artificielle.
Ce qui se passe aujourd’hui est très intéressant : on voit une forme de renaissance du concept de vol, de pillage des données. Les gens disent « attendez une minute, ça c’est mon livre, j’ai des droits de charge et vous êtes en train de le voler pour nourrir l’intelligence artificielle » ou « c’est mon film ». Scarlett Johansson, par exemple, dit aujourd’hui : « Ça c’est ma voix, vous êtes en train de la voler ! » ; Sam Altman, OpenAI volent la voix de Scarlett Johansson pour nourrir son intelligence artificielle et elle dit « c’est intolérable, ça ne devrait pas être légal. » On voit donc une renaissance a bien plus grande échelle et beaucoup plus globalement de cette prise de conscience. Il y a une injustice fondamentale au cœur de cette entreprise, cette idée qu’ils prennent quelque chose de nos vies, qu’ils se servent dans nos vies sans qu’on le sache, donc sans notre consentement, et ils redéfinissent ce qu’ils ont pris comme un bien appartenant à leur entreprise et, ensuite, ils l’utilisent pour produire des ventes, produire de la richesse, produire des profits dans leur intérêt pas dans le nôtre.

François Saltiel : Vous dites, justement, qu’il y a une vague de résistance qui est forte. Lorsque vous avez publié votre ouvrage, en 2019, vous avez parlé du capitalisme de surveillance avec une forme d’invisibilité des pratiques. Aujourd’hui, quand même, on peut constater une plus grande maturité du public, des utilisateurs, vous avez d’ailleurs participé, avec vos travaux, justement à la visibilité de ces procédés. Vous venez d’évoquer la voix de Scarlett Johansson qui a effectivement trouvé qu’une des voix d’OpenAI lui ressemblait un petit peu trop. On voit donc qu’on est quand même dans un mouvement de résistance ; ça doit peut-être vous réjouir. Peut-être qu’aujourd’hui vous retrouvez un peu d’espoir par, justement, la puissance de cette révolte-là !

Shoshana Zuboff traduite par Marguerite Capelle : Yes ! Vous voyez que c’est une forme de capitalisme qui s’appuie sur le vol de nos comportements, le pillage de nos vies pour s’enrichir et avoir du pouvoir. Quand le matériau brut c’est la vie humaine, c’est l’expérience humaine, il y a des conséquences, toutes sortes de conséquences. C’est très différent quand on coupe un arbre ou qu’on contrôle une rivière. Si la matière première c’est l’humain, ça veut dire qu’il va y avoir une concentration de pouvoir économique et politique, mais aussi une concentration de pouvoir social. Ça veut dire qu’ils commencent à avoir davantage de pouvoir sur la société et sur nos vies.
Les premières étapes, les premières phases du capitalisme de surveillance consistent à rassembler toutes ces données pour prédire nos comportements, ces données qui parlent de nous, mais dans les phases ultérieures, et c’est ce qu’on voit depuis deux ans du capitalisme de surveillance, on utilise ce savoir pour revenir vers nous avec ce qu’on appelle du micro-ciblage, avec des choses extrêmement précises qui permettent de contrôler et de conditionner nos comportements, des signes subliminaux, une façon, en fait, de vraiment de micro-cibler nos goûts pour nous inciter à aller dans telle ou telle direction et nous pousser à nous comporter d’une manière qui est à l’avantage de leurs intérêts commerciaux.
On a appris que les acteurs politiques, y compris des dictateurs et des agents étrangers, tout le monde peut, par exemple, faire de la publicité sur Facebook, tout le monde peut avoir accès à ces données et utiliser ces techniques de ciblage pour contrôler et influencer le comportement humain.
En 2016, dans mon pays, les États-Unis, nous avons vu que la campagne de Trump utilisait des fonds pour financer des campagnes numériques sur Facebook. Ils avaient une équipe dédiée au sein de Facebook, ils avaient aussi une équipe chez Cambridge Analytica et puis toute l’équipe de Trump, évidemment, et ils ont monté ensemble un programme, extrêmement sophistiqué, de ciblage. Ils ciblaient en particulier les citoyens noirs dans les États clés, les <em<swing states, et le message était extrêmement personnel, personnalisé pour chaque individu en fonction des données, pour persuader chacune de ces personnes de ne pas aller voter. L’idée c’était de supprimer le vote noir, parce que, si ces personnes-là n’allaient pas voter, ça faisait moins de votes pour Hillary Clinton à l’avantage de Trump, et ils ont réussi. Au bout du compte, ils ont réussi à réduire de 7 % le vote noir. C’est le taux le plus bas jamais enregistré dans les élections

François Saltiel : Shoshana Zuboff, ce chiffre, juste ce chiffre que vous venez d’annoncer vient d’où ? Quelle est la source de ce chiffre ?

Shoshana Zuboff traduite par Marguerite Capelle : En fait, je l’ai cité dans un article que j’ai publié, un article universitaire. C’est un chiffre qui est fondé sur la recherche et aussi sur d’autres instituts de recherche. Je pourrais, évidemment, vous donner une copie de cet article. C’est un chiffre qui a été corroboré par plusieurs chercheurs.

François Saltiel : C’est intéressant, justement, que vous reveniez sur la question de Cambridge Analytica et la manière dont ça a influencé, effectivement, les élections américaines, notamment l’élection de Donald Trump. À une période, Donald Trump était opposé à ce réseau social dont on parle beaucoup ces derniers temps, qui est TikTok, pour la raison, encore une fois d’extraction de données, c’est-à-dire que les données de ses utilisateurs américains pourraient être compromises et utilisées à des fins politiques et idéologiques par le régime chinois. Aujourd’hui, Donald Trump est plutôt favorable à une non-interdiction de TikTok. J’aimerais avoir votre regard, par rapport à ce sujet d’actualité, qui est, aujourd’hui, très présent aux États-Unis, avec cette pression parlementaire pour interdire ce réseau social. Qu’est-ce que vous vous dites ? Vous vous dites que, finalement, il voit chez les autres ce qu’il ne veut pas voir du côté des multinationales américaines ? Comment regardez-vous cette situation, aujourd’hui, avec TikTok ?

Shoshana Zuboff traduite par Marguerite Capelle : Je suis ravie que vous me posiez cette question, parce que c’est l’une des grandes énigmes de notre temps. Je vous ai dit, il y a peu, qu’une fois que Google avait pris ce chemin, y compris qu’il fallait maintenir le secret pour éviter que tout le monde se révolte, ça les a condamnés à un avenir de mensonge.
Cette histoire avec TikTok est un exemple magnifique de détournement de l’intention. Voilà l’idée : on va interdire TikTok parce que le gouvernement chinois collecte, dans le cas présent, les données personnelles des utilisateurs américains. Les entreprises américaines collectent autant, voire plus de données, en secret, à propos de leurs propres citoyens, nos entreprises qui sont nées dans la Silicon valley et qui sont maintenant complètement globalisées, qui ont une échelle mondiale, ces sociétés-là collectent aussi des données sur les Français, les Anglais, les Allemands, tout le monde et dans tous les endroits où elles sont actives.
Je vais vous donner une autre statistique intéressante : Google transmet des données chaque jour à l’industrie de la publicité. Ce sont des quantités massives de données qui nous concernent. Il y en a 400 catégories, c’est extrêmement détaillé, ce sont des données extrêmement intimes, extrêmement personnelles. Google diffuse ces données sur chaque citoyen américain ; 747 fois par jour, les données personnelles de chaque individu, rangées dans 400 catégories, sont diffusées, sont partagées en Europe où il y a la meilleure protection de la vie privée, parce qu’aux États-Unis nous n’avons pas de lois, en tout cas très peu pour protéger cela. En Europe, les données, ces mêmes 400 catégories, sont partagés 356 fois par jour. C’est un peu moins, certes ! La réglementation fait-elle une différence ? Oui. Est-ce que ça a fait suffisamment de différence ? La réponse est non, parce que ça reste une quantité incroyable, une activité de pillage incroyable et de profit à partir de ces données volées et ça existe en Europe aussi bien qu’aux États-Unis.
Alors comment attirer l’attention des gens, détourner cette attention justement de ces données fondamentales et leur faire détester la Chine. C’est un discours global de nouvelle guerre froide, une soi-disant nouvelle guerre froide entre la Chine et l’Occident ou, plus précisément, les États-Unis.
J’ajoute une dernière information qui me paraît pertinente : la Fondation Carnegie pour la paix internationale publie tous les deux ans une étude mondiale de la surveillance exercée par les gouvernements un peu partout dans le monde. Leurs données montrent que les deux gouvernements du monde qui exercent la surveillance la plus intensive, le numéro un et le numéro deux, le numéro un, c’est la Chine un bulletin et le numéro deux, ce sont les États-Unis.
En Chine, oui, évidemment, c’est le parti communiste chinois qui est derrière, mais il s’appuie aussi sur les entreprises capitalistes.
En Amérique, c’est de la surveillance privée et commerciale, mais toutes ces données sont utilisées par les services de renseignement, des institutions démocratiques américaines, aussi bien, d’ailleurs, que par des institutions démocratiques européennes. Donc, il y a vraiment de la récolte de données sans autorisation, grâce à ces entreprises de la technologie qui fournissent des données sur nous.

François Saltiel : Là, on pense évidemment à l’affaire Snowden qui a maintenant un peu plus de dix ans. C’était très intéressant de voir votre analyse sur TikTok qui, encore une fois, est, pour vous, une forme de contre-feu, de diversion de l’attention pour que, justement, le capitalisme de surveillance à l’occidentale, à l’américaine, continue à prospérer.
Je vous propose une petite pause ou envolée musicale avec une artiste française que vous connaissez peut-être, elle s’appelle Juliette Armanet et va nous chanter Ce que l’on cache. Vous êtes dans Le Meilleur des mondes.

Voix off : France Culture – Le Meilleur des mondes – François Saltiel.

Pause musicale : Ce que l’on cache par Juliette Armanet.

32’ 10 (relu Véro)

François Saltiel : Ce que l’on cache par Juliette Armanet dans Le Meilleur des mondes et, elle aussi, elle se cache un peu, Shoshana Zuboff, elle n’est pas forcément très friande de photos, de captation de son image, et on la comprend bien quand on lit justement ses travaux, cet ouvrage de référence que je vous recommande, évidemment, si vous ne l’avez pas encore lu, L’Âge du capitalisme de surveillance, sorti en France chez Zulma Éditions.
Nous sommes avec Shoshana, aujourd’hui, pour essayer de relire, justement, ces différents concepts en les mettant en miroir avec les derniers développements technologiques, on pense bien sûr à l’intelligence artificielle, puis on va s’intéresser aussi à la régulation.
Mais peut-être, Shoshana Zuboff, pour reprendre l’un de vos concepts également, celui du pouvoir instrumentarien, pouvez-vous nous définir ce pouvoir-là ?

Shoshana Zuboff traduite par Marguerite Capelle : Oui. Encore une fois, je suis ravie que vous me demandiez cette définition.
On parlait de la campagne de Trump il y a quelques instants et du ciblage sur Facebook grâce aux données, aux milliards de données qui sont utilisées pour empêcher les citoyens noirs de voter dans le cadre de l’élection américaine de 2016. Pensez-y un peu ! Personne n’est venu frapper au milieu de la nuit pour les menacer de les traîner dans un camp ou un goulag. Personne ne leur a mis un pistolet sur la tempe en disant « si vous ne faites pas ce qu’on vous dit, vous risquez la mort ! ». Ces gens ont abandonné, renoncé à leur droit démocratique le plus sacré qui est le droit de voter, sans même le savoir ! Ils l’ont fait parce qu’ils ont été manipulés sur Internet par des messages qui s’adressaient à leurs peurs, à leurs centres d’intérêt, à leurs réelles aspirations, à leurs certitudes, leurs doutes. C’est vraiment une guerre de l’information dont il s’agit. Ce n’est pas la violence politique qu’on a connue pendant d’autres siècles, c’est une nouvelle forme de violence politique : elle est immatérielle, elle ne s’en prend pas à nos corps, elle contrôle nos comportements et le médium de cette guerre informationnelle, c’est justement l’architecture du système mondial de l’information, c’est ce que j’appelle Big Other, plutôt que Big Brother, cette architecture mondiale de l’information qui nous connaît et qui utilise ce savoir sur nous pour s’insinuer dans nos vies et influencer nos comportements. C’est une forme de pouvoir que nous n’avons jamais connue. Parce qu’il est invisible et lointain, parce que la manière dont il s’insinue dans nos vies est difficile à voir, donc il est difficile de résister contre cela, et parce que ce pouvoir est conçu pour échapper à notre conscience, pour nous contourner, nous court-circuiter, faire en sorte qu’on ne sache jamais qu’il est là, parce que c’est conçu pour être invisible, indéchiffrable et incompréhensible, c’est très difficile pour nous de combattre, de résister à ce pouvoir. C’est cela que j’appelle le pouvoir instrumentarien, parce que ça passe par le truchement de l’instrumentation numérique, mais ce qui est important ici et j’ai vraiment envie d’insister là-dessus pour notre audience, nos auditeurs, c’est que la technologie, l’infrastructure dont je parle, est un moyen, mais ce n’est pas la source. Ce sont les outils d’une nouvelle forme de pouvoir, mais ce sont les entreprises, le capital privé, les gouvernements qui nouent des partenariats avec ces multinationales parce qu’ils ont besoin des données produites. En fait, ce dont on parle, ce ne sont pas des technologies, c’est bien du pouvoir. En fait, on ne trouvera l’aboutissement de ce débat que dans le monde politique et, bien sûr, c’est comme ça qu’on apprend à résister et à contrôler les pouvoirs anti-démocratiques.
Le pouvoir instrumentarien est une référence à cette architecture qui est le moyen, le médium, d’une nouvelle forme de pouvoir qui en sait davantage sur nous que nous n’en savons sur nous-mêmes. Quand ce savoir devient un pouvoir, il peut être utilisé non seulement pour influencer les comportements individuels, mais aussi, à grande échelle, changer la nature même de la société. C’est ainsi qu’on voit la polarisation de nos sociétés et beaucoup d’autres conséquences que nous sommes en train d’affronter aujourd’hui.

François Saltiel : Peut-être une petite nuance par rapport à ce super pouvoir. Évidemment, vous le décrivez, vous le documentez très bien et peut-être que vous sous-estimez, c’est une question, le pouvoir aussi du consommateur et de l’utilisateur. Je vais prendre un exemple concret puisque vous parlez justement beaucoup de données personnelles : lorsqu’on interroge les jeunes générations notamment sur ce qu’est leur vie privée en laissant, justement, de la donnée sur leur vie privée. Lorsqu’on interroge cette jeune génération, déjà elle ne se soucie peut-être pas autant que la génération précédente par rapport à ses données personnelles et à la conservation de sa vie privée parce qu’elle peut imaginer que sa vie privée se joue aussi ailleurs, dans le sens où, quelque part, les frontières de la vie privée se repoussent. Peut-être que ces générations-là n’ont pas forcément l’impression qu’on leur vole leurs données, parce qu’elles savent conserver, elles savent préserver ces données qui leur sont chères, qui leur sont précieuses. Sachant, d’autant plus, qu’on est dans une période où les gens sont un peu plus conscients de la manière dont on peut utiliser leurs données personnelles.

Shoshana Zuboff traduite par Marguerite Capelle : Ce serait formidable si c’était vrai ! Le problème, François, c’est que nous pensons que la vie privée est quelque chose de privé, au sens où on pourrait décider, en privé, ce que nous contrôlons, ce que nous voulons faire connaître et ce qui nous appartient.
En réalité, pour la grande majorité de ce qu’on nous prend, ça se passe d’une façon qui rend impossible toute prise de conscience. Nous n’avons pas conscience des traces que nous laissons derrière, nous n’avons pas conscience de la façon dont simplement, en marchant dans la rue, une caméra, quelque part, saisit notre image et alimente l’État ou Google avec ces données, jusqu’à abreuver toutes les technologies publicitaires. Quelque chose d’aussi simple que la forme de notre épaule devient un signal extrêmement puissant pour l’analyse de nos émotions, avec une puissance prédictive extrême. Ces signaux sont collectés, sont extraits de tous les aspects de nos vies, de tout ce que nous faisons, tout ce qui a un lien avec Internet, partout. Ces informations peuvent être captées par toutes sortes d’outils connectés. Donc, nous croyons avoir une forme de contrôle, mais, en réalité il est extrêmement limité.
La seule autre remarque que j’aimerais ajouter à ce sujet, c’est que je ne suis pas d’accord avec l’idée que les jeunes soient moins inquiets ou moins préoccupés par la question de la vie privée. Le problème, c’est qu’il n’y a plus de vie privée ! Même quand on remonte à l’année 2000 qui pour moi, à l’âge que j’ai, me paraît être il y a cinq minutes. Ce que signifiait la vie privée en 2000 n’existe plus. La vie privée, telle qu’on la définissait à l’époque, a disparu. En 2000, moins de 25 % des informations était stocké numériquement. Maintenant, toutes les informations sont enregistrées, sont stockées quelque part. C’est un monde dans lequel nous avons permis la destruction de la vie privée et ça a des conséquences extrêmement fortes sur les choix que nous pouvons faire sur notre façon de mener notre vie, parce que vivre dans une serre, dans une bulle, sous cloche, cela signifie qu’il y a certaines choses de l’ordre du refuge, du sanctuaire, de la vie intime, qui deviennent de plus en plus difficiles à protéger.

François Saltiel : Elle existe peut-être hors des écrans cette vie privée, tout de même ?

Shoshana Zuboff traduite par Marguerite Capelle : Oui en dehors des écrans, en dehors des appareils. Oui, mais dans nos villes il y a des caméras, il y a des micros. Le grand débat de 2023, dans l’Union européenne, c’était la reconnaissance faciale : est-ce qu’on l’interdisait totalement ? En fin de compte, on a créé des exceptions, parce que les soi-disant start-ups de l’intelligence artificielle ont poussé le législateur à le faire en disant que ce type de données serait essentiel à leur réussite, parce que c’est plus de matière première à voler.
La véritable tragédie c’est celle-ci : nous vivons à l’ère du numérique et c’est l’époque où chacun d’entre nous, chacune de nos sociétés, mérite les données. Nous voulons tous l’information numérique, tout ce savoir, ces données, ces informations. Nous méritons aussi d’utiliser ces savoirs pour guérir, améliorer nos sociétés, pour guérir les maladies, pour éduquer tous les enfants, pour résoudre la crise climatique. En tant que société nous avons besoin de ce savoir, sauf qu’aujourd’hui tout le savoir, toutes les connaissances sont concentrées entre les mains d’une poignée de multinationales géantes qui décident de ce qui doit être considéré comme connaissance, qui va pouvoir les utiliser et pour quoi faire. Ces savoirs ne sont pas utilisés dans l’intérêt de l’humanité. C’est cela que nous devons changer, nous devons modifier toute la structure, tout le système pour que l’intelligence artificielle, les données, le savoir informationnel soit optimisé pour l’humanité et non au service de l’intérêt commercial du capitalisme de surveillance.

44’ 25 (relu Véro)

François Saltiel : Et pour cela, justement, la solution c’est peut-être le régulateur, les politiques qui essayent d’encadrer, qui essayent d’atténuer cette puissance colossale des multinationales, du moins c’est peut-être à cet endroit qu’on peut essayer de chercher un petit espoir, Shoshana, car, je le vois à votre visage souriant et enthousiaste, que vous êtes, vous aussi, en quête d’espoir et en volonté que les choses changent. Pour ça, peut-être qu’il y a Juliette Devaux.
Bonsoir Juliette.

Juliette Devaux : Bonsoir.

François Saltiel : Ce n’est pas Juliette Devaux qui va sauver le monde, mais c’est Juliette Devaux qui va nous rendre compte, justement, des différents textes en vigueur qui tentent de contrer ce pouvoir des multinationales, notamment un, Juliette, celui du DMA.

Juliette Devaux : Oui. On parle beaucoup, ces derniers mois, du Digital Services Act qui impose de nouvelles obligations de transparence aux plateformes, mais on parle moins de son cousin, le Digital Markets Act, jugé plus complexe car relevant du champ nébuleux du droit de la concurrence. Or, une lecture plus attentive de ce texte moins médiatisé, nous apprend qu’en restreignant l’empire économique de ces Big Tech, le DMA pourrait aussi nous aider à reprendre la main sur nos données.
Pour rappel, le DMA est entré en vigueur en mars dernier et poursuit un objectif relativement simple : imposer aux grands groupes tech comme Alphabet, Amazon ou Meta, qualifiés de gatekeepers de nouvelles obligations pour assurer un accès plus équitable aux marchés. Et, pour atteindre cet objectif, le législateur européen a décidé stratégiquement de s’attaquer au cœur de l’activité économique des Big Tech, leurs revenus issus de la publicité ciblée.

François Saltiel : Un article en particulier du DMA a retenu votre attention.

Juliette Devaux : Oui, François, c’est l’article 5 du DMA qui porte un coup décisif au modèle économique structurant les Big Tech. L’article prévoit que ces entreprises ne pourront plus croiser les données personnelles des utilisateurs naviguant sur les différents services qu’elles proposent. Concrètement, cela implique, par exemple, que Meta ne puisse plus croiser les données de ses utilisateurs recueillies sur ses réseaux Instagram et Facebook sans obtenir un consentement explicite. Or, Meta comme la plupart des entreprises du numérique capitalise, depuis des années, sur les liens entre les différents services pour obtenir des données variées basées sur nos navigations et revendre, auprès des annonceurs, des profils utilisateurs précis.
Autre mesure, prévue par le DMA, qui pourrait atteindre leur modèle basé sur l’extraction et le croisement de nos données personnelles, le droit à la portabilité des données. N’importe quel individu doit pouvoir, désormais, demander à une plateforme de transférer l’intégralité de ses données sur un service concurrent sans perdre son historique.
Autant de mesures qui, pensées dans le cadre du RGPD, devraient permettre aux utilisateurs européens de reprendre la main sur leurs données, après des années de vampirisme des entreprises de la tech.

François Saltiel : Et aux États-Unis, Juliette, le procès historique opposant le gouvernement américain à Google, que Shoshana Zuboff connait bien, pourrait aussi remettre en cause son modèle de publicité en ligne.

Juliette Devaux : Eh bien oui, si ce procès a finalement peu de chance d’aboutir à un démantèlement, certains observateurs considèrent qu’il pourrait être l’occasion de s’intéresser aux activités publicitaires de Google, à l’origine, rappelons-le, des trois quarts des revenus de la firme, comme le souligne l’économiste Joëlle Toledano : Google, définit depuis des années le prix des enchères publicitaires, auto-évalue l’efficacité de ses campagnes et est lui-même annonceur, une situation qui le place dans une situation plus que de monopole, de conflit d’intérêt. Si le gouvernement américain demandait à la firme de séparer ses différentes activités ou d’y renoncer, il y a fort à parier que son empire économique en sortirait durablement ébranlé.
Entre impact du DMA à l’échelle européenne et politique antitrust aux États-Unis et si, plus que l’intelligence artificielle, c’était finalement le vieux principe de régulation du marché par l’État qui allait nous permettre de penser un nouveau modèle économique pour le Web de demain ?

47’49 (relu Véro)

François Saltiel : Merci, Juliette, pour ces rappels salutaires, du continent européen jusqu’aux États-Unis où il y a tout de même, Shoshana Zuboff, une pression que l’on n’avait pas vue depuis très longtemps, justement, une pression des régulateurs. Vous l’avez entendu, vous l’avez vu, vous l’avez suivi, vous l’avez même mentionné, ces deux règlements européens le DSA, le DMA, sont entrés en vigueur il y a seulement quelques mois. On voit qu’aux États-Unis il y a une pression très forte face à Google, j’imagine que cela doit vous réjouir. Qu’attendez-vous, justement, de cette phase de régulation ? Quels sont vos espoirs ? Je me doute que vous êtes lucide sur ce que le politique peut faire et ne peut pas faire, mais quels sont vos espoirs ?

Shoshana Zuboff traduite par Marguerite Capelle : Je pense que les réglementations, la régulation décrite par Juliette est extrêmement importante. C’est vraiment une étape clé, une avancée majeure, et c’est certainement la nouvelle frontière, aujourd’hui, pour essayer de contrôler l’activité de ces multinationales et commencer, aussi, à les mettre en conformité avec les principes et les attentes démocratiques, les valeurs et les normes de nos démocraties, mais il y a un problème.
Si on réfléchit à ce que Juliette vient d’expliquer, imaginez le nombre de fois où elle a utilisé le mot « données » – on peut faire ça avec les données, on peut utiliser les données de telle façon, etc. À chaque fois qu’on parle de régulation, on parle de négociation avec ce phénomène que j’ai baptisé capitalisme de surveillance.
Si vous mettez une contrainte d’un côté, une contrainte de l’autre, un peu comme des rambardes de chaque côté, en fait, ce sont des lois qui imposent des limites, des restrictions sur la façon dont on peut utiliser les données et quelles données, qui imposent une forme de contrôle de cette utilisation des données, c’est vrai, mais ces lois ne remettent pas en cause l’existence même de ces données.
Donc, à chaque fois qu’on règlemente, on est dans une négociation et cette négociation légitime les parties prenantes, y compris l’adversaire avec qui on négocie. On ne remet pas en cause le bien-fondé de l’existence de ces données, on dit simplement « limitez là, développez plus dans ce sens, faites plutôt comme ça et pas comme ça ». La réglementation est une étape nécessaire, il fallait la faire et c’est ce qu’il fallait faire en premier, mais ce n’est qu’une étape sur un chemin qui est encore très long. Il faut qu’on remonte aux sources, qu’on revienne au début. Au début était le pillage, c’était du vol : on prend nos vies, on se sert de l’expérience humaine, du vécu humain, au profit du revenu et de l’intérêt privé, de ce pouvoir instrumentarien, de cette façon de manipuler, de contrôler la société. Et ça, ce n’est pas acceptable !

Au départ, aux États-Unis, nous avions des dirigeants démocratiques, en Europe aussi. Les dirigeants démocratiques, dès le début, dès 97/98 jusqu’en 2001, vraiment dans les premières phases de l’émergence de ce phénomène, auraient dû intervenir et comprendre cette modification, ce basculement dans l’univers numérique. Nous aurions dû, à ce moment-là, décider de ce que signifiait qu’avoir un 21e siècle qui soit à la fois numérique et démocratique. Nous aurions dû définir les droits dont nous aurions besoin, les lois dont nos sociétés auraient besoin, les institutions dont nous aurions besoin pour contrôler tout cela.
Au 19e siècle, au 20e siècle, on a inventé le droit du travail, le droit des travailleurs, le droit de grève. On a déjà fait ça, on a inventé des institutions pour accompagner ce nouveau monde du capitalisme industriel, pour le rendre sûr et pour que nos démocraties puissent exister et même s’épanouir dans ce type d’environnement. Nous ne l’avons pas encore fait et il faut faire ce travail pour le 21e siècle.
Ce que je vois, c’est qu’on doit tous s’appuyer sur ces avancées remarquables du Parlement européen, de la Commission européenne, ça doit être notre refuge pour avancer, mais il faut continuer à avancer et passer de la réglementation à l’abolition. Il y a des activités qui sont fondées sur le secret et sur l’extractivisme massif et clandestin des informations générées par les humains.

François Saltiel : Juste, Shoshana Zuboff, puisque qu’on arrive à la fin de cette émission et ça va être ma dernière question. Je ne sais pas si du côté des États-Unis vous êtes au courant, mais ici, dans cette émission, dans Le Meilleur des mondes, j’ai un pouvoir, un super-pouvoir, et là je vais vous nommer, Shoshana Zuboff, présidente des États-Unis, vous l’êtes. Donc, qu’est-ce que vous faites par rapport à tout ce que vous avez analysé, tout ce que vous venez de nous dire ? Quelles mesures mettez-vous en place pour arriver à rééquilibrer les choses et pour arriver à essayer de rendre, justement, le monde meilleur ?

Shoshana Zuboff traduite par Marguerite Capelle : C’est une question formidable pour conclure notre discussion. Comme je l’ai dit, passons de la réglementation à l’abolition en reconnaissant qu’on a pris toutes les données humaines pour les donner aux multinationales privées, que tous ces savoirs créés dans notre nouvelle civilisation de l’information appartiennent à des intérêts privés, sont gérés par des entreprises privées au profit d’un petit groupe de multinationales qui a un pouvoir immense sur nos sociétés et notre avenir. Ceux qui possèdent le futur de l’information possèdent aussi le futur de la société dans notre civilisation de l’information, c’est notre monde. Donc, ce que je ferais, c’est travailler avec les citoyens et avec les dirigeants politiques pour créer les institutions qui permettent de financer nos universités, de financer nos villes, nos municipalités, pour créer des intermédiaires institutionnels qui soient des institutions créatrices de connaissance, de savoir et pour que chaque citoyen ait l’occasion de partager des données de façon volontaire selon son bon vouloir.
Voyons l’exemple de ma propre femme : plusieurs de mes proches ont eu un certain type de cancer. Si, par exemple, je veux partager le matériau génétique de ma famille avec les chercheurs qui essaient de trouver un remède à ce cancer, je peux le faire de façon volontaire. Ce qui se passe au contraire aujourd’hui, c’est que Google, Apple, Microsoft, Amazon et d’autres entreprises récupèrent déjà mes données de santé sans que je le sache et sans ma permission, c’est ça qui est problématique. On doit donc commencer par définir les droits dont ont besoin nos citoyens : le droit au savoir, le droit à la connaissance, le droit à la vie privée, le droit de décider ce qu’on fait de ses données. Ensuite, on développera le système institutionnel qui permettra de partager ces données de façon à construire de nouveaux processus de production de connaissances et que ces connaissances soient utilisées pour améliorer la qualité de vie des gens, de nos enfants, des malades, pour la planète, pour tous les besoins urgents auxquels nous devons répondre pour rendre la vie meilleure et créer les bases d’un avenir numérique et démocratique. On appelle ça le bien public, François : le numérique au service du bien public, toujours appliqué dans un contexte de droits humains, dans un cadre de droits humains.
Quand nous donnons le pouvoir, quand nous rendons le pouvoir aux gens, quand nous rendons le pouvoir à la société pour libérer les données, les informations et créer ces connaissances ensemble, c’est cela le véritable chemin de l’innovation. On a énormément entendu parler d’innovation ces dernières années, on est censé donner aux entreprises privées une grande liberté pour permettre l’innovation, mais ce n’est pas de là que vient la véritable innovation. Ces entreprises n’innovent plus depuis des années ! Les véritables innovateurs attendent sur le côté du terrain, des centaines, des milliers, des millions ont des idées innovantes et qui veulent le faire d’une façon qui ne reproduit pas le capitalisme de surveillance. Quand on commencera à optimiser les choses au service de l’humanité et du bien public, c’est là qu’on aura l’explosion d’innovations qu’on attend tous.

François Saltiel : C’était le slogan de campagne de Shoshana Zuboff qui a donc été présidente d’un soir. On a bien entendu votre première mesure.
Merci encore d’être venue au Meilleur des mondes et d’avoir relu, avec nous, vos concepts pour pouvoir les mettre en miroir avec le monde qui nous attend et le monde qui bouge qui est celui d’aujourd’hui, en 2024.
Je remercie également la traduction brillante de Marguerite Capelle.
À la réalisation de cette émission Peire Legras, avec au son ???, à la préparation, comme d’habitude, Juliette Devaux accompagnée par Laudine Storelli.
On se retrouve évidemment la semaine prochaine pour un nouveau Meilleur des mondes et à très bientôt Shoshana Zuboff.

Shoshana Zuboff : Merci beaucoup François.