« Des algorithmes à l'art de gouverner les hommes » : différence entre les versions
(→56’ 05) |
Aucun résumé des modifications |
||
Ligne 144 : | Ligne 144 : | ||
<b>Yaël Benayoun : </b>Justement, en fait, j’y pense parce que La Boétie dit, par exemple, que si on ne se rend pas compte de l’asservissement c’est parce que le roi va faire des grandes fêtes et qu’on va être dans un confort sans fin. Et c’est vrai que quand on pense au numérique, enfin quand on parle de bulle de confort. | <b>Yaël Benayoun : </b>Justement, en fait, j’y pense parce que La Boétie dit, par exemple, que si on ne se rend pas compte de l’asservissement c’est parce que le roi va faire des grandes fêtes et qu’on va être dans un confort sans fin. Et c’est vrai que quand on pense au numérique, enfin quand on parle de bulle de confort. | ||
<b>Philippe Vion-Dury : </b>Ouais. Parce qu’il y a distraction. Je pense qu’on peut diviser les cas en trois catégories. Il y a déjà le consentement éclairé. En droit on parle de consentement éclairé, c’est-à-dire que donner son consentement sur une information qu’on ne maîtrise pas, c’est nul et non avenu, en fait. C’est être censé | <b>Philippe Vion-Dury : </b>Ouais. Parce qu’il y a distraction. Je pense qu’on peut diviser les cas en trois catégories. Il y a déjà le consentement éclairé. En droit on parle de consentement éclairé, c’est-à-dire que donner son consentement sur une information qu’on ne maîtrise pas, c’est nul et non avenu, en fait. C’est être censé être le cas, c’est l’idéal du droit. Aujourd’hui, quand on signe une CGU, donc conditions générales d’utilisateur d’une application, quasiment personne ne lit les textes. Je crois qu’on avait calculé qu’il fallait un mois ou deux mois par an pour lire toutes les CGU auxquelles on souscrivait, donc personne ne le fait. Donc là, ce n’est pas un consentement éclairé déjà. Donc on ne peut pas parler vraiment de consentement, je pense. | ||
Ensuite il y a le deuxième cas de scénario des gens qui savent mais qui ont la flemme. C’est-à-dire que soit ils sont trop habitués, soit ils n’ont pas assez de forces pour trouver une alternative, pas assez de temps, soit il n’y a pas beaucoup d’alternatives. Ça aussi. Il faudra qu’on parle de la concentration aussi à un moment, on parlait de Gmail tout à l’heure, mais aujourd’hui, trouver une alternative à Gmail c’est Hotmail, il y a mieux ! Donc c’est compliqué. | Ensuite il y a le deuxième cas de scénario des gens qui savent mais qui ont la flemme. C’est-à-dire que soit ils sont trop habitués, soit ils n’ont pas assez de forces pour trouver une alternative, pas assez de temps, soit il n’y a pas beaucoup d’alternatives. Ça aussi. Il faudra qu’on parle de la concentration aussi à un moment, on parlait de Gmail tout à l’heure, mais aujourd’hui, trouver une alternative à Gmail c’est Hotmail, il y a mieux ! Donc c’est compliqué. | ||
Ligne 206 : | Ligne 206 : | ||
Cela dit, ils ont quand même un pouvoir certain. Il y a un règlement européen qui s’appelle la GDPR<ref>[https://fr.wikipedia.org/wiki/R%C3%A8glement_g%C3%A9n%C3%A9ral_sur_la_protection_des_donn%C3%A9es GDPR - Règlement général sur la protection des données]</ref>, ou la RGPD en français, Règlement général pour la protection des données, qui est en cours de mise en place, qui sera sur l’ensemble du territoire européen à partir du mois de mai 2018- Et là, ils ont quand même un certain nombre de choses importantes, dont la portabilité des données, qui va permettre aux gens de prendre leurs données et puis de les envoyer ailleurs, pour changer de fournisseur, en substance. Et un certain nombre de règles aussi pour lutter contre le piratage, contre la mauvaise gestion des données, etc. Et ils ont aussi une grosse massue qui est que si jamais quelqu'un se fait attraper, enfin une société se fait attraper, elle peut avoir une amende jusqu’à 4 % du chiffre d’affaires mondial. Ça, ça fait très très mal. | Cela dit, ils ont quand même un pouvoir certain. Il y a un règlement européen qui s’appelle la GDPR<ref>[https://fr.wikipedia.org/wiki/R%C3%A8glement_g%C3%A9n%C3%A9ral_sur_la_protection_des_donn%C3%A9es GDPR - Règlement général sur la protection des données]</ref>, ou la RGPD en français, Règlement général pour la protection des données, qui est en cours de mise en place, qui sera sur l’ensemble du territoire européen à partir du mois de mai 2018- Et là, ils ont quand même un certain nombre de choses importantes, dont la portabilité des données, qui va permettre aux gens de prendre leurs données et puis de les envoyer ailleurs, pour changer de fournisseur, en substance. Et un certain nombre de règles aussi pour lutter contre le piratage, contre la mauvaise gestion des données, etc. Et ils ont aussi une grosse massue qui est que si jamais quelqu'un se fait attraper, enfin une société se fait attraper, elle peut avoir une amende jusqu’à 4 % du chiffre d’affaires mondial. Ça, ça fait très très mal. | ||
Donc ils avancent, ils peuvent faire des choses, mais c’est compliqué parce qu’il y a du <em>lobbying</em> à Bruxelles sur ces sujets-là, où on voit chaque mot et chaque article est négocié pied à pied. Ils font traîner des trucs, etc. C’est vraiment très intense et en même temps, il ne faut pas non plus que la puissance publique régule top vite, enfin avec précipitation, et qu’elle arrive à coincer quelque chose qui finalement serait peut-être une | Donc ils avancent, ils peuvent faire des choses, mais c’est compliqué parce qu’il y a du <em>lobbying</em> à Bruxelles sur ces sujets-là, où on voit chaque mot et chaque article est négocié pied à pied. Ils font traîner des trucs, etc. C’est vraiment très intense et en même temps, il ne faut pas non plus que la puissance publique régule top vite, enfin avec précipitation, et qu’elle arrive à coincer quelque chose qui finalement serait peut-être une industrie très intéressante, qui pénaliserait les industriels locaux et pas les industriels étrangers. | ||
Donc ce n’est vraiment pas facile d’être régulateur dans le monde numérique. | Donc ce n’est vraiment pas facile d’être régulateur dans le monde numérique. | ||
Ligne 393 : | Ligne 393 : | ||
Et il y a un bouquin que je vous conseille là-dessus, c’est le bouquin de Fred Turner<ref>[https://fr.wikipedia.org/wiki/Fred_Turner_(professeur) Fred Turner - <em>Aux sources de l'utopie numérique : De la contre culture à la cyberculture</em>]</ref>. Il explique très bien et il décrypte très bien l’héritage de la contre-culture et ce en quoi, justement, c’est en partie un héritage libertaire. | Et il y a un bouquin que je vous conseille là-dessus, c’est le bouquin de Fred Turner<ref>[https://fr.wikipedia.org/wiki/Fred_Turner_(professeur) Fred Turner - <em>Aux sources de l'utopie numérique : De la contre culture à la cyberculture</em>]</ref>. Il explique très bien et il décrypte très bien l’héritage de la contre-culture et ce en quoi, justement, c’est en partie un héritage libertaire. | ||
<b>Philippe Vion-Dury : </b>Juste pour compléter ce qu’a dit Ariel Kyrou ici présent, c’est par rapport à la question que tu as posée sur les entreprises aussi. Effectivement si tu relis Chomsky, | <b>Philippe Vion-Dury : </b>Juste pour compléter ce qu’a dit Ariel Kyrou ici présent, c’est par rapport à la question que tu as posée sur les entreprises aussi. Effectivement si tu relis Chomsky, Howard Zinn, à l’époque déjà, le complexe militaro-industriel c’était la peur, la hantise, c’était l’ennemi. Effectivement les entreprises étaient vues comme un ennemi potentiel, même dans ces regroupements assez libertaires. Néanmoins il faut relativiser le fait que déjà Google, il y a 15 ans, c’était une start-up, ce n’était rien, c’était le truc limite du garage, limite ???. | ||
<b>Tristan Nitot : </b>C’était même une société sympathique. | <b>Tristan Nitot : </b>C’était même une société sympathique. | ||
Ligne 503 : | Ligne 503 : | ||
<b>Public : </b>Vous avez le droit ! Est-ce qu’il y a un candidat qui défend ? Un candidat ou une candidate ? Qui a un discours, je ne sais pas. Mais bon ! Vous n’êtes pas obligé de répondre. Sauf s’il y a un avis. | <b>Public : </b>Vous avez le droit ! Est-ce qu’il y a un candidat qui défend ? Un candidat ou une candidate ? Qui a un discours, je ne sais pas. Mais bon ! Vous n’êtes pas obligé de répondre. Sauf s’il y a un avis. | ||
<b>Philippe Vion-Dury : </b>Il y a effectivement un discours de la part de Hamon sur la taxe des robots, etc., ; ça c’est le seul truc dans son programme qui est un petit peu sur le numérique. Il y a de l’<em>open data</em>, mais bon tout ça, ça ne m’intéresse pas. Je trouve que | <b>Philippe Vion-Dury : </b>Il y a effectivement un discours de la part de Hamon sur la taxe des robots, etc., ; ça c’est le seul truc dans son programme qui est un petit peu sur le numérique. Il y a de l’<em>open data</em>, mais bon tout ça, ça ne m’intéresse pas. Je trouve que c'est de la théorie. Sinon, il y a aussi une page, sur 125 je crois, dans le programme de Mélenchon, donc ça dit la place qu’il accorde à ça. Sinon après on est sur de l’épiphénomène, on est sur de la taxation, de la régulation, mais pas de mesures, de projet ou de vision qui se dégagent aujourd’hui de la part les candidats, à ma connaissance. | ||
<b>Tristan Nitot :</b>D’autant que sur Mélenchon, on parlait tout à l’heure de l’éventualité de subventionner du Libre par la puissance publique, ce qui me paraît une idée intéressante, peut-être sûrement imparfaite mais à explorer. Et Mélenchon a déclaré récemment qu’il voulait taxer les communs informationnels, donc c’est-à-dire le contraire de la subvention du Libre, quasiment comme s’il voulait taxer le Libre en substance. Eh bien là ma mâchoire s’est décrochée, et puis j’ai éteint le poste quoi ! | <b>Tristan Nitot :</b>D’autant que sur Mélenchon, on parlait tout à l’heure de l’éventualité de subventionner du Libre par la puissance publique, ce qui me paraît une idée intéressante, peut-être sûrement imparfaite mais à explorer. Et Mélenchon a déclaré récemment qu’il voulait taxer les communs informationnels, donc c’est-à-dire le contraire de la subvention du Libre, quasiment comme s’il voulait taxer le Libre en substance. Eh bien là ma mâchoire s’est décrochée, et puis j’ai éteint le poste quoi ! |
Version du 8 mai 2017 à 06:15
Titre : Des algorithmes à l'art de gouverner les hommes : face au numérique, sommes-nous tous Moutons ?
Intervenants : Tristan Nitot - Philippe Vion-Dury - Yaël Benayoun - Irénée Regnauld - Ariel Kyrou - Représentant de Mediaschool
Lieu : Organisé par Le Mouton Numérique à l'Institut Européen de Journalisme - Paris
Date : Mars 2017
Durée : 1 h 25 min 22
Licence de la transcription : Verbatim
Statut : Transcrit MO Relecture terminée par Didier mais il reste encore beaucoup de ???
00'
Représentant du MediaSchool Group : Ici, c’est un lieu d’apprentissage, de réflexion, d’expérience et c’est la raison pour laquelle lorsqu’on m’a demandé si nous pouvions vous accueillir ici ce soir pour le Mouton numérique, eh bien j’ai naturellement accepté. Donc ce soir vous êtes ici chez vous. On verra si nous sommes tous des moutons numériques, ou pas. En tout cas, je vous souhaite de passer une très belle soirée. Je crois qu’elle va être riche et intéressante vu les invités, les intervenants que vous avez. En tout cas bravo pour cette initiative.
Irénée Regnauld : Merci.
Applaudissements
Irénée Regnauld : Bonsoir. Je m’autorise une petite parenthèse de cinq minutes pour vous présenter le déroulé de la soirée, Le Mouton numérique[1], et puis on va peut-être un tout petit peu parler du sujet.
Tout d’abord soyez les bienvenus. Merci d’être venus pour cette première rencontre qui ouvre le cycle de débats du Mouton numérique pour 2017. Il y aura six débats, c’est le premier, donc encore merci de votre présence.
Pour commencer, je vais déjà remercier Mediaschool qui nous accueille ce soir, comme vous venez de voir. Ils ont activement participé au montage de cette première, la régie, la salle, etc. Également l’agence Mélocotonfilms au bout, qui filme, nous apporte la partie régie. Cet événement est live streamé sur YouTube donc vous pouvez, si vous le voulez évidemment, utiliser les réseaux sociaux et notamment Twitter avec le hashtag #MoutonNum qui est juste là.
Vous verrez, il y aura tout à l’heure des tables dehors avec les ouvrages de nos intervenants, donc des ouvrages qui seront vendus par la librairie l'Attrappe-Coeurs qui est aussi partenaire de l’événement. Et enfin, mais pas des moindres, La Quinzaine Littéraire qui n’est pas là ce soir mais qui sera également vendue et qui est aussi partenaire de l’événement.
Le Mouton numérique. Nous sommes une association avec une ambition, montée avec une ambition : éclairer la société qui innove. Le faire avec de la justesse, de la bienveillance, avec le souci du débat contradictoire, le souci, toujours, de garder de l’esprit critique sur la chose numérique et de sans cesse raccrocher cet esprit critique à des solutions concrètes, au moins quand elles existent ; ce n’est pas toujours le cas, évidemment.
En somme, c’est quoi ? C’est prendre ce que les penseurs, les intellectuels, ont à nous dire, mettre en face ce que font les gens sur le terrain, dans la réalité, faire et penser, penser et faire, sans dissocier les deux, évidemment. On fait tous les deux dans la vie, on en est conscients, nous les premiers.
Pour le format de ce soir, on part sur une petite heure d’échanges avec ces messieurs et Yaël. Ensuite on réservera le temps qu’il faudra pour les questions et on espère que vous aurez des questions, c’est quand même le but. Ensuite on organisera un pot juste dans la salle en face. Vous y êtes conviés évidemment, on vous ouvre les bras là-dessus. L’événement est gratuit. On souhaiterait conserver des événements gratuits. Cependant une participation volontaire est possible si vous souhaitez nous aider dans cette démarche.
Tristan Nitot : Donc la sortie est payante, en fait !
[Rires]
Irénée Regnauld : Voilà, c’est ça. Ce ne sont que 40 euros, ça va. Sachant que ces 40 euros serviront à deux choses : d’abord l’autofinancement de l’association, évidemment, d’une part.
Tristan Nitot : Et la Porsche.
Irénée Regnauld : Et la Porsche, voilà exactement, c’est ça !
Tristan Nitot : Et puis les assistants parlementaires, etc.
Irénée Regnauld : Mais sachez qu’on a quand même très envie de prendre tout ce qui sera en supplément, et il y en aura, pour récompenser chaque année un prix de l’innovation Mouton qui sera décerné à une initiative innovante, sociale, solidaire, puisque, en tout cas pour nous en tant que Mouton numérique, l’innovation ce n’est pas seulement une question de technologie, c’est rendre la vie des hommes et des femmes plus facile. Évidemment, quand j’ai dit ça je n’ai un peu rien dit, parce que rien n’est aussi simple, enfin rien n’est simple plutôt, et on n’est pas du tout les seuls à penser qu’innover c’est améliorer la vie des gens. Pas du tout ! En voilà une affirmation bien banale !
Finalement, si vous vous mettez depuis la perspective d’une société qui vendrait, par exemple, des vidéos en ligne, faciliter la vie des gens ce serait faire en sorte que la prochaine vidéo que vous allez regarder vous n’ayez pas franchement à la choisir. Éventuellement qu’on la choisisse pour vous. Si vous vous mettez depuis la perspective d’une société qui vendrait, par exemple, des assurances, améliorer la vie des gens ce serait faire en sorte que vous conduisiez mieux, ou que vous vous conduisiez mieux, ce qui est, quand même, totalement différent. Donc vous voyez sans doute où je veux en venir, je pense, déjà. Là où je veux en venir c’est que, il y a 70 ans exactement, en 1947, l’immense Norbert Wiener, le mathématicien qui fut parmi les gens qui sont aujourd’hui à l’origine de l’informatique, forgeait ou plutôt reprenait le terme cybernétique.
La cybernétique c’est quoi ? La cybernétique c’est l’art de gouverner les hommes. Alors aujourd’hui on parle de cybernétique, on parle aussi d’algorithmes et on parle même de gouvernementalité algorithmique. Alors un algorithme, c’est quoi ? On va le voir pendant toute la séance, mais je vais déjà faire un petit peu de teasing. Un algorithme c’est une suite d’instructions qui permet de résoudre un problème. Il y en a plein sur Internet, dans les exemples que je vous ai donnés tout à l’heure. Une suite d’instructions, au final, c’est un peu une machine qui résout un problème. Une machine qui peut aussi, éventuellement, en créer des problèmes, puisque comme toute machine, comme toute technique, elle couvre des enjeux qui sont des enjeux politiques, des intérêts, éventuellement économiques, des projections et même parfois des conflits.
Pour en parler ce soir, on a le plaisir, même l’honneur de recevoir deux invités. D’abord Tristan Nitot. Tristan Nitot qui est hacktiviste avec un « h », qui est un des dirigeants de la start-up Cozy Cloud[2] et qui a également fondé l’association Mozilla Europe en 2003. Il est l’auteur de l’ouvrage Surveillance:// Les libertés au défi du numérique : comprendre et agir.
Pour lui donner la réplique, on a aussi le grand plaisir de recevoir Philippe Vion-Dury ; je ne sais si on peut aussi l’appeler un hacktiviste. Peut-être ?
Philippe Vion-Dury : Non !
Irénée Regnauld : Non ! Tant pis. Il est journaliste et c’est déjà bien. Il est auteur d’un livre qui s’appelle La nouvelle servitude volontaire : enquête sur le projet politique de la Silicon Valley.
Et bien sûr, pour animer cet échange, on a aussi le plaisir et honneur d’avoir Yaël Benayoun, cofondatrice du Mouton numérique. Bon débat.
Applaudissements
Yaël Benayoun : Merci à tous. Est-ce que vous m’entendez tous ? On commence comme ça. Super ! Déjà, je ne vais pas revenir sur tout ce qu’a dit Irénée. On est vraiment très heureux de commencer cette soirée ici avec vous. Et c’est vrai que quand on a monté le Mouton numérique, il y a un peu une question qui revenait toujours : « Mais pourquoi vous voulez montrer que le numérique est politique ? » Évidemment, ce n’est pas si évident pour tout le monde. Et du coup, c’est peut-être par ça que je vais commencer. C’est par vous demander, en fait, comment vous avez eu cette, on va dire, prise de conscience ou ce déclic que peut-être le numérique et les algorithmes, en l’occurrence, c’est un peu plus compliqué que juste une petite suite d’opérations comme vient de le dire Irénée. Donc voilà, Tristan si tu veux bien commencer.
Tristan Nitot : On avait dit qu’on se vouvoyait, quand même !
Yaël Benayoun : Alors on se vouvoie !
[Rires]
07’ 27
Tristan Nitot : D’accord. Je dois d’ailleurs vous avouer qu’on ne va pas réussir, mais ce n’est pas grave ; on va essayer quand même. En fait, je ne pensais pas du tout que c’était politique le numérique. Mais alors pas du tout ! Je me souviens avoir lu avec émotion la déclaration d’indépendance du cyberespace qui date de, je ne sais plus, ça doit être début des années 80, je pense. Qui justement dit : « Vous savez nous, dans le cyberespace, on n’est pas comme vous politiciens. On vit dans un autre monde, on n’a rien à voir avec vous. Vous êtes faits de chair et nous on est des signaux dans l’espace. Etc. » C’était rigolo. Je trouvais que c’était, à l’époque, assez intéressant de dire « on s’affranchit complètement du politique ». Mais bon, j’avais complètement tort. Et en fait, je l’ai vraiment réalisé quand j’ai travaillé sur mon livre, ou plutôt je l’ai réalisé et ça m’a donné envie d’écrire ce livre, donc Surveillance://, parce que je me rends compte, et c’est toute la thèse de la première partie du livre, c’est « on n’est pas habitués au numérique généralement. »
Il se trouve que moi je suis informaticien, je fais un peu tâche, mais généralement, les gens ne sont pas éduqués du tout au numérique. Un jour on leur a montré un ordinateur et dedans il y avait un navigateur et on leur disait : « Si tu cherches quelque chose tu fais Google et puis tu tapes des mots-clefs et tu fais entrer et là il y a des résultats. Et puis ça c’est le mulot et tu cliques sur les liens bleus et là, tu vas trouver ce que tu cherches. » Et voilà ! Temps de formation : vingt secondes ! Ça c’était dans les années 90, en gros.
On arrive dans les années 2010, maintenant ça se passe surtout dans une boutique Orange ou SFR ou Bouygues. [Tristan montre son téléphone portable] « Vous voyez, donc là c’est le bouton allumer et là vous avez le bouton, c’est pour revenir au menu. Ça c’est le volume. Et il y a des boutons et vous lancez des applications. Vous voyez, là il y a des applications, et vous lancez des applications et voilà. » C’est ça. Et donc, temps de formation : quarante secondes dans la boutique Orange debout devant le comptoir ! Et vous avez choisi tel ou tel téléphone parce qu’il était en promo ou que la couleur vous plaisait. Et vous demandez au vendeur : « C’est bien ça ? » « Oui, oui, c’est bien ! » Donc voilà.
Et c’est à peu près toute la formation qu’il y a et seulement, à choisir ça, on se retrouve à donner sans s’en rendre compte, sans du tout réaliser, on refile nos données à des géants, souvent dans la Silicon Valley, lesquels font des trucs avec nos données ; lesquels permettent, pas forcément en le voulant, de faire de la surveillance de masse. Et au final, on met en place des éléments qui vont permettre à une dictature d’arriver. Je vous la fais vraiment très, très gros. J’ai mis quand même 250 pages à vous l’expliquer normalement dans le livre ! Mais en gros, c’est ça : on est les idiots utiles des GAFA. On achète des smartphones qu’on pourrait vraisemblablement appeler des mouchards de poche, qui pompent des tas de données, qui les concentrent dans des datacenters américains, lesquels sont utilisés par des agences de renseignement, dont la NSA. Et eux-mêmes, donc, sont les idiots utiles de la NSA, parce qu’ils collectent ces données pour nous fidéliser, gagner de l’argent avec de la publicité, etc. Et ils sont les idiots utiles de la NSA, parce que la NSA voudrait espionner tout le monde, mais il suffit de se pencher, d’aller chercher ces informations chez Google et chez Facebook. Et voilà, la boucle est bouclée ! Vous vouliez juste un téléphone qui vous permette de jouer à 2048 ou à Candy Crush Saga, ou accéder à Facebook, et vous vous retrouvez avec un État totalitaire au bout.
Et donc, c’est évidemment politique, même si vous ne le saviez pas au départ. On reviendra sur le sujet, parce que là c’est un débat qui est quand même !
Yaël Benayoun : Eh bien ça va être toute l’heure. Et toi, vas-y !
Philippe Vion-Dury : Alors moi, j’ai un parcours. Je voulais faire court, mais je vais faire long, du coup.
Tristan Nitot : Ah !
Philippe Vion-Dury : J’ai un parcours très différent du tien.
Tristan Nitot : On n’avait pas dit qu’on se vouvoyait !
Philippe Vion-Dury :On se vouvoie. Oui.
Yaël Benayoun : Je pense qu’on va abandonner le vouvoiement parce que ça ne va pas marcher.
Philippe Vion-Dury :J’étais journaliste culture à la base. Je suis venu aux algorithmes et à la donnée par hasard, parce qu’on m’a demandé de prendre ces sujets-là dans ma rédaction. Je suis arrivé au moment de l’affaire Snowden, donc c’était assez intense et j’étais été assez frustré de voir, c’est un long processus ce bouquin, mais le premier déclencheur ça a été de lire un article sur le Time qui s’appelait « Big Data, Meet Big Brother »[3] qui était, en fait, un article qui expliquait les techniques prédictives. En fait, ça expliquait que les données n’existent pas elles-mêmes, on les traite, et que ce traitement visait à anticiper les comportements, prévenir les événements. En fait, de fil en aiguille, quand on réfléchit à ce concept, ça veut dire que des acteurs, qui sont des entreprises principalement, tentent de prédire nos comportements, alors soi-disant pour nous fournir des services, trop bien, trop cool, parfaitement personnalisés, etc. Mais dans la capacité de prédiction, il y a la capacité de manipulation, c’est-à-dire d’action sur les comportements. Si je sais comment vous allez réagir à tout ce que je vais faire, ce que je vais dire, je peux donc faire en sorte que vous ayez le comportement que je souhaite. C’est ça la manipulation et c’est ça ce que permettent ces techniques.
En fait, là s’ouvre un champ quand même assez immense, qui est qu’on dépasse les données, la surveillance, la vie privée, etc., vers vraiment une nouvelle forme de pouvoir, et de relations de pouvoir et de servitude entre des acteurs privés et étatiques aussi, on y reviendra, je pense, sur cette différence-là, et les être humains et les individus ; et, par renforcement, le collectif aussi, puisqu’on verra qu’il y a des actions individuelles, des actions collectives. Et on revient à la cybernétique dont on a un petit peu parlé tout à l’heure.
Donc moi j’arrive aussi à la conclusion d’une dictature, pas tout à fait la même, avec un grand arc un peu différent ; je l’ai théorisée par big mother parce que ce n’est pas du tout un big brother comme on nous le vend, je pense, dans les médias qui veulent présenter comme les méchants États qui essaient de contrôler la population. C’est quand même plus complexe que ça. Il y a d’autres formes, aujourd’hui, de contrôle et de servitude que les États, qui sont d’ailleurs largement largués sur ces questions, on y reviendra aussi. En fait, je pense qu’on assiste aussi, à travers le numérique, à une mutation du pouvoir en lui-même qui suit une continuité historique de 50 ans, quand même, et que se créent de nouvelles servitudes qui sont, avec le titre un peu provocateur de servitude volontaire, parce qu’il n’y a pas vraiment de liberté, avec une liberté aliénée donc ce n’est pas vraiment volontaire, mais c’est un peu volontaire. Comme tu disais tout à l’heure, on achète quand même le smartphone, on s’inscrit quand même sur Facebook. Donc c’est d’une certaine manière volontaire. On y reviendra.
Tristan Nitot : Non ! Mais attends, de plus en plus on nous vend des télés connectées, des, comment ça s’appelle, des Amazon Echo qui vont bientôt arriver en France : ces boîtiers que vous mettez dans votre salon avec un micro qui est branché en permanence et qui écoute ce que vous dites, et on les paye une blinde quoi ! Donc voilà, c’est volontaire, on peut le dire.
Yaël Benayoun : Et du coup, justement, là vous avez parlé quand même de plusieurs problèmes, notamment surveillance de masse et notamment tout le lien avec les GAFA, enfin Google, Amazon, Facebook, etc. Est-ce que vous pouvez faire, peut-être, un petit bilan sur les acteurs qui sont en jeu derrière ça ? Parce que c’est vrai qu’à priori on ne voit pas forcément le lien entre les services secrets, Google, et la différence entre l’espionnage, les données qui sont données. Est-ce que vous pourriez peut-être expliquer un peu la boucle, en fait ?
Tristan Nitot : J’y vais ? C’est pour moi celle-là, non ? Alors c’est très simple. Quand vous achetez un smartphone, aujourd’hui 85 % du marché c’est Android. C’est-à-dire, si vous achetez du Samsung, de l’HTC, du Sony, etc., ça utilise le logiciel Android, le système d’exploitation Android qui est fait par Google. Qui a un téléphone Android dans la salle ? Levez la main ! Pas moi, parce moi non, plus maintenant, mais j’avais ! OK, Merci. Qui a un smartphone Apple, iPhone ? Ouais ! On voit bien qu’on est dans le 16e arrondissement, il y a du pognon ! Eh bien vous avez raison parce que, en termes de vie privée, Apple est quand même bien meilleur qu’Android. Je vais vous expliquer pourquoi.
En fait, Android donne, enfin Google donne Android à Samsung – Samsung est un énorme conglomérat coréen, ils ont énormément d’argent – et aussi aux autres, alors que ça vaut très cher. Probablement plus d’un milliard de dollars de développement ont été investis dans Android pour le créer. Et ils le donnent ! Ils le donnent, mais il faut signer un contrat et ce contrat il dit : « Vous êtes obligés de prendre d’autres trucs gratuits avec ! » Ah pas de chance ! Alors on vous donne Gmail, on vous donne Google Maps, on vous donne Google Search, on vous donne Google Calendar, on vous donne toute la flopée, Google Chrome, plein d’applications Google qui vont avec Android et que vous devez vous, fabricants de smartphones, vous devez intégrer dans les smartphones et les mettre bien visibles. » Bon d’accord ? Si vous voulez être concurrent d’Apple et comme vous ne savez pas développer un logiciel du genre Android – ça coûte très cher, ça prendrait des années, vous êtes pressé, vous voulez concurrencer Apple – donc vous allez choisir Android. Et pourquoi ils font ce cadeau-là ? Eh bien parce que, ensuite, c’est mis sur des téléphones. Il s’en fabrique des milliards, littéralement des milliards par an, et ça finit dans nos poches, et donc on utilise les services de Google, lesquels collectent des données.
En fait, vous avez payé très cher un cheval de Troie. Donc on est aussi cons que les Troyens, mais en plus, on a payé le cheval ! Vous voyez ? C’est quand même assez sordide cette affaire. Et donc c’est là que c’est intéressant et c’est comme ça que Google, en fait, collecte vos données, pour vous donner des services personnalisés, dont on ne peut plus se passer. Aujourd’hui, Gmail ce n’est pas facile de s’en débarrasser. YouTube, non plus. Enfin bon ! Donc il y a plein services qu’on utilise comme ça. Ils sont personnalisés, on n’arrive plus à s’en passer et ça collecte des données. Par exemple, si vous utilisez Gmail, c’est écrit dans les conditions générales d’utilisation, Gmail, enfin Google, lit vos courriers, les pièces jointes, les endroits d’où c’est envoyé, à qui vous les envoyez. Il a une copie de votre carnet d’adresses donc il sait de quoi vous parlez, à qui vous parlez, etc. Ils accumulent énormément de données. Et puis bon, on leur donne parce que c’est pratique, puisque, de toutes façons, personne n’a jamais lu les conditions générales d’utilisation. Qui a lu les conditions générales d’utilisation dans la salle ? [Tristan lève la main] Mais c’était pour un livre, j’ai une excuse. Effectivement, quasiment personne. Madame vous avez lu ?
Public : Un peu le début.
Tristan Nitot : Un peu le début ! Oui, c’est ça ? [Tristan fait mine de tomber de sommeil] Certains disent que c’est le meilleur endroit : on mettrait Mein Kampf en deuxième page et tout le monde signerait. Bref !
On accumule des données, enfin Google accumule des données sur nous. Et c’est pareil pour Facebook, en échange d’un service qui coûte finalement très peu cher. Facebook, si vous regardez l’application Facebook, il veut vous pomper votre carnet d’adresses, vos photos, vos textos, etc., quand vous l’installez sur votre téléphone. Il vous pompe tout ça, il l’envoie chez Facebook et en échange, il vous donne le service Facebook gratuitement ! Et si vous regardez un peu la compta de Facebook, Facebook ça coûte 5 euros par personne et par an. C’est ça que ça coûte à faire fonctionner Facebook : 5 euros ! Donc vous avez refilé toutes vos données personnelles, et vous continuez de le faire régulièrement, en échange d’un service de 5 euros ! Alors voilà ! Ça, c’est la première partie.
Deuxième partie, les révélations de Snowden. Donc Edward Snowden, contractuel de la NSA et ancien de la CIA, s’est rendu compte – c’est un patriote américain – il s’est rendu compte que son pays espionnait les gens en violation de la constitution américaine. Il n’a pas aimé du tout. Il a lancé l’alerte. D’abord il est allé voir ses responsables. Ils lui ont dit : « Ouais, ouais, quand même, ce n’est pas bien ! Ta gueule Snowden, retourne bosser, laisse-nous travailler ! » J’abrège, en fait, ça ne s’est pas vraiment complètement passé comme ça ! Et donc, il est parti de la NSA avec les poches pleines de clefs USB sur lesquelles il y avait des présentations PowerPoint de la NSA et ils les a données à des journalistes. Ça a donné les révélations de Snowden en juin 2013. Et il y a des centaines de milliers de documents, visiblement, on est encore en train d’en découvrir, d’en explorer, etc. Mais fondamentalement, ce qui ressort de l’analyse des documents de Snowden, c’est que la NSA veut surveiller absolument tout le monde pour asseoir la domination des États-Unis, économique, diplomatique, etc. Que, évidemment, espionner tout le monde c’est très compliqué et c’est trop cher pour eux, même s’ils ont d’énormes budgets et donc, eh bien qu’est-ce qu’ils font ? Ils se tournent vers les GAFA, qui ont accumulé des données, qui les ont analysées et donc la surveillance de masse est rendue économiquement possible grâce à la centralisation des données dans les mains des GAFA.
21’ 00
Philippe Vion-Dury : Moi je vais renchérir là-dessus. En fait, je pense que la question c’était qui sont les acteurs puissants là-dedans. En fait, ce sont ceux qui sont en capacité de traiter les données. Je pense que c’est aussi simple que ça au final, si on peut le résumer. C’est-à-dire que là, je pense qu’il faut faire de la pédagogie pour bien comprendre tout le débat. C’est qu’il y a d’un côté la donnée et, d’un autre côté, il y a le traitement de la donnée. La donnée qui va parler par elle-même c’est, par exemple, si on a signalé « je suis catholique ». Une donnée elle parle d’elle-même, elle est informative.
Souvent les données ne parlent pas par elles-mêmes : elles parlent quand on les corrèle entre elles, quand on met plein de petites données entre elles qui fournissent une nouvelle information. C’est-à-dire qu’on produit de l’info à partir de l’info. Un exemple de corrélation : on peut inférer ou prédire. Inférer ça va être : je vois que vous achetez hallal et que vous vous arrêtez tous les vendredis matin devant une épicerie hallal ou une mosquée ou quelque chose. Deux données suffisent déjà à prédire à 90 % que vous êtes musulman. On produit de l’info par l’info. Là on infère quelque chose : on a une nouvelle information sur vous.
Et après, il y a la prédiction : si vous avez acheté ça, si vous appartenez à tel profil sociologique, vous habitez dans tel lieu, vous connaissez telle personne, alors peut-être que vous allez vouloir regarder cette série ou acheter ce produit, ou, etc. Donc là on prédit quelque chose.
En fait, aujourd’hui, les acteurs qui sont capables d’avoir accès aux données – ça c’est bien sûr le plus important, c’est vital – mais au-delà de ça, d’avoir la capacité de traitement des données, une capacité conséquente, là ils deviennent puissants, là ils deviennent des acteurs questionnables et ça peut être, effectivement des États, mais ce n’est pas toujours le cas. Par exemple, je pense qu’aujourd’hui l’État français est moins puissant, à ce niveau-là, qu’un Google, beaucoup moins ! Par contre, si on compare l’État français avec l’État chinois, par exemple, qui a tout centralisé les données, etc., et qui a des capacités de traitement intégrées à l’État, là on est sur un État, effectivement, qui a une capacité totalitaire, très différente de celle d’un État libéral occidental. Ce qui ne veut pas dire qu’on ne va pas aller dans cette direction-là, non plus. Ça c’est un autre débat. Mais voilà, je pense que c’est vraiment la question de centralisation des données et de traitement des données qui définit la puissance d’un acteur.
Yaël Benayoun : Et du coup, justement, parce que par exemple quand vous entendez Mark Zuckerberg, le PDG de Facebook, qui lui va dire : « Ah ben moi je ne peux rien parce que, finalement, ce sont les utilisateurs qui vont donner eux-mêmes leurs données. » Et donc c’est toute la question du « ah, mais je n’ai rien à cacher, c’est moi qui donne mes données. » Et donc là, on revient sur ce que tu disais tout à l’heure, sur la servitude volontaire qui, finalement, ne change pas beaucoup de ce que disait La Boétie déjà au 16e siècle. Qui n’est, en fait, pas tant volontaire dans le sens où on veut être asservi, mais volontaire dans le sens où on ne se rend même pas compte qu’on pourrait changer nous-mêmes des choses. Et du coup, c’est une sorte de servitude passive. Finalement, c’est le même problème, justement, au 16e siècle, c’est pour ça que tu en parles dans ton livre, Philippe. Qu’est-ce que ça change ? Enfin où est-ce que le numérique change vraiment la donne aujourd’hui ?
Philippe Vion-Dury : Moi je ne vais pas faire de comparaison, une étude de texte de La Boétie, je l’ai lu.
Yaël Benayoun : Justement, en fait, j’y pense parce que La Boétie dit, par exemple, que si on ne se rend pas compte de l’asservissement c’est parce que le roi va faire des grandes fêtes et qu’on va être dans un confort sans fin. Et c’est vrai que quand on pense au numérique, enfin quand on parle de bulle de confort.
Philippe Vion-Dury : Ouais. Parce qu’il y a distraction. Je pense qu’on peut diviser les cas en trois catégories. Il y a déjà le consentement éclairé. En droit on parle de consentement éclairé, c’est-à-dire que donner son consentement sur une information qu’on ne maîtrise pas, c’est nul et non avenu, en fait. C’est être censé être le cas, c’est l’idéal du droit. Aujourd’hui, quand on signe une CGU, donc conditions générales d’utilisateur d’une application, quasiment personne ne lit les textes. Je crois qu’on avait calculé qu’il fallait un mois ou deux mois par an pour lire toutes les CGU auxquelles on souscrivait, donc personne ne le fait. Donc là, ce n’est pas un consentement éclairé déjà. Donc on ne peut pas parler vraiment de consentement, je pense.
Ensuite il y a le deuxième cas de scénario des gens qui savent mais qui ont la flemme. C’est-à-dire que soit ils sont trop habitués, soit ils n’ont pas assez de forces pour trouver une alternative, pas assez de temps, soit il n’y a pas beaucoup d’alternatives. Ça aussi. Il faudra qu’on parle de la concentration aussi à un moment, on parlait de Gmail tout à l’heure, mais aujourd’hui, trouver une alternative à Gmail c’est Hotmail, il y a mieux ! Donc c’est compliqué.
Et ensuite, il y a ceux qui s’en foutent, ça c’est la troisième catégorie, elle existe aussi, il faut le dire.
Tristan Nitot : Tu veux faire un sondage dans l’audience ?
[Rires]
Philippe Vion-Dury : Ouais ! Je pense que voilà ! Effectivement la question de la servitude volontaire, elle est complexe à aborder parce que je pense que c’est un mélange de consentement non éclairé, et c’est pour ça qu’on est là aussi, c’est pour essayer – peut-être vous n’êtes pas tous au courant de tout ça, moi je ne l’étais pas avant d’écrire mon bouquin – d’apporter un éclairage satisfaisant pour que vous fassiez des choix souverains.
La deuxième chose c’est aussi que la critique soit suffisamment forte, la prise de conscience soit suffisamment forte, les problèmes suffisamment forts pour que vous fassiez l’effort de choisir autre chose. Et ça, ce n’est pas du tout gagné, puisque moi-même j’utilise encore Gmail, je suis sur Facebook, comme quoi ce n’est pas facile. Donc voilà !
Yaël Benayoun : Et du coup, on va dire, que sont devenues un peu les promesses du début d’Internet ? S’il y en avait c’est un peu « tout le monde a accès à tout, de manière libre pour tout le monde ». Est-ce que, finalement, ça c’est un modèle totalement révolu ? Oui, ça c’est pour toi ! [en s’adressant à Tristan Nitot] Ou est-ce que, justement, il y a des alternatives qui sont viables, c’est juste qu’on ne les connaît pas ?
Tristan Nitot : Il y a des promesses du Web qui fonctionnent encore. Enfin Wikipédia ça existe toujours et c’est toujours très bien. Ce n’est pas parfait, mais c’est vraiment très bien. C’est toujours gratuit, on l’améliore. Enfin bon, bref ! Disclaimer : je suis wikipédien, amateur. Et c’est génial. C’est un truc qu’on n’avait jamais fait avant, ça existe toujours.
Le Web aujourd’hui, je vais vous dire un gros mot, mais moi j’ai un blog depuis 2003. C’est-à-dire j’ai un endroit où je publie ; j’ai publié deux billets hier dont la recette du chou farci, c’est vous dire si c’est intéressant. Donc j’ai une espace de publication personnelle qui était un genre d’eldorado à une époque, à la fin des années 90, et ça existe toujours. Et vous pouvez toujours ouvrir un blog si vous le souhaitez. Donc ça n’a pas disparu. C’est juste noyé sous le tsunami facebookien. Aujourd’hui, les gens postent sur Facebook comme s’ils étaient chez eux, ce qui n’est pas complètement le cas. C’est-à-dire que mon blog, il est à moi ; Facebook n’est pas à vous, ou ni à moi d’ailleurs. C’est pour ça que je ne vais pas sur Facebook. C’est parce que je préfère publier chez moi et que les gens viennent. Mais ça fait de moi un vieux con, finalement !
Philippe Vion-Dury : Qu’est-ce que je voulais dire ?
Tristan Nitot : Donc ça existe toujours, mais c’est remporté par la facilité de services plus modernes.
Philippe Vion-Dury : Effectivement, sur les promesses du numérique, c’est un peu comme les promesses du capitalisme. Il y en a certaines qui ont été tenues, sinon on aurait arrêté. Évidemment que ça a tenu ses promesses. On peut faire un blog, on peut échanger plus rapidement, etc. Ça c’est une chose. Néanmoins, des problèmes ont émergé. Des nouvelles servitudes ou des nouveaux rapports de domination ont émergé avec. Et là je pense que – c’est une critique ouverte, ce n’est pas accusation – mais je pense que beaucoup de gens de l’époque, de ton époque [en s’adressant à Tristan Nitot], de l’époque, qui étaient un peu libertaires, voire libertariens pour certains, mais surtout libertaires, qui ont vraiment cru que le Web serait cet espace pas souillé par les géants de chair et d'acier qu'étaient les États, espace de pur esprit, etc., où les gens se rencontreraient dans un grand village mondial, sans leur chair, sans leur identité, sans rien, eh bien ils ont pêché par naïveté. Parce qu’en fait, ils appartiennent à une tradition qui est assez ancienne maintenant et qui, en France, aux États-Unis et ailleurs, libertaire, qui a beaucoup, qui a quasiment exclusivement focalisé sa critique sur l’appareil étatique et qui, malheureusement, a oublié les entreprises, tout simplement. C’est-à-dire qu’à force de critiquer l’État, capitaliste, bourgeois, autocratique et autres, il en a oublié que les entreprises étaient aussi des instruments de pouvoir ; étaient aussi des acteurs de pouvoir, et de plus en plus, et qu’on se retrouve, du coup, avec des États très faibles par rapport au numérique – même si, encore une fois, c’est à relativiser – et puis des tentatives aujourd’hui, boîtes noires, etc., on pourra en parler. Mais on voit des États surtout faibles par rapport au numérique et des entreprises incroyablement fortes. Voilà ! Et ça, ça ne se serait peut-être pas passé si on avait eu une critique plus globale à cette époque, une approche plus globale de ce que devait être Internet.
29’ 25
Yaël Benayoun : Et justement, sur ce basculement entre à l’époque, je pense au 18e siècle, où l’État s’est servi de la statistique pour, en fait, on va dire, essayer de normaliser les comportements de sa population dans le sens où, comme il avait l’idée de combien il y avait d’habitants sur tel territoire, c’était plus facile de pouvoir prédire telle production, par exemple ; et qu’aujourd’hui ce n’est plus l’État, finalement, qui gère ces comportements avec les statistiques, mais ce sont les entreprises qui essayent de normaliser ces comportements avec le big data, avec l’ensemble de toutes ces données, ces métadonnées qu’elles récoltent sur nous. Est-ce que vous avez une idée de ce basculement ou c'est juste qu’on a raté une étape à un moment ?
Philippe Vion-Dury : Tu vas vite en besogne, quand même !
Yaël Benayoun : Oui, je sais.
Philippe Vion-Dury : Je pense que ce n’est même pas de quoi on parle encore. On peut parler d’assurance, de police, etc. avant, parce que ! Oui, ce dont tu parles, c’est du vieux pouvoir. C’est l’idée que, ça ce sont les termes foucaltiens, Foucault, qui disait qu’en en gros on sort d’une société féodale, on arrive dans les sociétés disciplinaires qui sont celles du 19e siècle, et l’État devient l’acteur fondamental de la société et gouverne la production, gouverne les êtres afin qu’ils soient productifs, qu’ils donnent une économie qui permette de faire la guerre, qui permette de faire le commerce, d’enrichir une bourgeoisie ou une monarchie, etc. Et effectivement, le pouvoir était un instrument de pouvoir qui visait à contrôler la population en prédisant les récoltes, la production, etc. Et c’était une situation assez bâtarde, il y avait quand même une société féodale qui survivait un peu et ensuite qui s’est effondrée. Donc après une société bourgeoise, disciplinaire, et maintenant on arrive, effectivement, à des nouvelles formes de pouvoir où il est exercé de plus en plus par l’intermédiaire du numérique et des technologies, et par les acteurs nouveaux que sont les entreprises, qui se sont appropriées, réappropriées, cette capacité de contrôle des comportements, des individus, du collectif par les données, par le traitement des données.
Et aujourd’hui, je ne sais pas par où commencer, mais aujourd’hui il y a des tentatives, par exemple de police prédictive qui visent à mettre des scores de dangerosité sur les gens — ça s'est fait déjà aux États-Unis — qui visent à essayer de prédire là où le crime va se produire dans une ville en fonction de paramètres divers et variés comme la météo, l’éclairage public et la sociologie du quartier, etc. On a des assurances qui tentent de faire en sorte d’avoir accès à vos données biométriques, voire génétiques, pour ensuite faire des profils de dangerosité sur vous, enfin des profils à risque : est-ce que vous êtes une personne à risque ? Est-ce que vous êtes une personne saine ? Est-ce que du coup il faut vous faire payer plus cher, vous mettre des amendes, vous mettre des bonus parce que vous vous comportez bien et que vous faites votre footing le matin ? Donc là on est quand même !
Tristan Nitot : Ou un mauvais patrimoine génétique. Risque de cancer. Bim ! Surprise ! Juste à la naissance, quoi !
Philippe Vion-Dury : On avait vu ça avec ???, qui était une entreprise qui tentait un peu de glisser là-dedans. Pour l’instant elle est stoppée par les pouvoirs publics, mais c’est quand même en marche, comme dirait l’autre !
[Rires]
Et donc voilà. Là ce sont deux exemples, on pourrait en donner beaucoup plus, et je pense qu’il faudrait quand même donner pas mal d’exemples, mais ce sont des exemples qui montrent que les acteurs privés, souvent, essaient d’avoir une vraie action sur nos comportements, sur la façon dont on détermine nos vies. Ça c’est le principe du pouvoir. Effectivement, c’est un nouveau type de pouvoir qui se fait à l’échelle de tous les individus puisque, aujourd’hui, tout le monde, enfin tout le monde, par exemple pour Facebook tout le monde va l’utiliser ou presque, pour YouTube aussi. Pour les acteurs de santé c’est déjà beaucoup plus limité, c’est surtout aux États-Unis pour l’instant dans certaines mutuelles, mais ça a vocation quand même — puisqu'il faut toujours dérouler une logique jusqu’à son terme — ça a quand même vocation à s’étendre, puisque, par exemple, un assureur n’est pas là pour vos beaux yeux, c’est un acteur privé qui veut optimiser ses recettes.
Tristan Nitot : C’est là pour qu’on ouvre notre porte-monnaie !
Philippe Vion-Dury : Voilà. Donc il faut étendre la logique et voir qu’il y a quand même une volonté d’étendre ça à une population entière et de faire en sorte de pouvoir nous contrôler, avoir un pouvoir sur nous.
Yaël Benayoun : Et du coup, pour revenir un peu à la place que l’État pourrait reprendre aujourd’hui, c’est-à-dire est-ce qu’il y a une place à prendre ? C’est vrai qu’on entend souvent le discours de dire que finalement l’État est un peu coincé entre d’un côté les acteurs locaux, de l’autre côté les acteurs qui le dépassent totalement. Est-ce que la solution peut venir de l’État ?
Tristan Nitot : Non !
[Rires]
Tristan Nitot : Non ! C’est la version courte. La version un tout petit peu plus longue c’est que l’État n’est pas dans une position facile. Déjà par sa taille : quand on est en France, réguler les GAFA, c’est quand même vachement compliqué. Parce que justement ils sont à l’extérieur et qu’ils sont finalement beaucoup plus importants. Il y a aussi une histoire de rythme de déroulement, en fait. C’est-à-dire que quand vous voulez mettre en place une loi ça va prendre beaucoup de temps et l’évolution technologique se fait beaucoup plus vite. On peut voir, par exemple, ce qui se passe avec Uber qui arrive, qui déboule sur un marché, qui met même en place des systèmes, c'est le système Greyball, je ne sais pas si vous avez suivi, c’est juste hallucinant ! En fait ils repèrent les policiers et les gens de la régulation et ils leur servent, ils leur envoient, une fausse application Uber que les policiers essaient d’utiliser ; et ça ne marche jamais, parce qu’en fait c’est une application Uber, comme l’application Uber, mais elle ne voit pas les VTC, quoi ! Ça ne marche pas ! En fait il intoxiquait les gens qui faisaient la régulation. Les gens d’Uber tournent autour du régulateur qui avance comme il peut quoi, et qui essaye de bien faire, mais qui part avec un handicap énorme, c’est-à-dire qu’il travaille sur un rythme qui est infiniment plus lent que la technologie.
Aujourd’hui on est capable, en fait, en technologie, de déployer des nouvelles versions d’une application plusieurs fois par jour. Ou sur un site web plusieurs fois par jour. Il y a une intégration continue qui est telle que quand vous corrigez un bug, vous pouvez sortir plusieurs versions d’une application par jour. Vous ne voyez pas la CNIL ou le G29, son équivalent européen, faire la même chose ! Ils ne peuvent juste pas, quoi !
Cela dit, ils ont quand même un pouvoir certain. Il y a un règlement européen qui s’appelle la GDPR[4], ou la RGPD en français, Règlement général pour la protection des données, qui est en cours de mise en place, qui sera sur l’ensemble du territoire européen à partir du mois de mai 2018- Et là, ils ont quand même un certain nombre de choses importantes, dont la portabilité des données, qui va permettre aux gens de prendre leurs données et puis de les envoyer ailleurs, pour changer de fournisseur, en substance. Et un certain nombre de règles aussi pour lutter contre le piratage, contre la mauvaise gestion des données, etc. Et ils ont aussi une grosse massue qui est que si jamais quelqu'un se fait attraper, enfin une société se fait attraper, elle peut avoir une amende jusqu’à 4 % du chiffre d’affaires mondial. Ça, ça fait très très mal.
Donc ils avancent, ils peuvent faire des choses, mais c’est compliqué parce qu’il y a du lobbying à Bruxelles sur ces sujets-là, où on voit chaque mot et chaque article est négocié pied à pied. Ils font traîner des trucs, etc. C’est vraiment très intense et en même temps, il ne faut pas non plus que la puissance publique régule top vite, enfin avec précipitation, et qu’elle arrive à coincer quelque chose qui finalement serait peut-être une industrie très intéressante, qui pénaliserait les industriels locaux et pas les industriels étrangers.
Donc ce n’est vraiment pas facile d’être régulateur dans le monde numérique.
37’ 24
Yaël Benayoun : Je crois que tu as un autre point de vue Philippe sur la question ?
Philippe Vion-Dury : Effectivement, il ne pas tout jeter non plus de l’État.
Tristan Nitot : Ce n’est pas ce que j’ai dit ! J’ai dit qu’ils avaient un boulot super compliqué.
Philippe Vion-Dury : Sur la question aujourd’hui est-ce que l’État est complètement largué ou pas ? C’est vrai et pas vrai, il est largué. Néanmoins, on a hérité aujourd’hui de législations, par exemple en termes de santé qui font que notre système de protection des données de santé c’est quasiment l’un des meilleurs au monde et qui fait qu’aujourd’hui une application telle que je l’ai racontée tout à l’heure sur les assurances est impossible, encore maintenant. Donc pour l’instant on a quand même des protections héritées du système étatique qui fonctionnent encore. Néanmoins, depuis quelques années, on n’assiste pas à beaucoup de nouvelles innovations législatives ou autres qui protégeraient par rapport à l’innovation récente telle que Uber ou autres. Ça c’est un premier point.
Le deuxième point, qu’est-ce qu’il peut faire. Effectivement je ne pense pas que l’État soit la réponse à tout, très loin de là. Néanmoins, c’est une réponse quand même. Et l’incapacité aujourd’hui à réguler la société vient aussi du fait, par exemple, qu’on a délégué une partie de notre pouvoir à une instance qui est Bruxelles et sur laquelle on n’a pas mainmise et qui fait que, on parlait tout à l’heure des lobbies, c’est une instance qui est très sensible au lobbying qui fait que du coup les textes sont réécrits. Quand on voit les copiés-collés, c’est quand même fantastique : il y a des textes qui sont quasiment à 90 % copiés-collés des lobbies. Donc il y a une question de souveraineté, déjà, et puis une question plus large de qu’est-ce qu’on peut faire ? Je pense que nous aussi on vit dans des mythes autour de l’innovation, autour du progrès technologique qui est que c’est inarrêtable et qu’on ne peut rien faire. On a juste à s’y soumettre et point barre. On peut juste aménager les angles et faire en sorte que ça glisse mieux.
Moi, je n’ai pas de proposition particulière là-dessus, mais je suis assez hostile à cette vision, notamment parce qu’on nous réécrit un peu l’histoire à très long terme. On nous dit que ça a toujours été comme ça ; que l’humanité a toujours avancé dans un sens ; qu’il y a toujours eu du progrès, etc. ; que depuis Gutenberg et avant, depuis l’invention du papier, et avant l’agriculture, c’est allé comme une sorte de ligne. Or c’est faux ! Et sur la régulation de l’innovation technologique au quotidien, sur les innovations, en termes du textile par exemple : sous la France du 18e siècle, il y avait des compagnonnages, des guildes, qui se réunissaient sous l’autorité de juristes et de la puissance publique, et qui décidaient de quelle innovation – l’innovation était créée à l’époque par les artisans – de quelle innovation on devait appliquer ou pas. Et on pouvait écarter collectivement – à l’époque ce n’était pas une démocratie – et on pouvait choisir d’écarter l'innovation qui était jugée trop dangereuse pour l’économie du pays, etc.
Là, on a quand même un système qui vient – je ne dis pas que c’est souhaitable, je dis juste qu’on vient à contre-pied du mythe fondateur aujourd’hui – qui est que le progrès ça ne s’arrête pas ; que c’est le fait accompli ; que de toutes façons ça va trop vite ; que dans deux jours on a nouvelle version, dans trois ans on a un nouvel Uber qu’on n’aura pas vu venir, etc., ce qui est vrai, mais parce qu’on ne régule pas non plus : on ne met pas de barrières, on ne met pas de béton. Enfin ! Donc moi je pense qu’il faut aussi, peut-être, qu’il y ait une prise de conscience à ce niveau-là : c’est qu’on peut exercer notre désir d’agir, notre souveraineté, à ce niveau-là aussi, au niveau de la technologie. Sauf que c’est un truc qu’on a complètement oublié et qu’il faudrait peut-être retrouver.
Yaël Benayoun : Et du coup, Tristan, ce que tu mets dans ton livre ce sont toutes les réponses aussi individuelles qui sont finalement un premier pas pour, peut-être, justement avoir une prise de conscience plus globale, on va dire, pour après pouvoir faire bouger les choses à une autre échelle.
Tristan Nitot : Oui. Tout à fait. Mon livre a quatre parties. On va dire la première moitié, les deux premières, c’est expliquer le problème et la deuxième partie c’est expliquer plutôt les solutions. C’est-à-dire que pour moi c’était très important, je ne voulais pas créer de l’angoisse en décrivant un problème, je voulais arriver avec des solutions. Et les solutions, elles sont de deux ordres. La quatrième partie c’est pour les individus : qu’est-ce qu’on peut faire ? Par quoi je peux remplacer Gmail ? Est-ce qu’il faut que je choisisse Android ou iPhone ? Qu’est-ce qu’il faut que je fasse ? Donc c’est un peu de l’hygiène numérique, si vous voulez, des recommandations. C’est une partie qui était très désagréable à écrire, en fait, parce que je fais des recommandations de produits, et ça change très vite. Et donc, c’est vraiment la partie du livre qui va le moins bien vieillir, finalement. C’est sûr, parce que le reste est plus théorique et là c’est très concret sur des produits qui changent régulièrement. Mais c’était important pour moi que chacun se rende compte qu’il a du pouvoir d’agir, plutôt que de rester : « Ah, on ne m’a jamais expliqué ; c’est trop compliqué ; je n’y arrive pas ; de toutes façons je n’ai rien à cacher » – qui est un faux ; c’est un mensonge, on a tous quelque chose à cacher – mais qui est juste une façon de dire : « Bon ! Je suis impuissant, je vais me dire que ce n’est pas grave parce que c’est plus confortable. » Je n’en veux pas aux gens. Mais c’est qu’une fois qu’on a expliqué le problème il faut leur dire : « Regardez, vous pouvez agir, vous pouvez faire quelque chose. » Et donc j’ai listé un certain nombre de points sur quel navigateur utiliser, enfin vraiment des choses assez concrètes, mais, finalement, qui ne vont pas très loin. Elles ont comme principal intérêt, finalement, de sortir de la torpeur et de la résignation, mais pas tellement de changer le monde ou de résoudre le problème.
Et puis il y a une partie qui, elle, est vraiment faite pour les informaticiens et qui me paraît finalement plus importante, qui dit : « Puisqu’en fait le problème vient de la centralisation des données dans les mains de quelques géants, qu’est-ce qu’on peut faire ? » Eh bien en fait, les informaticiens, s’ils se décident, à mon sens peuvent inventer un internet alternatif qui est peut-être un peu plus proche. d’un point de vue architectural. de l’Internet des débuts, avec ce que j’appelle un cloud personnel qui est donc un endroit où on va stocker nos données personnelles, à nous, et après on s’en sert. Et on va même faire plus de choses et mieux que ce que peuvent faire aujourd’hui un Google et un Facebook.
Alors ces systèmes-là, il y a des embryons de systèmes qui existent. Moi je travaille là-dessus. Chez Cozy Cloud, c’est ce qu’on fait tous les jours avec trente employés pour essayer de construire ça, et on le distribue gratuitement. C’est-à-dire que le logiciel, vous pouvez le télécharger gratuitement et le mettre sur un ordinateur, chez vous, pour qu’il contienne vos données.
Si vous n’êtes pas un gourou de l’informatique, ce n’est pas la meilleure des solutions parce que ça va être compliqué et risqué. C'est-à-dire que vous avez vos données personnelles dedans et si jamais vous vous faites pirater parce que vous n’avez pas bien compris comment tout ça ça fonctionnait, c’est un peu dangereux. Mais néanmoins, on vous donne la capacité de le faire. Et derrière, le business modèle c’est de dire : « Bon, c’est vrai, c’est compliqué ; mais vous pouvez louer un espace chez un hébergeur dont c’est le métier de faire tourner ce logiciel et à ce moment-là, vos données sont chez l’hébergeur. Il y a un vrai business modèle qui ne repose pas sur la publicité ciblée, donc votre hébergeur ne va pas analyser vos données ; il y a une charte qui explique qu’il ne va pas le faire. Et vos données sont en sécurité chez un hébergeur que vous payez et qui utilise le logiciel de Cozy Cloud. »
Je pense qu’en fait la combinaison des deux ou même des trois, c’est-à-dire un, la sensibilisation des gens autour de la problématique des données personnelles, plus la création d’une solution qui est à la portée de tous et combiné avec un business modèle vertueux, je pense que c’est une approche. Mais j’avoue, c’est une approche d’entrepreneur, enfin c’est une approche d’informaticien.
On crache beaucoup sur le solutionnisme des informaticiens, mais, en fait, je prends le système à son propre jeu. Puisqu’en fait les entreprises créent des systèmes qui posent problème, eh bien on utilise le mécanisme de financement des start-ups pour créer une solution qui est une alternative à celles qui posent problème.
Philippe Vion-Dury : Moi je pense que ça ne suffit pas du tout.
Tristan Nitot : OH !
Philippe Vion-Dury : Parce qu’en fait quand tu parlais – on s’entend bien sinon – quand tu parlais de solutionnisme, il faut peut-être expliquer juste ce que c’est. En gros c’est Morosov[5], qui est un penseur américain d’origine biélorusse, qui a parlé de solutionnisme. Il disait qu’en fait le grand défaut aujourd’hui de la pensée un peu critique sur le numérique était de répondre exclusivement à des problèmes techniques par d’autres réponses techniques. Et qu’en fait, là-dedans, on perdait toute la politique. Au final, ça capotait à chaque fois.
Et c’est un peu ma critique là-dessus. C’est que, par exemple les logiciels libres, c’est une initiative. Ça visait, en fait, à partager au plus grand nombre sous des licences ouvertes, claires, transparentes, etc., des logiciels que tout le monde puisse se réapproprier, soit du traitement de texte, des OS, etc. Très bien ! Mais ça en est où aujourd’hui ? Parce que le problème c’est qu’ils se sont mis en compétition avec des entreprises qui ont des moyens faramineux, que eux n’avaient pas, et qu’ils n’ont jamais reçus de la puissance publique, et du coup, on se retrouve avec des designs complètement hermétiques.
[Tristan Nitot se prend la tête dans les mains]
Ah je suis désolé, mais essaye d’expliquer à ma grand-mère Ubuntu.
Tristan Nitot : Ça clashe !
Philippe Vion-Dury : Mes parents ont pris Ubuntu, tout ce qui est Linux, etc., si vous essayez de faire ça avec vos parents, ou même tout seul, c’est un enfer ! Je suis désolé. Et pourtant, ouais. Donc voilà.
Donc moi je pense que ce n’est pas une approche suffisante ; mais ça ne veut pas dire qu’il faut évacuer la réponse technique complètement non plus. Par exemple, là je pensais, là on sort des données, on sort du traitement de données, on parle vraiment de l’innovation. Comme alternative à Uber, j’ai vu des expériences qui ont été faites, qui sont menées en ce moment en Europe du Nord, je ne sais plus exactement où, mais c’étaient des acteurs de la société civile qui développaient une sorte d’appli type Uber, qui géolocalisait les gens qui participaient à ça, et qui, en fait, visait à se projeter dans les zones où il y a très peu de transports publics, où il y aurait des navettes de petite taille qui iraient dans les zones très peu desservies, où les gens pourraient juste dire : « Je suis là, j’aurais besoin d’être pris » et un algorithme trace un tracé dynamique de la navette qui va prendre les gens, les déposer, etc. Et ça marche apparemment assez bien. Et là, on a quand même quelque chose qui est un peu différent puisque, effectivement, la structure technique elle est sur le modèle d’Uber, donc on a un peu « hacké » Uber, entre guillemets, mais derrière il y a une volonté de service public, d’utilité sociale, d’économie sociale et solidaire comme on dit maintenant ; il y a un respect, une transparence sur les données, et en plus, je crois que c’était aussi un format de coopérative pour les chauffeurs ; ça aussi c’est quelque chose qui émerge beaucoup, mais pour protéger les chauffeurs, contrairement à Uber où ils sont maltraités, on pourrait revenir là-dessus également.
Il y a aujourd’hui des gens qui réfléchissent comme, je pense à Trebor Scholz, je ne sais pas si tu connais, qui a théorisé le digital labor[6] et qui, aujourd’hui, parle beaucoup de coopérativisme de plates-formes et comment refonder le modèle des plates-formes pour que les gens qui participent sur des petites tâches, des jobs journaliers, etc., qui sont revenus aujourd’hui à un système du 19e siècle : les gens sont pris à la journée, même des fois à l’heure ou à la tâche ; le Mechanical Turk de Amazon c’est à la tâche, on fait une micro tâche, on gagne trente centimes, juste pour donner le décor. Et aujourd’hui, trouver des formes de salariat, de propriété collective, etc., qui puissent répondre et protéger les gens, sans non plus freiner l’innovation, ou bénéficier au moins de ces nouvelles structures qui correspondent à un monde qui bouge, etc.
Donc voilà. Moi je pense qu’il faut plutôt chercher des solutions hybrides et là, par exemple, sur ces solutions-là, la puissance publique dont on parlait tout à l’heure, peut apporter son aide. C’est quand même triste de voir qu’à l’heure actuelle la puissance publique n’aide absolument pas l’ESS, ou presque pas, l’économie sociale et solidaire, aide très peu les projets alternatifs en termes d’OS, etc. On avait parlé à un moment d’OS made in France, operating system Android made in France avec Montebourg, ça, ça n’a jamais vu le jour. On n’a aucune puissance publique derrière tous ces projets. Et pourtant, c’est là qu’elle pourrait aussi jouer un rôle peut-être beaucoup grand qu’un truc planifié, complètement vers le haut, mais plutôt soutenir les initiatives vers le bas ; mais soutenir quand même la puissance verticale de l’État qui est quand même colossale. Et ça, c’est un problème éminemment politique. Donc je pense que si on ne conjugue pas déjà la pensée critique pour comprendre les problèmes, la nature des problèmes, la puissance publique, une approche politique, et une structure technique, effectivement, qui correspond quand même aux innovations auxquelles on est confrontés, on n’arrivera pas à des solutions satisfaisantes.
49’ 37
Tristan Nitot : Tu as vu, je suis resté super poli. Je n’ai rien dit du tout parce que je voulais que tu développes quand même ton propos qui est, malgré tout, intéressant, même si tu as dit une grosse bêtise. [Tristan Nitot donne une tape amicale sur l’épaule de Philippe Vion-Dury]. Sur le logiciel libre, le fait que ce n’est pas ergonomique, que ça ne touche pas les gens, etc., malheureusement c’est en partie vrai. Et donc, il y a beaucoup de projets de logiciels libres, c’est-à-dire des logiciels dont le code source est accessible à tous et fabriqués de façon coopérative souvent, c’est vrai que ça ne donne pas toujours des très beaux résultats. Mais il y a des choses qui fonctionnent. On en a déjà parlé. Par exemple Wikipédia, ce n’est pas vraiment du logiciel — quoique si, le moteur est du logiciel libre — mais l’encyclopédie est libre, c’est-à-dire qu’elle est faite par des contributions d’amateurs et, sans être parfaite, encore une fois, c’est une œuvre extraordinaire pour moi, Wikipédia. C’est parmi les sites les plus visités au monde et c’est du Libre. Donc on arrive à faire des succès autour du Libre. On nous dira : « Bon ce n’est pas du logiciel ! ».
Philippe Vion-Dury : C’est par Google aussi.
Tristan Nitot : Non !
Philippe Vion-Dury : Et les dons ! Et surtout c’est adossé.
Tristan Nitot : Non ! Il n’y a pas de publicité !
Philippe Vion-Dury : Attends ! Le référencement de Wikipédia fait que c’est Google.
Tristan Nitot : Oui, c’est vrai. C’est parce que Google sait que c’est le meilleur résultat quasiment à chaque fois.
Philippe Vion-Dury : Sans Google, il n’y aurait pas de Wikipédia. Peut-être !
Tristan Nitot : Oui, mais… Je ne sais pas. Je ne veux pas rentrer dans ce débat-là. Enfin il n’y a pas d’argent de Google. Google, à un moment, voulait donner de l’argent à Wikipédia et ils ont refusé ; ils n’ont jamais eu de publicité et ils ne fonctionnent que grâce à des dons, alors que moi j’étais prêt à ce qu’il y ait de la publicité dans Wikipédia, pour l’info. Mais bon ! Ç’aurait été encore une bêtise de ma part, mais, en l’occurrence, ils se débrouillent très bien sans publicité. Donc donnez à Wikipédia, c’est important !
Et il y a des succès de logiciels libres. Qui utilise, par exemple, VLC pour afficher des vidéos ? Levez la main. Voilà, OK. Eh bien c’est un logiciel libre, français accessoirement.
Firefox, il y a encore des utilisateurs de Firefox dans la salle ? Voilà, OK ! Merci, c’est gentil. Bravo ! Continuez ! Les autres, vous ne savez pas ce que vous loupez ! Essayez Firefox ! Firefox c’est du logiciel libre. Alors je ne suis pas complètement neutre parce que j’ai quand même passé 17 ans sur le projet. Mais c’est un logiciel où il y avait une vraie préoccupation de faire quelque chose d’ergonomique, de simple, etc. Et, quand même, il y a eu jusqu’à 500 millions d’appareils utilisant Firefox dans le monde, ce qui est quand même assez monstrueux. 500 millions ! Bon, évidemment, à côté des deux milliards d’internautes utilisant Facebook, c’est devenu de la rigolade, mais à l’époque, 500 millions c’était vraiment beaucoup, et ça a influencé tous les autres navigateurs, ce qui était l’objectif.
Donc le logiciel libre peut avoir un vrai succès populaire et peut avoir un vrai impact. C’est pour ça, d’ailleurs, que chez Cozy Cloud on fait du logiciel libre parce que c’est la condition, à mon sens sine qua non, pour avoir la confiance de l’utilisateur, pour avoir un anti effet boîte noire. C’est-à-dire que l’utilisateur puisse voir comment ça fonctionne à l’intérieur et ça c’est, à mon avis, essentiel. Il faut du logiciel libre pour avoir une société libre. Parce que le logiciel, maintenant, touche tous les compartiments de notre vie ; et si le logiciel n’est pas libre, si on ne peut pas l’auditer — Finalement, les algorithmes sont dans le logiciel — eh bien il faut que le logiciel soit libre pour qu’on puisse comprendre comment tout cela fonctionne et avoir la maîtrise dessus. Donc c’est important de faire du logiciel libre. Bam !
Yaël Benayoun : Eh bien écoutez merci beaucoup. Je vois qu’on arrive à la fin du débat. Du coup, maintenant je pense qu’on va passer la parole à la salle.
Tristan Nitot : Super. On va peut-être utiliser ton micro.
Yaël Benayoun : De toutes façons, il y a un micro ici.
Tristan Nitot : Non, non. On va utiliser celui-là.
Ariel Kyrou : Oui. Philippe, je voulais revenir sur un truc, parce qu’il me semble que tu sous-estimes l’adversaire. Je vais t’expliquer pourquoi. Je pense que quand on parle d’algorithmes, il faut expliquer que ça fabrique du conformisme, en fait. Ça fabrique du conformisme, notamment avec les algorithmes, c’est l’idée que lorsqu’on va quelque part on est tracé, on laisse des traces, on laisse des données, potentiellement, qu’on donne ou pas, et que tout ce qu’on fait, tout ce qu’on achète, tout ce qu’on donne, va être enregistré. Ces algorithmes vont même potentiellement s’inspirer de gens qui font comme nous pour nous orienter. Et l’un des problèmes majeurs, cette servitude volontaire comment elle se construit ? Elle se construit d’autant plus que ça va nous enfermer dans un circuit fermé. L’objectif ce n’est pas de nous contrôler. Tu parles de contrôle des GAFA. Ce n’est pas un contrôle à l’ancienne, c’est une volonté de faire en sorte que l’on reste dans le cocon, le cocon de Google, le cocon d’untel et d’untel, pour notre bien, pour notre confort et notre sécurité.
Et c’est bien pour ça qu’il y a encore chez Google des éléments d’open source. Ils ont leur grande conférence. Ce que je veux dire c’est qu’il ne faut pas sous-estimer l’adversaire et sous-estimer, guillemets, « ce qu’il fait potentiellement pour paraître bien ou pour faire le bien ». Et cette logique d’enfermement par les algorithmes elle est très pernicieuse, beaucoup plus que ce que tu décris parce que, justement, ils se contrefoutent de savoir qui on est vraiment tant qu’ils ont la case qu’il faut pour nous et tant que ce double statistique de nous-mêmes, eh bien ils fassent en sorte qu’on se prenne nous-mêmes pour lui, qu’on se confonde à lui, quelque part, pour notre bien. Ce que je veux dire c’est qu’il n'y a qu’un mode de fonctionnement, et c’est sur le long terme qu’il est surtout très dangereux. Parce que, quelque part, il abolit la logique d’inattendu, de surprise et, sans même que nous nous en rendions compte, nous enferme dans un système. Et je crois que c’est dangereux de parler comme tu le fais parfois de ces GAFA comme s’il s’agissait d’entreprises à l’ancienne, voulant contrôler à l’ancienne, ce qui n’est pas le cas et ce qui fait la différence par rapport à la logique de la NSA, à mon sens.
56’ 05
Philippe Vion-Dury : Merci Ariel, puisque je connais Ariel Kyrou.
Tristan Nitot : Bonne question !
Philippe Vion-Dury : Là je ne suis pas radical, parce je tiens à avoir une salle de gens, effectivement… Je t’encourage, du coup, à lire mon livre jusqu’au bout où je parle de big mother, justement pour reprendre cette idée d’enfermement permanent des individus dans un cocon de confort où ils sont orientés, guidés, etc., par des contrôles. Et je parle aussi de système contrôle qui succède au système disciplinaire.
Ariel Kyrou : C’est le terme de…
Philippe Vion-Dury : Oui. Terme de Foucault repris par Deleuze. Juste pour que les gens comprennent. Quand on parle d’enfermement, par exemple, le grand débat, récemment, ça a été la bulle de filtre sur Facebook. Parce qu’en gros, c’est une idée qui remonte déjà à un petit peu, c’est en 2011 que Eli Pariser[7] l’a théorisée, je crois ; en gros, c’est l’idée que si Facebook vous classe à un moment parmi la catégorie de gens qui votent libéral ou conservateur, il le sait par rapport à plein de données, avec vos relations, vos lectures, etc., puisqu'il vous suit puisqu’en fait le petit bouton like sur toutes les pages dans le Web, c’est un traceur, qui renvoie à Facebook, sans que vous ne cliquiez, qui renvoie à Facebook l’information. Donc il sait où vous allez, il sait ce que vous regardez, etc.
Une fois qu’il vous a classé dans un parti, par exemple ça peut être la sexualité, l’orientation sexuelle, politique, ça peut-être les goûts musicaux, filmiques, etc., une fois qu’il a fait ça, l’idée c’est de vous proposer des contenus personnalisés, qui vous plaisent. Et donc, si on est de gauche on ne va avoir que des contenus de gauche. Bien sûr, ça ne sera jamais que des contenus…, sinon ça va se voir, ; on fait en sorte que ça ne se voit pas trop, donc ça sera un peu plus, voire beaucoup plus.
Tristan Nitot : Parfois tu as des « macrons » quoi !
Philippe Vion-Dury : Voilà, tu as un petit « macron » qui se glisse, quand tu es de gauche. Alors qu’en fait ! Voilà.
[Rires]
Et c’est pareil pour la musique sur Spotify ou Deezer, c’est pareil pour les films sur Netflix. Le patron de Netflix a quand même dit que son ambition ultime c’était que vous arriviez sur Netfix, que vous cliquiez sur le premier lien et que ça soit la vidéo que vous avez envie de regarder : c’est ça que vous avez envie de regarder, parce que vous avez été calculé, classé, etc.
Tristan Nitot : Et l’ambition de Google, expliquée par son patron, c’est : « Moi je veux que les gens, le matin, demandent à Google qu’est-ce que je dois faire aujourd’hui ? »
Public : Incroyable !
Philippe Vion-Dury : Ça c’est dit en interview, comme ça !
Public : Par qui !
Philippe Vion-Dury : Par Larry Page.
Tristan Nitot : Président de Google et l’ancien…
Philippe Vion-Dury : Donc cette idée vachement déterministe, elle est que, finalement, on peut vous résumer à quelques données, quelques caractéristiques de votre être, et que, après, on peut organiser un environnement qui simule la liberté, c’est-à-dire le choix : on a le choix entre ça, ça, ça et ça. En fait, tous ces choix sont calculés pour vous selon une matière statistique qui est vous comparer à des millions de personnes, puisqu’on bâtit le modèle à partir de millions de personnes. Naturellement ça produit du conformisme, forcément.
Ariel Kyrou : Ils se contrefoutent de savoir qui tu es réellement.
Philippe Vion-Dury : Oui. Ils s’en contrefoutent. Et du coup, dans cet idéal-là, ce n’est évidemment pas un contrôle dans le sens où on va faire une injonction : « Regardez ça, lisez ça, faites ceci, faites cela ! » Bien sûr que non ! Dans l’idéal, ce serait qu’on demande : « Qu’est-ce que je dois faire ? », ce serait vraiment super. Mais en attendant, c’est plutôt de l’injonction soft, un petit peu du nudging, on appelle ça, donc du paternalisme libertaire.On vous suggère, on vous fait une petite poussée dans le dos : « Regarde par là plutôt, c’est mieux que par là », etc. Donc c’est vraiment un mode de contrôle, on parlait de contrôle, mais ce n’est pas du tout le contrôle hiérarchique, paternaliste, etc. C’est vraiment big mother, enfin big brother, qui est enveloppant, qui est suggestif et qui fait que vous croyez que c’est vous qui avez le contrôle sur ce que vous faites, alors qu’en fait ceci a été plus ou moins prévu et calculé, dans un ensemble de variables prédéterminées. Je ne sais pas si…
Ariel Kyrou : Oui, oui. Il fallait pousser plus loin la réflexion parce que je pense que c’est important.
Tristan Nitot : Il faut juste préciser que sur YouTube ils ne nous entendent pas sans micro, donc… Je pense à nos… [auditeurs, NdT]
Organisateur : Est-ce qu’il y a d’autres questions, éventuellement ?
Tristan Nitot : On peut poser des questions plus basiques que je comprendrais, tout ça, donc n’hésitez pas !
Philippe Vion-Dury : On peut parler de l’actualité si vous voulez aussi.
Public : Bonsoir.
Tristan Nitot : Bonsoir.
Public : On m’entend là ?
Tristan Nitot : Ouais. Parfait.
Public : Déjà, merci pour ce débat. Personnellement, j’ai appris beaucoup de choses. J’aimerais juste revenir sur quelque chose, plutôt un questionnement par rapport à ce que vous avez dit en tout début de débat quand vous parliez des pionniers d’Internet qui avaient un esprit libertaire. Qu’est-ce que vous vouliez dire par là ? Parce que, de mon point de vue, j’ai plus l’impression justement, et vous en avez rapidement parlé, que c’était plutôt des libertariens que des libertaires et que ce n’est pas si étonnant que ça finalement qu’Internet ait pris cette direction vers toutes ces énormes entreprises, etc. Et par ailleurs, juste, dans ce que je connais du mouvement libertaire, je n’ai jamais eu l’impression qu’il y avait une concentration unique sur l’État, mais plutôt que justement, l’État était un moyen, enfin était un allié des entreprises, en fait. Du coup je m’interroge juste sur est-ce qu'il y a une spécificité des pionniers d’Internet, au point de vue idéologique ?
Tristan Nitot : Elle est pour toi celle-là.
Public : Ouais.
Tristan Nitot : En plus, je ne pense que c’en est une, mais je suis content que ce soit toi qui l’aies, en fait !
Philippe Vion-Dury : Libertaire, libertarien, pour moi ce n’est déjà pas la même chose, effectivement. Moi je pensais libertaire. Dans la Silicon Valley, il y a différents courants qui s’affrontent, qui se conjuguent d’ailleurs plutôt, dont l’évangélisme typiquement américain, dont les libertariens, dont le ?
Tristan Nitot : Libertarianisme.
Philippe Vion-Dury : Libertarianisme, voilà, pardon ! Beaucoup de mots. Le libéralisme économique. Il y a beaucoup de courants. Moi je pensais au libertaire, parce que la personne qui a rédigé la déclaration du cyberespace, John Perry Barlow, a été quand même le parolier de Grateful Dead.
Tristan Nitot : Grateful Dead.
Philippe Vion-Dury : Qui n’était quand même pas connu pour être, voilà ! C’était un groupe de rock, piqué, qui prenait beaucoup de substances interdites.
Tristan Nitot : À l’époque le LSD n’était pas interdit !
Philippe Vion-Dury : C’est vrai que ce n’était pas encore interdit. Après, là, moi je ne pourrai pas répondre très précisément à cette question-là.
Ariel Kyrou : Je peux y répondre si tu veux.
Philippe Vion-Dury : Juste un conseil.
Tristan Nitot : Mais pas trop longtemps, parce qu’il faut laisser la place pour les autres. Mesdames et messieurs, Ariel Kyrou.
Ariel Kyrou : Dans la contre-culture, il y avait deux tendances en fait. Il y a une tendance politique et une tendance communautariste quelque part. Stewart Brand, qui était l’un des créateurs du Whole Earth Catalog, un des grands personnages de la contre-culture, a été, avec beaucoup d’autres, à l’origine via le Whole Earth Catalog, de ce qu’était ce qu’on appelait « les babillards », un certain nombre de sites internet et de tout un imaginaire quelque part, avec Timothy Leary aussi, et pas mal de gens de la contre-culture qui ont construit ce passage de la drogue à l’informatique comme élément d’imaginaire, comme élément de construction d’une autre façon de voir le monde.
Et c’est en ce sens-là, via ces gens-là, via le Whole Earth Catalog, via après ce qu’on a appelé le WELL [Whole Earth 'Lectronic Link, NdT], qui a été un ancêtre du Net, une sorte de réseau, de micro réseau, un grand nombre d’anciens personnages de la contre-culture. Et la grande différence qu’il y a eu, c’était moins le rapport à l’État en tant quel tel, entre ces deux courants, que ceux qui considéraient que la politique devait être un vecteur du changement alors que d’autres c’était se changer soi-même ; collectivement que tout se change via des communautés, se transforme, pour changer la société. Et c’est cet héritage-là de la contre-culture, qui est l'une des deux facettes de la contre-culture, qui s’est retrouvé dans ce monde numérique, dans ces premiers réseaux, avant même le World Wide Web en 94, et c’est en ce sens-là, quelque part, c’est cet héritage-là qui est l’héritage libertaire de ces gens-là, y compris de Google qui participait à Burning Man notamment, à ce grand festival. Et donc c’est là que se situe l’héritage.
Et il y a un bouquin que je vous conseille là-dessus, c’est le bouquin de Fred Turner[8]. Il explique très bien et il décrypte très bien l’héritage de la contre-culture et ce en quoi, justement, c’est en partie un héritage libertaire.
Philippe Vion-Dury : Juste pour compléter ce qu’a dit Ariel Kyrou ici présent, c’est par rapport à la question que tu as posée sur les entreprises aussi. Effectivement si tu relis Chomsky, Howard Zinn, à l’époque déjà, le complexe militaro-industriel c’était la peur, la hantise, c’était l’ennemi. Effectivement les entreprises étaient vues comme un ennemi potentiel, même dans ces regroupements assez libertaires. Néanmoins il faut relativiser le fait que déjà Google, il y a 15 ans, c’était une start-up, ce n’était rien, c’était le truc limite du garage, limite ???.
Tristan Nitot : C’était même une société sympathique.
Philippe Vion-Dury : C’était sympathique. Quasiment tout a commencé dans un garage : c’était frais, c’était nouveau, l’avenir en gros. Ça ne faisait pas peur et ce n’est pas du tout la grosse…, et puis ils se sont tous vraiment adaptés au discours du réseau horizontal du « startupeur », du geek, etc. C’était cool ; ce n’était pas du tout le gros mastodonte militaro-industriel qui collabore avec la NSA, avec la CIA, etc. Ça l’est devenu, mais ça n’a pas été au début. Je pense que c’est aussi pour ça que beaucoup de gens n’ont tout simplement pas vu venir. C'est aussi simple que ça.
Tristan Nitot : Et donc, je vous recommande effectivement le bouquin de Fred Turner qui est édité chez C&F Éditions, très bon éditeur puisque c’est le mien. Non ! C’est un super bouquin.
Organisateur : D’autres questions.
1 h 05’ 44
Public : Merci. Oui juste moi je voulais avoir des précisions sur le cloud personnel qui me parait une bonne solution. Est-ce que vous avez des aides publiques ? Pourquoi pas ? Enfin comment vous cheminez ?
Tristan Nitot : C’est une bonne question. Des aides publiques, dans une certaine mesure oui. Aujourd’hui l’essentiel de l’argent vient d’investisseurs privés, mais des aides publiques par la Bpi, par exemple, Bpifrance, Banque publique d'investissement, donc investissement, innovation, banque, tout ça, et qui sont des gens très bien et qui font des prêts, qui font des concours, etc., qu’on a gagnés. Donc oui, dans une certaine mesure, on est aidés. Le fait qu’on produise du logiciel libre ne rentre absolument pas en compte, enfin pas de façon significative. C'est-à-dire que si on était une start-up pour faire de l’accumulation de données, de façon extrêmement propriétaire, je pense qu’on aurait à peu près les mêmes chances en termes de financement par la puissance publique quoi ! Voilà !
Public : Bonsoir. Merci pour vos interventions. J’ai une minuscule question qui serait pour montrer rapidement, factuellement.
Tristan Nitot : Donc vous êtes en train de préparer la deuxième…
Public : Une autre un petit peu plus. Voilà. L’un de vous deux, je ne me souviens plus lequel, mais je crois que c’était vous, Philippe, avez dit que fournir un profil Facebook et les services qui vont avec, ça coûte 5 euros à Facebook.
Tristan Nitot : Non, c’est moi.
Public : Comment on calcule ça ?
Tristan Nitot : Une partie de la comptabilité de Facebook est publique parce que c’est une société cotée en bourse. J’ai pris le dos d’une enveloppe et puis j’ai commencé à regarder combien ils dépensaient, combien ils avaient d’internautes et combien ils faisaient de bénéfices. J’ai retiré les bénéfices, et j’ai fait une règle de trois. C’est à peu près mon maximum en niveau de mathématiques, et j’en suis arrivé là. Donc c’est à la fois l’investissement dans le développement du logiciel et son amélioration, et puis le fait de le faire fonctionner. C’est probablement approximatif. C’est-à-dire que s’ils ont fait des placements et que ça rapporte de l’argent, je n’ai pas retiré le truc parce que je ne suis absolument pas comptable, encore moins que mathématicien.
Public : Moi non plus, d’où ma question.
Tristan Nitot : Mais ce n’est pas très compliqué. Ça, c’étaient les chiffres en 2014, parce que c’étaient les seuls disponibles à l’époque. Maintenant, il faudrait refaire le calcul, mais je pense que c’est à peu près du même ordre. C’est quelque part entre trois et sept euros, je pense.
Public : OK. Et je vais me faire un peu l’avocate du diable, mais je trouve que les discussions c’est hyper intéressant et c’est beaucoup centré sur la dangerosité ou les risques liés à l’utilisation des algorithmes vis-à-vis du développement économique et des choix économiques, voire philosophiques de l’utilisateur. Et j’ai été étonnée que la problématique de la surveillance et les problématiques sécuritaires ne soient pas plus abordées, dans la mesure où les algorithmes ont une vraie utilité. Alors est-ce qu’on parle d’algorithmes ou est-ce qu’on parle de données personnelles ? Je n’ai pas vraiment eu la distinction. Mais quand on voit qu’il y a des situations dans lesquelles la police américaine, la semaine dernière par exemple, a essayé de saisir les données vocales qui étaient, enfin les commandes vocales, en fait, à l’Amazon Echo pour obtenir des informations dans une enquête pour meurtre, on voit les avantages sécuritaires que ça peut avoir pour les forces de police et les agences de renseignement. On voit aussi, dans ces cas-là, les capacités de résistance des plates-formes telles qu’Amazon qui vont aller jusqu’à refuser de fournir ces données en disant : « La commande vocale elle-même est protégée par le premier amendement, donc protégée par la liberté d’expression. »
Tristan Nitot : Déjà il faut vite trancher un éventuel amalgame. Je ne suis pas en train de dire qu’il faut totalement « incapaciter » les forces de police, du tout. Je veux juste dire qu’il faut impérativement empêcher la surveillance de masse. De masse ! C’est-à-dire la surveillance de tout le monde, en fait. Il faut empêcher que chacun de nous se sente surveillé. Parce que si on se sent surveillé, on est poussé, on l’a déjà dit, à la conformité. Qui dit conformité dit absence de dissidence ; absence de dissidence c’est absence de progrès social. Ce ne sont pas les gens qui sont aux commandes qui font du progrès social. Les gens se servent, je ne parle pas de costumes ou de tout ça quoi ! Ou d’attaché parlementaire ! Mais quand vous êtes aux commandes, vous avez tendance à remplir vos poches. Ce n’est ni de droite ni de gauche, ça a été très partagé. Donc ce n’est pas d’eux que va venir le progrès social. C’est des dissidents. Et s’il n’y a pas de dissidents, c’est parce qu’il y a conformité et là, on arrive dans une société de clones.
L’image qui m’est venue tout à l’heure quand Philippe a parlé de cet assureur qui veut que vous ayez un bon comportement, finalement mon assureur qu’est-ce qu’il voudrait ? Il voudrait que je ne sorte pas de chez moi pour ne pas risquer un mauvais coup de froid ou un accident de voiture ou quoi que ce soit, mais en même temps, il voudrait que je marche toute la journée sur mon tapis de marche pour quand même rester en forme et que je regarde des vidéos pour me décérébrer. Et là, je serais un bon citoyen, ou un bon client plus précisément, et probablement un très mauvais citoyen.
Donc l’algorithmique et cette approche, en fait, marchande de l’individu, nous amèneraient à vivre finalement dans la matrice quoi, pour reprendre l’imaginaire de science-fiction.
Philippe Vion-Dury : Je complète la réponse. Moi, je n’ai pas travaillé sur ce terrain, c’est vrai qu’on n’en a pas trop parlé aussi, parce que c’est un terrain qui est déjà bien défriché, et puis il n’est pas question d’aller contre les flics, etc., même si ça pose quand même, ton exemple pose une question quand même qui est celle de l’espace intime. Jusqu’à maintenant, l’espace privé qui est celui de l’appartement, par exemple chez soi, était quand même un espace intime. On laisse quand même des traits technologiques qui peuvent être dans le cadre d’une enquête : on peut consulter tout ce que tu as fait chez toi, par exemple si tu as un Echo, ou une télé connectée, comme on a de plus en plus maintenant. Ça pose quand même des questions à ce niveau-là, ça c’est encore un autre débat.
Quand on reste sur l’espace public, on a vu des grands projets européens d’analyse prédictive sur tout l’espace public pour essayer de détecter des comportements suspects dans la rue. On a vu les boîtes noires du service de renseignement qui essayaient de détecter les signaux faibles dans la matrice, réseau français, pour essayer de faire remonter la petite clochette qui dit : « Hou là, là, cette personne se radicalise ». Tout ça, déjà, ça ne marche pas, pour commencer, ce sont des échecs à chaque fois. Mais on les installe quand même puisque ça justifie la mise en place d’un discours sécuritaire et de dispositifs sécuritaires.
Deuxièmement, quand bien même ça marcherait, ça pose des questions quand même assez immenses que personnellement, on pourrait encore une fois développer longtemps là-dessus, mais moi je pense que ce n’est pas du tout souhaitable, même si on peut sauver des personnes ou empêcher même un acte terroriste.
Troisièmement, je ne sais plus, juste pour revenir au deuxièmement, par exemple les services NSA ont dit en mentant que eux ils avaient, grâce au système de surveillance généralisée — très certainement les algorithmes qui marchaient, mais on n’a jamais vu les preuves exactes, etc. — ils ont réussi à arrêter deux cents attentats, ce qu'ils disaient au début. Un mois plus tard c’était cent, un mois plus tard c’était vingt, à la fin c’était deux, mais on n’est pas sûrs du deuxième, et au final c’est zéro. Je crois même, si, c’était un truc, mais c’était une dénonciation en fait, donc ça n’avait rien à voir avec l’analyse de données.
Tristan Nitot : Ils ont arrêté un chauffeur de taxi qui avait donné de l’argent à une association dans son pays quelque part au Moyen-Orient qui, indirectement, était liée à un groupe terroriste. Ils ont arrêté le mec.
Philippe Vion-Dury : Et je me rappelle de mon troisième argument maintenant, c’était qu’il faut quand même se mettre aussi dans la perspective, même si je n’aime pas beaucoup cet argument, mais il ne faut quand même pas non plus l’écarter, qui est qu’aujourd’hui on vit en démocratie libérale — on peut lui reprocher plein de choses — mais en vraie démocratie libérale, on a quand même des gardes-fous. Demain ce n’est pas sûr, et je parle pas de Marine Le Pen, je parle dans dix ans, dans quinze ans, dans vingt ans, d’une crise mondiale, d’un durcissement sécuritaire, même sous la forme d’une démocratie autoritaire ou tout simplement d’une dictature. Tous ces systèmes qui auront justifié plus ou moins des expériences, ou de la sécurité ou aujourd’hui ça va ce n’est pas trop dangereux, etc., demain ces dispositifs sont en place. Et s’ils sont en place on peut les utiliser pour d’autres fins qui ne sont pas les nôtres aujourd’hui. Donc ça pose quand même aussi le problème de voir loin dans le futur et de se dire est-ce qu’on est sûrs de la stabilité de notre régime aujourd’hui et des gardes-fous qu’on met en place ?
Tristan Nitot : Les Américains étaient très sûrs, les Anglais aussi. Bim ! Trump ! Brexit ! Voilà. Donc on n’est pas à l’abri d’un crétin qui arriverait au pouvoir.
Philippe Vion-Dury : À savoir dans la démocratie.
Organisateur : On a deux questions pour terminer.
1 h 15 00
Public : Moi j’ai juste une petite question, en fait, Philippe vous venez plus ou moins d’y répondre. C’est toute cette idée de pêche au chalut, de surveillance de masse, où on collecte des millions de données. Justement, vos parliez de John Perry Barlow tout à l’heure, lui, son avis c’est de penser que ça ne sert pas à grand-chose, en fait, parce qu’il y a trop d’infos et trop de données et qu’ils n’arrivent pas à les analyser et, en plus de ça, qu'ils sont un peu complètement cons et qu’ils n’arrivent pas à trouver les bons outils pour les utiliser. Alors il y avait Xkeyscore, des trucs comme ça, pendant le scandale de PRISM, dont on avait parlé. Mais après, est-ce que aujourd’hui ça a changé ? Est-ce qu’ils sont capables d’analyser vraiment les données. Parce que collecter des données pour la NSA c’est une chose, mais est-ce que, aujourd’hui, ils sont réellement capables de les analyser ?
Philippe Vion-Dury : C’est même d’autant plus inquiétant, je trouve, qu’ils n’y arrivent pas. Alors juste pêche au harpon, pêche au chalut. Pêche au chalut c’est qu'on ramasse tout, et après on traitera les données, on verra bien. Pêche au harpon, c’est la tradition française, soi-disant jusqu’à maintenant. C’était qu'aussi on fait du renseignement humain et quand on y va, c’est vraiment qu’on a repéré une personne parce qu’il y a un travail derrière ça.
Pêche au chalut ça ne marche pas. Et c’est inquiétant de voir qu’ils continuent, qu’ils vendent ces services coûte que coûte et qu’ils sont prêts même à souiller l’honneur de l’État, à protéger le truc, à passer des lois qui ne sont pas du tout populaires, etc., et à affronter les médias et l’opinion citoyenne, etc., alors que ça ne marche pas. Ça veut dire qu’il y a quand même quelque chose qui justifie ça. Moi ça m’intrigue quand même, alors je ne veux pas faire de complotisme, ni rien ! Mais si ça ne marche pas, n’importe quel spécialiste dit qu’on est très loin d’y arriver. Rien que les faux positifs, il y a 1 % de faux positifs, c’est-à-dire 99 % de certitude, à chaque fois, d’arriver à détecter la bonne personne, etc. 1 % sur 66 millions de français ça fait 660 000 personnes qui sont détectées à tort. C’est une proportion tellement énorme ! Enfin, on est très loin d’y arriver. Ça veut dire, pour moi, que ça justifie — toutes ces techniques-là, ils n’espèrent pas qu’elles marchent, pas aujourd’hui, pas avant longtemps — mais ça permet de justifier un discours sécuritaire et d’intensifier, puisque par ailleurs il y a les IMSI-catcher, il y avait tout plein d’autres technologies développées à côté, et du coup ça passe un peu à la trappe parce qu’on ne met pas tout dans des boîtes noires. Soit c’est une diversion. Soit, tout simplement, c’est pour instaurer un discours sécuritaire qui justifie l’état d’urgence et d’autres choses. Et dans les deux cas, on y perd aussi.
Tristan Nitot : Il y a un problème aussi c’est qu’on ne sait pas. C’est-à-dire que d’un côté les États nous disent : « Si, si, ne vous en faites pas, ça marche, on est dessus » ; il y a des start-ups, genre Palantir, dont c’est le métier qui disent : « Oui, c’est bien, grâce à nous c’est formidable, etc. » On est quand même dans une posture, pas dans une vérité, parce que personne ne communique les vrais résultats. Ils sont trop honteux, enfin ce n’est pas bon pour le business et ce n’est pas bon pour les élections. Donc on va rester dans une posture : « Ne vous en faites pas, tout va très bien ; ça fonctionne. » Et je pense que, pour revenir à tout à l’heure, c’est un peu la démarche d’Amazon.
Quand Amazon dit : « Vous n’aurez les données d’Alexa et de l’Echo que from my colds dead hands, vous le prendrez de mes mains après m’avoir tué, c’est du business ! Parce qu’ils ne veulent pas, comment dire, ça ne se vend plus. Enfin Echo et Alexa, etc., ça va être lancé en France prochainement. Si jamais on dit : « C’est un truc, c’est un micro qui est branché en permanence », déjà on va essayer de vous faire oublier, mais si en plus si les flics le demandent, ils peuvent avoir les données, c’est super mauvais pour le business. Donc pour moi, c’est juste une posture business que de dire « ne vous en faites pas nous résistons, nous faisons barrière de notre corps pour votre vie privée. » ! Enfin si j’étais patron d’Amazon je ne ferais pas autrement, mais je ne le suis pas ! Je suis un peu de l’autre bord, quoi !
Philippe Vion-Dury : Apple avait le même argument aussi, à un moment.
Tristan Nitot : Pour Apple, je leur laisserai le bénéfice du doute. Pour avoir étudié la protection d’Apple, je pense qu’Apple fait énormément. Déjà en termes de business modèle, Apple n’est pas dans un modèle de publicité ciblée, donc ils ne sont pas dans un modèle d’accumulation de données. Donc le <em<device, votre iPhone, il accumule des données, c’est vrai, mais ce n’est pas leur business modèle. Ils vous vendent des iPhones qui sont extrêmement chers. Il faut voir que Apple récupère 105 % du bénéfice généré sur le marché du smartphone. C’est plus de 100 % parce qu’il y en a qui perdent des sous donc Apple les gagne, dessus. Ils gagnent l’argent que les autres perdent. Donc Apple gagne beaucoup d’argent avec l’iPhone ; ils n’ont pas besoin de vous espionner pour gagner de l’argent en plus. Et ils ont un trésor de guerre écœurant, c’est plusieurs centaines de milliards. Ce n’est pas le problème et, en plus, technologiquement, ils mettent en place un certain nombre de systèmes qui sont plus respectueux de votre vie privée que chez Android. Chez Android, le ver est vraiment dans le fruit. C’est structuré pour être un cheval de Troie. Chez Apple c’est moins le cas.
Public : Ça ne les empêche pas de fabriquer des iPhones, des machins comme ça, et de bien polluer la planète.
Philippe Vion-Dury : Des gens qui ont des principes, qui font travailler Foxconn ! Et voilà !
Tristan Nitot : Mais il y a plein de choses. Pour être très clair, quand on me demande est-ce qu’il faut acheter un iPhone ou un Android, je dis c’est peste ou choléra. Donc il n’y en pas. Mais sur la vie privée, l’iPhone a un avantage que l’Android n’a pas. Maintenant, si vous voulez parler d’Apple, on va boire un coup et j’en dirai beaucoup de mal.
Public : Dernière question. Déjà merci pour vos interventions, c’était super intéressant. Je voudrais revenir sur la surveillance généralisée, donc c’est peut-être plus pour toi Tristan, sur, je t’appelle Tristan, c’est bon ?
Tristan Nitot : Eh bien c’est comme ça que je m’appelle en plus !
[Rires]
Public : OK ! Tous les dispositifs qui existent pour passer un peu entre les mailles du filet généralisé, on a cité Firefox par exemple, on peut citer Qwant, etc., tout ça c’est très bien. Mais comment on peut espérer vraiment passer entre les mailles du filet alors que tous les sites sur lesquels on va nous traquent, par le petit bouton par exemple Facebook, par tous les services Google qui peuvent être activés sur ces sites, etc. ? En fait, pour résumer ma question avec peut-être une petite une petite image, c’est combien de personnes parmi les gens qui ont levé tout à l’heure pour dire qu’ils utilisaient effectivement Firefox, combien utilisent Firefox pour aller sur Facebook ?
Tristan Nitot : Oui ! Ça c’est sûr que c’est un vrai problème. Pour ma part, par exemple je vais très peu sur Facebook. Je n’ai pas installé l’application Facebook sur mobile parce que c’est vraiment le cauchemar quoi !
Public : Moi non plus !
Tristan Nitot : Bravo ! Par contre je suis accro à Twitter. J’utilise Firefox avec des extensions qui vont bloquer tout ce qui est pistage. Donc déjà ! Je suis un personnage assez public donc je laisse forcément beaucoup de traces, j’utilise mon vrai nom, je n’utilise pas de pseudonyme, etc. Mais je comprends comment ça fonctionne, et j’accepte ce prix. Mais je pense que je laisse beaucoup moins de données que 90 % des gens, en fait, sur Internet, des gens qui utilisent Internet.
Public : Est-ce que ton profil chez les GAFA n’est vrai, du coup, qu’à 96 % au lieu de 98 ? Enfin est-ce que ça vaut vraiment le coup ?
Tristan Nitot :Oui. Peut-être que c’est vrai ! Je pense que mon profil Facebook il est bien pourri par contre. J’ai je ne sais pas combien de milliers d’amis que je n’ai jamais vus, que je ne connais absolument pas. Je pense qu’il y a beaucoup de bruit dans mon profil Facebook qui est alimenté uniquement par ce que je mets sur Twitter. Donc finalement très peu, parce que Twitter collecte peu d’informations. En plus j’utilise Twitter depuis le navigateur et pas depuis de l’application, donc il y a en plus un sand boxing dessus. Enfin bon ! Et encore je ne suis pas 1 % parano par rapport à mes collègues.
Public : Donc du coup j’avais une deuxième mini question, pour conclure, sur ordre de monsieur là-bas.
Tristan Nitot :Il a une veste, ça doit être le chef !
Public : C’est ça. Sinon il m’attend à la sortie, il me tape dessus. Du coup, par rapport à ces questions, je sais bien que ça ne sort pas trop dans le débat public, si on pense, par exemple, au débat d’hier sur TF1, si vous deviez choisir un candidat pour porter ces questions, vous choisiriez ? Désolé !
[Tristan Nitot si cache le visage derrière la main] [Rires]
Tristan Nitot :Je sors mon joker !
Public : Vous avez le droit ! Est-ce qu’il y a un candidat qui défend ? Un candidat ou une candidate ? Qui a un discours, je ne sais pas. Mais bon ! Vous n’êtes pas obligé de répondre. Sauf s’il y a un avis.
Philippe Vion-Dury : Il y a effectivement un discours de la part de Hamon sur la taxe des robots, etc., ; ça c’est le seul truc dans son programme qui est un petit peu sur le numérique. Il y a de l’open data, mais bon tout ça, ça ne m’intéresse pas. Je trouve que c'est de la théorie. Sinon, il y a aussi une page, sur 125 je crois, dans le programme de Mélenchon, donc ça dit la place qu’il accorde à ça. Sinon après on est sur de l’épiphénomène, on est sur de la taxation, de la régulation, mais pas de mesures, de projet ou de vision qui se dégagent aujourd’hui de la part les candidats, à ma connaissance.
Tristan Nitot :D’autant que sur Mélenchon, on parlait tout à l’heure de l’éventualité de subventionner du Libre par la puissance publique, ce qui me paraît une idée intéressante, peut-être sûrement imparfaite mais à explorer. Et Mélenchon a déclaré récemment qu’il voulait taxer les communs informationnels, donc c’est-à-dire le contraire de la subvention du Libre, quasiment comme s’il voulait taxer le Libre en substance. Eh bien là ma mâchoire s’est décrochée, et puis j’ai éteint le poste quoi !
Organisateur :Du coup, on ne va pas éteindre, mais on va devoir s’arrêter là. Après ça n’empêche pas, vous le savez, il y a un bar juste à côté à-bas, je vous encourage à y aller. Ce n’était même pas fait exprès !
Tristan Nitot :Merci à tous en tout cas.
Yaël Benayoun : Merci à vous.
Applaudissements
- ↑ Le Mouton numérique - Des débats pour la société qui innove
- ↑ Cozy Cloud
- ↑ Time - Big Data, Meet Big Brother
- ↑ GDPR - Règlement général sur la protection des données
- ↑ Evgeny Morozov
- ↑ Le travail numérique
- ↑ Eli Pariser
- ↑ Fred Turner - Aux sources de l'utopie numérique : De la contre culture à la cyberculture