Conclusion - Web débat surveillance numérique et libertés fondamentales

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Web débat surveillance numérique et libertés fondamentales - Conclusion(s) - Les innovations numériques, au service du bien individuel et collectif ?

Intervenant·e·s : Laurence Devillers - Antoinette Rouvroy - Irénée Regnault - Karolien Haese - Valérie KokoszKa- Jean-Marc

Lieu : Vidéoconférence

Date : juin 2020

Durée : 21 min 05

Visualiser la vidéo

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Transcription

Antoinette Rouvroy : Ce sont des non-conclusions parce que ce genre de débat est interminable, mais il faut bien terminer quand même, c’est ce que le juge fait quand il tranche sur fond d’incertitude ; ce n’est pas fini, mais il doit finir quand même.
Je dirais que le gros risque c’est de se complaire dans une sorte d’État science-fiction. En fait de se satisfaire, finalement, d’un mode de fonctionnement qui serait dicté par un impératif d’optimisation d’absolument tout. Chacun optimise, ce n’est plus la lutte des classes, c’est la lutte des places, et chacun finalement est en concurrence avec tous les autres à l’échelle de la phéromone numérique, c’est-à-dire du signal absolument insignifiant mais qui va être recomposé, compilé, comparé avec les signaux émis par les autres et c’est comme ça qu’on est dans une sorte d’économie de la réputation où tout le monde est noté, c’est l’ubérisation, « je vais avoir combien d’étoiles ? Et toi tu as combien d’étoiles ?, etc. », et c’est ça, beaucoup plus que la standardisation des comportements.
Le risque, au contraire, c’est finalement d’être gouverné hors les normes parce qu’il n’y a plus de normes ; on n’est jamais assez normal ! On n’est jamais assez souriant quand on est chauffeur d’Uber, etc. On est gouverné avec des normes, mais on se dilue dans les flux, parce c’est impossible d’exister en tant que sujet dans ce genre de contexte. D’ailleurs le sujet est complètement évacué, c’est pour ça que s’arc-bouter sur la question de protection des données personnelles, etc., je pense que c’est très utile la protection de la vie personnelle, mais pas pour ici, pas pour ce contexte de données massives, etc.. La donnée personnelle n’existe pas, la donnée n’est jamais que relationnelle. Ce qui donne une utilité potentielle à une donnée personnelle c’est la possibilité qu’elle a d’être mise en corrélation avec d’autres données qui n’ont absolument rien de personnel par rapport au sujet. Ça c’est une chose.
L’aspect très collectif me semble absolument important.
Par ailleurs, je ne résiste pas à la tentation, un peu perverse je dois dire, de répondre à Laurence Devillers une phrase qui n’est pas de moi, que je n’assume pas personnellement, c’est vraiment la lâcheté absolue, c’est Giuseppe Longo, mathématicien. Dans un colloque au Collège de France organisé par Alain Supiot à la fin de sa carrière, j’étais dans un panel avec Giuseppe Longo et il a dit : « Un monde dans lequel les petits-enfants et les petits chiens ne font plus caca est un monde de merde ! ». J’ai trouvé ça assez terrible ! Certes, je n’irais pas jusque-là, c’est une blague évidemment, mais ça rejoint mon souci pour, finalement, cette obsession immunitaire du tout calculable. L’enjeu ce n’est plus de gouverner, en fait, le sol que nous avons sous nos pieds, ce n’est plus de gouverner les personnes, ni même à la limite leurs comportements, mais d’immuniser ce qu’on peut bien appeler le capitalisme et les flux capitalistiques contre tout ce qui logiquement devrait les interrompre urgemment étant donné les urgences du moment c’est-à-dire la vie, la vie même, dont la caractéristique essentielle est précisément l’altération imprévisible, les sujets, les sujets individuels et collectifs qui sont ici complètement contournés par des dispositifs de profilage, etc., qui ne s’intéressent finalement qu’à des fragments infra-personnels d’existence quotidienne et qui sont traités à l’échelle industrielle, qui sont reliés statistiquement à des modélisations qui sont établies à l’échelle industrielle, des modélisations sont, au départ, assez impersonnelles mais prédictives. Donc ce qui est court-circuité c’est vraiment le sujet individuel mais surtout collectif et politique. Et enfin, le monde lui-même. Croire qu’on peut substituer au fait d’interroger le monde dans sa matérialité, qu’on peut substituer à ça, à l’enquête, à des preuves, à l’examen dont Michel Foucault a tellement bien parlé, qu’on peut substituer à ça simplement les data sciences, c’est comme si les data sciences allaient pouvoir nous dire quoi que ce soit alors qu’en fait ce qu’elles produisent essentiellement – je caricature un peu parce qu’on a peu de temps – ce sont, si vous voulez, des fenêtres d’opportunités, ce sont des risques et des opportunités. C’est-à-dire que ça donne finalement une prise à l’advenir. C’est-à-dire que ça permet à certaines entreprises, par exemple, de coloniser quelque chose qui précédemment était totalement hors d’atteinte qui est la potentialité pure, c’est-à-dire notre avenir.
L’enjeu est véritablement politique. C’et ce qu’il faut interrompre. Nous, en tant qu’êtres humains, qui avons des corps qui sont situés, nous ne pouvons nous relier les uns aux autres, donc nous confronter à de la politique c’est-à-dire à ce qui n’a pas été prévu pour nous et qui engage bien plus que nous, qui engage ce qui n’a pas laissé de traces numériques parce que c’est l’avenir, les enfants de nos enfants n’ont pas laissé de traces numériques et ne sont pas représentables aujourd’hui. Pour donner voix à ce qui n’a pas de voix aujourd’hui, nous sommes bien obligés d’interrompre tout ça de temps en temps. Il faut de l’espace, il faut du temps et il faut de la persona c’est-à-dire de la personne juridique. Je pense que la personne juridique, le sujet de droit n’est absolument pas soluble dans le numérique.

Valérie KokoszKa : Oui, absolument. Irénée.

Irénée Regnault : Ça va être dur de passer après cela. Merci Antoinette. Quoi dire ? J’ai quand même l’impression, hormis cette dernière intervention, on rétrécit ??? un peu l’éléphant dans la pièce. La plupart des technologies qui sont déployées, des technologies de surveillance le sont, en France en tout cas, plutôt par des entreprises, des entreprises qui pratiquent un lobbying intense sur nos élus. Je pense qu’on aura beaucoup de mal à interroger la démocratisation des choix techniques, scientifiques, si on n’interroge pas la provenance des capitaux et les idéologies sous-jacentes, les systèmes économiques sous-jacents.
Peut-on faire une technologie humaine, centrée sur l’humain, je ne sais pas ce que ça veut dire mais ça veut sans doute dire quelque chose dans un système capitaliste qui cherche la performance, qui fait de l’innovation pour de l’innovation, ça c’est une question.
Il y a un exemple que je trouve rigolo, on l’a décrit dans notre bouquin qui va sortir, on parle, à un moment donné, de l’automatisation des caisses par exemple dans les hypermarchés ; vous allez me dire que c’est n’est pas un algorithme, c’est une machine, finalement c’est quand même un petit peu comme un algorithme. On met des caisses automatiques dans les hypermarchés pour faciliter le travail des caissières, c’est ce qu’on dit, en fait c’est tout l’inverse, ça détruit complètement le collectif de travail et le travail du caissier ou de la caissière, tout en réduisant éventuellement une partie des emplois. Donc ça transforme, ça réduit, ça nuit à l’emploi et ça automatise, ça a conforté un système d’hypermarché qui, et on le sait bien, n’est pas souhaitable, les hypermarchés en périphérie des villes qui, eux-mêmes, vont conditionner tout un étalement urbain qui est derrière. Regardez où est-ce qu’il n’y a pas de caisses automatiques c’est souvent dans les coopératives. Juste pour avoir ce rapport à la technologie, ce rapport dans l‘entreprise, en tout cas dans l’entité productive ce n’est pas toujours une entreprise, ça peut être autre chose.
Comment, Laurence Devillers par exemple, puisque vous le suggérez, on peut aller au contact de gens pour faire des bonnes machines avec eux ? Eh bien ça pose la question des objectifs qu’on poursuit, des objectifs socio-économiques qu’on poursuit dans la vie. Et dans la vie il y a la sphère productive qui est aujourd’hui est à part de la vie, elle n’y est pas comme avait dit ???, elle est encastrée dans la société. Cette question-là est quand même sous-jacente.
Aujourd’hui, si on a une intelligence artificielle complètement pourrie, qui suit des objectifs complètement hors-sol et qui fait strictement n’importe quoi, qui accélère, je n’ai pas d’autres mots pour le dire, on est en train d’accélérer, ce qui ne faudrait pas faire, mais c’est bien parce que qu’on ne se pose pas ces questions. Si on veut revenir à la question démocratique, posons-nous aussi la question du cadre socio-économique dans lequel nous vivons, du rôle des entreprises dans une société, je crois qu’on est aussi beaucoup à s’en rendre compte, il y a eu la loi PACTE, des choses qui bougent un petit peu, ça va quand même très lentement. Si on n’interroge pas ça, concrètement on va passer à côté du problème, on va continuer avec les mêmes formes juridiques, avec les mêmes objectifs, avec la même éthique, avec à la fin la fin des objets seront déjà là et qui auront pollué et sans tenir compte des transformations que cela aura pu opérer chemin faisant.

Valérie KokoszKa : Je pense que je peux faire la transition entre vous parce que je suis assez d’accord, en tout cas, sur vos deux interventions.
Déjà ne fut-ce que sur la question de l’individu. Pour moi effectivement, en posant la question de la liberté fondamentale, c’est d’abord celle de l’engagement et de l’engagement de l’individu, de la personne dans le monde dans lequel il est. Et cela avec tous les possibles, non pas au sens de l’avenir, mais au sens de l’inédit, au sens de ce que l’on est sans cesse capables de découvrir en en faisant les preuves, ce qui nous rend littéralement créatifs là où la machine ne peut, au mieux, qu’être innovante. C’est-à-dire avoir finalement une facilitation, une amélioration d’un processus qui est déjà connu.
Je pense que seul l’humain est créatif parce qu’il est le seul à être affectable par quelque chose d’imprévu qu’il peut reprendre et générer autrement.
D’une certaine manière, ce qui m’ennuie aussi dans cette espèce de machinisation du monde, c’est finalement qu’on est de plus en plus privés d’une créativité aussi bien individuée que collective. Et c’est en cela que, quelque part, le fait de perdre en liberté, en liberté fondamentale, mais ce n’est pas au sens de ce qui nous fonde et de ce qui nous permet de nous fonder ensemble collectivement, mais finalement créer toujours plus de distance entre nous et toujours moins d’inscription dans le monde dans lequel nous vivons, au sens strict, d’en faire les preuves.
Je vais m’arrêter là parce qu’il y a encore deux personnes qui ont à intervenir et clôturer, mais je vous remercie de toute manière parce sera mon dernier mot de ce débat.
Laurence, Karolien.

Karolien Haese : Vas-y Laurence, avec plaisir.

10’ 37

Laurence Devillers : Je vais intervenir sur deux niveaux.
Je pense qu’on a aussi à apprendre sur nous-mêmes avec ces machines, je vais essayer d’être positive parce qu’il y a eu tellement d’aspects un peu à risque avant moi que je vais me permettre de pousser vers les bénéfices, au moins l’ouverture d’esprit à la créativité.
Je me rappelle avoir travaillé un peu avec EDF sur des projets innovants. Par exemple dans un jury quelqu’un arrivait avec un système de réalité virtuelle pour essayer d’apprendre les gestes de secours et demandait aux gens qui étaient là – majoritairement masculins, il n’y avait pas de femmes, il y avait moi et une autre, mais très isolées – à tous ces grands esprits « avez-vous déjà fait ce genre de séance, d’apprentissage des gestes qui sauvent ? » Ils ont répondu oui, moi je ne l’avais jamais fait, mais j’avais vu des gens qui l’avaient fait, qui montraient ces gestes-là. La deuxième question de cette personne c’était : « Vous voyez quelqu’un qui s’écroule devant vous dans la rue, allez-vous l’aider ? » Et là, personne n’a levé la main. Moi je l’ai levée parce que je me suis dit il faut faire quelque chose, voyons avec ce que je connais.
En fait, il montrait de la réalité virtuelle qui permettait en deux/trois heures d’avoir l’acquisition des gestes et de comprendre en expérimentant dans un champ qui était virtuel et réel quelque chose qui permettait de mieux marquer l’apprentissage et la compréhension des gestes qu’il fallait faire. Il y avait un faux mannequin, il y a une projection sur lui. Quelqu’un qui accompagnait, c’était très important aussi, donc dans le monde réel, qui était une voix qui accompagnait dans la démarche d’apprentissage avec un casque virtuel. Et pour avoir expérimenté la virtualité pour d’autres choses, pour se rendre compte, dans l’écologie, ce que c’est que de faire brûler une forêt ou comment pousse une graine, enfin des choses comme ça, on a à apprendre avec ces outils étranges à mieux comprendre certaines choses. Donc si on pouvait les utiliser comme ça, on aurait intérêt à comprendre la créativité des machines.
La deuxième chose c’est le collectif qui m’intéresse aussi. Récemment je suis allée travailler, j’ai participé à des débats, je montre ce que c’était [Laurence montre une affiche, NdT], c’était « L’Urgence des alliances » et ça c’est pour moi le vrai sujet. J’ai parlé de quoi ? On parlait de culture et de santé, de culture et d’économie, de culture et d’éducation et je suis intervenue dans un débat sur la culture et la science. Comment on fait pour faire passer ces outils de techno-science auprès de tout le monde ? Comment on fait pour faire que la littérature, le théâtre parlent plus de ces sujets ? Pour l’instant on voit l’aspect juridique, on parle d’éthique, tout ça, mais arrêtons, parlons de la vie de tous les jours et regardons comment on peut améliorer la vie de tous les jours des gens sans contraindre forcément leur liberté. Je comprends ! Cette façon de le voir c’est facile, c’est le premier truc qu’on voit. Évidemment, si vous êtes en captation partout, où vont vos données… Imaginons qu’on arrive quand même à gérer la cybersécurité, à laisser vos données sur l’objet, tout un tas de choses qu’il faut verrouiller, imaginons que l’objet soit aussi à priori ethic by design, c’est pour ça que ce n’est pas forcément a posteriori. Ce que l’on pense vraiment maintenant c’est qu’il faut coconstruire les objets avec l’usage, avec des gens maîtrisent bien l’usage qu’on veut faire, qui ne le maîtrisent pas tout le temps mais en tout cas qu’il y ait cette boucle de co-contruction de l’objet avec différentes personnes en pluridisciplinarité, que soit des industriels mais aussi avec des économistes, mais avec aussi, peut-être, des psychiatres, les questions de l’humain dans la boucle qui pourrait en avoir des effets secondaires. Il est important de concevoir comme ça. C’est ça qu’il faut pousser pour moi.
Et puis il faut apprendre à penser loin, c’est-à-dire à écouter, à douter, à chercher, à risquer, et la façon dont les scientifiques abordent une problématique c’est de prendre des hypothèses, de faire un cadre, de proposer des protocoles, d’essayer d’évaluer ce qu’ils ont fait. Pouvoir remettre en question les choses c’est, à mon avis, une façon assez saine d’appréhender le futur avec ces machines.
C’est dans cet échange transversal entre sciences humaines, sciences dures et techno-sciences qu’on va pouvoir, j’espère, construire pour amener le politique à être plus conscient des enjeux.

Valérie KokoszKa : Merci beaucoup. Karolien pour finir.

Karolien Haese : Pas facile de conclure quand on a trois brillants intervenants juste avant !
Je pense qu’aujourd’hui le résumé de ce qu’on a entendu c’est ce besoin qu’on a d’urgence de réconcilier l’homme avec la machine, de réconcilier l’homme, l’individu avec l’intelligence artificielle, avec cette notion de la plus-value que peut apporter, à un moment donné, l’algorithme dans notre vie de tous les jours.
Cette première étape de réconciliation va, et on l’a entendu plusieurs fois, passer par une éducation, une sensibilisation, une formation citoyenne à ce qui est et restera effectivement un outil au profit de la citoyenneté, au profit des politiques, au profit de l’entreprise, au profit du bien-être, dont il faut absolument éviter la dérive. Donc quelque part, dans le cadre de cette réconciliation, il faudra aussi et toujours se souvenir, et on l’a entendu plusieurs fois, que c’est l’homme qui crée la loi, c’est l’homme qui crée le cadre, c’est la politique qui, à un moment donné, est capable de dire voilà où on en est aujourd’hui dans les choix que font nos citoyens aujourd’hui, et vous, concepteurs de cette technologie, vous, concepteurs et programmeurs humains de ces algorithmes, n’oubliez pas que ce cadre existe. Il ne faudrait pas inverser la dynamique pour, à un moment donné, arriver à ce que la loi s’adapte à la vitesse ou à l’intelligence artificielle et ses prouesses à venir, mais qu’au contraire l’intelligence artificielle s’adapte aux objectifs qui sont des objectifs qui doivent être fixés par la loi, donc par la création citoyenne, la création politique, on l’a répété plusieurs fois. Il s’agit avant tout d’un problème citoyen, d’un problème politique.
Rappelons que la loi est là pour être votée dans la citoyenneté, pour donner finalement un dynamisme, aussi pour freiner lorsque les choses vont trop vite ou pour éventuellement accélérer, on l’a vu avec le covid, lorsque c’est nécessaire et lorsqu’on a besoin d’un outil plus performant.
N’inversons pas cette dynamique et revenons à ces bases de fonctionnement de la démocratie qui sont constitutionnelles, qui veut qu’on élût un parlement démocratiquement avec des attentes citoyennes exprimées par rapport à un politique et aujourd’hui une très grande déception citoyenne par rapport à des attentes auxquelles les politiques manifestement ne répondent pas, tantôt influencés par le lobbying, tantôt influencés par un besoin d’argent parce qu’ils ne peuvent plus faire face à une solidarité et payer finalement ce qu’il faut pour permettre à la majorité des citoyens de bénéficier de l’accès à la santé, à la culture, à l’enseignement et à la sécurité, ou tantôt influencés beaucoup plus gravement par leurs propres égos et leur propre course au mandat, en espérant que c’est effectivement la minorité des politiciens qui le vivent.
On l’a vu encore aujourd’hui avec la condamnation de François Fillon qui est largement basée sur des documents qui ont été produits post-traçage financier. Ça c’est vraiment l’exemple où l’on peut dire à un moment donné, on a un outil, on a un outil qui permet d’améliorer la justice, mais on a un outil qui ne peut certainement pas remplacer un juge. On a un outil qui peut permettre d’arriver à de l’evidence-based en médecine, mais on ne peut certainement pas, à un moment donné, dire au médecin « merci, c’est bien gentil ». On a, comment expliquer, une majorité, en tout cas une proportion suffisante pour dire que le taux d’erreur de la machine est équivalent à celui du médecin, donc on va se passer du médecin, oubliant l’individu.
Ce que j’en retiens aujourd’hui : inversion des dynamiques qui est bien présente parce que l’outil est poussé pour de multiples raisons dans la société, donc un retour, un besoin de se retourner vers le citoyen en disant « citoyens, n’oubliez pas qu’à la base, quand vous allez élire quelqu’un, quand vous allez discuter avec une association, quand vous êtes à l’école, quand vous parlez effectivement avec des spécialistes, c’est vous qui, quelque part, fixez le cadre dans lequel vous avez envie d’évoluer ». Un débat citoyen c’est aussi ça et ce cadre, eh bien on le met en place et l’outil doit être au service de ce cadre, doit être au service de l’humain. Si on revient, effectivement, avec la phrase marketing de « l’humain au centre » – phrase dont j’ai absolument horreur, parce que heureusement que l’humain est au centre, il ne faudrait même pas le dire, ça doit être une évidence – si on veut mettre l’humain au centre, laissons lui fixer quelque part le cadre dans lequel les machines doivent évoluer quitte à ce que, et on le voit. Le monde de l’entreprise cette année-ci, Davos en 2020, a vraiment cédé, je dirais, à ça, en parlant d’actionnariat de parties prenante, pour la première fois, plutôt que de parler d’actionnariat, comme on le connaît à la base, des investisseurs.
On voit bien qu’il y a un changement de mentalité qui se dessine en disant « oh là, là,les parties prenantes » ! On commence par le citoyen ça c’est ???. Et je clôturerai là-dessus.

Valérie KokoszKa : Merci. Jean-Marc.

Jean-Marc : Merci beaucoup. C’était passionnant. J’ai beaucoup apprécié toutes ces conclusions. Je voulais juste faire une petite remarque en tant que médecin clinicien. La crise, j’ai vu surtout de l’IH et de l’IC, ça veut dire l’intelligence humaine et de l’intelligence collective qui ont bien fonctionné par rapport à l’apport de l’IA. Pourtant je suis quelqu’un qui souhaite intégrer l’IA non pas comme une finalité mais comme un moyen intéressant. Pour moi c’est l’équation gagnante, en tous les cas dans le domaine dans lequel je travaille, c’est-à-dire la médecine où l’humain est évidemment au centre. Merci.

Laurence Devillers : Merci beaucoup de cette rencontre.

Valérie KokoszKa : C’est impossible ! Merci à tous.

Irénée Regnault : Merci beaucoup.

Jean-Marc : Merci à tous.

Karolien Haese : Merci beaucoup. Très bonne soirée.