Web débat surveillance numérique et libertés fondamentales . Part4

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Web débat surveillance numérique et libertés fondamentales - Innovations, libertés fondamentales et contre-pouvoirs ?

Intervenant·e·s : Laurence Devillers - Antoinette Rouvroy - Irénée Regnault - Karolien Haese - Valérie KokoszKa

Lieu : Vidéoconférence

Date : juin 2020

Durée : 15 min 30

Visualiser la vidéo

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcrit : MO

Transcription (relu avec audio par Véro)

Valérie KokoszKa : Là, pour moi, il y a quand même deux choses.
La toute première c’est qu’une des raisons, je pense, de la peur du citoyen c’est que très souvent l’intelligence artificielle, avec toutes les réserves qu’on peut avoir, puisque personnellement je pense que qu’il y a plus d’artifices que d’intelligence, notamment justement dans cette puissance de calcul, c’est qu’elle très fréquemment employée pour remplacer ce qui se fait déjà par des gens. Donc elle ne permet absolument pas de cumuler des intelligences et d’ouvrir, d’avoir une créativité. Mais cette créativité-là, de nouveau, pour quoi faire ? Au profit de qui ? Du bien personnel ? Du bien commun ? Et ça, ça doit pouvoir s’analyser.
Sur le plan cette fois de l’éthique et des libertés et du droit. Il me semble qu’on peut aussi observer de nouveau une autre inversion. Il me semble que cette crise l’a bien mise en évidence, c'est celle de la proportionnalité des objectifs. On a l’impression que pendant tout un temps on pouvait limiter les libertés pour atteindre, de manière proportionnée, un objectif précis. Or aujourd’hui on a le sentiment que c’est l’inverse, que d’emblée ce sont les libertés qui sont proportionnées à des objectifs inconnus, c’est-à-dire qui n’ont pas été discutés de manière démocratique. On ne sait pas ce qui va se décider. Et toute la difficulté, me semble-t-il, est là. C’est-à-dire qu’on doit pouvoir avoir une créativité de ces outils. Il n’y a pas de raison qu’on se prive d’une créativité, de possibilités. Mais il faut en avoir les conditions, il faut en avoir quelque part une certaine maîtrise. Ça doit rester, finalement, des outils au bénéfice du bien individuel et/ou collectif, avec un « prix », entre guillemets, que nous serions éventuellement d’accord de payer. Il me semble que ça, ça doit vraiment faire la base, le point de départ d’une position citoyenne avec effectivement une éducation qui ne permet pas de comprendre et d’accepter ce qui est proposé, mais éventuellement de le souhaiter et de le vouloir.
Je ne vois pas pourquoi très souvent le discours c’est celui-là, c’est celui de l’acceptabilité sociale des outils.
On est vraiment très peu ambitieux finalement, parce que accepter un outil, mon Dieu quelle tristesse ? Il me semble que les seuls qu’on peut vouloir, comme citoyen, comme humain, ce sont ceux qui sont désirables pour nous. Me semble-t-il !
Je voulais ajouter quelque chose, un élément parce que de nouveau je crois qu’il est important, et pour moi ce n’est pas seulement une question éthique, c’est une question de liberté. Une liberté fondamentale ce n’est pas quelque chose qu’on défend, ce n’est pas quelque chose qu’on protège, c’est quelque chose qu’on exerce et on l’exerce dans un lieu, dans une matière, avec ce que l’on est.
Je pense que là c’est important aussi de pouvoir réfléchir à nouveau à ce que ces dispositifs font à l’exercice concret, matériel de nos libertés, non pas sur le fond du droit ou de l’éthique.

Laurence Devillers : C’est tout à fait intéressant parce que c’est le fondamental pour moi est vraiment le temps. C’est-à-dire que la mise en œuvre actuellement de l’IA est faite à une allure incroyable. Les productions de publication c’est la même chose. On a accéléré, on est tous sur le temps court. Moi je mets ça sur une origine qui n’est sûrement pas la seule, en tout cas cette information en continu qu’on a maintenant. Les premières radios ou télés à faire du continu c’était il n’y a pas si longtemps et, depuis, ça s’est complètement déchaîné sur toute la toile. On vous demande maintenant une attention directe et une réaction directe, c’est ça le système. Là-dessus il y a une manipulation des foules qui est fondamentale.
Pour revenir à l’idée du droit par rapport à ça, c’est qu’il faut un temps plus long pour arriver à mettre en œuvre les lois qu’il faudrait. Il faut un temps plus long pour que la politique et la gouvernance soient capables de prendre en charge les choses. À l’heure actuelle on court après la déferlante qui arrive, pas forcément que de l’Europe, qui arrive avant tout de l’Asie et des États-Unis. On subit totalement. Je suis tout à fait d’accord.
Comment fait-on pour inverser les choses ? Je pense qu’il fait arrêter d’être trop sceptique, il faut faire. Il faut faire en prenant en compte exactement ce que vous avez dit tout à l’heure qui m’impacte, qui m’intéresse, cette co-adaptation avec les machines.
Je parlais quelquefois de coévolution parce que j’avais vu ce mot, mais évidemment que la machine n’évolue, elle s’adapte, à la limite ce n’est même pas sûr que ce terme soit suffisamment non-anthropomorphique pour être utile, mais en fait on n’a pas beaucoup de termes pour expliquer le comportement de ces machines créatives.
Effectivement, en fonction de ce qu’on va faire, de ce qu’on va dire, la machine va s’adapter. Mais nous sommes totalement comme cela tout le temps, avec tout.
Il y a par exemple un truc très parlant pour ça, à l’IRCANN, qui était fait par des chercheurs : vous êtes en train de parler, vous êtes enregistré, on vous restitue la voix dans votre casque, vous entendez, et j’élève le pitch, j’élève le fondamental, je le mets plus haut, apparemment les voix plus hautes vont paraître plus positives. Eh bien sur une statistique suffisante, on montre que quand vous entendez votre voix plus haute, vous êtes plus heureux. Vous imaginez à quel point notre cerveau nous manipule et nos émotions sont prégnantes partout. Donc les biais cognitifs et cette boucle que nous utilisons sans arrêt, entre humains, pour nous comprendre, pour cocréer, pour engendrer des idées, des concepts et tout ça, n’existe pas dans les machines, ce haut niveau n’existe pas, c’est de la sémantique ontologique qu’on a mise et qui n’est pas créative. Ce qu’elle sait créer c’est du bas niveau. C’est effectivement l’appropriation de micros pixels qui sont ensemble, on va débusquer les problèmes sur les cancers.
Si on a cette connaissance des capacités réelles des machines, on peut les utiliser au mieux pour nous, pour éviter de tomber dans la dépendance de cette co-évolution.
Moi j’en parle sur l’affectif, en plus, qui va très loin si on n’est pas suffisamment à même justement de se dégager.
Quand vous parlez de désirabilité, je ne sens pas chez les gens cette désirabilité de mieux comprendre ou d’expérimenter, de jouer avec, tout le temps. Ils sont pressés d’avoir un objet désirable et pas tellement la fonction, et en ça les GAFA sont très forts, beaucoup plus forts que nous. Qu’est-ce qu’il faut renforcer ? Pour moi il faut renforcer des objets qui seraient plus inventifs, plus créatifs, on en verrait l’utilité. La télémédecine, je suis désolée, pendant le covid, on en a vu l’utilité. On a vu qu’effectivement un médecin va avoir moins peur de voir ses patients qui étaient peut-être atteints du covid et, de la même façon, les patients se rendent dans un lieu où effectivement il y a le virus. On s’est rendu compte que la distanciation était importante. On s’est rendu compte aussi qu’on avait besoin d’interaction sociale avec les autres, on avait besoin d’humanité, on a été dans un grand manque de ça.
Donc comment savoir, comment faire que les choses soient complémentaires et, en tout cas, ne pas avoir peur des machines, c’est à mon avis très important. On peut inverser ça, dès lors qu’on aura des outils qui seront faciles à montrer et qui ne sont pas bluffants comme ce que font les marketings des GAFA et des gens qui veulent vous vendre tout et n’importe quoi. On va les acheter juste parce que c’est beau et que ça fait fashion ou je ne sais quoi.
Du coup, il est important de comprendre qu’il faudrait qu’en Europe on ait cette puissance possible. Ça veut peut-être dire, si je prends juste le gouvernement ou même ce qu’on fait, qu’il faudrait sûrement renforcer la recherche qui est quand même très basse par rapport à ce qu’on fait en Asie. On avait moins de 2 % en France sur la recherche qui contient aussi tout ce qui est crédit d’impôt recherche. Quand on regarde statistiquement ce qu’est le crédit d’impôt recherche, ça va beaucoup aux banques, aux industriels, pas forcément pour faire de la recherche fondamentale sur la créativité des machines, pour qu’on soit effectivement plus en capacité pour comprendre ce qu’elles font.

Éthique, si vous n’aimez pas ce mot qui est ultra utilisé partout, effectivement pour faire du marketing, moi je m’en fiche, je ne l’utilise plus. Ce n’est pas ça l’idée. C’est de faire que les systèmes soient plus transparents, plus explicables et tout n’est pas facile à expliquer et demande encore de la recherche et, en même temps, qu’on ait ce soin de faire que dans l’interaction par exemple avec des agents conversationnels, que je traite comme il se doit, c’est-à-dire avec beaucoup de précautions en ce moment, eh bien, par exemple, qu’on puisse faire que la machine s’exprime comme une machine et qu’elle informe de ce qu’elle est capable de faire, ce qui n’est pas le cas. Il n’y a aucune juridiction, il n’y a aucune vérification de rien dans les objets que sont par exemple Google Home ou Alexa Amazon qui sont à la maison. Quand je dis à la machine « j’ai peur » ou « je suis triste », la machine est capable de me dire « vous êtes triste, mon dieu, je vais vous donner un truc et tout ». Et si vous amusez un peu, si on apprend à tout le monde à jouer avec ces systèmes qui sont bêtes, au fond, parce qu’ils ne sont que des systèmes entraînés, ils ne vont faire que des simulations, à un moment donné on peut très bien rentrer dans l‘incongruité. C’est-à-dire qu’à force de poser la même question, finalement, la machine vous répète la même chose parce qu’elle ne sait plus. On est arrivé aux limites de son univers des possibles. On est encore devant des machines qui sont très simples au niveau sémantique pour pouvoir les traquer et les mettre en erreur facilement. C’est important de savoir déjouer, en fait, ces choses invisibles comme vous avez dit.
C’est vrai que lorsqu’on demande dans un test perceptif avec un ensemble de gens devant un système conversationnel, donc qui dialogue avec la personne en langage naturel, vous mettez le même système sur votre téléphone ou alors sur un Google Home ou alors sur un robot humanoïde, prenons ça, tout le monde pense qu’il est plus intelligent lorsqu’il est sur le robot humanoïde.
Donc on a des biais dans notre perception qui sont assez importants et, pour moi, ces objets peuvent nous permettre d’avoir une meilleure créativité parce qu’ils calculent beaucoup plus vite que nous, ils ont une mémoire d’éléphant par rapport à nous, mais ils ne sont en rien humain. Ils n’auront pas de capacité de ressentir, etc., même si à l’heure actuelle j’ai des collègues – puisque je travaille sur l’affective computing donc l’intelligence affective – qui travaillent sur une espèce d’homéostasie, de simulation de l’homéostasie c’est-à-dire de la douleur et du plaisir dans un robot qui serait capable, avec des capteurs sensoriels, de comprendre quand vous le caressez ou quand vous le frappez et d’interpréter cela en termes d’intentions pour revenir à un équilibre. Mais tout ça ce n’est que de la simulation. Si demain on est devant des robots qui nous ressemblent totalement, qui simulent des choses comme ça et qui nous disent « vous êtes formidable », risque d’éloignement des humains, risque d’attachement inconsidéré surtout pour des personnes vulnérables, des enfants, dans l’éducation. Donc c’est dramatique. C’est ce sujet-là que j’essaie de porter le plus loin sur l’Europe et dans les discours avec des comités sans penser qu’on va tout résoudre. Je ne sais pas si la démocratie participative est capable d’anticiper ça, parce qu’on n’est pas au courant et on ne peut pas tout demander à la démocratie participative.

Irénée Regnault : C’est très intéressant, sincèrement, mais j’ai un petit point qui me gêne encore, c’est que vous parlez comme si le futur était déjà écrit en fait. Un assistant vocal n’est pas un outil de créativité.

Laurence Devillers : Non. Jamais je ne dirais ça.

Irénée Regnault : J’en conviens, mais c’est l’impression que ça m’a donné.
Est-ce que le doit et l’éthique vont être dédiés ces 30 prochaines années à construire les limites disons possibles et acceptables des milliards d’objets qui seraient déployés pour remplacer ou modifier le travail des travailleurs, pour faire en sorte que vous n’ayez plus quelqu’un au téléphone, je n’en fais pas un absolu, un robot qui commandera la pizza à vote place, pour aller, finalement, s’insinuer absolument dans toutes les strates de la société, du commerce, de toutes les relations que vous allez avoir jusqu’à l’EHPAD où finalement vous aurez peut-être un robot. Je ne leur jette pas la pierre, je n’ai rien contre les robots, mais j’ai quand même un gros doute sur cette régulation, encore une fois toujours a posteriori. Quand est-ce qu’on se donne aussi, à mon avis vraiment pour relier cette question à la question environnementale, l’opportunité de dire stop ?

Laurence Devillers : Bien sûr.

Irénée Regnault : Je prends un seul exemple. Pour moi il manque aujourd’hui cruellement de démocratie, de contre-pouvoir, au global, dans ces développements techniques. Aujourd’hui les seuls qui sont capables d’arrêter, de freiner la surveillance et on l’a vu, il a fallu la mort d’une personne, de Floyd aux États-Unis, pour que Amazon, Microsoft, cessent, pour le moment, de vendre de la reconnaissance faciale à la police. Pendant ce temps-là, l’Europe est en train de tergiverser sur les conditions éthiques qui vont rendre ce truc possible, qui vont en déployer partout. En fait, on n’a même pas de réflexion sur : est-ce que ces outils en soi, et c’est la question qui était posée précédemment, sont démocratiques ? Il y a bien des outils qui sont démocratiques – j’y vais un peu à gros traits – et des outils qui ne le sont pas. Un outil qui vous flique en permanence dans la rue, qui vous donne la sensation d’être fliqué, qui vous bride ! À Londres des études ont été faites avec des étudiants et ceux-là ont déclaré que s’ils se savaient surveillés par reconnaissance faciale pendant une manifestation, ils seraient 28 % à ne pas y aller.
Et les biais j’ai envie de dire est-ce que c’est la question ? Ça fait dix ans que systématiquement, dès qu’il y a des données, elles fuitent. C’est quasiment une loi d’airain dans le numérique de toute façon : quand il y a des données quelque part elles finissent par fuiter quelque part d’autre malgré toutes les régulations et tous les chercheurs en cybersécurité vous l’expliquent, il n’y a jamais rien de totalement sécurisé.
Donc quand est-ce qu’on se donne aussi l’opportunité, pour des raisons de préservation des libertés et pour des raisons de consommation énergétique, de dire stop, on n’en veut pas, en fait. On ne veut pas de ces milliards d’objets.
La question des données est importante parce que c’est elle aujourd’hui qui sert aux associations à saisir le droit, je pense à La Quadrature du Net qui peut faire interdire certains systèmes grâce au RGPD, mais ce n’est pas la seule question. Le RGPD nous coince dans une vision très individualiste des données, finalement, c’est toujours les données, l’individu qui se retrouve toujours seul face à la structure, qui ne peut rien faire. Or ces problèmes ne sont pas des problèmes personnels, individuels, ce sont des problèmes collectifs.