Entretien avec Pierre-Antoine Chardel : Comment la philosophie questionne l’éthique du numérique

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Entretien avec Pierre-Antoine Chardel : Comment la philosophie questionne l’éthique du numérique ?

Intervenant·e·s : Pierre-Antoine Chardel - François Saltiel

Lieu : Le Meilleur des mondes - France Culture

Date : 29 2023

Durée : 1 h

Podcast

Licence de la transcription : Verbatim

Illustration : Déjà prévue

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Alors que la rentrée fut chargée en débats sur le numérique et les géants de la Tech, Le Meilleur des mondes prend de la hauteur avec un spécialiste de la « socio-philosophie » du numérique.

Transcription

François Saltiel : Bonsoir et bienvenue à toutes et à tous dans Le Meilleur des mondes, l'émission de France Culture qui s'intéresse aux bouleversements suscités par le numérique et les nouvelles technologies. Ce soir, on s'offre une respiration philosophique, on tente de briser la course en avant, la marche inéluctable du progrès pour mieux le questionner et repenser notre rapport à la technique. On s'affranchit de la tyrannie de l'instantanéité pour une plage salutaire de réflexion et de silence [Silence, NdT]. Un silence voué à disparaître dans nos pratiques du numérique. Comment réintroduire le débat citoyen, la controverse dans le déploiement technologique ?
Nous verrons comment les philosophes du siècle dernier peuvent éclairer notre actualité, du développement de la vidéosurveillance algorithmique à la société de la trace qui sacrifie le droit à l'oubli ? Comment les citoyens du cyberespace que nous sommes peuvent utiliser les réseaux sociaux pour s'organiser et échapper à l'indignation stérile ? Comment garder espoir et ne pas sombrer dans le techno-pessimisme. La dimension artistique peut-elle être une échappatoire ? En un mot, comment cultiver un rapport plus éthique au numérique ? Beaucoup de questions et un socio-philosophe pour y répondre, tout en nuances.
Pierre-Antoine Chardel, bonsoir.

Pierre-Antoine Chardel : Bonsoir.

François Saltiel : Vous êtes professeur de sciences sociales et d'éthique à l'École de management de l'Institut Mines-Télécom et chercheur statutaire au laboratoire d'anthropologie politique du CNRS, l’École des hautes études en sciences sociales. Vous êtes également membre des comités de rédaction de la Revue politique et parlementaire et de la Études Digitales, c'est déjà beaucoup, mais vous êtes également l'auteur de Socio-philosophie des technologies numériques – Éthique, société, organisations, paru l'an dernier aux Presses des Mines.
Nous allons passer une heure ensemble pour mieux cerner vos travaux et explorer avec vous les enjeux sociaux, philosophiques et éthiques de l'ère numérique. Vaste programme.
Également menu du soir la chronique de Marie Turcan, rédactrice en chef chez Numerama. Marie nous parlera de sa fatigue du numérique, un espace où le fun aurait disparu. Et Juliette Devaux nous livrera, comme chaque semaine, les nouvelles d'un monde meilleur.
Le Meilleur des mondes s'écoute à la radio ou en podcast sur l'application Radio France et se regarde sur la chaîne Twitch de France Culture.
C'est parti

Diverses voix off : Les sénateurs se penchent sur le projet de loi relatif aux Jeux olympiques, celui autorisant l'expérimentation de caméras de surveillance dotées d'algorithmes et qui entrerait en vigueur dès cette année.
Il n'y aura aucune prolongation de cette expérimentation sans une évaluation précise, transparente, de la CNIL.
Un comportement anormal ça n'existe pas. C'est la police qui définit ce qui est anormal ou suspect selon ses propres préjugés, selon ses propres stéréotypes et ses propres objectifs politiques.
Ces évolutions, on ne les regarde ni positivement ni négativement, on les regarde d'abord parce qu'elles sont là et on essaye d'y inventer des disciplines, des règles, des façons de vivre qui soient vivables, habitables.
Il y aurait une sorte d’épicurisme technologique à trouver, c’est-à-dire une capacité à distinguer les désirs vains, les désirs superflus des désirs fondamentaux.
Une des illusions qu'on cherche à développer dans l'homme moderne, c'est de lui faire croire que la technique le rend plus libre. Libre de quoi ?

François Saltiel : Vous avez sans doute reconnu des voix qui vous sont chères : Jacques Ellul, Bernard Stiegler, Alain Damasio, un philosophe, un sociologue, un artiste romancier. Un montage transdisciplinaire, comme votre approche socio-philosophique, cher Pierre-Antoine Chardel. En quoi, d'ailleurs, est-elle nécessaire pour penser la technologie ?

Pierre-Antoine Chardel : Cette approche socio-philosophique me paraît essentielle pour se saisir des technologies non pas simplement de façon abstraite, non pas simplement pour en faire l'objet d'un questionnement philosophique. Néanmoins, dans mon travail et dans mes ouvrages, je me rends compte que les questions philosophiques qui sont posées par les technologies, en particulier les technologies numériques, questions philosophiques telles que la question du sens, des valeurs, des horizons possibles, impliquent d'être situé, autant que possible, d'un point de vue sociologique, d’être situé socialement dans des contextes à chaque fois différents qui nous renvoient, à chaque fois, à des questions aussi différentes.
Je vais prendre un exemple : la question de la 5G ne pose pas les mêmes questions d'éthique que l'on se situe dans un contexte médical ou bien dans un contexte de société de surveillance, par exemple. Pour moi, il ne s'agit pas simplement de penser philosophiquement la technique, d'en faire un objet, de faire de la philosophie de la technique, mais de se rapprocher, autant que possible, du réel social, ce que j'appelle le réel social concret, avec ses contradictions, ses paradoxes.

François Saltiel : Ses nuances, justement, pour tenter d'échapper un peu au manichéisme qu'on a souvent, qu'on a parfois, un discours un peu totalitaire, comme ça, qu’on a sur la technologie, soit d'un angélisme débordant soit d'un techno-pessimisme un peu systématique.

Pierre-Antoine Chardel : Oui. Et c'est une vieille histoire cette opposition entre la technophobie d'un côté la technophilie de l'autre, en sachant que la technophilie, les discours qui glorifient la technique, les technologies, l'innovation sont comme assez massifs, je dirais qu’aujourd'hui ils sont prépondérants. Bien sûr, ce discours critique frôle parfois la technophobie. Mais je tiens à développer une approche critique qui soit au plus près des ambivalences technologiques et qui nous incite toujours à tenter de discerner, autant que possible, ce qui est à l'œuvre dans une technologie, mais surtout ce qui est à l'œuvre dans les pratiques technologiques.

François Saltiel : D'où le terrain sociologique, effectivement, d'où l'importance du contexte et de l'usage.

Pierre-Antoine Chardel : Absolument parce que, d'une certaine manière, on ne rencontre jamais les techniques ou les technologies seules, on rencontre des pratiques technologiques et c'est ce qui me semble assez peu suffisamment développé, à tout le moins dans le débat français. Par rapport aux technologies, on a tendance à en faire un absolu, d'ailleurs, on parle beaucoup de LA technologie ou de l'innovation.

François Saltiel : D’ailleurs on parle aussi beaucoup de révolution technologique. Je suis moi-même tombé dans le piège de cette formule, qui marche très bien, essayer de comprendre ce qui se joue dans notre révolution numérique. Vous, vous préférez le terme « métamorphose numérique », expliquez-nous.

Pierre-Antoine Chardel : Le terme de métamorphose me tient en effet à cœur parce qu'il exprime l'idée d'un processus, l'idée aussi de la durée. Par rapport aux technologies, c'est une façon de dire que les technologies n'arrivent pas de nulle part, qu’il n’y a pas un surgissement technologique, mais qu’elles sont le fruit d'une longue histoire, une histoire de l'informatique, en l'occurrence pour le numérique, une histoire aussi des technologies de l'information et de la communication, et que les situer dans le temps long permet de gagner en distance critique et en discernement et, surtout, ça permet d'éviter l'effet de sidération.

François Saltiel : C'est vrai qu’une révolution s'impose à nous, tandis que dans la notion de métamorphose il y a aussi cette idée du sensible.

Pierre-Antoine Chardel : Il y a a cette idée du sensible et aussi l'idée d'une maturation, lidée que la métamorphose peut, à beaucoup d'égards, nous déstabiliser. Un grand philosophe allemand, Günther Anders, a écrit dans les années 50, L'Obsolescence de l'homme. Il disait que les technologies vont trop vite par rapport à la capacité que nous avons, en tant qu'être humain, à pouvoir s'en saisir. Il y a comme une sorte de décalage entre la vitesse du déploiement technologique et la métamorphose de l'âme que les technologies engendrent.
On a de quoi être déstabilisé, on a de quoi être surpris. Pour cette raison, c’est d'autant plus important d'essayer de faire preuve de sérénité mais aussi de créativité par rapport à ces environnements technologiques qui sont très complexes et qui demandent de savoir raison garder, c'est-à-dire de les appréhender non pas simplement comme des objets de consommation, mais de les appréhender comme des objets de culture et de les réinvestir d'un point de vue symbolique. Ces technologies sont le fruit d'imaginaires, on peut retrouver aussi les grands mythes fondateurs qui nous renvoient beaucoup à notre à notre présent technologique, si on pense au mythe de Prométhée, au mythe d'Icare, etc. C'est une façon de dire que les technologies sont investies d'un point de vue symbolique et le décryptage de ces dimensions symboliques, de ces imaginaires, permet de dire que ce qui nous arrive avec les réseaux sociaux, avec la surveillance globale, s'inscrit finalement dans le temps long et renvoie aussi à des repères qui peuvent nous servir à analyser, à décrypter avec, je dirais, plus de calme plus de sérénité ce qui nous arrive avec les technologies et ce qui, parfois, nous submerge, il faut bien le dire, tellement la vitesse du déploiement technologique, en particulier à l'ère numérique, est considérable.

François Saltiel : Justement. C’est pour cela que je me suis amusé à créer un petit silence en début d'émission pour se forcer à s'arrêter et à prendre un peu de hauteur.
Peut-être pour comprendre comment votre pensée s'incarne dans un exemple concret, vous avez cité le mot de surveillance, je vous propose d'écouter les propos de la ministre des Sports, Amélie Oudéa-Castéra, qui était très récemment, il y a quelques jours, cette semaine, sur France 3. Elle parlait de ce projet que vous avez forcément suivi, de cette loi qui a été votée, pour l'usage des caméras de vidéosurveillance qui utilisent des algorithmes, la vidéosurveillance algorithmique, une expérimentation censée ne durer que quelques années mais qui pourrait bien s'inscrire dans la durée. On l'écoute.

Amélie Oudéa-Castéra : C'est une expérimentation qui est menée sous le contrôle vigilant, attentif, de la CNIL, la Commission nationale de l’informatique et libertés, et évidemment il n'y aura aucune prolongation de cette expérimentation sans une évaluation précise, transparente de son efficacité au regard des enjeux de sécurité de notre pays.

Journaliste : Il est donc possible que cette loi devienne pérenne à terme ?

Amélie Oudéa-Castéra : Si ça fait ses preuves et entourées de toutes les garanties, on les avait comptées avec Gérald Darmanin au Parlement : 28 garanties entourent ces dispositions. Et les Français attendent de nous qu’on agisse pour leur sécurité et qu'on fasse usage des moyens nouveaux, y compris numériques, pour favoriser cette sécurité.

François Saltiel : Donc les Français en ont envie, les Français en ont besoin, un peu un argument d'autorité en disant que la population attend ces technologies. Là elle fait référence à l'intelligence artificielle, à des caméras dites intelligentes. En quoi cette vidéosurveillance algorithmique, donc potentiellement un contrôle biométrique à terme, c'est-à-dire l'analyse de nos données, de notre démarche, de tout ce qui fait, finalement, notre identité, peut poser, selon vous, un problème d'éthique ?

Pierre-Antoine Chardel : Un problème d'éthique majeur, mais, encore une fois, il faut situer le problème dans les différents contextes dans lesquels il se pose.
Je dirais que cette question de la vidéosurveillance algorithmique pose, premièrement, un problème d'accoutumance qui serait rendu possible : ce serait un risque que l'exception devienne la règle. C'est un premier point.
Un deuxième point, pas simplement lié au dispositif technologique en tant que tel mais lié plutôt à celui des critères de dangerosité qui seraient derrière cet usage technologique : qui va fixer ces critères ? Là, en l'occurrence, puisqu’il s'agit de reconnaissance de formes, des mouvements, en fonction de quels mouvements, quels mouvements vont être considérés comme dangereux ?

François Saltiel : Quand on parle du texte, le texte parle de mouvement suspect, de comportement anormal. Or, toute la question c'est de savoir qu'est-ce qu'on considère comme étant suspect, anormal ? C'est là où, effectivement, c'est une vision très subjective.

Pierre-Antoine Chardel : C'est très subjectif. C'est une façon de dire que, dans ces systèmes technologiques, il y a a beaucoup de subjectivité contrairement à ce qu'on peut penser. On délègue cela à des algorithmes, donc on se dit « globalement c'est la machine qui va faire le travail ». Et c'est là où commence le problème éthique puisque ces machines sont accompagnées potentiellement d'orientation, de direction. Toutes ces machines sont fabriquées, sont construites, et surtout qui va, encore une fois, fixer la dangerosité, les comportements à risque ? En fonction de quels critères ?
On nous explique qu’il s'agit d'assurer la sécurité pendant les Jeux olympiques ; c’est très consensuel : qui serait pour qu'il n'y ait pas de sécurité pendant les Jeux olympiques ? Et, en même temps, quand on lit ce projet de loi, on se rend compte que ça implique des manifestations certes sportives mais aussi récréatives ou culturelles.

François Saltiel : Oui. Dans les différents critères qui actionnent l'automatisation de ces caméras, on a effectivement le regroupement d'individus ou de foule, on peut appeler ça une manifestation en fait.

Pierre-Antoine Chardel : Exactement. La foule, le rassemblement des corps, c'est une façon de faire politique, ça l'a toujours été, ça l'est toujours et ça le sera toujours. À partir de quel moment le rassemblement deviendra suspect ? Je parlais des manifestations culturelles, on pourrait imaginer ce type de dispositif, pourquoi pas, pour le festival d'Avignon. Qu'en serait-il d’un événement culturel, artistique, qui imposerait un système de surveillance algorithmique que l'on présente de façon très indolore : il ne s'agit que des formes, il ne s'agit que des comportements, il ne s'agit pas des visages, il ne s'agit pas de reconnaissance faciale ?

François Saltiel : Pour être quand même assez précis, il y a des garde-fous dans ce texte qui excluent, pour l'instant, la reconnaissance faciale, une technologie dont on a pu entendre parler évidemment avec le cas chinois qui est toujours un cas d'école pour exposer les dérives sécuritaires qui peuvent se passer dans ce pays. Il n'y a pas qu'en Chine où il y a un usage de la reconnaissance faciale. Pour l'instant, en tout cas, la reconnaissance faciale n'est pas incluse dans ce texte. Après, beaucoup disent qu'on en prend un peu le chemin, que c'est déjà une première étape d'avoir cette vidéosurveillance algorithmique et que demain ça sera sans doute la reconnaissance faciale. Ce qui pose donc la question de la perte, potentiellement, pour les individus de leurs propres données, de leur propre corps. Vous avez d'ailleurs cité à deux reprises le mot « corps », le terme « corps », c'est une notion sur laquelle vous avez beaucoup travaillé.

Pierre-Antoine Chardel : En effet, à travers ces dispositifs on peut entrevoir le risque de voir le corps bien sûr soumis à un effet d’une numérisation, c'est le corps numérisé qui vient à produire du signal et qui, à partir de là, est analysé, intégré à des dispositifs de surveillance. Autrement dit, c'est le corps qui est, finalement, réduit à l'état de signal, alors même que le fait d'être ensemble, l'organisation de l'espace public, nous renvoie à notre condition d'être parlant. La citoyenneté, la vie politique c'est ce qui s'institue par le fait de parler, donc par le monde des signes.
Ici on assiste, de façon très insidieuse, à une réduction du statut même de l'humain puisque l'humain ne serait plus considéré comme un être de signes mais comme étant un support numérisable d'un signal.
Un autre problème éthique que je perçois, c’est cette difficulté, vous l’avez un peu dit, de la part de la société civile à s'emparer de ces problématiques, déjà parce que ce sont des technologies qui sont assez complexes, il faut regarder de près, avoir la chance de pouvoir interagir avec des ingénieurs pour bien comprendre de ce dont il s'agit.

François Saltiel : Il y a là effectivement un problème d'explicabilité, d’ailleurs à deux niveaux, de la technologie, pour bien la comprendre et même ceux qui en sont les artisans parfois ne parviennent pas eux-mêmes à comprendre comment elle fonctionne. En l'occurrence, là je parle des algorithmes et de l'intelligence artificielle.

Pierre-Antoine Chardel : C'est encore, en effet, une boîte noire même pour beaucoup de chercheurs qui travaillent sur ces enjeux, qui sont très conscients de l'opacité que ces dispositifs technologiques induisent.
L'autre problème que je voulais signaler, c’est le fait qu’on a à faire à des dispositifs qui sont relativement invisibles pour les citoyens et c'est bien là l'enjeu d'une possible accoutumance. Puisqu'on a à faire à des dispositifs qui ne sont pas immédiatement visibles, alors ça crée une forme d'accoutumance, de familiarisation avec des dispositifs qui ne laissent pas de prise. Autant une mesure anthropométrique pouvait être choquante et donner immédiatement cette impression de réification, autant, si on parle de la biométrie, on a à faire à des dispositifs qui sont très innovants.

18’ 48

François Saltiel : Oui.