Différences entre les versions de « Entretien avec Pierre-Antoine Chardel : Comment la philosophie questionne l’éthique du numérique »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/comment-la-philosophie-questionne-l-ethique-du-numerique-entretien-avec-pierre-antoine-chardel ici]... »)
Balise : Contenu remplacé
 
(17 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Entretien avec Pierre-Antoine Chardel : Comment la philosophie questionne l’éthique du numérique ?
+
Publié [https://www.librealire.org/comment-la-philosophie-questionne-l-ethique-du-numerique-entretien-avec-pierre-antoine-chardel ici] - Octobre 2023
 
 
'''Intervenant·e·s :'''  Pierre-Antoine Chardel - François Saltiel
 
 
 
'''Lieu :''' <em>Le Meilleur des mondes</em> - France Culture
 
 
 
'''Date :''' 29  2023
 
 
 
'''Durée :''' 1 h
 
 
 
'''[https://rf.proxycast.org/5acd3875-64e4-4e3c-b467-3d757be56659/22826-29.09.2023-ITEMA_23503390-2023C45296E0006-21.mp3 Podcast]
 
 
 
'''[https://www.radiofrance.fr/franceculture/podcasts/le-meilleur-des-mondes/entretien-avec-pierre-antoine-chardel-comment-la-philosophie-questionne-l-ethique-du-numerique-5566573 Présentation de l'émission]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' Déjà prévue
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Description==
 
 
 
Alors que la rentrée fut chargée en débats sur le numérique et les géants de la Tech, Le Meilleur des mondes prend de la hauteur avec un spécialiste de la « socio-philosophie » du numérique.
 
 
==Transcription==
 
 
 
<b>François Saltiel : </b>Bonsoir et bienvenue à toutes et à tous dans <em>Le Meilleur des mondes</em>, l'émission de France Culture qui s'intéresse aux bouleversements suscités par le numérique et les nouvelles technologies. Ce soir, on s'offre une respiration philosophique, on tente de briser la course en avant, la marche inéluctable du progrès pour mieux le questionner et repenser notre rapport à la technique. On s'affranchit de la tyrannie de l'instantanéité pour une plage salutaire de réflexion et de silence [Silence, NdT]. Un silence voué à disparaître dans nos pratiques du numérique. Comment réintroduire le débat citoyen, la controverse dans le déploiement technologique ?<br/>
 
Nous verrons comment les philosophes du siècle dernier peuvent éclairer notre actualité, du développement de la vidéosurveillance algorithmique à la société de la trace qui sacrifie le droit à l'oubli ? Comment les citoyens du cyberespace que nous sommes peuvent utiliser les réseaux sociaux pour s'organiser et échapper à l'indignation stérile ? Comment garder espoir et ne pas sombrer dans le techno-pessimisme. La dimension artistique peut-elle être une échappatoire ? En un mot, comment cultiver un rapport plus éthique au numérique ? Beaucoup de questions et un socio-philosophe pour y répondre, tout en nuances.<br/>
 
Pierre-Antoine Chardel, bonsoir.
 
 
 
<b>Pierre-Antoine Chardel : </b>Bonsoir.
 
 
 
<b>François Saltiel : </b>Vous êtes professeur de sciences sociales et d'éthique à l'École de management de l'Institut Mines-Télécom et chercheur statutaire au laboratoire d'anthropologie politique du CNRS, l’École des hautes études en sciences sociales. Vous êtes également membre des comités de rédaction de la <em>Revue politique et parlementaire</em> et de la <em>Études Digitales</em>, c'est déjà beaucoup, mais vous êtes également l'auteur de <em>Socio-philosophie des technologies numériques – Éthique, société, organisations</em>, paru l'an dernier aux Presses des Mines.<br/>
 
Nous allons passer une heure ensemble pour mieux cerner vos travaux et explorer avec vous les enjeux sociaux, philosophiques et éthiques de l'ère numérique. Vaste programme.<br/>
 
Également menu du soir la chronique de Marie Turcan, rédactrice en chef chez Numerama. Marie nous parlera de sa fatigue du numérique, un espace où le fun aurait disparu. Et Juliette Devaux nous livrera, comme chaque semaine, les nouvelles d'un monde meilleur.<br/>
 
<em>Le Meilleur des mondes</em> s'écoute à la radio ou en podcast sur l'application Radio France et se regarde sur la chaîne Twitch de France Culture.<br/>
 
C'est parti
 
 
 
<b>Diverses voix off : </b>Les sénateurs se penchent sur le projet de loi relatif aux Jeux olympiques, celui autorisant l'expérimentation de caméras de surveillance dotées d'algorithmes et qui entrerait en vigueur dès cette année.<br/>
 
Il n'y aura aucune prolongation de cette expérimentation sans une évaluation précise, transparente, de la CNIL.<br/>
 
Un comportement anormal ça n'existe pas. C'est la police qui définit ce qui est anormal ou suspect selon ses propres préjugés, selon ses propres stéréotypes et ses propres objectifs politiques.<br/>
 
Ces évolutions, on ne les regarde ni positivement ni négativement, on les regarde d'abord parce qu'elles sont là et on essaye d'y inventer des disciplines, des règles, des façons de vivre qui soient vivables, habitables.<br/>
 
Il y aurait une sorte d’épicurisme technologique à trouver, c’est-à-dire une capacité à distinguer les désirs vains, les désirs superflus des désirs fondamentaux.<br/>
 
Une des illusions qu'on cherche à développer dans l'homme moderne, c'est de lui faire croire que la technique le rend plus libre. Libre de quoi ?
 
 
 
<b>François Saltiel : </b>Vous avez sans doute reconnu des voix qui vous sont chères : Jacques Ellul, Bernard Stiegler, Alain Damasio, un philosophe, un sociologue, un artiste romancier. Un montage transdisciplinaire, comme votre approche socio-philosophique, cher Pierre-Antoine Chardel. En quoi, d'ailleurs, est-elle nécessaire pour penser la technologie ?
 
 
 
<b>Pierre-Antoine Chardel : </b>Cette approche socio-philosophique me paraît essentielle pour se saisir des technologies non pas simplement de façon abstraite, non pas simplement pour en faire l'objet d'un questionnement philosophique. Néanmoins, dans mon travail et dans mes ouvrages, je me rends compte que les questions philosophiques qui sont posées par les technologies, en particulier les technologies numériques, questions philosophiques telles que la question du sens, des valeurs, des horizons possibles, impliquent d'être situé, autant que possible, d'un point de vue sociologique, d’être situé socialement dans des contextes à chaque fois différents qui nous renvoient, à chaque fois, à des questions aussi différentes.<br/>
 
Je vais prendre un exemple : la question de la 5G ne pose pas les mêmes questions d'éthique que l'on se situe dans un contexte médical ou bien dans un contexte de société de surveillance, par exemple. Pour moi, il ne s'agit pas simplement de penser philosophiquement la technique, d'en faire un objet, de faire de la philosophie de la technique, mais de se rapprocher, autant que possible, du réel social, ce que j'appelle le réel social concret, avec ses contradictions, ses paradoxes.
 
 
 
<b>François Saltiel : </b>Ses nuances, justement, pour tenter d'échapper un peu au manichéisme qu'on a souvent, qu'on a parfois, un discours un peu totalitaire, comme ça, qu’on a sur la technologie, soit d'un angélisme débordant soit d'un techno-pessimisme un peu systématique.
 
 
 
<b>Pierre-Antoine Chardel : </b>Oui. Et c'est une vieille histoire cette opposition entre la technophobie d'un côté la technophilie de l'autre, en sachant que la technophilie, les discours qui glorifient la technique, les technologies, l'innovation sont comme assez massifs, je dirais qu’aujourd'hui ils sont prépondérants. Bien sûr, ce discours critique frôle parfois la technophobie. Mais je tiens à développer une approche critique qui soit au plus près des ambivalences technologiques et qui nous incite toujours à tenter de discerner, autant que possible, ce qui est à l'œuvre dans une technologie, mais surtout ce qui est à l'œuvre dans les pratiques technologiques.
 
 
 
<b>François Saltiel : </b>D'où le terrain sociologique, effectivement, d'où l'importance du contexte et de l'usage.
 
 
 
<b>Pierre-Antoine Chardel : </b>Absolument parce que, d'une certaine manière, on ne rencontre jamais les techniques ou les technologies seules, on rencontre des pratiques technologiques et c'est ce qui me semble assez peu suffisamment développé, à tout le moins dans le débat français. Par rapport aux technologies, on a tendance à en faire un absolu, d'ailleurs, on parle beaucoup de LA technologie ou de l'innovation.
 
 
 
<b>François Saltiel : </b>D’ailleurs on parle aussi beaucoup de révolution technologique. Je suis moi-même tombé dans le piège de cette formule, qui marche très bien, essayer de comprendre ce qui se joue dans notre révolution numérique. Vous, vous préférez le terme « métamorphose numérique », expliquez-nous.
 
 
 
<b>Pierre-Antoine Chardel : </b>Le terme de métamorphose me tient en effet à cœur parce qu'il exprime l'idée d'un processus, l'idée aussi de la durée. Par rapport aux technologies, c'est une façon de dire que les technologies n'arrivent pas de nulle part, qu’il n’y a pas un surgissement technologique, mais qu’elles sont le fruit d'une longue histoire, une histoire de l'informatique, en l'occurrence pour le numérique, une histoire aussi des technologies de l'information et de la communication, et que les situer dans le temps long permet de gagner en distance critique et en discernement et, surtout, ça permet d'éviter l'effet de sidération.
 
 
 
<b>François Saltiel : </b>C'est vrai qu’une révolution s'impose à nous, tandis que dans la notion de métamorphose il y a aussi cette idée du sensible.
 
 
 
<b>Pierre-Antoine Chardel : </b>Il y a a cette idée du sensible et aussi l'idée d'une maturation, lidée que la métamorphose peut, à beaucoup d'égards, nous déstabiliser. Un grand philosophe allemand, Günther Anders, a écrit dans les années 50, <em>L'Obsolescence de l'homme</em>. Il disait que les technologies vont trop vite par rapport à la capacité que nous avons, en tant qu'être humain, à pouvoir s'en saisir. Il y a comme une sorte de décalage entre la vitesse du déploiement technologique et la métamorphose de l'âme que les technologies engendrent.<br/>
 
On a de quoi être déstabilisé, on a de quoi être surpris. Pour cette raison, c’est d'autant plus important d'essayer de faire preuve de sérénité mais aussi de créativité par rapport à ces environnements technologiques qui sont très complexes et qui demandent de savoir raison garder, c'est-à-dire de les appréhender non pas simplement comme des objets de consommation, mais de les appréhender comme des objets de culture et de les réinvestir d'un point de vue symbolique. Ces technologies sont le fruit d'imaginaires, on peut retrouver aussi les grands mythes fondateurs qui nous renvoient beaucoup à notre à notre présent technologique, si on pense au mythe de Prométhée, au mythe d'Icare, etc. C'est une façon de dire que les technologies sont investies d'un point de vue symbolique et le décryptage de ces dimensions symboliques, de ces imaginaires, permet de dire que ce qui nous arrive avec les réseaux sociaux, avec la surveillance globale, s'inscrit finalement dans le temps long et renvoie aussi à des repères qui peuvent nous servir à analyser, à décrypter avec, je dirais, plus de calme plus de sérénité ce qui nous arrive avec les technologies et ce qui, parfois, nous submerge, il faut bien le dire, tellement la vitesse du déploiement technologique, en particulier à l'ère numérique, est considérable.
 
 
 
<b>François Saltiel : </b>Justement. C’est pour cela que je me suis amusé à créer un petit silence en début d'émission pour se forcer à s'arrêter et à prendre un peu de hauteur.<br/>
 
Peut-être pour comprendre comment votre pensée s'incarne dans un exemple concret, vous avez cité le mot de surveillance, je vous propose d'écouter les propos de la ministre des Sports, Amélie Oudéa-Castéra, qui était très récemment, il y a quelques jours, cette semaine, sur France 3. Elle parlait de ce projet que vous avez forcément suivi, de cette loi qui a été votée, pour l'usage des caméras de vidéosurveillance qui utilisent des algorithmes, la vidéosurveillance algorithmique, une expérimentation censée ne durer que quelques années mais qui pourrait bien s'inscrire dans la durée. On l'écoute.
 
 
 
<b>Amélie Oudéa-Castéra : </b>C'est une expérimentation qui est menée sous le contrôle vigilant, attentif, de la CNIL, la Commission nationale de l’informatique et libertés, et évidemment il n'y aura aucune prolongation de cette expérimentation sans une évaluation précise, transparente de son efficacité au regard des enjeux de sécurité de notre pays.
 
 
 
<b>Journaliste : </b>Il est donc possible que cette loi devienne pérenne à terme ?
 
 
 
<b>Amélie Oudéa-Castéra : </b>Si ça fait ses preuves et entourées de toutes les garanties, on les avait comptées avec Gérald Darmanin au Parlement : 28 garanties entourent ces dispositions. Et les Français attendent de nous qu’on agisse pour leur sécurité et qu'on fasse usage des moyens nouveaux, y compris numériques, pour favoriser cette sécurité.
 
 
 
<b>François Saltiel : </b>Donc les Français en ont envie, les Français en ont besoin, un peu un argument d'autorité en disant que la population attend ces technologies. Là elle fait référence à l'intelligence artificielle, à des caméras dites intelligentes. En quoi cette vidéosurveillance algorithmique, donc potentiellement un contrôle biométrique à terme, c'est-à-dire l'analyse de nos données, de notre démarche, de tout ce qui fait, finalement, notre identité, peut poser, selon vous, un problème d'éthique ?
 
 
 
<b>Pierre-Antoine Chardel : </b>Un problème d'éthique majeur, mais, encore une fois, il faut situer le problème dans les différents contextes dans lesquels il se pose.<br/>
 
Je dirais que cette question de la vidéosurveillance algorithmique pose, premièrement, un problème d'accoutumance qui serait rendu possible : ce serait un risque que l'exception devienne la règle. C'est un premier point.<br/>
 
Un deuxième point, pas simplement lié au dispositif technologique en tant que tel mais lié plutôt à celui des critères de dangerosité qui seraient derrière cet usage technologique : qui va fixer ces critères ? Là, en l'occurrence, puisqu’il s'agit de reconnaissance de formes, des mouvements, en fonction de quels mouvements, quels mouvements vont être considérés comme dangereux ?
 
 
 
<b>François Saltiel : </b>Quand on parle du texte, le texte parle de mouvement suspect, de comportement anormal. Or, toute la question c'est de savoir qu'est-ce qu'on considère comme étant suspect, anormal ? C'est là où, effectivement, c'est une vision très subjective.
 
 
 
<b>Pierre-Antoine Chardel : </b>C'est très subjectif. C'est une façon de dire que, dans ces systèmes technologiques, il y a a beaucoup de subjectivité contrairement à ce qu'on peut penser. On délègue cela à des algorithmes, donc on se dit « globalement c'est la machine qui va faire le travail ». Et c'est là où commence le problème éthique puisque ces machines sont accompagnées potentiellement d'orientation, de direction. Toutes ces machines sont fabriquées, sont construites, et surtout qui va, encore une fois, fixer la dangerosité, les comportements à risque ? En fonction de quels critères ?<br/>
 
On nous explique qu’il s'agit d'assurer la sécurité pendant les Jeux olympiques ; c’est très consensuel : qui serait pour qu'il n'y ait pas de sécurité pendant les Jeux olympiques ? Et, en même temps, quand on lit ce projet de loi, on se rend compte que ça implique des manifestations certes sportives mais aussi récréatives ou culturelles.
 
 
 
<b>François Saltiel : </b>Oui. Dans les différents critères qui actionnent l'automatisation de ces caméras, on a effectivement le regroupement d'individus ou de foule, on peut appeler ça une manifestation en fait.
 
 
 
<b>Pierre-Antoine Chardel : </b>Exactement. La foule, le rassemblement des corps, c'est une façon de faire politique, ça l'a toujours été, ça l'est toujours et ça le sera toujours. À partir de quel moment le rassemblement deviendra suspect ? Je parlais des manifestations culturelles, on pourrait imaginer ce type de dispositif, pourquoi pas, pour le festival d'Avignon. Qu'en serait-il d’un événement culturel, artistique, qui imposerait un système de surveillance algorithmique que l'on présente de façon très indolore : il ne s'agit que des formes, il ne s'agit que des comportements, il ne s'agit pas des visages, il ne s'agit pas de reconnaissance faciale ?
 
 
 
<b>François Saltiel : </b>Pour être quand même assez précis, il y a des garde-fous dans ce texte qui excluent, pour l'instant, la reconnaissance faciale, une technologie dont on a pu entendre parler évidemment avec le cas chinois qui est toujours un cas d'école pour exposer les dérives sécuritaires qui peuvent se passer dans ce pays. Il n'y a pas qu'en Chine où il y a un usage de la reconnaissance faciale. Pour l'instant, en tout cas, la reconnaissance faciale n'est pas incluse dans ce texte. Après, beaucoup disent qu'on en prend un peu le chemin, que c'est déjà une première étape d'avoir cette vidéosurveillance algorithmique et que demain ça sera sans doute la reconnaissance faciale. Ce qui pose donc la question de la perte, potentiellement, pour les individus de leurs propres données, de leur propre corps. Vous avez d'ailleurs cité à deux reprises le mot « corps », le terme « corps », c'est une notion sur laquelle vous avez beaucoup travaillé.
 
 
 
<b>Pierre-Antoine Chardel : </b>En effet, à travers ces dispositifs on peut entrevoir le risque de voir le corps bien sûr soumis à un effet d’une numérisation, c'est le corps numérisé qui vient à produire du signal et qui, à partir de là, est analysé, intégré à des dispositifs de surveillance. Autrement dit, c'est le corps qui est, finalement, réduit à l'état de signal, alors même que le fait d'être ensemble, l'organisation de l'espace public, nous renvoie à notre condition d'être parlant. La citoyenneté, la vie politique c'est ce qui s'institue par le fait de parler, donc par le monde des signes.<br/>
 
Ici on assiste, de façon très insidieuse, à une réduction du statut même de l'humain puisque l'humain ne serait plus considéré comme un être de signes mais comme étant un support numérisable d'un signal.<br/>
 
Un autre problème éthique que je perçois, c’est cette difficulté, vous l’avez un peu dit, de la part de la société civile à s'emparer de ces problématiques, déjà parce que ce sont des technologies qui sont assez complexes, il faut regarder de près, avoir la chance de pouvoir interagir avec des ingénieurs pour bien comprendre de ce dont il s'agit.
 
 
 
<b>François Saltiel : </b>Il y a là effectivement un problème d'explicabilité, d’ailleurs à deux niveaux, de la technologie, pour bien la comprendre et même ceux qui en sont les artisans parfois ne parviennent pas eux-mêmes à comprendre comment elle fonctionne. En l'occurrence, là je parle des algorithmes et de l'intelligence artificielle.
 
 
 
<b>Pierre-Antoine Chardel : </b>C'est encore, en effet, une boîte noire même pour beaucoup de chercheurs qui travaillent sur ces enjeux, qui sont très conscients de l'opacité que ces dispositifs technologiques induisent.<br/>
 
L'autre problème que je voulais signaler, c’est le fait qu’on a à faire à des dispositifs qui sont relativement invisibles pour les citoyens et c'est bien là l'enjeu d'une possible accoutumance. Puisqu'on a à faire à des dispositifs qui ne sont pas immédiatement visibles, alors ça crée une forme d'accoutumance, de familiarisation avec des dispositifs qui ne laissent pas de prise. Autant une mesure anthropométrique pouvait être choquante et donner immédiatement cette impression de réification, autant, si on parle de la biométrie, on a à faire à des dispositifs qui sont très innovants.
 
 
 
==18’ 48==
 
 
 
<b>François Saltiel : </b>Oui. Il y a vraiment cette idée de la transparence avec toujours cette même promesse qu'on entend, vous l'avez dit tout à l'heure en parlant de l'argument un peu démagogique, c'est-à-dire on vous offre une sécurité, une promesse de sécurité, et vous ne voyez peut-être pas ce qui vous échappe de votre liberté, donc ça ne vous impacte pas, donc vous ne retenez, finalement, que la garantie, que la promesse de sécurité.
 
 
 
<b>Pierre-Antoine Chardel : </b>Et ceci au nom d'une innovation qui est censée améliorer la société et améliorer notre condition hyper-moderne.<br/>
 
Ce qui me paraît aussi important de mentionner c'est que ces technologies instituent, en quelque sorte, un état de suspicion permanent. C'est bien cette dimension qui me paraît être particulièrement problématique.
 
 
 
<b>François Saltiel : </b>Suspicion des citoyens entre eux, suspicion de l'autorité face aux citoyens ?
 
 
 
<b>Pierre-Antoine Chardel : </b>De l'autorité face aux citoyens, c'est-à-dire que ce que l'on perd c'est une valeur fondamentale de l’être ensemble, de la société dans sa dimension, bien sûr, démocratique, c’est la valeur de confiance. Or, on sait qu'une société ne peut ne peut pas tenir sans confiance. Faire société repose sur un minimum de confiance, la confiance est aussi une composante essentielle du lien social.
 
 
 
<b>François Saltiel : </b>Après on pourrait dire, si je me fais l'avocat du diable, qu’il y a un lien de confiance du citoyen face à l'autorité, face à la loi qui est censée le protéger, quand la loi dit « on fait ça pour votre bien et on vous garantit, d'ailleurs, qu'on n'ira pas jusqu'à la reconnaissance faciale ou l’analyse des données biométriques », quelque part c'est un lien de confiance, c’est une confiance, c'est le propre de la loi qui fait société, de la démocratie : on fait confiance à une autorité parce qu'on croit en elle.
 
 
 
<b>Pierre-Antoine Chardel : </b>Après, on peut faire preuve d'une confiance aveugle et on peut faire preuve d'une confiance en connaissance de cause et c'est là où intervient l'importance de l'éthique du numérique. Par rapport à tous ces environnements numériques, on se rend bien compte que la confiance doit être outillée, au sens où on doit développer des capacités de compréhension des outils qui définissent nos environnements numériques et c'est par cette appréciation des dispositifs techniques eux-mêmes que l'on peut, en effet, gagner en confiance. Mais il y a une confiance aveugle, c'est un peu celle qui était décrite par Alexis de Tocqueville dans <em>De la démocratie en Amérique</em> où l'État, puissance tutélaire, s'occupe de tout, de nos moindres divertissements, de nos loisirs, de notre vie quotidienne. Et c'est bien là que commence, en quelque sorte, la fin de la démocratie ou son abolissement, ce moment où la citoyenneté n'est plus régie par des connaissances, non seulement on ne connaît pas bien les textes de loi mais surtout on ne connaît pas comment sont fabriquées, comment sont conçues des technologies qui ont un impact sur nos libertés et, en fait, sur les effets de contraintes que ces technologies peuvent créer.
 
 
 
<b>François Saltiel : </b>Vous dites qu’on ne connaît pas ces technologies, mais même ceux qui font la loi ne connaissent pas forcément très bien non plus ces technologies. On voit qu'on a une faillite, en tout cas une défaillance de la connaissance scientifique, de la connaissance des enjeux technologiques chez nos parlementaires, même s'ils ont tendance à se rajeunir, même si c'est une nouvelle génération qui arrive, néanmoins on le voit, on l'observe.
 
 
 
<b>Pierre-Antoine Chardel : </b>C'est un problème majeur, je crois, de la démocratie aujourd'hui : nous sommes dans des sociétés technologiques mais sans avoir les moyens de comprendre réellement les enjeux éthiques et politiques liés au déploiement technologique. Il est donc nécessaire de réformer de façon très fondamentale nos systèmes éducatifs, nos façons de devenir politique qui devraient intégrer beaucoup plus de réalité technologique. Les citoyens eux-mêmes devraient aussi, idéalement, pouvoir se mettre à jour sur leurs connaissances techniques et scientifiques de façon, après, à pouvoir débattre en connaissance de cause. On a, en effet, besoin de concertation, on a besoin de controverses, encore faut-il avoir les armes pour s'emparer de ces dispositifs.<br/>
 
J'ai quelques idées par rapport à cette ambition. Il me semble qu'il serait important de développer ce que j'appelle des universités populaires du numérique, que l'on pourrait voir se déployer à l'échelle du territoire français dans les écoles d'ingénieurs. On a environ 200 écoles d'ingénieurs qui pourraient accueillir du grand public pour se mettre à jour sur des connaissances, qui pourraient aussi permettre, c'est un point qui me paraît très important, aux ingénieurs eux-mêmes, aux élèves ingénieurs de se rendre compte à quel point les innovations qu'ils ou elles conçoivent ont un impact sur les modes de vie, sur la société, sur nos modes d'existence. On voit bien à quel point nos technologies induisent des modes de vie, induisent des modes d'existence, voire imposent des modes de coexistence et, par rapport à cela, nous restons encore extrêmement naïfs et sans prise.
 
 
 
<b>François Saltiel : </b>D'où la nécessité de développer, dans ces écoles d'ingénieurs – ça a d’ailleurs été l'objet d'une de nos dernières émissions – une approche transdisciplinaire, c’est-à-dire ne pas avoir juste une pensée ingénieure qui serait dans une sorte de déterminisme technologique, mais avoir aussi une approche sur les sciences sociales et comprendre ce que la technologie fait à la société.
 
 
 
<b>Pierre-Antoine Chardel : </b>Bien sûr, c'est absolument essentiel. On développe beaucoup ces dimensions-là au sein de l'Institut Mines-Télécom par exemple, on ne sépare pas le développement de capacités techniques d'un certain sens critique, d'une capacité à problématiser les implications politiques, démocratiques et éthiques des technologies. C'est absolument essentiel, en effet, de proposer ce qu’on peut appeler, avec Gilles Deleuze, des agencements collectifs pour s'emparer aussi de la complexité, c'est un autre point que je développe dans le livre <em>Socio-philosophie des technologies numériques</em> : on ne peut pas s'emparer de la complexité technologique tout seul, à moins qu'on soit à la fois ingénieur, designer, philosophe, sociologue, historien.
 
 
 
<b>François Saltiel : </b>Mais là ça ressemble à un patron d'une start-up ou d'une grande structure qui se prend effectivement pour un être omniscient, ce qui n'est pas le cas.
 
 
 
<b>Pierre-Antoine Chardel : </b>Ou Léonard de Vinci ou Pic de la Mirandole.
 
 
 
<b>François Saltiel : </b>Exact.<br/>
 
Juste pour peut-être clore ce chapitre de la vidéosurveillance. On a parlé du pouvoir législatif et de ses éventuelles défaillances par rapport à la culture du numérique, on peut aussi parler du pouvoir industriel qui sous-tend aussi ces lois avec une force de lobbying très importante. On sait qu'il y a un énorme marché de la surveillance, on peut citer Thales, Safran pour les entreprises françaises ou européennes, IBM évidemment. J'ai presque envie de reprendre la question que vous posez vous-même au philosophe américain Andrew Feenberg dans la postface du livre que vous venez de mentionner : est-ce que le pouvoir des marchés et des logiques industrielles ne crée pas, au fond, une forme de déterminisme technologique ?
 
 
 
<b>Pierre-Antoine Chardel : </b>Peut-être pas de déterminisme, en tout cas c'est évident que ces marchés redéfinissent en grande partie les jeux de pouvoir. Avec les environnements technologiques, on a à faire à du politique, on a aussi des idéologies du tout numérique qui sont portées par l'État, notamment par l'État plateforme, cette vision de l'État qui serait idéalement numérisé je dirais. Mais, bien sûr, on rencontre ici des jeux de pouvoir industriel, qui sont très clairement liés au capitalisme industriel, et qui interviennent, bien sûr, dans le déploiement de systèmes de surveillance, par exemple, et qui jouent un rôle considérable dans l'acceptation et dans la diffusion de ces technologies.<br/>
 
La complexité, dont je parlais à l'instant, renvoie aussi à ces jeux de pouvoir qui sont à la fois politiques, qui sont à la fois capitalistiques, qui sont à la fois industriels, qui interviennent dans la configuration de nos espaces de vie. Notre espace de vie sociale c'est, très concrètement, le fait de ne plus avoir de parcmètres dans les grandes villes puisque, désormais, pour payer un stationnement résidant il faut mieux avoir une application, donc il faut nécessairement avoir un smartphone.<br/>
 
C'est là en effet, vous avez raison, que naît, malgré, tout un certain déterminisme sociotechnique.
 
 
 
<b>François Saltiel : </b>Vous prenez cet exemple du parcmètre, même si les voitures ne sont plus forcément à la mode, mais il y a aussi cette idée de ne plus pouvoir échapper, finalement, à la sanction. C'est-à-dire que, pendant un moment, on se garait, il y avait une sorte d'aléatoire de l'humain qui passait ou qui ne passait pas. Là on voit qu'il y a un contrôle constant, c’est-à-dire qu’avec la voiture automatisée, avec sa caméra, de toute façon, on va passer, on va nous capter, ce qui nous ramène, finalement, à cette idée de la société de la trace où l'individu peut difficilement se faire oublier. Se faire oublier pour une légère infraction comme celle-ci, d'une voiture mal garée, mais, tout simplement, ne peut plus avoir le droit à l'oubli.<br/>
 
Pour citer Nietzsche que vous reprenez dans votre livre : « Nul bonheur, nulle sérénité, nulle espérance, nulle fierté, nulle jouissance de l'instant présent ne pourrait exister sans faculté d'oubli. »
 
 
 
<b>Pierre-Antoine Chardel : </b>En effet, cette faculté d'oubli est fondamentale à la condition humaine, cette capacité de se délester, de pouvoir oublier un peu pour mieux devenir, en quelque sorte, cette idée que le devenir est conditionné par l'effacement des traces. Cela renvoie aussi à cette idée que les traces numériques, que nous laissons tous les jours, sont de nous, mais ne sont pas nous, que nous sommes plus complexes, que nous ne sommes pas réductibles à l'ensemble de nos traces, que l'individu est beaucoup plus complexe parce qu'il est un être sensible, parce qu'il est un être qui a besoin de faire le tri aussi par rapport à sa propre mémoire. Nous nous évoluons, nous changeons sans cesse comme disait Henri Bergson, et c'est pour cette raison que nous pouvons aussi nous réaliser en tant qu'individu.<br/>
 
Un grand risque de ces systèmes techniques c'est de figer, en quelque sorte, l’identité et de figer aussi les interactions humaines et sociales. Je pense à cet exemple que vous avez donné : en effet, on commet une infraction, on n'a pas payé son stationnement, immédiatement notre plaque est, de toute façon, scannée. On n’est plus face à de l'humain, on est face à un système de machine à machine, et on est là totalement pris dans les mailles, je dirais, de la cybernétique. L'idéal de la cybernétique c'était très complexe, mais renvoyait notamment à cet idéal d'échange de machine à machine.<br/>
 
C'est bien cela qui nous dépossède et c'est bien cela aussi, je pense, qui crée une certaine forme d’insignifiant, c'est-à-dire de perte de sens, de perte de contrôle, de perte de maîtrise de notre quotidienneté. Je veux dire qu'il s'agit de micro-événements qui, peu à peu, génèrent de l'insignifiance, ce que Castoriadis appelait, par rapport à d'autres contextes, « une montée de l'insignifiance » qui me paraît très palpable aujourd'hui par rapport à ces petits gestes du quotidien qui sont appauvris ou qui sont, en l'occurrence, numérisés et qui ne donnent pas de prise pour celle ou celui qui souhaiterait contester, discuter, bifurquer.
 
 
 
<b>François Saltiel : </b>Bifurquer, changer de trajectoire.<br/>
 
Dernière question avant de partir en musique, comme l'on disait dans les années 80, n’y a-t-il pas, quand même, des stratégies de contournement, de détournement pour donner un petit peu d'espoir à cet individu qui n'est que quantité de données ? On a compris qu'aujourd'hui, dans cette société de la trace, c'était dur d'y échapper, néanmoins on peut peut-être essayer de perturber le système. On voit, par exemple, que beaucoup d'individus vont se créer de multiples identités numériques, des identités de genre différent, changer de nom, avoir recours au pseudonymat, dont on parle d'ailleurs beaucoup dans cette loi actuellement discutée à l'Assemblée nationale. Est-ce que ce n’est pas cela, finalement, le braconnage un peu à la Alain Damasio, c'est-à-dire arriver à trouver des subterfuges pour arriver à faire dérailler la machine ?, car la machine n'est pas si intelligente que ça quand même !
 
 
 
<b>Pierre-Antoine Chardel : </b>En effet, je crois que vous avez tout à fait raison : assumer le jeu de la pluralité des identités est une façon de faire face à cette tentative de nous identifier une fois pour toutes. Il y a un très beau texte de Maurice Blanchot qui s'appelle « La terreur de l'identification », qui met bien en évidence ce qu'il y a d’oppressant à être identifié une fois pour toutes. Il y a donc aussi une liberté qui passe par le fait de pouvoir s'identifier de façon plurielle, d'exprimer la pluralité des identités, c'est aussi un thème qui est cher à Nietzsche, cette idée que le sujet est une fiction, le sujet que l'on peut identifier une fois pour toutes est une fiction. Je pense que c'est là où la philosophie, évidemment, est importante parce qu'elle nous rappelle à ces fondamentaux, à cette idée que oui nous sommes pluriels, que nous avons besoin de pouvoir vivre dans plusieurs territoires existentiels, comme disait Guattari. Cette idée philosophique, cet idéal philosophique, qui est aussi un idéal existentiel, est évidemment mise à mal aujourd'hui par une volonté de développer l'identité numérique. Il y a ce projet, que je trouve très inquiétant, de fusionner l'identité numérique avec nos informations de santé.
 
 
 
<b>François Saltiel : </b>Tout à l'heure, vous avez parlé justement de l'État plateforme, cette idée qu’on ne soit plus qu'un numéro d'immatriculation, finalement un numéro d'identification pour pouvoir accéder à une multitude de services. Quand je parlais de la multiplicité identitaire, c'est sur des réseaux qui le permettent. Encore faudrait-il, justement, en tant que citoyen e-numérique, on puisse se réfugier derrière plusieurs identités.<br/>
 
Elle aussi parle de ses identités multiples parle dans ses chansons. Une chanteuse belge mais européenne qui s'amuse à raconter le monde numérique qui l'entoure et qui en fait parfois des chansons mêlant haine, amour et danger. C’est Angèle.
 
 
 
<b>Pause musicale : </b><em>Amour, Haine & Danger</em> par Angèle.
 
 
 
<b>Voix off : </b>France Culture, <em>Le Meilleur des mondes</em>, François Saltiel.
 
 
 
<b>François Saltiel : </b>Dans <em>Le Meilleur des mondes</em>, Angèle, <em>Amour, Haine & Danger</em>.<br/>
 
Tout de suite Juliette Devaux.
 
 
 
==</b><em>Les Nouvelles d'un Monde Meilleur</em>, Juliette Devaux 37’25==
 
 
 
<b>Juliette Devaux : </b>Et on commence
 

Dernière version du 27 octobre 2023 à 14:55


Publié ici - Octobre 2023