Différences entre les versions de « Servitude numérique : le prix de notre liberté - Trench tech »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/servitude-numerique-le-prix-de-notre-liberte ici] - Juillet 2023 »)
Balise : Contenu remplacé
 
(19 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Servitude numérique : le prix de notre liberté
+
Publié [https://www.librealire.org/servitude-numerique-le-prix-de-notre-liberte ici] - Juillet 2023
 
 
'''Intervenants : ''' Louis de Diesbach - Mick Levy - Cyrille Chaudoit - Thibaut le Masne
 
 
 
'''Lieu :''' Émission <em>Trench tech</em>
 
 
 
'''Date :''' 6 juin 2023
 
 
 
'''Durée :''' 1 h 00 min 31
 
 
 
'''[https://audio.ausha.co/yEL8dFlnQed8.mp3 Podcast]'''
 
 
 
'''[https://trench-tech.fr/podcast/episode/louis-de-diesbach-servitude-numerique-le-prix-de-notre-liberte/ Présentation du podcast]'''
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' À prévoir
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription==
 
 
 
<b>Cyrille Chaudoit : </b>Je suis hyper-content qu’on reçoive Louis de Diesbach, déjà pour qu’il nous explique comment il prononce son nom.
 
 
 
<b>Mick Levy : </b>Je crois que tu as bon !
 
 
 
<b>Cyrille Chaudoit : </b>On va parler d’un sujet qui m’est cher, qui est cette question de la servitude volontaire. Ça fait évidemment référence à Étienne de la Boétie qui était à peine plus jeune que lui d’ailleurs quand il a écrit.
 
 
 
<b>Thibaut le Masne : </b>Son livre est super intéressant pour avoir pu le lire en grande partie avant l’émission. Effectivement, la notion de « liker cette servitude » et voir quelles sont les mécaniques qui nous enclenchent dans cet écosystème-là est un peu plus compliqué.
 
 
 
<b>Mick Levy : </b>Ça va être une belle rencontre d’autant qu’il vient au studio les gars, il faut qu’on y aille sinon il va nous attendre.
 
 
 
<b>Voix off, extrait de <em>Matrix</em> : </b><br/>
 
— Tu as le regard d’un homme prêt à croire tout ce qu’il voit parce qu’il s’attend à s’éveiller à tout moment. Et paradoxalement, ce n’est pas tout à fait faux.<br/>
 
— Crois-tu en la destinée, Néo ?<br/>
 
— Non.<br/>
 
— Et pourquoi ?<br/>
 
— Parce que je n’aime pas l’idée de ne pas être aux commandes de ma vie.<br/>
 
— Bien sûr. Et je suis fait pour te comprendre.<br/>
 
 
 
<b>Voix off : </b>Trench Tech. Esprits Critiques pour Tech Éthique.
 
 
 
<b>Thibaut le Masne : </b>Bienvenue dans Trench Tech, le podcast qui aiguise votre esprit critique sur les impacts de la tech dans notre société. Thibaut, pour vous accueillir. Salut Mick.
 
 
 
<b>Mick Levy : </b>Salut Thibaut. Salut Cyrille.
 
 
 
<b>Cyrille Chaudoit : </b>Salut Mick. Salut Thibaut. Ça va bien.
 
 
 
<b>Thibaut le Masne : </b>Être aux commandes de sa vie. Cette réponse de Neo dans <em>Matrix</em> en 1999 semble aujourd’hui trouver un écho tout particulier. Oui, à l’heure des réseaux sociaux, de l’IA, des smartphones, des IoT, bref !, du tout connecté, nous pouvons nous poser la question : est-ce que encore le numérique qui nous sert ? Ou sommes-nous asservis au numérique ?<br/>
 
Nous vous proposons aujourd’hui de plonger dans les mécaniques de notre servitude avec Louis de Diesbach. Avec lui nous allons d’abord essayer de comprendre notre servitude en la définissant. Ensuite nous questionnerons le dilemme qui se pose à nous face à nos propres choix et enfin, pour reprendre l’expression de John Rawls, nous irons voir derrière le voile de l’ignorance en essayant de proposer des pistes de réflexion pour nous libérer de cette servitude.<br/>
 
Bien entendu, durant cet épisode, nous n’oublierons pas de prendre une pilule bleue et une pilule rouge, avec deux chroniques, car deux pilules valent mieux qu’une. Et comme d’habitude, nous conclurons cet épisode en prenant le temps, juste entre vous et nous, pour rassembler les idées clefs de cet épisode.<br/>
 
Mick, Cyrille, je crois qu’il est temps d’accueillir Louis qui vient d’arriver dans nos studios.
 
 
 
<b>Mick Levy : </b>On l’a avec nous Louis. Salut Louis.
 
 
 
<b>Louis de Diesbach : </b>Bonjour.
 
 
 
<b>Thibaut le Masne : </b>Bonjour.
 
 
 
<b>Cyrille Chaudoit : </b>Bonjour.
 
 
 
<b>Thibaut le Masne : </b>Louis, comme avec tous nos invités, on se tutoie ?
 
 
 
<b>Louis de Diesbach : </b>On se tutoie.
 
 
 
<b>Thibaut le Masne : </b>Super.
 
 
 
<b>Mick Levy : </b>Il faut dire que là on fait semblant. On a déjeuné ensemble avant, donc ça fait déjà deux heures qu’on se tutoie. Vous êtes d’accord, tant mieux ?
 
 
 
<b>Thibaut le Masne : </b>Ça nous rassure. On aurait dû le poser il y a deux heures.
 
 
 
<b>Louis de Diesbach : </b>Et là, je dis on se vouvoie
 
 
 
<b>Mick Levy : </b>Et ça casse tout le podcast ! Qui est Louis, Thibaut ?
 
 
 
<b>Thibaut le Masne : </b>Louis, tu es titulaire d’un master en sciences de gestion et d’un master en éthique et philosophie, major de sa promotion, s’il vous plaît.
 
 
 
<b>Cyrille Chaudoit : </b>Bravo.
 
 
 
<b>Thibaut le Masne : </b>En éthique, parce qu’en sciences de gestion pas du tout.
 
 
 
<b>Cyrille Chaudoit : </b>Major. On s’arrête là.
 
 
 
<b>Thibaut le Masne : </b>Tu rejoins Boston Consulting Group, le grand BCG en 2022, et tu travailles notamment dans la gestion de l’éthique de données. Tu publies très régulièrement des tribunes dans <em>La Libre Belgique</em> et <em>L'Écho</em>. Tu participes également à des conférences sur la technologie, l’IA et, bien entendu, sur l’éthique, et tu as publié récemment <em>Liker sa servitude. Pourquoi acceptons-nous de nous soumettre au numérique ?</em> aux Éditions FYP. Tout est juste ?
 
 
 
<b>Louis de Diesbach : </b>Tout est parfait.
 
 
 
<b>Thibaut le Masne : </b>Top ! Lançons-nous dans la première séquence, comprendre notre servitude.
 
 
 
<b>Voix off : </b>Trench Tech. Esprits Critiques pour Tech Éthique.
 
 
 
==Comprendre notre servitude==
 
 
 
<b>Mick Levy : </b>Louis, effectivement, on a parfois un petit peu tous l’impression d’avoir une certaine servitude à nos outils numériques, certains parlent même de féodalisation, c’est un terme qu’on entend de plus en plus vis-à-vis du numérique. Finalement, c’est quoi cette servitude ? Est-ce que tu peux un peu nous la définir ?
 
 
 
<b>Louis de Diesbach : </b>Il y a vraiment plein de choses dont on pourrait parler, mais la servitude c’est juste le fait de s’asservir, tout simplement, donc d’accepter une domination, une soumission.<br/>
 
Ce qui m’intéressait beaucoup, en fait, c’était de me rendre compte : on sait tous très bien que les réseaux sociaux ce n’est pas bien, ils pompent nos données, c’est maltraité, etc., on le sait et pourtant on reste dessus. C’est vraiment ça la question de base : pourquoi ?
 
 
 
<b>Mick Levy : </b>Et alors pourquoi ? On va avoir une heure ensemble pour l’éclairer, mais donne nous les premières pistes.
 
 
 
<b>Louis de Diesbach : </b>Ce qui m’intéressait c’était justement d’essayer d’avoir une approche un peu plus holistique et pas juste regarder les utilisateurs ou juste les plateformes ou juste les gouvernements ou juste les annonceurs, etc., mais essayer de regarder un petit peu tout le monde ensemble. C’est un peu ce côté sciences de gestion et éthique, essayer un peu de combiner ça. Beaucoup de philosophes oublient parfois un peu qu’on est au sein d’un marché et beaucoup de gens dans un marché oublient un peu l’éthique, peut-être un peu trop.<br/>
 
Je voulais un prendre ça. Une des premières constatations, quelque chose que beaucoup de gens oublient, c’est que les entreprises se comportent exactement comme on pourrait s’y attendre. Il y a cette phrase que j’aime bien, très utilisée aux États-Unis qui dit <em>Don't Hate the Player, Hate the Game</em>. Blâmer aujourd’hui les réseaux sociaux parce qu’ils pompent nos données, etc., c’est un peu comme quand Mbappé joue la montre en demi-finale de la coupe de monde, en Belgique on râle beaucoup là-dessus.
 
 
 
<b>Mick Levy : </b>Il met les Belges aussi là-dessus.
 
 
 
<b>Louis de Diesbach : </b>Bien sûr ! Je n’aime pas le foot, donc je peux en parler facilement.
 
 
 
<b>Mick Levy : </b>Là on a perdu trois auditeurs.
 
 
 
<b>Louis de Diesbach : </b>Plein de Belges qui avaient le seum et pourtant Mbappé respecte les règles, il joue le jeu, c’est comme ça. Si vraiment on ne voulait pas que ça existe, on met de nouvelles règles, on dit qu’on ne peut pas jouer la montre. <em>Don't Hate the Player, Hate the Game</em>, c’est un gros truc sur lequel je suis parti.
 
 
 
<b>Thibaut le Masne : </b>Donc il ne faudrait pas se rebeller contre Mbappé qui a joué la montre.
 
 
 
<b>Louis de Diesbach : </b>Mbappé est payé des millions pour faire ça, il fait ça très bien.
 
 
 
<b>Thibaut le Masne : </b>Sur les réseaux et le numérique comment transposes-tu ce que veut dire cette expression <em>Don't Hate the Player, Hate the Game</em> globalement ?
 
 
 
<b>Louis de Diesbach : </b>En fait pour moi Facebook, Google, YouTube, etc., ne font que suivre les règles d’un marché néolibéral, d’une économie néolibérale, où l’objectif c’est juste que se faire un paquet de pognon pour satisfaire des actionnaires dans une entreprise qui est globalement assez dérégulée. En fait, ils respectent juste les règles. Brad Smith, qui est le président de Microsoft a publié un article dans <em>The Economist</em>, il y a quelques années, qui disait « s’il vous plaît, régulez-nous. » Régulez-nous, une façon de dire « après, ne nous cassez plus les pieds, on est certain qu’on est OK. Donnez-nous les règles du jeu et après on fait ce qu’on veut. »<br/>
 
Pourquoi font-ils ça ? En fait, c’est parce que tout ça s’intègre. L’éthique de la Silicon Valley est une éthique utilitariste, profondément utilitariste. Juste rapidement, les puristes me pardonneront parce que je vais aller un peu vite, il y a deux grandes catégories d’éthique : les éthiques conséquentialistes et les éthiques non conséquentialistes.<br/>
 
Les éthiques conséquentialistes ça veut dire qu’on va regarder les conséquences des actions pour savoir si elles sont bonnes ou pas bonnes.<br/>
 
Les éthiques non conséquentialistes, on ne regarde pas les conséquences de l’action, on va juste regarder si l’acte en lui-même est bon ou mauvais en soi.<br/>
 
Philippa Foot a publié un papier en 1967 qui s’appelle « Le dilemme du tramway » dont pas mal de gens ont déjà entendu parler. Pour rappeler : un tramway va à toute vitesse sur des rails, les freins sont pétés, il n’y a plus de conducteur, on ne peut pas faire grand-chose, et il va en direction de cinq personnes qui sont ligotées su les rails. Il y a un aiguillage juste avant qui pourrait permettre au tramway de dévier et d’aller sur des rails où il n’y a qu’une seule personne qui est ligotée. On pose la question : est-ce que vous actionnez l’aiguillage pour faire changer le tramway, pour qu’il aille vers une personne plutôt que vers cinq. Vous, que feriez-vous ?
 
 
 
<b>Mick Levy : </b>Moi, je vais vers une personne, c’est sûr. Ça n’amène pas de dégâts sur le train ou sur les passagers du train ?
 
 
 
<b>Louis de Diesbach : </b>Non, c’est juste une personne ou cinq personnes. Là on va vers cinq personnes, est-ce que tu changes ?
 
 
 
<b>Mick Levy : </b>Une, sauf si c’est ma mère.
 
 
 
<b>Louis de Diesbach : </b>C’est hyper-intéressant. On part du principe que ce sont des gens que tu ne connais pas. Ce sont les mêmes questions qu’on pose pour les bagnoles autonomes : est-ce que c'est un enfant, est-ce que c’est un vieillard, etc. ? Tu choisis cinq, c’est ce que tu m’as dit. S’ils sont plus, c’est mieux aussi. C’est mon chiffre fétiche.
 
 
 
<b>Mick Levy : </b>Pour moi un, clairement.
 
 
 
<b>Louis de Diesbach : </b>Mick, je voudrais te proposer de sortir du studio parce qu’il y a une ambulance qui t’attend. En fait, il y a des gens qui ont besoin d’un cœur, des poumons, deux reins et un foie. Tu as l’air d’être en très bonne santé, on a bouffé ensemble, je sais que tu es plutôt en bonne santé. On va te prendre ces organes-là. Ça paraît très bien, ce sont cinq personnes à qui on va sauver la vie contre toi, grand animateur.
 
 
 
<b>Mick Levy : </b>Attends, la personne c’est contre moi : est-ce que j’accepte de... ; je n’ai pas compris.
 
 
 
<b>Louis de Diesbach : </b>Si tu pousses un peu cette éthique et tu la rends cohérente, si tu es OK de tuer une personne plutôt que cinq, que tu peux sauver la vie à cinq personnes, si tu pousses un peu cette éthique-là , si tu es un minimum cohérent, tu fais ça. Et là, les utilitaristes sont un peu « oui, mais non, non, je ne l’avais pas vu comme ça. »<br/>
 
C'est ce qui me fait dire que l’utilitarisme est une mauvaise théorie, ce n’est pas terrible. Je suis beaucoup plus, je promeus beaucoup plus une éthique plus ancienne. Emmanuel Kant, qui est le mec le moins fun de toute la philosophie, disait que les actions sont bonnes ou mauvaises en soi et que les gens devaient, entre guillemets, « obéir à une loi qu’ils se donnaient à eux-mêmes » qui devait respecter ce qu’il appelle l’impératif catégorique. Il a formulé l’impératif catégorique de plusieurs façons et la principale c’est : agis de telle sorte que la maxime de ton action puisse toujours en même temps servir de principe à une législation universelle.
 
 
 
<b>Mick Levy : </b>L’exemplarité finalement.
 
 
 
<b>Louis de Diesbach : </b>Exactement. On pourrait prendre ce que tu fais et on va en faire une loi, ça va être toujours comme ça. Par exemple ne mens pas et tu ne mens jamais.<br/>
 
Emmanuel Kant caricature un peu. Il disait « si jamais des gens veulent me tuer, je me cache chez toi, les gens arrivent et demandent : est-ce que Emmanuel Kant est chez vous ?, tu es obligé de dire oui, tu ne mens jamais, le mensonge est mauvais en soi.<br/>
 
À côté de ça il y a ce qu’on appelle la deuxième formulation de cet impératif, que je trouve beaucoup plus forte qui dit « agis de telle sorte que tu traites l’humanité, dans ta propre personne comme dans celle d’autrui, toujours en étant comme un fin, jamais simplement comme un moyen ». Je trouve que c’est très fort de dire qu’on va traiter les gens, les personnes vraiment au sens kantien, comme des fins en soi et pas comme des moyens.<br/>
 
Typiquement, si on revient à nos copains de la Silicon Valley, en fait tu es traité comme un moyen, c’est-à-dire que tu vas être traité comme un moyen de s’enrichir, de faire plaisir aux actionnaires, de faire plus de fric et de monopoliser un « contrôle», entre guillemets, sur le Web. Donc eux ne sont pas du tout dans une éthique kantienne, ils sont dans une éthique très utilitaristes : à la fin tout le monde est content, le plus grand bonheur du plus grand nombre, on s’en lave les mains et basta.
 
 
 
<b>Thibaut le Masne : </b>Si on revient à ce que tu dis de Kant quand il dit « toute action est bonne ou mauvaise intrinsèquement en soi », il y a un sujet qui revient très souvent dans ce podcast et en général : la technique est-elle bonne ou mauvaise en elle-même ? Et le sujet juste connexe c’est, en général, « il ne faut pas s‘intéresser à l’outil mais à l’usage que l’on en fait ». Quelle est ta position sur cette question-là ? Est-ce que toute technique est bonne ou mauvaise en soi ou c’est l’usage que l’on en fait et, à ce moment-là, est-ce que l’usage que les primaux accédants feront d’une techno quelle qu’elle soit – on parlait des IA dans les automobiles autonomes tout à l’heure – doit faire loi au sens kantien du terme, ou pas ?
 
 
 
<b>Louis de Diesbach : </b>De nouveau moi je suis très kantien, donc je pars du principe que ce n’est pas l’utilisation qu’on va en faire qui va changer. Les gens qui utilisent ce raisonnement me font beaucoup penser à la NRA [<em>National Rifle Association</em>], l’association des armes, les lobbies des armes des États-Unis qui a ce slogan <em>Guns don't kill people, people kill people</em>, en mode « ce ne sont pas les armes qui font quelque chose de pas bien ». Franchement, tu pourrais utiliser une arme, d’ailleurs je ne sais pas pour quoi d’autre. En fait ce sont les gens, donc il ne faut pas réguler les armes, il faut éduquer les gens. Certes éduquer les gens, mais c’est surtout le gros argument lobby.<br/>
 
Je pense que la technique n’est pas neutre. Je pense que la neutralité en tant que telle n’existe pas. Typiquement même, et c'est marrant parce qu’on en parle beaucoup avec Geoffrey Hinton, le docteur en IA qui vient de démissionner de Google, il a dit « je ne veux pas que le nouvel Oppenheimer ». Je pense effectivement que quand tu crées une bombe atomique, il n’y a pas de bons usages, je pense que c’est intrinsèquement mauvais en soi.
 
 
 
<b>Thibaut le Masne : </b>Tu veux dire qu’il faut se poser les questions éthiques avant et pas après.
 
 
 
<b>Louis de Diesbach : </b>Bien sûr, profondément. Là-dessus j’ai un super exemple, c’est toujours marrant parce que le mec est beaucoup plus balaise que moi : Yann Le Cun, le <em>Chief AI Scientist</em> de Meta, qui est quand même récipiendaire du prix Alan Turing, etc., le mec est carrément un ponte, a dit « non, il faut régler après parce que tu ne peux pas inventer la ceinture de sécurité avant d’avoir inventé la voiture ». Je suis d’accord avec lui sur ça. En revanche, tu peux dire « on ne commercialise pas de voitures tant qu’il n’y a pas de ceintures de sécurité ». Je pense que ce n’est pas exactement ce qu’il dit. Avec tout le respect que j’ai vraiment pour lui, il a une sorte de fuite en avant : on va pousser l’IA, mais on oublie un peu de se réguler.<br/>
 
Moi je pense qu’il faut vraiment une éthique by design : tu ne commercialises pas si tu n’es pas certain que tu ne vas pas faire une connerie.
 
 
 
<b>Mick Levy : </b>C’est hyper-compliqué. On est en train de découvrir les effets de l’IA. Là où je vais à fond dans ton sens, par contre, c’est quand on découvre, avec les <em>Facebook Files</em>, que Facebook savait pertinemment le mal qu’il était en train de faire, notamment sur Insta, aux adolescentes, aux jeunes filles, etc. Ils avaient eux-mêmes fait des études qui montraient que ça faisait du mal, ils ont mis l’étude sous le tapis, ils ont continué comme si de rien n’était.
 
 
 
<b>Thibaut le Masne : </b>C’est là où je veux revenir. En fait, on est en train de se dire qu’il faut les réguler, ils demandent à être régulés, ils demandent mais ça nous arrange de ne pas le faire ! Joëlle Toledano, dans un précédent épisode, nous disait qu’il n’y a pas de marché sans régulation. Mais là, ce dont on parle, ce n’est pas de régulation, c’est juste d’éthique. On n’a pas besoin de réguler l’éthique ! Tu l’as ou pas », entre guillemets. Tu es conscient, un peu comme disait Facebook : je suis conscient que je fais du mal.
 
 
 
<b>Louis de Diesbach : </b>Pour moi il y a deux choses : soit tu es conscient que tu fais du mal. Si on est d’accord sur le fait que tu fais du mal, tu es condamné pour et, à ce moment-là, que les gouvernements fassent leur boulot. On parlera peut-être après du rôle des gouvernements, je trouve que c’est important. Après, de nouveau, est-ce qu’une personne morale, une société comme Facebook, est censée avoir un jugement éthique ?
 
 
 
<b>Thibaut le Masne : </b>C’est ce que tu disais tout à l’heure, <em>business is business</em>, et les entreprises font ce l’on pense d’elles, en tout cas ce qu’elles doivent faire.
 
 
 
<b>Louis de Diesbach : </b>C’est une chose que je développe beaucoup dans mon libre. Typiquement lorsqu’on aborde la question des entreprises, le chapitre s’appelle <em>Business is business</em>. Arrêtons naïvement de se dire « ils vont faire la bonne chose », ils ne vont pas faire la bonne chose, ça fait dix ans qu’on attend !
 
 
 
<b>Thibaut le Masne : </b>Louis, tu comprends quand même que certains ou certaines puissent avoir cette idée-là. Ils nous vendent quand même tout ce <em>storytelling</em> de « on change le monde », avec ce côté chevalier blanc « on va faire les choses pour un monde meilleur ». Alors que c'est l’écran de fumée, pour reprendre le titre de <em>The Social Dilemma</em>, ou tout type de voile ,on va dire, je sais que tout à l’heure on fera référence à <em>La danse des mille voiles</em>.<br/>
 
Si on revient à notre sujet qui est la servitude, parce que l’éthique by design par rapport à une techno, par rapport à l’usage qu’on va en avoir, là, finalement, si on recroise avec la notion de servitude, c’est que <em>by design</em> ces outils nés du numérique sont là, sont designés précisément pour nous asservir. L’utilisation de neuroscientifiques, de designers, de psychologues, de machins, etc., pour le <em>scroll</em> infini, pour le like, pour le machin, etc., c'est fait précisément pour nous asservir.<br/>
 
Là on est à la croisée des deux chemins, c’est-à-dire que leur volonté de faire du business vient clairement bafouer toute éthique, mais tu nous dis à la limite <em>why not, business is business</em>, ce n’est pas à eux de prendre les devants, c'est plus, à la limite, au politique et à la régulation de s’assurer que…, mais le temps politique, on le sait, n’est pas le temps de l’innovation, donc comment fait-on ?
 
 
 
<b>Louis de Diesbach : </b>C’est exactement ça, pour moi c’est vraiment ça la problématique. Je pense que les plateformes ne veulent pas nous asservir, elles veulent faire de l’argent et la meilleure façon de faire de l’argent c’est d’asservir. C’est vraiment la finalité.
 
 
 
<b>Thibaut le Masne : </b>C’est important ce que tu dis, ce n’est pas intentionnel de nous asservir, ce ne sont pas des grands méchants, on n’est pas dans un film avec des méchants qui veulent nous asservir pour devenir maîtres du monde. Ils veulent faire du business et la meilleure façon de faire du business c’est de nous asservir.
 
 
 
<b>Mick Levy : </b>D’où la réflexion conséquentialiste, du coup, c’est intéressant de réfléchir sur les conséquences de ce qu’ils font .
 
 
 
<b>Louis de Diesbach : </b>C’est exactement ça. Et je pense qu’aujourd’hui la façon la plus facile, la plus certaine de faire du gros cash c’est s’asservir les gens et de s’assurer que les gens restent rivés.
 
 
 
<b>Thibaut le Masne : </b>Ça toujours été le cas. Tout type de pouvoir, « du pain des jeux ».
 
 
 
<b>Louis de Diesbach : </b>Tout à fait. Exactement. Hans Jonas, le philosophe allemand, a une phrase que j’aime beaucoup, il parle des forces grandissantes de la technique et je pense qu’aujourd’hui on démultiplie tout ça. La technique, aujourd’hui, n’a pas forcément réinventé les grandes questions qu’on se pose : quand on parle de chambre d’écho, ça existait déjà, quand on parle de polarisation de l’information ça existait déjà. Je pense qu’aujourd’hui on a juste démultiplié, mais en démultipliant on aggrave énormément.
 
 
 
<b>Thibaut le Masne : </b>J’ai une autre version, entre guillemets. Günther Anders, le philosophe allemand, dit qu’on est toujours dépendants deux fois de notre technique : d’abord il nous la faut une première fois pour pouvoir avancer, évoluer, et ensuite il faut se maintenir au niveau de cette technique et systématiquement, continuellement l’améliorer. Quelque part, on est asservis par le business que ces entreprises mettent en place, mais on est aussi, quelque part, asservis par notre objet technique qui est la production humaine, tout simplement, depuis la nuit des temps
 
 
 
<b>Louis de Diesbach : </b>Je n’ai bien lu Günther Anders, ça va être difficile pour moi de rebondir complètement.
 
 
 
<b>Thibaut le Masne : </b>Ça y est je l’ai eu !
 
 
 
<b>Mick Levy : </b>C’était tout ce qu’il attendait, les philosophes !
 
 
 
<b>Louis de Diesbach : </b>Je pense que c’est certain. Mon propos, justement, et ce que j’essaye c’est de ne pas tomber dans une techno-phobie aiguë qui est de dire qu’il faut tout arrêter. Il y a des techniques qui sont géniales, même typiquement sur Facebook, il y a des fonctionnalités – don de sang, don d’organes – que je trouve super. Il y a plein de choses qui sont vraiment géniales, il y a des groupes de parents d’élèves qui se retrouvent, c’est génial. La question, en revanche, c’est plutôt : que fait-on de tout ce qui n’est pas si génial ? Je pense qu’il y a moyen de trouver des modèles économiques et des modèles sociétaux ; on a des réseaux sociaux qui sont cool.
 
 
 
<b>Mick Levy : </b>C’est parfait c’est ce qu’on va explorer sur la suite de notre entretien. Je vous propose avant d’ouvrir une petite parenthèse avec la Philo Tech.
 
 
 
</b>Voix off : </b>De la philo, de la tech, c’est Philo Tech.
 
 
 
==18’32 Philo Tech d’Emmanuel Goffi « Le Japon, l’IA et l’éthique »==
 
 
 
<b>Mick Levy : </b>Emmanuel, tu poursuis ton étude des différentes cultures autour de l’éthique de l’IA. Aujourd’hui tu nous fais voyager, tu nous emmènes au Japon.
 
 
 
<b>Emmanuel Goffi : </b>L’approche japonaise de l’intelligence artificielle est très différente de la nôtre. Pendant que tout le monde s’agite pour réguler ou stopper la régulation de l’intelligence artificielle, je pense que c’est intéressant de comprendre que nos angoisses, comme nos espoirs, voire notre philosophie vis-à-vis de l’IA, ne sont pas universelles. Du coup nos perceptions sont différentes et, avec elles, notre relation à la technologie et nos réactions à son encontre.<br/>
 
Ce qui est intéressant avec le Japon c’est que le rapport à la technologie y est conditionné par au moins deux facteurs différenciant.<br/>
 
On a d’un côté la pensée shinto et, de l’autre, une culture populaire spécifique. Ces deux éléments modèlent les perceptions japonaises sur la technologie en général et sur l’IA en particulier et ils conditionnent les comportements.<br/>
 
Dans une étude sur les impacts de la culture en milieu professionnel, le sociologue néerlandais Geert Hofstede soulignait que la culture c'est le produit d’une programmation mentale collective. Si on adhère à cette idée, on peut considérer que le rapport que nous entretenons avec les objets techniques est lié à des perceptions qui sont le produit d’une programmation mentale spécifique. Ce qui veut dire que la perception des enjeux liés à l’IA et, par suite, les moyens de les aborder, va varier selon les cultures, d’autant que nos approches de l’IA tournent autour de questionnements éthiques qui reposent sur des valeurs et des idées traditionnelles que, d’ailleurs, les anthropologues américains Alfred Kroeber et Clyde Kluckhohn placent au cœur des cultures. En bref, éthique, technologie et culture sont étroitement liées.
 
 
 
<b>Mick Levy : </b>Le Japon semble être un pays hyper-technologique avec un formidable développement de la robotique. Tu as évoqué la sagesse shinto et la culture populaire. En quoi toutes ces idées sont-elles liées et comment ces deux cultures ont-elles influencé ce formidable développement de la robotique ?
 
 
 
<b>Emmanuel Goffi : </b>Si on prend dans l’ordre, la sagesse shinto est une approche animiste spécifiquement japonaise. Animiste veut dire qu’elle tend à considérer que les êtres vivants, comme les objets, sont traversés par ce qu’on appelle improprement une âme. En fait il s’agit d’une multitude d’esprits, appelés kamis, qui habitent êtres vivants et objets, ce qui questionne, d’ailleurs, la différence que nous faisons en Occident entre « êtres animés » et « objet inanimés ».<br/>
 
Pour les Japonais, les objets ont une vie et il arrive même qu’ils soient baptisés et bénéficient d’un rituel lorsque l’on s’en sépare. Ils sont respectés pour ce qu’ils sont alors que chez nous ils sont considérés comme un moyen, un simple outil que l’on jette lorsqu’il est devenu inutile.<br/>
 
En fait, le Japon entretient une relation aux objets en général et aux automates en particulier qui est quasi unique dans le monde et directement liée à l’approche intégrative du shintoïsme. Les humains et les objets font partie d’un même univers. Ils coexistent sans la hiérarchie à l’œuvre en Occident, on en a déjà parlé, où l’humain est au sommet de la pyramide et contrôle son environnement pour le plier à ses besoins, dans une approche purement instrumentale aux objets.<br/>
 
En ce qui concerne l’autre versant, la culture populaire, je pense que la meilleure illustration c’est l’opposition entre Terminator et Astro Boy. Au Japon, la relation particulière entre l’humain et la technologie est ancrée dans une approche de bienveillance réciproque. La technologie n’est pas soumise à l’humain, elle l’accompagne et elle le complète. C‘est ce qu’illustre Astro Boy, ce petit robot, personnage de manga apparu au début des années 50, qui vient au secours de l’humanité, qui s’inscrit également dans la culture kawaï, c’est-à-dire de ce qui est mignon. Astro Boy est un gentil robot, mignon, pendant que Terminator est, au moins initialement, tout sauf gentil et, à mon sens en tout cas, pas particulièrement mignon. On a, d’un côté, un objet technique qui aide l’humain et, de l’autre, un qui le menace. En fait, ce sont deux visions antagonistes qui correspondent à deux cultures. Ça s’explique notamment par notre désir de contrôle occidental, encore une fois, or, si on perd le contrôle, alors on est menacé et, là où il y a crainte, il y a besoin de plus de contrôle. Au Japon, cette notion de contrôle est absente puisque la technologie est juste là pour aider et qu’elle est habitée, par ailleurs, par des kamis.<br/>
 
Arisa Ema, qui est professeur associée à l’Université de Tokyo et chercheuse en sciences et technologie, souligne, je la cite, que le Japon est riche en contenus d’animation et en bandes-dessinées qui considèrent que l’IA et les robots font partie de la société, ce qui a généré, ajoute-t-elle, des discussions uniques sur l’intelligence article.
 
 
 
<b>Mick Levy : </b>L’IA et les robots au cœur de la société. Mais comment est-ce que ces éléments culturels profonds, comme tu l’indiques ici, se traduisent-ils dans le quotidien des Japonais ?
 
 
 
<b>Emmanuel Goffi : </b>Ça se traduit par une philosophie qui est très différente de la nôtre, une philosophie inclusive de la technologie qui est vue comme bénéfique à la société.<br/>
 
En début d’année j’étais en Arabie saoudite et j’ai eu la chance de rencontrer le professeur Hiroshi Ishiguro, qui est le directeur du Laboratoire de robotique intelligence à l’université d’Osaka et qui présentait son avatar robotique Geminoid. En assistant à sa présentation, j’ai été frappé de voir à quel point il abordait un futur fait d’avatars de manière totalement décomplexée et sereine. Il envisageait et promouvait d’ailleurs un monde où chaque individu aurait un avatar robotisé qui pourrait prendre sa place pour accomplir des tâches que l’humain ne pourrait pas accomplir lui-même, pour tout un tas de raisons. Son idée c’est qu’en 2050 il faudra une société dans laquelle, je le cite, « les humains seront libérés des contraintes de leur corps, de leur cerveau ,de l’espace et du temps », grâce, justement, à ces avatars. C’est une vision qui est un peu inquiétante pour un Français, évidemment, mais qui est tout à fait normale pour un Japonais. D’ailleurs, le gouvernement japonais a développé une politique toute tournée vers la technologie comme alternative à des problématiques socio-économiques telles que le vieillissement de la population ou le manque de main-d’œuvre. C’est une vision, celle de la société 5.0, qui a été proposée en 2015, qui offre un contexte dans lequel on comprend mieux la perspective du professeur Ishiguro et son idée de développer des avatars.<br/>
 
Au final, on comprend que la culture est essentielle à la compréhension des enjeux liés à l’IA et que ce qui vaut pour nous ne vaut pas nécessairement pour tout le monde. Je pense que le Japon en est une excellente illustration et son approche ne peut que nourrir notre esprit critique.
 
 
 
<b>Voix off : </b>Trench Tech. Esprits Critiques pour Tech Éthique.
 
 
 
==24’ 40==
 
 
 
<b>Mick Levy : </b>Sympa ce petit tour au Japon.
 

Dernière version du 31 juillet 2023 à 13:05


Publié ici - Juillet 2023