« Des iA et des Idées - Trench Tech All Star » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/des-ia-et-des-idees ici] - Décembre 2023 »)
Balise : Contenu remplacé
 
(23 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Transcriptions]]
[[Catégorie:Transcriptions]]


'''Titre :''' Des iA et des Idées
Publié [https://www.librealire.org/des-ia-et-des-idees ici] - Décembre 2023
 
'''Intervenant·e·s :'''  Françoise Soulié-Fogelman - Laurence Devillers - Gilles Babinet - Cyrille Chaudoit - Thibaut le Masne - Mick Levy
 
'''Lieu :''' Émission <em>Le Meilleur des mondes</em> - France Culture
 
'''Date :''' 19 octobre 2023
 
'''Durée :''' 1 h 04 min 54
 
'''[https://audiofiles.ausha.co/fr-par/16/yAkEiNfnIfsZ2GWCBcyMSjHc2xEvbOJ69OPJc7QW.mp3?token=1699891885-CU6FolBQD9mZwFrUdL2zNLG%2FkUEjVdPyA4LmqcoSSXQ%3D Podcast]
 
'''[https://trench-tech.fr/podcast/episode/s02-hors-serie-trench-tech-all-star/ Présentation de l'épisode]
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
'''Illustration :''' À Prévoir
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
==Transcription==
 
<b>Al Pacino, voix off : </b>En fait, je ne sais pas quoi vous dire. Trois minutes avant le plus grand combat de nos vies professionnelles et tout se résume à aujourd'hui. Aujourd'hui soit nous guérissons, en tant qu'équipe, soit on s'effondre.
 
<b>Voix off : </b><em>Trench Tech</em>. Esprits Critiques pour Tech Éthique.
 
<b>Mick Levy : </b>Hop, hop, hop ! Ce n'est pas du hip-hop et pourtant, je vous la chante quand même, c'est la <em>Trench Tech All Star</em>. Je l'avais promis sur Linkedin pour ceux qui me suivent, c'est donc maintenant fait, promesse tenue, je l’ai chanté.<br/>
Bonjour à tous, c'est Mick au micro, bien sûr, avec Cyrille, bien sûr, avec Thibaut. Salut les gars.
 
<b>Cyrille Chaudoit : </b>Hello, hello.
 
<b>Thibaut le Masne : </b>Salut.
 
<b>Mick Levy : </b>Nous voilà partis pour un épisode et un live exceptionnel à plus d'un titre, d'abord pour fêter l'anniversaire de <em>Trench Tech</em>.
 
<b>Cyrille Chaudoit : </b>Un petit peu en retard quand même.
 
<b>Mick Levy : </b>J'avoue, on est en retard, mais avec tout notre ??? [1 min 11] collectif et avec vous, cher public, d'ailleurs on veut vous entendre vous êtes bien là ?
 
[Cris du public]
 
<b>Mick Levy : </b>Nous voilà donc en live depuis les magnifiques locaux de Cap Digital qu'on remercie de nous accueillir. On peut les applaudir.
 
[Applaudissements]
 
<b>Mick Levy : </b>Exceptionnel, je vous le disais à plus d'un titre, aussi parce qu'un <em>All Star</em> c'est avec des stars et aujourd'hui vous allez être servis avec Françoise Soulié-Fogelman, avec Gilles Babinet et avec Laurence Devillers. Vous en doutez si vous les connaissez, si vous nous écoutez, avec eux on va parler d'IA, bien sûr, mais là, on a quand même du niveau, alors on a suivi les conseils de Al Pacino qu'on a entendu en intro : pas le choix. Avec l'IA soit réussi tous en tant qu'équipe soit on s’effondre ». Mais là, ça se joue au niveau mondial, alors on va leur donner trois minutes, trois minutes à Françoise, à Gilles et Laurence, trois minutes pour <em>pitcher</em> leur grande idée pour une IA plus éthique.<br/>
Après ces grands pitchs, on passera en mode débat et on suivra notre débat sur deux thématiques : l'IA qui nous veut du bien, on se demandera ce que serait une IA au service de l'humanité, ce que serait le monde avec une IA de confiance. Puis, comment mettre cette IA au service de l'humanité, on discutera des conditions, des actions à entreprendre pour que l’IA soit véritablement positive pour l'humanité.<br/>
Pour le public dans la salle, préparez vos questions, vous pourrez les poser en direct à nos trois invités.<br/>
Et puis vous les attendez, je le sais on retrouvera, bien sûr, nos chroniqueurs d'amour qui nous ont concocté une chronique très spéciale, je ne vous en dis pas plus, on vous garde la surprise.<br/>
Alors, hop, hop, hop, je vous le disais, ce n'est toujours pas du hip-hop, mais je crois que maintenant tout le monde est prêt pour les grands pitchs.
 
<b>Cyrille Chaudoit : </b>En fait, pas tout à fait, Mick. Coucou cher auditeur, sur les cinq micros un n'a pas fonctionné, alors écoute bien ce son et tente de retrouver dans l'épisode quand on a dû réenregistrer nos questions.
 
<b>Voix off~: </b><em>Trench Tech</em>. Esprits Critiques pour Tech Éthique.
 
==Ce serait quoi le monde avec des IA de confiance ?==
 
<b>Cyrille Chaudoit : </b>C'est parti pour le grand pitch. Le principe est simple, mes amis, chacun de nos invités a trois minutes, top chrono, pour partager sa grande idée pour une IA plus éthique. Pour une parfaite équité on a fait simple, l'ordre de passage suit l'ordre alphabétique de leurs prénoms.<br/>
Une petite règle entre nous, public, on ne les interrompt pas, trois minutes ça passe très vite, aucune question, on garde tout ça pour la suite lors du grand débat.<br/>
Alors « f », « g », «  l », eh bien c'est Françoise qui va ouvrir le bal. Mais déjà là, en fait Françoise n'était pas tout à fait d'accord.
 
<b>Françoise Soulié-Fogelman : </b>Je n'ai qu'une chose à dire, ce principe est complètement déloyal, je propose...
 
<b>Mick Levy : </b>On n'a pas commencé qu’elle débat déjà sur le format, ça va être compliqué !
 
<b>Cyrille Chaudoit : </b>Françoise, on peut dire quand même que tu es une véritable pionnière de l'intelligence artificielle. Tu as écrit plus de 150 publications académiques et édité 13 ouvrages scientifiques. Tu fais partie du conseil d'administration du Hub France IA et tu étais membre d'un collège d'experts sur l'intelligence artificielle pour la Commission européenne. Françoise c'est bon ? Tu es prête ?
 
<b>Françoise Soulié-Fogelman : </b>Je n'ai rien préparé, mais on va y arriver quand même !
 
<b>Cyrille Chaudoit : </b>C’est parti pour trois minutes.
 
<b>Françoise Soulié-Fogelman : </b>Le sujet c'est l'éthique et j'ai envie de dire que ça me gonfle, je pense que l'éthique ce n'est pas le sujet, ce n'est pas le problème. Le problème c'est que, en fait, si on veut de l'IA, on veut de l’IA dans laquelle les gens aient confiance. Vous voyez <em>Terminator</em>, vous avez peur. Vous voyez le dernier film <em>Mission impossible</em> numéro 47, on a peur. Il nous faut donc quelque chose où, tout d'un coup, les gens aient confiance dans l'IA et pensent que l'IA ça peut être bon pour eux. Le sujet c'est ça.<br/>
Maintenant,  je vous pose la question : vous avez un bébé, vous voulez lui payer un nounours, vous allez chercher le nounours, qu'est-ce que vous voulez ? Vous voulez que votre bébé ne s'étouffe pas en avalant les oreilles du nounours, en lui arrachant les yeux et en les mangeant. Ce que vous voulez c'est avoir confiance dans le nounours. Comment faites-vous ? Vous regardez un petit truc qui est une petite étiquette où il y a écrit CE et là vous vous dites « je veux ce nounours, j'ai confiance dans ce nounours ».<br/>
Comment je fais pour qu’on ait confiance dans l'IA et pour avoir confiance dans l'IA il y a des outils, c'est comme quand vous voulez faire rentrer un clou. Pour faire rentrer un clou, vous avez besoin d'un marteau. OK, le marteau ça sert à ça. Eh bien, pour l'IA de confiance, pour moi c'est la même chose. Il y a un certain nombre d'outils – je pense que Laurence en parlera – pour moi l'éthique c'est un des outils en question, mais c'est loin d’être le seul.  Il y a aussi la régulation qui est basée sur toutes ces choses-là. En fait, il va nous falloir avoir plein d'outils dans notre petite poche pour réussir à avoir une IA de confiance parce que sinon l'IA ne servira à rien, les gens n'en voudront pas. Ils verront les films de monsieur Tom Cruise et  voilà !
 
Comment fait-on pour, ensuite, mettre en œuvre tous ces outils ? Il nous faut je ne dirais pas une grande idée, il nous faut tout un tas de moyens concrets et pratiques. Je dis « il ne faut pas une grande idée, il en faut plein de petites » c'est beaucoup plus facile déjà, mais surtout elles sont implémentables.<br/>
De quoi a-t-on besoin aujourd'hui ? On a besoin de moyens pratico-pratiques, de faire en sorte que l'IA se déploie, se déploie de façon à ce que les gens en soient contents, aient confiance et tirent les bénéfices sans tirer les risques avec. Par exemple, aujourd'hui, comment je fais quand je suis une start-up pour développer mon produit avec une IA de confiance, bien sûr, de façon à ce qu'il soit régulé et qu'il obtienne le petit tampon CE de la Commission qui est une norme, comme chacun sait ; ma petite camarade, là-bas au bout, va nous en parler. C'est le premier sujet.<br/>
Un deuxième sujet que tout le monde aborde quand il est dans une entreprise : comment je fais pour tirer les bénéfices de l'IA générative sans me brûler les doigts ?<br/>
Plein de petits trucs faciles.
 
[Applaudissements]
 
<b>Mick Levy : </b>Et avec un respect parfait du timing
 
<b>Cyrille Chaudoit : </b>Merci Françoise. Pour quelqu'un qui n'avait pas préparé, franchement ! En tout cas on précise qu'on te retrouve tout bientôt dans un épisode de <em>Trench Tech</em> qui te sera dédié. Restez bien connectés aux réseaux sociaux pour savoir quand ça sort.<br/>
On enchaîne c'est maintenant au tour de Gilles. Gilles, tu es coprésident du Conseil national du numérique et notre digital champion pour la France auprès de la Commission européenne. Tu enseignes également à HEC et tu as écrit quatre ouvrages dont le dernier <em>Comment les hippies, Dieu et la science ont inventé internet</em>, un titre un peu cryptique. Pour avoir les réponses il faudra le lire et c'est aux éditions Odile Jacob.<em>Gilles, are you ready to go?</em>.
 
<b>Gilles Babinet : </b>Oui.
 
<b>Cyrille Chaudoit : </b>C’est parti, trois minutes.
 
<b>Gilles Babinet : </b>Il y a un peu plus de trois ans, je me suis retrouvé à faire des débats sur la 5G dans les territoires et c'était assez brutal, je ne sais pas si vous souvenez, c’était il y a quatre ans, les gens m'insultaient dans les débats, c’était vraiment très particulier. Je me souviens d'une conversation avec une femme – j'avais sorti tout un tas d'arguments sur les intérêts de la 5G – qui a conclu en disant : « J'ai bien entendu vos arguments, je ne suis pas contre, je suis juste contre parce qu’on nous l'impose ». Ça m'a beaucoup frappé et, à partir de là j'ai développé, on a développé une idée au sein du Conseil national numérique qui s'appelle « Café IA », qui part du principe qu’il faut ouvrir un débat sur les sujets d'IA avec dix millions de Français. Pourquoi ? Encore cet été j'étais en vacances dans le Vaucluse,  j'ai eu l'occasion de discuter soit avec ma famille soit avec des amis de ces sujets-là. Les gens ont beaucoup de fantasmes, ils ont peur que les IA deviennent conscientes, qu’elles  leur piquent leur job, qu'elles leur mentent, qu’elles dévoient la démocratie, etc., des risques avérés. Des gens se demandent « comment je mets ça dans ma TPE, comment j’en fais potentiellement mon métier quand j'ai 12 ou 14 ans et que je me demande quoi faire dans la vie ».<br/>
On s'est dit c'est très bien de faire des grands plans d’IA, de mettre 1,5 milliard d'argent public dedans, de créer PRAIRIE [PaRis AI Research InstitutE], de donner à Polytechnique et à Normale Sup et je le dis sincèrement, je pense que c'est très bien, mais c'est loin d'être suffisant.<br/>
L’IA  ça touche tellement tout : ça touche la façon dont on vit, la façon dont on produit, la façon dont on échange, la façon dont notre intimité, potentiellement, converse avec ces machines que ça ne peut pas rester un truc de spécialistes. Ça doit être un truc commun et on doit créer une culture commune de l'IA.<br/>
Donc aujourd'hui,  le Conseil national du numérique a dit au gouvernement : notre projet, ce qui nous semble important pour la suite c’est de créer un dispositif qui soit très léger, qui s'appuie sur le milieu associatif, sur les acteurs qui préexistent, et qui identifie juste les meilleurs parcours, ceux qui attirent le plus de monde, ceux qui font en sorte qu’il y a le plus de débats, mais vraiment qu'on arrête de faire du colbertisme où tout se décide à Paris, dans des bureaux dans le 7e arrondissement, et qu'on fasse quelque chose qu'on aurait dû faire, d'ailleurs, pour bien d'autres sujets dans ce pays, qu'on ouvre un vrai débat.<br/>
Je finirai en disant que la raison pour laquelle on pense que l'IA est un bon sujet c'est que c'est vraiment le sujet le plus transformatif, qui va toucher absolument toutes les dimensions, c'est donc pour cela qu'il faut qu'on le fasse. Je pense  vraiment que ça se résume à refaire de la vraie politique, c’est-à-dire parler des vrais sujets avec les gens.
 
<b>Cyrille Chaudoit : </b>Sur le fil, bravo !
 
[Applaudissements]
 
<b>Cyrille Chaudoit : </b>Quel sens du timing. Merci Gilles. On rappelle ton épisode « Tech & Environnement : le grand bullshit ? ». Là aussi, pour avoir la réponse, il faudra écouter <em>Trench Tech</em> sur trench-tech.fr et sur toutes les plateformes de podcast qui se respectent.<br/>
Pour finir cette <em>battle</em> de pitchs c'est désormais ton tour, Laurence. Laurence, tu es professeure à l'Université Paris-Sorbonne et directrice de recherche sur les interactions affectives humain/machine au CNRS. Tes travaux portent, entre autres, sur les sujets des normes en IA. Tu as aussi publié trois livres dont <em>Les robots émotionnels: Santé, surveillance, sexualité... : et l'éthique dans tout ça ?</em> aux éditions de L'Observatoire. Tu es prête Laurence? C'est parti pour trois minutes.
 
<b>Laurence Devillers : </b>Merci.<br/>
L’importance de démystifier l'IA, c'est éduquer avant tout, je ne fais pas du tout que des normes, je travaille en recherche, je forme des élèves, j'ai cinq thésards, je publie des articles et je suis aussi présidente de la Fondation Blaise Pascal pour faire de la médiation culturelle en mathématiques et en informatique partout en France. Je suis aussi impliquée à l’Europe sur les normes, effectivement, qui sont des sujets extrêmement importants.
 
Qu'est-ce que ça veut dire de démystifier l'IA ?<br/>
Déjà qu'est-ce que c'est que l'intelligence ? Vous savez répondre ? Peut-être oui, peut-être non ? L'intelligence a différentes formes : l’intelligence du langage, du corps, l'intelligence émotionnelle, interpersonnelle, intra-personnelle, l'intelligence spatiale, ce que la machine n'a pas du tout, et cette intelligence émotionnelle, j’en ai parlé, fait référence aux travaux d'Antonio Damasio qui est un neuroscientifique connu qu'il est important de rappeler. Notre intelligence humaine c'est donc un ensemble de compétences, innées ou acquises, indissociables des intuitions et des sensations qui dirigent nos décisions et actions et qui nous permettent souvent de les expliquer, pas toujours, mais on peut les expliquer verbalement, et distinguer ce qui est bien, mal, agréable, désagréable.
 
Les pièges de l’expression « intelligence artificielle », qu'est-ce que c'est ? C’est de masquer les vrais enjeux. Le but, en fait, de l'invention d'un objet IA, c'est d'imiter une capacité humaine si c'est trop dangereux pour nous ou trop pénible, ou de pallier une incapacité humaine : par exemple, on a un cerveau incapable d'aller regarder toutes les informations liées à un contexte pour améliorer des soins, pour aller chercher des informations sur l'écosystème écologique. On n'est pas capable d'agréger toutes ces informations et on n'est pas capable de réfléchir à la vitesse que peuvent avoir ces machines qui, d'ailleurs, ne réfléchissent pas, qui calculent.<br/>
C'est donc important de comprendre ça et c'est aussi important de comprendre que l'intelligence artificielle, sur laquelle tout le monde fantasme des choses qui ne sont pas avérées, soit très fortes soit en dessous, est incapable de comprendre ce qu'elle fait, elle est incapable d'expliquer. Elle sait prédire, elle sait produire des générations d'images, de textes, mais elle est incapable d'expliquer ce qu'elle fait.
 
Personne ne conteste aujourd'hui qu’il y a une puissance croissante des IA combinées à des gigantesques corpus de signaux du monde, ingérables pour notre cerveau, et qui permettront de résoudre des problèmes qui nous dépassent complètement et, en cela, l'IA sera plus intelligente que les humains dans de nombreux usages. Par contre, elle ne pourra pas expliquer ses prédictions. Devant des situations inconnues les humains sont beaucoup plus forts, mais il est certain qu’elle sera de plus en plus intelligente.
 
Que doit-on faire ? Des lois, des normes, réfléchir sur l'éthique, démystifier ces objets, trois piliers importants pour pouvoir décider face à l’incertain, comprendre les risques. Relisez <em>Pensées</em> de Blaise Pascal,  l'inventeur de la pascaline, c'est un appel à agir avec raison dans l'incertain en évitant deux excès : exclure la raison et n'admettre que la raison.
 
[Applaudissements]
 
<b>Cyrille Chaudoit : </b>Grandiose. Merci Laurence. On t'a déjà reçue, toi aussi,  à notre micro et ton épisode « IA & Robots : il faut voir comme ils nous parlent », est disponible sur trenchtech.fr et toutes les plateformes de podcast.<br/>
Attends auditeur, une fois n'est pas coutume, Mick voulait rajouter quelqu'un.
 
==14’ 53==
 
<b>Mick Levy : </b>On voulait donner des challenges à nos invités en se disant qu’on avait des All Star, on va leur donner une chance de <em>pitcher</em> leur grande idée en trois minutes. Le plus compliqué c'est qu'ils tiennent trois minutes. Un grand bravo parce que c'est pleinement réussi !
 
[Applaudissements]
 
<b>Cyrille Chaudoit : </b>Avec ces trois pitchs, je crois qu'à présent on a de bonnes pistes de réflexion et on va tout de suite s'appuyer dessus pour lancer le premier débat : les intelligences artificielles qui nous veulent du bien, fantasme ou vrai projet ?
 
<b>Voix off : </b><em>Trench Tech</em>. Esprits Critiques pour Tech Éthique.
 
<b>Thibaut le Masne : </b>Ah l’IA, un ami qui vous veut du bien. Toutes ces idées m'ont donné envie de rêver, alors rêvons ! Rêvons de ce monde dans lequel l'IA ou, du moins, les IA seraient véritablement au service de l'humanité plus qu'au service du portefeuille de quelques personnes. Ou prenons un peu de temps pour imaginer cette IA de demain, lancée par la question : finalement, selon vous, ce serait quoi une IA de confiance ou une IA au service du bien commun ?<br/>
Justement, Françoise, si tu veux bien commencer. La question : ça serait quoi une IA de confiance ou, du moins, une IA au service du bien commun ?
 
<b>Mick Levy : </b>Et là, finalement c'est Françoise qui récupère le micro qui, en fait, n'est pas branché. Du coup on va essayer de vous restituer au mieux ce qu'elle nous a dit Cyrille.
 
<b>Cyrille Chaudoit : </b>C'est très simple, elle prend un exemple, celui du nounours. Tu achètes un nounours pour ton enfant, tu n'as pas envie qu'il s'étouffe en avalant l’œil ou la patte du nounours.
 
<b>Mick Levy : </b>J’ai envie que ce soit en pleine sécurité.
 
<b>Cyrille Chaudoit : </b>Effectivement, et c'est pareil pour les lunettes de soleil, pour les voitures. Tu as besoin d'avoir confiance. Elle nous dit : « C'est la confiance, ce n'est pas l'éthique, on veut des IA de confiance ».
 
<b>Mick Levy : </b>C'est important. Elle nous dit aussi que, du coup, pour amener cette confiance on peut amener des normes et ces normes doivent être certifiées par des organismes qui vont vérifier qu'effectivement le fabricant a fait tout ce qu'il faut pour amener un maximum de confiance dans l'objet ou dans l'algorithme que tu es en train d'utiliser.
 
<b>Cyrille Chaudoit : </b>C’est la petite étiquette avec la norme CE par exemple sur la patte du nounours ou sur vos lunettes de soleil et là elle apporte de l'eau au moulin de Laurence.
 
<b>Mick Levy : </b>Allez, on y retourne. Du coup, ça ressemblerait à quoi une IA de confiance ? Aujourd'hui, on le dit, on ne peut pas avoir confiance dans l'IA pour tout un tas de raisons, il y a eu plein de crashs de l'IA, il y a eu les problèmes d'hallucination desquels on parle, le fait que ces IA racontent des conneries, le fait aussi qu'elles aient fait du mal, écoutez tous nos épisodes, on en parle, on a plein d'exemples. Ça serait quoi, du coup, une IA dans laquelle on pourrait avoir confiance ? Qu'est -ce qu'il y aurait derrière cette étiquette ?
 
<b>Laurence Devillers : </b>D’abord ce n’est pas une étiquette, parce que c'est en continu que l' A peut apprendre des informations et modifier, sans doute, ses comportements. Il y a une partie d'incertitude, comme je dis : on sort des probabilités de quelque chose quand on reconnaît des formes, on sort une production avec ChatGPT qui n'est pas du tout vérifiée, donc on ne sait pas si c'est vrai ou si c'est faux. Il est donc important de comprendre comment on va réagir à cette incertitude.<br/>
C'est très possible d'avoir un monde formidable où, demain, on utilisera les intelligences artificielles pour faire un grand nombre de choses qu'on ne sait pas faire, parce que, énormément de données nous seraient utiles et qu'on ne peut pas accéder à cet ensemble de données ni calculer à cette puissance. Pour cela, il faut être à un certain niveau de compréhension scientifique que l'on n’a pas. La société ne fait pas l'effort de doter l'éducation de suffisamment d'information sur les sciences. On n'a pas poussé les filles à faire des maths dernièrement, on ne va pas reprendre cet épisode, mais c'est dramatique, et je pense qu'on le sous-estime totalement.<br/>
Il ne s'agit pas de faire un label confiance, je suis désolée, on ne me mène pas par le bout du nez, et le label confiance d'une étiquette d'un nounours c'est une fois. Or mon IA, quand elle sort elle est dans un certain contexte. Demain les IA vont apprendre de nous en interaction, si j'en crois monsieur Yann Le Cun et d'autres. On a déjà vu ??? [18 min 38] de Microsoft et les erreurs qu'il pouvait y avoir. On aura des filtres dessus pour éviter les cauchemars, des censures sur les suicides, etc., qui sont déjà pas mal, mais qui ne sont pas décidés de façon consensuelle par une réflexion de la société, qui sont décidés par un géant du numérique, ça c'est insupportable, ce sont des problèmes éthiques. Il faut fonder des comités d'éthique capables d'aider, justement, à la construction d'un monde possible dans lequel on devrait avoir beaucoup d'innovations positives sur l'écologie par exemple, sur l'agriculture, sur la médecine.
 
<b>Thibaut le Masne : </b>Justement, là on est déjà un petit peu dans le comment. Si on revient sur le quoi : ça ressemblerait à quoi un monde, entre guillemets, « meilleur », sans verser dans le techno solutionnisme, on peut peut-être en parler d'ailleurs, grâce à une IA ou aux IA dites de confiance. Depuis tout à l'heure, on se demande ce qu’est une IA de confiance, comment on peut lui faire confiance. Mais, <em>in fine</em> la question, derrière, c'est : en quoi les IA peuvent nous aider à faire mieux que ce que l'on fait déjà ? À quoi ressemble un monde meilleur, Gilles, grâce aux IA ?
 
<b>Gilles Babinet : </b>Je n'ai pas de réponse définitive là-dessus. Je suis de ceux qui pensent qu’il faut tester et que l'IA, dans sa diversité de réponses, est particulièrement appropriée au fait d'apprendre à tester et accepter d'avoir une proportionnalité entre risque et bénéfice, proportionnalité qui n'existe pas beaucoup dans la culture européenne.<br/>
Vous avez deux exemples assez simples. La CNIL, dans un arrêt qui date de 97, je crois, avait défini qu’à chaque fois qu'on était géolocalisé on devait <em>opt-in</em>, on devait valider la géolocalisation. Et puis l'iPhone est arrivé, a défini par défaut <em>in/out</em> pour chaque app et a ridiculisé cela. La CNIL a évidemment revu son avis, elle a d'ailleurs fait disparaître son avis qui était un peu problématique parce que c'était ringard. La force de l’UX, dans ce cas-là, est passée au-dessus de la réglementation ; il ne faut pas se leurrer, je ne suis pas contre la réglementation.<br/>
L’autre exemple c’est le RGPD. Quand le RGPD a été préconçu, c'est-à-dire avant qu’un texte soit écrit par la Commission, il y avait eu un petit groupe de travail et on était plusieurs à dire « comme votre truc est écrit, on va passer notre temps à cliquer sur des trucs ; il faudrait qu'à côté du texte réglementaire il y ait du code », qu’on ait par exemple « réglage par défaut dans le navigateur pour dire : voilà ce que j'accepte de partager, ce que je n'accepte pas, etc. », évidemment ça n’a pas été le cas, on n'arrête pas de cliquer sur des trucs.<br/>
L’<em>IA Act</em> va sans doute sortir dans le prochain trilogue le 23/24, je ne suis pas très à l'aise avec ces trucs-là. Je pense qu’on doit être capable d'avoir un droit plus souple, une <em>soft law</em> prête à s'adapter à ce genre de choses.
 
<b>Mick Levy : </b>Est-ce que vous sauriez nous citer, l'un ou l'autre, un exemple d’IA qui vous marque utilisée pour une bonne chose, d’IA utilisée pour la bonne manière ?
 
<b>Thibaut le Masne : </b>Là, Françoise ne peut pas répondre parce qu'elle a encore le micro pourri.
 
<b>Mick Levy : </b>Du coup, je vais essayer de vous expliquer ce qu'elle a dit. Elle nous prenait un exemple : elle passe ses vacances à la campagne, elle se fait mal à la jambe, elle se casse la jambe, malheureusement il n'y a pas de médecin spécialiste. Elle arrive quand même à trouver un endroit où on peut faire la radio et puis, là, l'IA va pouvoir directement interpréter le résultat de sa radio, va pouvoir directement poser un premier diagnostic, et aussi transmettre automatiquement l'ensemble des éléments au médecin spécialiste, qu'elle connaît peut-être, et qui va pouvoir récupérer non seulement la radio mais aussi tous ces éléments de diagnostic.
 
<b>Cyrille Chaudoit : </b>Elle fait aussi le parallèle avec un enjeu de société dont tout le monde a conscience : les déserts médicaux, il y a de moins en moins de médecins, notamment précisément à la campagne et, avoir une IA qui fait un premier diagnostic, en tout cas qui fait un travail assez rudimentaire, disons, d’un médecin qui n'est pas là, ça peut quand même être intéressant pour l'avenir.
 
<b>Mick Levy : </b>C’est vrai qu'on attend beaucoup l’IA dans le domaine de la santé. Mais, on nous a ensuite donné un autre exemple.
 
<b>Laurence Devillers : </b>J'ai un autre exemple sur l'agriculture. On peut faire l’agriculture traditionnelle avec des tas de capteurs qui vont aller vérifier le taux d'eau dans le sol, les problèmes de maladies d'une vigne ou je ne sais quoi, et qui vont permettre à un agriculteur de mieux gérer les jachères, le fait de planter différemment différentes plantes, de respecter le sol. Il peut aussi mutualiser les bonnes connaissances avec un commun, avec un groupe d'autres agriculteurs qui peuvent aussi partager des objets qui vont aller dans les champs vérifier un certain nombre de situations, météo, etc.<br/>
Je pense donc qu'on a tous à gagner à utiliser ces objets. La seule peur que j'ai c'est que, pour l'instant, nous sommes incapables d'être suffisamment responsables pour dire qu’il faut éduquer, qu’il faut lever le voile. Je ne comprends pas qu'on utilise, par exemple, GPT 4, alors qu’on sait maintenant qu'il y a huit LLM [<em>large language models</em>] dedans et que personne ne nous a dit comment ça marche. Ce n'est pas normal que ce ne soit pas plus transparent. Si on veut les utiliser bien, il faut absolument qu’on éduque les enfants, qu'on éduque dans chacune des entreprises toutes les personnes qui sont là, tout le monde. Il n'est pas nécessaire d'éduquer forcément que les gens qui travaillent sur l'IA, il faut éduquer tout le monde dans la société sur la façon de la manipuler, de l'apprivoiser, et je pense qu’il est très important de faire les deux : à la fois la loi qui va, par exemple, interdire qu’on détecte les émotions des gens dans leur travail, on n’en veut pas et je pense que c'est plutôt sain. Non ? Tu préférerais qu'on sache que tu ne fais rien devant ton écran ?
 
<b>Gilles Babinet : </b>Non, mais on a des cas où ça pourrait être intéressant : si tu vois que tu as des opérateurs qui ont peur.
 
<b>Laurence Devillers : </b>Ça, c'est le prétexte qu'on nous sert à chaque fois. Mais en moyenne, si on regarde bien, il y a quand même plus de gens qui vont être surveillés que de gens... C'est vraiment la tarte à la crème. À chaque fois que je parle de cela dans une entreprise, on me dit : « C'est pour le bien-être des salariés, on va pouvoir mieux gérer leur vie privée ». Non mais attendez ! On est où là !
 
<b>Mick Levy : </b>Du coup, Laurence, l'acculturation ne suffira pas là ! C'est vraiment comment tu positionnes l’IA et les choix de société qui vont avec, si on veut l’utiliser ou pas.
 
<b>Laurence Devillers : </b>C’est de cela dont il faut discuter et cette régulation doit être faite, donc il faut des lois. Par exemple, la manipulation subliminale, on est d'accord qu’il est difficile de trouver la frontière.
 
<b>Gilles Babinet : </b>Bof !
 
<b>Laurence Devillers : </b>Toi tu es pour ? Tu es pour la manipulation subliminale ? Ce qui veut dire inciter les gens pour mieux se conduire, paternalisme américain venant d'un prix Nobel d'économie, c'est ça, excuse-moi ! Il y en a partout et c'est assez dangereux : on se fait manipuler. Il faut savoir qui est derrière, à qui ça sert, quel est le début et la finalité.
 
<b>Cyrille Chaudoit : </b>Au final, la question que j'aurais pour vous c'est : pourquoi sur des IA de type ChatGPT n’a-t-on pas un pourcentage de vérité dans ce qu'il nous dit, dans la réponse qu'il nous donne ?
 
<b>Laurence Devillers : </b>Impossible ! C'est de la ratatouille.
 
<b>Thibaut le Masne : </b>Le problème c'est qu'il arrive à nous dire des choses complètement idiotes avec le même ton que des choses complètement vraies.
 
<b>Laurence Devillers : </b>Ça n'a rien à voir, il déstructure. Il travaille sur des tokens à l'intérieur qui font quatre caractères, les linguistes sont partis chez eux, ce n'est pas des racines, sur quatre caractères, sur des tokens.
 
<b>Thibaut le Masne : </b>C'est une probabilité.
 
<b>Laurence Devillers : </b>Ce ne sont pas des mots.
 
<b>Cyrille Chaudoit : </b>Il faut quand même qu'on vous explique.
 
<b>Mick Levy : </b>En fait, ce qu'elles nous disent là, c'est que ChatGPT ne parle pas, ce n'est pas un être humain, donc il ne manipule pas des mots, il manipule une notion statistique qu'on appelle un token.
 
<b>Cyrille Chaudoit : </b>Donc, tout simplement, ChatGPT ne fait pas de sens. Elles disent toutes les deux la même chose, mais différemment, et Laurence ne lâche pas le morceau.
 
<b>Laurence Devillers : </b>Il compte des régularités sur quatre caractères, c'est ça qui ??? [26 min 40], ça vient d'une théorie en linguistique. Il faudra arrêter avec ChatGPT qui est génial. Franchement, quand j'entends les gens être polis avec ce genre de truc, j'ai juste envie de hurler ! Que fait ce machin ? Il fait des statistiques
 
<b>Cyrille Chaudoit : </b>En même temps, Mick insulte Alexa, tous les matins.
 
<b>Laurence Devillers : </b>Il ne faut pas l'insulter non plus, on s'en fiche, c'est un truc qui ne comprend rien !
 
<b>Cyrille Chaudoit : </b>On en a parlé avec Serge Tisseron dans un épisode.
 
<b>Thibaut le Masne : </b>On a eu cinq séances de thérapie pour ça.
 
<b>Laurence Devillers : </b>Le sketch de Tisseron.
 
<b>Thibaut le Masne : </b>Simplement Laurence, Gilles, Françoise, pourquoi pourrait-on croire en la volonté de certains acteurs de nous proposer des IA plus responsables demain quand on voit le business que c'est aujourd'hui, quand on voit Sam Altman et OpenAI qui a changé les valeurs de sa boîte, qui était très <em>open</em>, justement, au tout début ? Peut-on croire, finalement, demain en une IA plus responsable, plus durable et plus éthique, ce que tu veux, étant donné les conséquences économiques, en tout cas les enjeux économiques ?
 
<b>Gilles Babinet : </b>Je veux bien essayer de répondre, mais il faut comprendre que le contexte est assez important.<br/>
En réalité, on a différentes ères. La raison pour laquelle on a un Internet qui est assez peu régulé découle d’une ère qui est apparue dans les années 80, ce qu'on appelle la révolution conservatrice. Thatcher et Reagan sont arrivés au pouvoir, ils ont dit : « Il faut qu'on foute la paix aux entrepreneurs et qu'on les laisse développer leur business ». C'est le moment où un peu plus tard, quelques années plus tard, ont commencé à se développer les plateformes et les plateformes sont allées voir les régulateurs à Washington en leur disant : « Vous êtes le monde d'hier, nous sommes le monde de demain, foutez-nous la paix » ; résume, mais c'est à peu près ce qui s'est passé. Et on s’est retrouvé avec une situation qui n'aurait jamais existé dans un monde économique normal où l'économie libérale et capitaliste fonctionne s'il y a des régulateurs, s’il y a des contre-pouvoirs qui évitent les trusts et ce genre de choses.<br/>
On a abouti à faire des trusts qui sont énormes, avec un consentement assez unanime, en réalité, parce que ça allait vite, qu’on n’avait pas les outils conceptuels et réglementaires pour légiférer sur ces cas-là. Par exemple, il n'y a pas de prix dans l'économie numérique, il y a rarement de prix, Google n'a pas de prix, le prix est un facteur essentiel d’antitrust. Et puis toute la doctrine de parts de marché, etc., ça ne fonctionne pas non plus en général.<br/>
On s'est retrouvé à avoir, finalement, des acteurs qui ont profité de ce <em>momentum</em> et de l'astuce de David Plouffe, qui était le directeur de cabinet de Barack Obama, aujourd'hui c'est le patron des affaires publiques de Uber ; l'ancien vice-premier ministre du Royaume-Uni, dont j'ai oublié le nom, c'est le patron des affaires publiques de Meta et ainsi de suite. Ça arrive beaucoup moins en France.
 
<b>Thibaut le Masne : </b>C'est la culture américaine ! Le revolving d’or.
 
<b>Gilles Babinet : </b>C'est la culture américaine, mais même aux États-Unis ça a fait beaucoup de bruit quand ces choses-là sont arrivées. On voyait bien que l'entregent de ces personnalités allait servir à empêcher le législateur de passer à cet égard, mais on n'est plus dans le même moment et je crois que c’est cela qu’il est important de comprendre. On se dit « ce n'est pas bien, ils vont continuer », en réalité, on n’est plus dans le même moment. Le fait qu'on ait eu, en l'espace de sept ans, le RGPD, le DSA/DMA, DGA, <em>AI Act</em> pour l’Europe, qu’on ait, aux États-Unis actuellement, à l'instant où on parle, Lina Khan qui instruit, développe même avec le ??? [30 min 15], une plainte contre Google et Amazon, c'est quelque chose qui ne serait probablement pas arrivé il y a cinq ou dix ans. Et, si les Américains ne légifèrent pas, c'est parce qu’on n'arrive pas à trouver une majorité suffisante dans les deux chambres pour faire à peu près l'équivalent du RGPD et d'autres choses. Le moment n'est plus le même.
 
[Applaudissements]
 
<b>Cyrille Chaudoit : </b>Est-ce qu'il y a des questions dans le public ?
 
<b>Public : </b>Bonjour, Valérie. Je suis juriste et je m'intéresse beaucoup à l'éthique. J'ai une question pour Gilles, on n’a pas mal échangé. Gilles, tu parles de droit souple, tu penses que c'est bénéfique. Ne penses-tu pas que l'éthique ou l'éthique appliquée au numérique peut ressembler à du droit souple ?
 
<b>Gilles Babinet : </b>Le droit souple ce sont des règles qui ne sont pas forcément législatives, mais qui sont acceptées par l'ensemble de l'industrie et qui font référence dans ce domaine. Par exemple, le fait de ne pas avoir de <em>dark patterns</em>, c'est-à-dire de trucs qui font qu'on ne peut plus se barrer d'un service et tout ça, c'est à peu près accepté par l'industrie : je pense qu’une grande boîte qui ferait ça serait très vite stigmatisée, on dirait que ce n’est pas possible de faire ce genre de choses. On a tout un tas de facteurs d’UX qui sont, en réalité, une forme de droit souple.<br/>
Pour ça, et je pense que je rejoins Laurence à cet égard, il faut quand même qu’en face il y ait des corps un peu constitués capables de dire « là vous foutez du monde, on va on va réagir à cet égard ». Il faut avoir une société civile forte pour que ça fonctionne bien, des juristes ou des gens, des éthiciens, qui s'intéressent à ce sujet, qui se font entendre, c'est quand même la condition.
 
<b>Cyrille Chaudoit : </b>Une deuxième question ?
 
<b>Public : </b>Bonsoir. Mickaël. J’ai une question. Ce qui m’a frappé en vous écoutant parler, de tous les noms de produits que vous avez cités je me suis dit « tiens, c'est marrant, je n’ai pas entendu de produits français ni de produits édités par des sociétés dont les capitaux sont français ». Je m'interroge simplement : est-ce que ça veut dire que nous sommes condamnés à être des observateurs, de simples utilisateurs de technologies qui sont construites ailleurs ou est-ce qu'on a encore une chance de revenir dans la course ?
 
<b>Françoise Soulié-Fogelman : </b>J'ai envie de dire que vu la vue la façon dont ChatGPT est rentré sur le marché, quelque part c'est devenu le prototype. Quand je dis ChatGPT c’est ChatGPT et tous les petits camarades autour.<br/>
Une des questions, évidemment fondamentale, c'est pourquoi diable utiliserait-on des produits américains ? Aujourd'hui on a des produits grand public américains et, comme d'habitude, les Américains sont très forts sur le marché <em>B to C</em>, comme on dit, vers le grand public. Il y a en effet, en France, des produits qui commencent à sortir, mais on en est encore au début, qui ne sont pas des produits grand public. Je pense à ??? [33 min 15] ou à Mistral qui vient d'arriver sur le marché, ce sont des produits pour les entreprises, ce ne sont absolument pas des produits qui peuvent concurrencer ChatGPT sur ce marché grand public. J'ai envie de dire : les Américains, comme d'habitude, le grand public, <em>B to C</em>, et en Europe, comme d'habitude, le marché <em>B to B</em>.
 
<b>Laurence Devillers : </b>Ça vaut très cher.
 
<b>Cyrille Chaudoit : </b>N’est-ce pas par le <em>B to C</em> qui rentre après dans le <em>B to B</em> ? Est-on capables seulement, d’avoir la même aura ?
 
<b>Laurence Devillers : </b>Ça vaut très cher de faire un ChatGPT et de le mettre, comme ça, dans les mains de tout le monde !
<b>Françoise Soulié-Fogelman : </b>Évidemment, c'est la raison pour laquelle en Europe on n'a pas ça.<br/>
Maintenant la question, quand on a un marché européen, qu'on veut développer, je pense qu’il y a une chose sur laquelle on peut s'appuyer absolument c'est le fait que les entreprises ont d'abord juste tous les jobs, ce n'est quand même pas mal d'aider les entreprises à se développer, mais, surtout, les entreprises ont plein de données. ChatGPT, aujourd'hui, ne peut pas avoir accès à ces données. Donc, si ChatGPT veut devenir spécialiste d'un marché bancaire il ne peut pas parce qu'il n'a pas accès aux données de la banque.<br/>
Personnellement je pense très profondément que les produits européens, en se positionnant sur le marché des produits pour entreprises, vont permettre à nos entreprises de développer des solutions qui vont bien pour elles. Bloomberg, par exemple, qui n'est pas une entreprise française, n'a pas développé un produit français, a développé son propre BloombergGPT en utilisant ses propres données.<br/>
Il y a donc tout un continuum de produits avec des technologies différentes, avec des cibles différentes, avec des coûts différents. On peut dire quand même que ChatGPT, dommage pour lui, ça a été le premier, il a donc dépensé 100 millions pour faire son truc.
 
<b>Laurence Devillers : </b>Merci !
 
<b>Françoise Soulié-Fogelman : </b>Alors que BloombergGPT, qui arrive six mois après, un million. C'est ce qui se passe. Il ne faut jamais être le premier parce que le premier doit tout balayer pour réussir à trouver sa solution. Il faut toujours être derrière et courir vite, ce qu'a fait Bloomberg.
 
<b>Thibaut le Masne : </b>C'était assez riche comme échanges, merci pour vos questions. Maintenant il est temps de retrouver nos chroniqueuses et chroniqueurs, car, pour ce <em>Trench Tech All Star</em> spécial, ils sont tous réunis contre ChatGPT.
 
<b>Voix off : </b><em>Trench Tech</em>. Esprits Critiques pour Tech Éthique.
 
==35’ 38==
<b>Thibaut le Masne : </b>Effectivement, avec l'arrivée de l'IA générative, il y a eu comme un petit vent de panique chez nos chroniqueuses et chroniqueurs. Louis, tu as trouvé un papier sur les liens entre ChatGPT et les journalistes ?
 
<b>Louis de Diesbach : </b>Précisément, et le titre est très parlant <em>Automated journalism: The effects of AI authorship and evaluative information on the perception of a science journalism article</em>, un peu long comme titre ! Bref, tu imagines le truc : journalisme automatisé ! Pour être honnête, je me demande un peu ce que ça veut dire pour nous, les chroniqueurs de <em>Trench Tech</em>.<br/>
Ce papier est très récent, 2023, mais ça rappelle quand même qu'il n'y a pas de différence entre la confiance et la crédibilité accordées par les lecteurs aux machines d'un côté et aux journalistes bien humains de l'autre. On ne fait pas la diff. Je dis pas qu'on va se ??? [36 min 25] ou partir en grève comme les scénaristes aux US. Il y a quand même de quoi se poser des questions non !
 
<b>Gérald Holubowicz : </b>Oui, oui ! Si plus personne ne fait la différence entre des papiers écrits par les machines et ceux des journalistes, peut-être que l'IA sera tout autant détestée que notre profession. Aura-t-on droit aux insultes du type « bobo, gauche, IA », qu'on entend parfois dans certains cortèges ou manifestations. En tout cas, ça pose tout de même la question de la responsabilité : qui sera en première ligne en cas d'erreurs factuelles ? Plusieurs plaintes ont déjà été déposées contre OpenAI, pour diffamation, après que ChatGPT ait produit de fausses infos. Va-t-on, du coup, vers une généralisation de ce type de procédure ? Et puis autre question : est-ce qu’une IA refuserait de révéler ses sources comme le font déjà les journalistes d'investigation ? Pourrait-elle être sur le terrain et rapporter l'émotion des protagonistes d'un drame ? En effet, il y a 1000 questions qui se posent sur ce sujet.
 
<b>Emmanuel Goffi : </b>1000 et une questions, Gérald, parce que confiance, crédibilité, factualité, responsabilité, tout ça pose une question supplémentaire qui est celle de la vérité et de sa construction par des acteurs mal intentionnés utilisant les IA génératives pour produire un discours orienté. Comme l'écrivait Roger Bacon – non Mike, ça n'est pas un nouveau burger – « aucun discours ne peut donner la certitude, tout repose sur l'expérience ». Mais que se passe-t-il si mon expérience est façonnée sans considérer la vérité comme une fin, si le discours devient rhétorique juste pour influencer celui qui le reçoit, si la factualité est soumise, en fait, à l'intérêt ? Avec les LLM, nous nous enfonçons dans la caverne platonicienne au lieu de nous en extraire. Nous nous laissons aller à ce vide de la pensée dans lequel, écrivait Hannah Arendt, s'inscrit le mal.<br/>
La vérité a toujours été sujette à controverse, les IA génératives ne viennent qu'ajouter de l'aporie à l'aporie. Mais, dans ce monde d'hyper-falsification qui s'annonce, comment trouver une vérité éthique qui nous permettra d'avancer sans nous faire écraser par la technologie ? Peut-être en écoutant <em>Trench Tech</em> et en exerçant notre esprit critique !
Oui. J'ai une question : je me demande surtout qui va écouter les chroniques écrites par l'intelligence artificielle.
 
<b>Laurent Guérin : </b>Laisse-moi t'expliquer Emmanuel. Est-ce qu'on ne pourrait pas faire écouter ces chroniques, que nous appellerons des « chrainiques », avec « ai » dedans, par des oreilles artificielles. Les oreilles artificielles pourraient nous résumer ces « chrainiques » en 15 secondes ou nous balancer la meilleure vanne qu'elles contiennent. Pourquoi ? Laisse-moi te faire un parallèle avec la musique, Mike.<br/>
Actuellement, les humains produisent 100 000 nouveaux morceaux par jour, 100 000 Cyrille ! Il te faudrait 208 jours non-stop pour écouter tous les morceaux <em>uploadés</em> sur Spotify hier. Imagine maintenant que l'intelligence artificielle se mette à produire des chansons, elle le fait déjà, on appellerait ça des « chainsons ». La capacité de production devient illimitée et l'on peut donc <em>uploader</em> sur les plateformes de streaming un million ou 100 millions ou 100 milliards de nouvelles chansons par jour et l'on arrive, très rapidement, à un goulet d'étranglement où l'abondance des contenus produits automatiquement n'atteindra jamais les oreilles des humains, produits manuellement, si vous voyez ce que je veux dire « les humains produits manuellement ». Que peut-on en conclure ? Que les chroniqueurs seront remplacés par l'intelligence artificielle quand les humains seront remplacés par des humains artificiels. À défaut, l'être humain fait de chair et d'os se tournera naturellement vers des chroniques faites de plume et d'encre, question de survie, Louis.
 
<b>Fabienne Billat : </b>Attends Laurent ! La théorie Louis, c'est fini ! Laisse-moi te donner des éléments concrets, car il y en a : l'utilisation de l'intelligence artificielle en journalisme se développe et ce, depuis plusieurs années aux États-Unis. Par exemple, les algorithmes qui génèrent du contenu automatisé ou qui présélectionnent les sujets à mettre en avant. Cela fait partie des pratiques du <em>New York Times</em> et du <em>Washington Post</em> qui va supprimer 240 emplois dans l'ensemble de l'organisation.<br/>
L'intelligence artificielle gagne du terrain, certes, mais en utilisant certaines applis les journalistes améliorent aussi leurs performances, par exemple, sur le plan des <em>fake news</em>. L'intelligence artificielle est un outil capable d'en générer des tonnes, mais elle est aussi douée pour les détecter et lutter contre la désinformation, de manière automatisée, grâce à ses capacités d'analyse. Avec les <em>chatbots</em> et la gestion automatisée des commentaires par l'outil de Google, Perspectives, utilisé par les journaux <em>Le Monde</em> et le <em>New York Times</em>, l’intelligence artificielle permet une plus grande interactivité entre les médias et les lecteurs. L’intérêt est de pouvoir servir l'info sous un format conversationnel en laissant les robots répondre directement aux questions des utilisateurs sur l'actualité.<br/>
Et aussi, à travers des algorithmes de recommandation, les médias sont maintenant capables de proposer du contenu personnalisé à chacun des utilisateurs. C'est pourquoi, depuis juin 2018, <em>The New York Times</em> propose à ses lecteurs une newsletter personnalisée : « votre édition hebdomadaire via une curation algorithmique et humaine ». Et quand on enregistre nos chroniques on joue, on impulse, on hausse le ton et on module nos ardeurs, n'est-ce pas ! On est tellement chaud, on mouille nos chemises, ça donne soif et avouez-le, tout cela se sent, ça transpire à travers le micro, et ça, ça n'a pas de prix !
 
<b>Voix off : </b><em>Trench Tech</em>. Esprits Critiques pour Tech Éthique.
 
<b>Cyrille Chaudoit : </b>Merci à tous nos chroniqueurs, nos chroniqueuses. On peut les applaudir, on va leur demander de venir. Venez. Par ordre d'apparition dans le podcast <em>Trench Tech</em>, la toute première à nous avoir fait confiance c’est Fabienne Billat et son « Patch Tech », ensuite Emmanuel Goffi et sa « Philo Tech », Laurent Guérin et son « Moment d'égarement », Gérald Holubowicz « Et on refait la tech », Louis de Diesbach « La tech entre les lignes ». Il y aura bien de nouvelles voix sur cette deuxième année. <em>Trech Tech</em> c’est un collectif, ce n'est pas nous trois, c'est tout ça, et en plus les gens qui nous aident derrière, qui prennent des photos par exemple. On a la chance d'avoir Thierry  Pires qui fabrique notre site web. Viens Thierry. Il est là aussi. Merci beaucoup.
 
[Applaudissements]
 
==42’ 18==
 
<b>Cyrille Chaudoit : </b>Revenons-en

Dernière version du 11 décembre 2023 à 13:31


Publié ici - Décembre 2023