Différences entre les versions de « Intelligence artificielle à l'hôpital - Entretien avec Cédric Villani »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.librealire.org/intelligence-artificielle-a-l-hopital ici] - Mars 2024 »)
Balise : Contenu remplacé
 
(3 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Intelligence artificielle à l'hôpital - Entretien avec Cédric Villani
+
Publié [https://www.librealire.org/intelligence-artificielle-a-l-hopital ici] - Mars 2024
 
 
'''Intervenants :''' Journaliste - Cédric Villani
 
 
 
'''Lieu :''' Hôpital du Valais - <em>Healthcare innovation event</em> sur le thème de l'intelligence artificielle dans la pratique clinique.
 
 
 
'''Date :''' 24 novembre 2023
 
 
 
'''Durée :''' 12 min 28
 
 
 
'''[https://www.youtube.com/watch?v=6q-3KgoO394 Vidéo]'''
 
 
 
'''[https://www.hopitalduvalais.ch/lhopital-du-valais/actualites/en-detail/2023/11/24/healthcare-innovation-event-lia-dans-la-pratique-clinique Présentation de l'évènement]
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :''' À prévoir
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br/>
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
==Transcription (relu sans audio Véro)==
 
 
 
<b>Journaliste : </b>Cédric Villani, on vous accueille aujourd'hui à l'hôpital du Valais pour une conférence sur l'intelligence artificielle. Vous avez dit, pendant la conférence, qu'elle n'avait rien d'intelligent. Qu'est-ce que ça veut dire ?
 
 
 
<b>Cédric Villani : </b>Intelligence artificielle, le terme est mauvais depuis le début, mais, maintenant, il est tellement bien implanté qu'on va le garder, mais ce n'est pas de l'intelligence au sens où nous l'entendons : notre intelligence, avec la conscience, avec la réalisation de ce dont l'univers est fait, et ainsi de suite.<br/>
 
C’est la grande découverte, l'une des plus grandes découvertes de ces dernières années, qu’un algorithme peut effectuer des opérations subtiles sans intelligence. Il peut vous écrire une très belle lettre de recommandation pour candidater à tel emploi sans savoir ce qu'est un humain, ni un emploi, ni de la motivation. Il peut vous faire un très bon diagnostic d’un cancer du sein sans savoir ce qu'est un sein, ni savoir ce qu'est le cancer, ni même ce qu'est un patient. Il serait à la fois idiot de se focaliser sur la question d'intelligence et dédaigner ces outils parce qu'ils ne sont pas intelligents ; idiot aussi de craindre cette intelligence comme étant quelque chose qui aura une vie en soi.<br/>
 
Le grand défi qui se pose à nous, au plan pratique, la meilleure façon d'intégrer ces nouvelles possibilités dans nos processus humains au plan scientifique, c’est celui de comprendre comment le structurer dans le savoir et le monde, comment il est possible de faire des choses aussi subtiles sans aucune intelligence.
 
 
 
<b>Journaliste : </b>Dans le premier épisode de votre podcast, <em>Les Contes des mille et une sciences</em>, vous évoquez les mathématiciens et les chercheurs du 17e siècle en expliquant que les mathématiques ont toujours voulu prévoir, prédire les choses, la météo, l'avenir, en quelque sorte. Aujourd'hui, avec l'intelligence artificielle dans le domaine médical, n’essaye-t-on pas de prédire la santé des gens ?
 
 
 
<b>Cédric Villani : </b>Prédire la santé des gens est l'une des composantes des différents outils d'intelligence artificielle qui viennent, à envisager avec intérêt, mais attention ! Ça fait tellement longtemps qu’on nous prédit la médecine prédictive et qu'elle n'arrive pas, qu’il faut prendre cette nouvelle annonce avec suspicion. J’en connais certains, y compris des médecins bien établis à l’Académie de médecine, qui disent qu'il y a même un risque plus grave à implanter des angoisses dans la tête des gens genre – est-ce que je vais développer telle maladie ? Que dit mon génome ? – que le risque induit serait à la fin plus grave que ce qu'on arrive à soigner.<br/>
 
Et puis, une pathologie qui se développe dépend de tellement de facteurs ! Les facteurs intrinsèques, si on veut, génétiques ou de constitution, mais il y a aussi notre environnement, ce qu’on mange, avec qui on discute, où on habite, comment on se sent, le facteur psychologique. Tellement de choses ! Il se peut qu'il faille très longtemps avant qu'on puisse intégrer tous ces facteurs. On peut aussi se demander si c’est souhaitable. Il y a mêmes des situations dans lesquelles on ne veut pas savoir ce qui va nous arriver, comme la date de notre mort ou ce genre de choses.<br/>
 
Alors, c'est à suivre, à suivre avec intérêt, mais avec un petit scepticisme de bon aloi.
 
 
 
<b>Journaliste : </b>Si on ressort un petit peu des projections de l'au-delà, aujourd’hui, très concrètement, l'intelligence artificielle en médecine, c'est quoi ? C'est de l'aide au diagnostic, c'est aider à lire des radiographies, prédire l'état d'un patient qui a un AVC ? Des choses comme ça ?
 
 
 
<b>Cédric Villani : </b>L’IA en médecine, c'est un peu tout, mais en particulier, de l'aide au diagnostic. Dès qu’il faut faire un diagnostic rapide ou un diagnostic avec peu de moyens, par exemple dans un contexte où il n’y a pas de spécialistes disponibles alentour ; ou alors un diagnostic où on veut être sûr pour une pathologie rare ou difficile à identifier, donc des diagnostics, tout un ensemble sur lesquels on a des résultats spectaculaires.<br/>
 
Deuxième élément, c'est l'aide à l'organisation : aide à la prise en charge, aide au remboursement, je ne sais pas, aide à la communication entre les systèmes. Ces IA sont évidemment susceptibles de désorganiser le système, comme n'importe quel élément, et on sait bien que quand sont arrivés les premiers bâtiments intelligents, qui devaient économiser l'énergie, la lumière et tout ça, au début, ils étaient plus stupides que tout, ils se mettaient en marche quand ce n'était pas prévu. Tout est aussi possible dans certaines conditions. Donc, deuxième grande catégorie d'applications, c'est de l'aide à l'organisation.<br/>
 
Et puis, je vais aussi rajouter par-dessus, l'aide à la compréhension scientifique des maladies, des modèles d'évolution de maladies ou le fait de reconnaître que telle et telle pathologie doivent être rassemblées ensemble ou, au contraire, telle et telle pathologie différenciées, donc progression du corpus scientifique en tant que tel.<br/>
 
Voilà quelques-unes des applications.
 
 
 
<b>Journaliste : </b>Si on voit l'intelligence artificielle comme une aide au diagnostic, le résultat va aussi dépendre de la personne qui l'a programmée, qui reste maître de la machine, finalement. Entre le médecin qui veut soigner à tout prix son patient et celui qui paye le traitement, le point de vue n'est pas forcément toujours le même !
 
 
 
<b>Cédric Villani : </b>Toutes sortes de menaces sont là, toutes sortes de dangers existent. Effectivement, peut-être : si une médecine vous indique qu’on peut produire tel médicament personnalisé, avec telle thérapie génique ou je ne sais quoi, un médicament qui va avoir un prix époustouflant, mais qui pourra sauver ce patient-là, qui va payer ? Ce genre de problème se pose déjà avec certains médicaments au prix astronomique, qui sont à la fois des merveilles scientifiques et des casse-têtes pour un système de solidarité.<br/>
 
Autre genre de problème : si vous utilisez des algorithmes sans la maîtrise de qui les a programmés, sans confiance en qui les a programmés, si vous n'êtes pas capable de les utiliser comme il faut.<br/>
 
Autre exemple de problème, c'est la déresponsabilisation de la chaîne ou la perte de savoir-faire ; c’est un vrai sujet. De la même façon que le chauffeur de taxi, soudainement privé de son GPS, se retrouve dans une situation intenable, qu’en sera-t-il du médecin habitué à son diagnostic d'intelligence artificielle, le jour où l'hôpital devra fermer son système de données par suite d'une cyberattaque venant de telle ou telle puissance étrangère ? Ce genre de chose existe. Tous ces genres de risques sont là et, pour autant, il s'agit de les aborder de façon confiante, en ayant bien en tête que, si on envisage les risques et, qu'en même temps, on a les bonnes compétences autour de soi, soudées, motivées, il n’y a aucune raison pour ne pas les affronter. C'est vraiment la question clé ici. Ce n’est pas tant une question technologique. Les développements technologiques se font, se feront dans les laboratoires de recherche des grands groupes, des jeunes pousses, des universités, ce que vous voulez, le vrai enjeu, c'est l'appropriation, la motivation humaine pour s'emparer de l'architecture du système de santé, à l'échelle nationale pour les éléments qui y sont pertinents, à l’échelle locale là où c'est pertinent, à l'échelle d'un hôpital, à l’échelle d'une clinique.
 
 
 
<b>Journaliste : </b>C’est cette interface entre la technologie et l'humain ?
 
 
 
<b>Cédric Villani : </b>C'est vraiment cette interface qui est le secteur clé, le bon contact, entre la technologie, que ce soit les machines ou les algorithmes, et l'humain. En effet, c'est résolument la question de la confiance qui est le facteur dominant, principal.
 
 
 
<b>Journaliste : </b>Une dernière question. Si on sort un peu de l'hôpital, avec ses difficultés de confronter la technologie à l'humain, peut-on imaginer que l'intelligence artificielle s'applique à d'autres domaines ? On songe notamment à la justice notamment. Vous êtes récemment allé voir Julian Assange en prison. Est-ce qu'une intelligence artificielle aurait produit un jugement différent ou est-ce que ça dépend vraiment des données qu'on lui fournit ?
 
 
 
<b>Cédric Villani : </b>Le cas de Assange est un cas évident où on se trouve face à une injustice manifeste, même selon les Nations-Unies, un cas de torture avéré, torture et persécution politique qu’une machine n'aurait jamais effectuées, à moins d'avoir été programmée spécifiquement par des gens voulant imposer la domination, en l'occurrence domination des États-Unis sur les questions de défense et de sécurité mondiale.<br/>
 
Le système judiciaire est un exemple extrêmement intéressant, complexe, dans lequel la mise en œuvre d'algorithmes pose des problèmes considérables et on a, dans le domaine voisin des polices, de très mauvaises expériences : des logiciels de police prédictive qui ont été calamiteux dans leur ensemble, pour l'instant, c’est-à-dire pas seulement inefficace, mais entraînant des conséquences néfastes.<br/>
 
Évidemment, quand on dit « justice algorithmique », toutes sortes de problèmes arrivent.<br/>
 
D'abord, il y a des exemples de pays dans lesquels la justice est aux ordres de la politique, comme en Chine, où les jugements prédictifs sont déjà rendus une réalité quasiment préremplie.<br/>
 
Ensuite, on a des exemples de logiciels qui ont été démontrés racistes aux États-Unis pour traiter une libération conditionnelle. On se dit aussi qu'il y aura les problèmes de données, les problèmes de biais algorithmiques, tout ce que vous voulez. Et pourtant, si on regarde en face des systèmes humains, on voit que les systèmes humains de justice, même dans les pays démocratiques, souffrent de plein de problèmes. Dans certains cas, avec l’arbitraire d'un juge à l'autre, la sentence peut varier considérablement. C'est normal qu'elle varie un peu, mais qu'elle varie de façon extrêmement importante, c'est insupportable. Ça veut dire que le nombre d'années de prison que je vais passer, si j'ai commis tel ou tel crime, peut varier, dans certains cas, avec une variation d'un facteur de 1,5 ou, presque, du simple au double. C'est le genre de choses insupportable. C'est juste le hasard qui mène à ça. D’autre part, avec certaines expériences dont une expérience fascinante faite en Israël, je crois : sur des exécutions de remise de peine sur des panels contrôlés, on a pu démontrer que la sévérité du jugement dépend de l'heure à laquelle le jugement est rendu, plus ou moins près du repas, en particulier. Le juge est un être humain comme les autres, OK, mais quand même, c'est un peu dérangeant. L'idée des systèmes algorithmes qui aideraient à corriger certains biais de ces défauts humains les plus criants est assez séduisante. Ou également pour désengorger les tribunaux. C'est bien d'avoir une justice indépendante et juste, c'est le cas le dire, sauf que si vous devez attendre dix ans le jugement, ça ne sert à rien. Vous avez un engorgement phénoménal , des tribunaux partout en France – je ne sais pas quel est leur état en Suisse –, mais, un peu partout dans le monde, il y a eu cette épidémie d'engorgement. Si l’IA peut aider au désengorgement, ça sera œuvre utile et là-dedans, il faut avancer avec pragmatisme, toujours en développant les choses dans un dialogue et un débat de société, de manière interdisciplinaire.<br/>
 
Il y a quelques semaines, j'étais à Montpellier pour le lancement d'une conférence citoyenne sur l'intelligence artificielle, une belle initiative demandant à l'échelle métropolitaine quel va être notre doctrine, notre politique en matière d’IA. Une façon, aussi, pour le politique et pour la sphère citoyenne de progresser par rapport à ça. Dans un sujet où la technique joue, certes, et où les facteurs limitants les plus importants sont du côté humain.
 
 
 
<b>Journaliste : </b>Merci beaucoup.
 
 
 
<b>Cédric Villani : </b>Merci.
 

Dernière version du 7 mars 2024 à 12:35


Publié ici - Mars 2024