« IA en médecine : où en sommes-nous » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
(Page créée avec « Catégorie:Transcriptions '''Titre :''' IA en médecine : où en sommes-nous ? '''Intervenant :''' Jean-Emmanuel Bibault '''Lieu :''' Paris, Palais des Congrès... »)
 
Ligne 22 : Ligne 22 :


==Transcription==
==Transcription==
<b>Présentatrice : </b>Grand d’applaudissements à notre <em>keynoter</em>, Jean-Emmanuel Bibault. Venez ici au milieu.<br/>
Jean-Emmanuel Bibault, vous êtes cancérologue et chercheur en intelligence artificielle appliquée à la santé. Vous avez un doctorat en informatique biomédicale et vous avez fait votre post-doctorat à l’université de Stanford, dans un laboratoire d’intelligence artificielle appliquée à la santé.<br/>
Vous êtes aussi professeur des universités, praticien hospitalier à l’Université de Paris et à l’Hôpital européen Georges-Pompidou et chercheur à l’Inserm.<br/>
Je n’ai pas fini !<br/>
Vos recherches portent sur le <em>machine learning</em> appliqué au diagnostic et à la prédiction.<br/>
Et vous avez été lauréat, en 2019, de l’Académie nationale de médecine pour tous vos travaux par rapport la réponse thérapeutique par l’intelligence artificielle. Dans ce contexte, vous avez aussi développé pas mal d’applications iPhone et Android, cofondé une start-up que vous avez vendue en 2014 et, dans le temps qui vous reste, vous êtes, en plus, écrivain, vous avez publié <em>2041, Odyssée de la médecine : Comment l’intelligence artificielle bouleverse la médecine ?</em> où vous retracez l’histoire de l’intelligence artificielle appliquée à la médecine et comment cela va changer nos soins aujourd’hui et dans le futur.
<b>Jean-Emmanuel Bibault : </b>C’est ça.
<b>Présentatrice : </b>Petit curriculum, évidemment.
[Applaudissements]
<b>Jean-Emmanuel Bibault : </b>Merci.
<b>Présentatrice : </b>La scène est à vous, Jean-Emmanuel Bibault.
<b>Jean-Emmanuel Bibault : </b>Je suis très content d’être devant vous aujourd’hui pour parler de ce sujet qui me tient à cœur, vous avez dû le comprendre, et particulièrement content de parler devant une assemblée de développeurs comme ça, ça me change un peu, parce que je suis plutôt habitué à parler soit devant des chercheurs ou des médecins.
==Définitions et concepts==
Je vais passer assez vite, en fait, sur cette partie de la définition des concepts, à mon avis, vous connaissez ça très bien. Je voulais quand même revenir sur quelques aspects.<br/>
On parle effectivement d’IA, mais maintenant tout le monde le dit, donc je pense que vous devez le savoir aussi : l’IA est un terme assez mauvais. En réalité, c’est plutôt dérivé de l’anglais et <em>intelligence</em>, en anglais, ça ne veut pas dire « intelligence humaine », ça veut dire plutôt « capacité d’analyse ou de renseignement ». On a donc pris ce terme qui, au final aujourd’hui, est utilisé partout, mais n’est pas tout à fait adéquate. Peu importe !<br/>
Aujourd’hui, on va surtout parler d’IA statistique ou de <em>machine learning</em>, mais vous savez aussi, je pense, qu’il y a d’autres types d’IA plus anciennes, notamment symboliques, qu’on appelle aussi des systèmes experts, dont on va parler au tout début.
En médecine, de l’IA, ça peut servir à faire quoi ?<br/>
Ça peut servir à faire ce que savent faire les médecins ou les humains, donc, typiquement, de l’analyse d’images. Ça peut être des examens scanner, radios, IRM, ou alors des biopsies, c’est-à-dire des lames qu’on regarde sous microscope.<br/>
Ça peut servir à poser un diagnostic.<br/>
Pour tout cela, c’est « relativement simple », entre guillemets, de vérifier que l’IA ne fait pas n’importe quoi. Là où c’est un peu plus compliqué, c’est lorsqu’on se sert de ces algorithmes-là pour faire ce que les humains ne savent pas faire, typiquement des tâches de prédiction, qui vont ensuite permettre de faire de la personnalisation des soins, On en parle de plus en plus et, en réalité, on n’y est pas encore tout à fait.
L’IA est une discipline qui a eu une histoire assez riche, avec des périodes très fastes, notamment sur le plan des financements, surtout aux États-Unis, mais aussi des périodes, on va dire, un peu plus lentes, puisque la communauté du <em>computer science</em>, aux États-Unis, s’était un peu détournée de cette thématique-là dans les années 70/80, puisqu’il y avait eu des problèmes théoriques et on commençait à penser qu’en réalité on n’arriverait jamais à créer une machine capable de mimer certaines capacités cognitives.<br/>
Ensuite, dans la fin des années 80, puis 90 et maintenant, surtout depuis 2012, notamment avec l’apparition d’AlexNet qui était un des premiers réseaux neuronaux profonds utilisant des GPU, qui avait été mis au point par un des thésards de Geoffrey Hinton, que vous devez connaître aussi, on a subi, on a connu une accélération très significative de l’IA dans tous les domaines, notamment en médecine.
Pourquoi est-ce qu’en médecine c’est très utilisé ?<br/>
En fait en médecine, pendant longtemps, on a fait ce qui est à gauche ici, c’est-à-dire des systèmes où on allait demander à des experts d’un domaine, en l’occurrence des médecins, de définir les règles qui, selon eux, permettaient de prendre une décision ou, par exemple, de poser un diagnostic. Ça a été utilisé, par exemple, dans des systèmes de recommandation d’antibiothérapie, notamment à Stanford, dans les années 50/60, sans jamais que ça ne s’impose vraiment.<br/>
De nos jours, ce qu’on fait et ce dont on parle quand on fait de l’IA, c’est surtout du <em>machine learning</em>, de l’apprentissage statistique, c’est la partie de droite, où là, on ne va pas demander à des experts humains de créer des règles. On va fournir un ensemble de données à un algorithme qui va devoir apprendre, à partir de ces données-là, à créer ses propres règles pour remplir l’objectif qu’on lui a défini.
Actuellement, en médecine, on connaît un vrai âge d’or de l’IA, pour deux raisons.<br/>
La première raison, c’est que peut-être que quand vous étiez très jeune ou quand vos parents allaient chez le médecin, il avait l’habitude de griffonner, avec une écriture souvent illisible, dans un dossier médical qui, ensuite, allait être rangé dans une armoire. Maintenant, tout cela c’est terminé. Toutes les données médicales, ou presque, sont digitalisées et, surtout, on a accès à des données très hétérogènes, de très nombreux types différents. Là, je ne vous ai mis que quelques exemples, sachant qu’ils sont quasi innombrables. Ce sont donc toutes ces données-là, qui sont maintenant digitalisées, que l’on peut utiliser beaucoup plus facilement que l’écriture illisible manuscrite du médecin de l’époque.<br/>
Et puis, en parallèle de cet accès très facile à la donnée, on a – vous le savez aussi, je pense – accès à des <em>frameworks</em> qui sont beaucoup plus simples d’utilisation qu’à l’époque.<br/>
Pour un peu comparer, ce n’est pas tout à fait exact, je vous ai mis le Perceptron Mark II, 1953. Vous voyez que chacune des cellules est, entre guillemets, « reliée » par un vrai fil électrique, donc, on doit s’amuser à modifier ça si on a besoin d’optimiser les choses. Maintenant, évidemment, tout cela est virtualisé dans des <em>frameworks</em> ; les plus utilisés sont plutôt PyTorch et TensorFlow, plutôt PyTorch en ce moment, mais sans doute qu’il va y avoir de plus en plus. Cette <em>slide</em> est intéressante ; ça permet de prendre conscience aussi que la majorité des <em>frameworks</em> sont édités et soutenus par des éditeurs américains, TensorFlow Google, Meta pour PyTorch surtout. Et puis, heureusement, on a aussi quand même l’Inria, qui fait scikit-learn, qui est vraiment très utilisé partout dans le monde pour faire ce genre de chose.
La conjonction de ces deux événements – les données et la facilité, la puissance programmatique –, fait qu’on voit ce genre de une dans beaucoup de journaux, et ces unes, même si elles peuvent parfois paraître un petit peu exagérées, je vais vous montrer à la fin présentation, notamment avec l’apparition et la démocratisation des LLM, qu’on n’est peut-être plus si loin de ça.
En médecine, il y a des thématiques, des difficultés qui sont un peu spécifiques. Souvent, en fait, on cherche à faire du <em>machine learning</em> sur un nombre de patients très faible – donc c’est très discutable –, un nombre de patients très faible, un nombre d’événements à détecter très faible, donc, évidemment, on prend le risque d’avoir des algorithmes qui sont mauvais.<br/>
On a des données qui sont très souvent peu structurées, malgré ce que je vous ai dit. Si vous vous intéressez à la thématique des entrepôts de données de santé, c’est extrêmement mal structuré, il y a un très gros travail à faire sur cette thématique-là, donc, il y a beaucoup de risques d’algorithmes mauvais, notamment le risque que vous connaissez, d’<em>overfitting</em>.<br/>
Le deuxième problème qui ne plaît pas trop, en général, aux médecins, c’est l’effet boîte noire de certains algorithmes, pas tous, bien que maintenant on ait des <em>méthodos</em> que vous devez connaître, j’imagine, que je vais vous montrer aussi, qui permettent d’apporter une certaine couche d’interprétabilité à de l’IA.
==Exemples d’applications==
J’ai pris le parti

Version du 26 mai 2024 à 05:03


Titre : IA en médecine : où en sommes-nous ?

Intervenant : Jean-Emmanuel Bibault

Lieu : Paris, Palais des Congrès - Devoxx FR 2024

Date : 18 avril 2024

Durée : 36 min 32

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.


Transcription

Présentatrice : Grand d’applaudissements à notre keynoter, Jean-Emmanuel Bibault. Venez ici au milieu.
Jean-Emmanuel Bibault, vous êtes cancérologue et chercheur en intelligence artificielle appliquée à la santé. Vous avez un doctorat en informatique biomédicale et vous avez fait votre post-doctorat à l’université de Stanford, dans un laboratoire d’intelligence artificielle appliquée à la santé.
Vous êtes aussi professeur des universités, praticien hospitalier à l’Université de Paris et à l’Hôpital européen Georges-Pompidou et chercheur à l’Inserm.
Je n’ai pas fini !
Vos recherches portent sur le machine learning appliqué au diagnostic et à la prédiction.
Et vous avez été lauréat, en 2019, de l’Académie nationale de médecine pour tous vos travaux par rapport la réponse thérapeutique par l’intelligence artificielle. Dans ce contexte, vous avez aussi développé pas mal d’applications iPhone et Android, cofondé une start-up que vous avez vendue en 2014 et, dans le temps qui vous reste, vous êtes, en plus, écrivain, vous avez publié 2041, Odyssée de la médecine : Comment l’intelligence artificielle bouleverse la médecine ? où vous retracez l’histoire de l’intelligence artificielle appliquée à la médecine et comment cela va changer nos soins aujourd’hui et dans le futur.

Jean-Emmanuel Bibault : C’est ça.

Présentatrice : Petit curriculum, évidemment.

[Applaudissements]

Jean-Emmanuel Bibault : Merci.

Présentatrice : La scène est à vous, Jean-Emmanuel Bibault.

Jean-Emmanuel Bibault : Je suis très content d’être devant vous aujourd’hui pour parler de ce sujet qui me tient à cœur, vous avez dû le comprendre, et particulièrement content de parler devant une assemblée de développeurs comme ça, ça me change un peu, parce que je suis plutôt habitué à parler soit devant des chercheurs ou des médecins.

Définitions et concepts

Je vais passer assez vite, en fait, sur cette partie de la définition des concepts, à mon avis, vous connaissez ça très bien. Je voulais quand même revenir sur quelques aspects.
On parle effectivement d’IA, mais maintenant tout le monde le dit, donc je pense que vous devez le savoir aussi : l’IA est un terme assez mauvais. En réalité, c’est plutôt dérivé de l’anglais et intelligence, en anglais, ça ne veut pas dire « intelligence humaine », ça veut dire plutôt « capacité d’analyse ou de renseignement ». On a donc pris ce terme qui, au final aujourd’hui, est utilisé partout, mais n’est pas tout à fait adéquate. Peu importe !
Aujourd’hui, on va surtout parler d’IA statistique ou de machine learning, mais vous savez aussi, je pense, qu’il y a d’autres types d’IA plus anciennes, notamment symboliques, qu’on appelle aussi des systèmes experts, dont on va parler au tout début.

En médecine, de l’IA, ça peut servir à faire quoi ?
Ça peut servir à faire ce que savent faire les médecins ou les humains, donc, typiquement, de l’analyse d’images. Ça peut être des examens scanner, radios, IRM, ou alors des biopsies, c’est-à-dire des lames qu’on regarde sous microscope.
Ça peut servir à poser un diagnostic.
Pour tout cela, c’est « relativement simple », entre guillemets, de vérifier que l’IA ne fait pas n’importe quoi. Là où c’est un peu plus compliqué, c’est lorsqu’on se sert de ces algorithmes-là pour faire ce que les humains ne savent pas faire, typiquement des tâches de prédiction, qui vont ensuite permettre de faire de la personnalisation des soins, On en parle de plus en plus et, en réalité, on n’y est pas encore tout à fait.

L’IA est une discipline qui a eu une histoire assez riche, avec des périodes très fastes, notamment sur le plan des financements, surtout aux États-Unis, mais aussi des périodes, on va dire, un peu plus lentes, puisque la communauté du computer science, aux États-Unis, s’était un peu détournée de cette thématique-là dans les années 70/80, puisqu’il y avait eu des problèmes théoriques et on commençait à penser qu’en réalité on n’arriverait jamais à créer une machine capable de mimer certaines capacités cognitives.
Ensuite, dans la fin des années 80, puis 90 et maintenant, surtout depuis 2012, notamment avec l’apparition d’AlexNet qui était un des premiers réseaux neuronaux profonds utilisant des GPU, qui avait été mis au point par un des thésards de Geoffrey Hinton, que vous devez connaître aussi, on a subi, on a connu une accélération très significative de l’IA dans tous les domaines, notamment en médecine.

Pourquoi est-ce qu’en médecine c’est très utilisé ?
En fait en médecine, pendant longtemps, on a fait ce qui est à gauche ici, c’est-à-dire des systèmes où on allait demander à des experts d’un domaine, en l’occurrence des médecins, de définir les règles qui, selon eux, permettaient de prendre une décision ou, par exemple, de poser un diagnostic. Ça a été utilisé, par exemple, dans des systèmes de recommandation d’antibiothérapie, notamment à Stanford, dans les années 50/60, sans jamais que ça ne s’impose vraiment.
De nos jours, ce qu’on fait et ce dont on parle quand on fait de l’IA, c’est surtout du machine learning, de l’apprentissage statistique, c’est la partie de droite, où là, on ne va pas demander à des experts humains de créer des règles. On va fournir un ensemble de données à un algorithme qui va devoir apprendre, à partir de ces données-là, à créer ses propres règles pour remplir l’objectif qu’on lui a défini.

Actuellement, en médecine, on connaît un vrai âge d’or de l’IA, pour deux raisons.
La première raison, c’est que peut-être que quand vous étiez très jeune ou quand vos parents allaient chez le médecin, il avait l’habitude de griffonner, avec une écriture souvent illisible, dans un dossier médical qui, ensuite, allait être rangé dans une armoire. Maintenant, tout cela c’est terminé. Toutes les données médicales, ou presque, sont digitalisées et, surtout, on a accès à des données très hétérogènes, de très nombreux types différents. Là, je ne vous ai mis que quelques exemples, sachant qu’ils sont quasi innombrables. Ce sont donc toutes ces données-là, qui sont maintenant digitalisées, que l’on peut utiliser beaucoup plus facilement que l’écriture illisible manuscrite du médecin de l’époque.
Et puis, en parallèle de cet accès très facile à la donnée, on a – vous le savez aussi, je pense – accès à des frameworks qui sont beaucoup plus simples d’utilisation qu’à l’époque.
Pour un peu comparer, ce n’est pas tout à fait exact, je vous ai mis le Perceptron Mark II, 1953. Vous voyez que chacune des cellules est, entre guillemets, « reliée » par un vrai fil électrique, donc, on doit s’amuser à modifier ça si on a besoin d’optimiser les choses. Maintenant, évidemment, tout cela est virtualisé dans des frameworks ; les plus utilisés sont plutôt PyTorch et TensorFlow, plutôt PyTorch en ce moment, mais sans doute qu’il va y avoir de plus en plus. Cette slide est intéressante ; ça permet de prendre conscience aussi que la majorité des frameworks sont édités et soutenus par des éditeurs américains, TensorFlow Google, Meta pour PyTorch surtout. Et puis, heureusement, on a aussi quand même l’Inria, qui fait scikit-learn, qui est vraiment très utilisé partout dans le monde pour faire ce genre de chose.

La conjonction de ces deux événements – les données et la facilité, la puissance programmatique –, fait qu’on voit ce genre de une dans beaucoup de journaux, et ces unes, même si elles peuvent parfois paraître un petit peu exagérées, je vais vous montrer à la fin présentation, notamment avec l’apparition et la démocratisation des LLM, qu’on n’est peut-être plus si loin de ça.

En médecine, il y a des thématiques, des difficultés qui sont un peu spécifiques. Souvent, en fait, on cherche à faire du machine learning sur un nombre de patients très faible – donc c’est très discutable –, un nombre de patients très faible, un nombre d’événements à détecter très faible, donc, évidemment, on prend le risque d’avoir des algorithmes qui sont mauvais.
On a des données qui sont très souvent peu structurées, malgré ce que je vous ai dit. Si vous vous intéressez à la thématique des entrepôts de données de santé, c’est extrêmement mal structuré, il y a un très gros travail à faire sur cette thématique-là, donc, il y a beaucoup de risques d’algorithmes mauvais, notamment le risque que vous connaissez, d’overfitting.
Le deuxième problème qui ne plaît pas trop, en général, aux médecins, c’est l’effet boîte noire de certains algorithmes, pas tous, bien que maintenant on ait des méthodos que vous devez connaître, j’imagine, que je vais vous montrer aussi, qui permettent d’apporter une certaine couche d’interprétabilité à de l’IA.

Exemples d’applications

J’ai pris le parti