Entretien avec Jean-Emmanuel Bibault, médecin cancérologue et chercheur spécialisé sur l’intelligence artificielle à l’Hôpital Européen Georges Pompidou. Ses recherches sont orientées sur l’utilisation de l’IA en médecine, pour prédire l’évolution des cancers et l’efficacité des traitements.
1. L’utilisation de l’IA pour l’imagerie médicale fait partie des solutions les plus prometteuses pour améliorer les diagnostics et la prise en charge en général, pourtant des voix s’expriment également pour garder une certaine prudence quant aux résultats de ces nouveaux équipements. Quel est l’état de la connaissance et les limites ?
En effet, l’IA, et plus précisément ce que l’on appelle le Deep Learning, c’est-à-dire l’apprentissage profond, est assez performante pour l’analyse d’images, notamment en imagerie médicale, les scanners ou l’IRM.
Il y a plusieurs aspects à considérer. Tout d’abord, est-ce que les algorithmes existants fonctionnent bien pour le diagnostic à partir d’images ? En réalité, s’ils sont correctement entraînés, oui, ils fonctionnent très bien. Cependant, il existe un risque de les entraîner de manière inadéquate. Par exemple, en utilisant des ensembles de données non représentatifs d’une population ou provenant d’une population minoritaire. Donc, il y a cette première préoccupation. Ensuite, en ce qui concerne l’utilisation de ces algorithmes, s’ils sont correctement entraînés, il sera nécessaire de valider leur utilisation dans le cadre d’études médicales, un peu comme on le fait pour la validation des médicaments. Ainsi, il faudra probablement réaliser des études médicales pour évaluer l’utilisation de l’IA dans l’analyse d’images médicales.
Un exemple récent concerne l’utilisation de l’IA pour la relecture des mammographies. Une étude réalisée en Suède sur 80 000 patientes a montré, par exemple, que la double lecture par deux humains des mammographies, comme cela se fait actuellement, par exemple en France et en général dans le monde occidental, peut être aussi efficace qu’une lecture par un humain et une lecture par une IA. Ainsi, cela n’entraîne pas de manquement à la détection du cancer du sein, mais permet d’économiser jusqu’à 44 % du temps médical. Cela signifie que l’on peut effectuer davantage de dépistages, à moindre coût et plus rapidement. Par conséquent, il existe un potentiel bénéfice, mais celui-ci doit être évalué à travers des études médicales rigoureuses.
Ensuite, il y a l’éducation et l’enseignement de l’utilisation de ces techniques. Parce qu’en fait, on sait que même si nous disposons d’algorithmes performants, il est possible de les utiliser de manière inappropriée. Une étude récente a montré que des médecins ont modifié leur diagnostic parce qu’ils ont vu que l’IA avait fourni un diagnostic différent. Ils ont alors perdu confiance en l’IA et ont donné un diagnostic opposé. Ainsi, il y a toute une question sur l’importance d’avoir des algorithmes performants, mais aussi sur la nécessité de savoir les utiliser correctement et d’avoir confiance en eux. Par conséquent, il est essentiel d’enseigner l’utilisation des algorithmes et les critères de qualité aux médecins, afin qu’ils sachent comment utiliser ces algorithmes de manière adéquate, mais aussi comment identifier les algorithmes potentiellement défectueux.
Le dernier aspect concerne la démocratisation de l’accès à des algorithmes performants, où que l’on se trouve. Personnellement, j’ai tendance à penser que si nous utilisons intelligemment les algorithmes, nous pourrons les déployer partout en France et dans le monde en un simple clic. Cela permettrait d’offrir une qualité de service médical équivalente partout, bien plus facilement que nous ne pouvons déployer des médecins. Une différence d’un millimètre dans le tracé du cancer avant de programmer les rayons, par exemple, peut réduire les chances de guérison de 10 %, ce qui est considérable. De tels problèmes pourraient être évités en utilisant des algorithmes de qualité. Ainsi, en ce qui concerne l’accès aux soins, je pense que, si nous agissons de manière avisée, cela favorisera la démocratisation et l’amélioration de la qualité des soins, plutôt que l’inverse.
2. Que répondez-vous à ceux qui pensent que l’IA va réduire les inégalités en santé ? Ou en quoi peuvent-elles les accroitre ?
Il y a un potentiel d’amélioration des choses, mais il y a aussi des risques à considérer. Je peux vous donner un exemple : une étude publiée en 2016 par l’Université Stanford, dans la revue Nature, a comparé les performances d’un algorithme de Deep Learning dans la reconnaissance des mélanomes sur des photos de peau par rapport à des médecins dermatologues experts, au nombre de 21.
Il s’est avéré que l’algorithme avait de meilleures performances que les dermatologues dans la base de données utilisée pour son apprentissage. Cependant, on a ensuite réalisé que cette base de données comportait très peu, voire aucune image de peaux afro-américaines. En conséquence, l’algorithme ne fonctionnait pas bien du tout pour les peaux noires. Cela met en lumière l’importance de la représentativité des données utilisées pour former les algorithmes d’IA. Si l’on ne fait pas preuve de vigilance à cet égard, on risque de créer des algorithmes qui ne sont pas adaptés à certaines populations, sans même s’en rendre compte. C’est donc un problème significatif à prendre en considération.
En ce qui concerne les avantages potentiels, un exemple bien connu concerne la rétinopathie diabétique et son diagnostic automatisé par le Deep Learning. Google a récemment mené un essai clinique en Inde pour valider rigoureusement une machine capable de diagnostiquer et d’évaluer la rétinopathie diabétique de manière automatisée. Cela pourrait avoir un impact positif, notamment dans un pays comme l’Inde, où le nombre d’ophtalmologues est limité, mais où il y a de nombreux cas de rétinopathie diabétique en raison du nombre élevé de diabétiques. Avoir un diagnostic est une étape cruciale, bien que le traitement et le suivi soient également essentiels. L’IA pourrait contribuer à combler les déserts médicaux, y compris éventuellement en France.
Cependant, il me parait essentiel d’ajouter un point à l’attention des décideurs. Il ne faut pas sous-estimer les besoins en personnel médical et paramédical et orienter tous les investissements vers les outils d’IA. L’approche ne devrait pas être basée sur la simple comparaison des performances entre les IA et les professionnels de la santé, mais plutôt sur l’ambition de faire mieux. Il est possible qu’à l’avenir, une IA puisse égaler un médecin en matière de diagnostic, mais notre objectif doit être d’assurer des soins de meilleure qualité et une prise en charge optimale pour tous.
Nous faisons déjà face à une pénurie de médecins et de personnels soignants, ce qui met en péril nos capacités de fournir des soins de qualité. Dans l’avenir, nous aurons besoin à la fois de l’IA et des professionnels de la santé pour maintenir, voire renforcer, la qualité de notre système de soins.
3. Quelle est votre perspective de médecin et chercheur sur les enjeux de régulations de l’IA en santé ?
Je pense qu’il y a un risque à réglementer de manière excessive en France et en Europe. Il est incontestable que les outils d’IA continueront d’être développés, principalement aux États-Unis et en Chine. Ces outils auront la capacité de capturer une valeur économique considérable, surtout s’ils démontrent des performances médicales améliorées.
Cependant, il est essentiel de comprendre que cette situation entraînera une nouvelle dimension de captation économique, ce qui a déjà suscité de nombreuses discussions, notamment dans le contexte de l’IA. La médecine ne fait pas exception, et si des outils performants sont développés, nos patients demanderont légitimement à pouvoir en bénéficier.
Au-delà de la dimension économique, il existe également des préoccupations liées à la santé publique, notamment en ce qui concerne les biais. L’utilisation quotidienne d’outils développés aux États-Unis ou en Chine pourrait signifier que ces outils sont mieux adaptés pour traiter les populations américaines que les populations européennes. Cela pourrait indirectement induire des pertes de chance pour les patients européens si nous utilisions exclusivement des outils américains. Il me semble prioritaire de promouvoir le développement d’outils d’IA en Europe en utilisant des données européennes.
La régulation est nécessaire pour protéger les patients et ne doit pas être excessive au point de freiner l’innovation. Le RGPD en est un exemple, car il a déjà été critiqué pour les obstacles qu’il impose à la recherche en imposant des procédures longues et compliquées pour l’accès aux données.
En fin de compte, je pense qu’il s’agit de trouver un équilibre entre une régulation qui protège les patients et une régulation trop stricte qui entrave l’innovation.
4. La loi de bioéthique indique que les patients doivent être informés de l’usage de dispositifs médicaux utilisant l’IA et que les concepteurs d’IA en santé doivent s’assurer de l’explicabilité des algorithmes pour les utilisateurs. Qu’en pensez-vous ?
En médecine, cela me paraît important d’être capable de bien expliquer les choses aux patients. Cependant, l’idée d’informer les patients de l’utilisation de l’IA me parait hors sol voire absurde.
Imaginons un patient atteint d’un cancer qui se rend dans un établissement médical pour une radiothérapie. À un moment donné, l’IA est utilisée dans le processus de préparation du traitement. Si l’on décide d’informer le patient de cette utilisation, cela soulève des questions sur les implications de cette information. Si le patient refuse, que pourrons nous faire ? Lui proposer d’aller ailleurs ? Ce n’est pas une solution car les processus médicaux sont souvent standardisés avec des workflows établis et mis en œuvre de la même façon dans tous les établissements.
En revanche, cela soulève également une question très pertinente concernant la tolérance à l’erreur. Actuellement, il est difficile de déterminer des statistiques précises, mais les erreurs médicales humaines demeurent l’une des principales causes de décès dans le monde occidental. Lorsque nous abordons l’intégration de l’IA dans les soins de santé, nous semblons immédiatement nous concentrer sur des cas particuliers d’erreurs potentielles, ce qui est étonnant. Cette approche touche à la perception que nous avons de l’erreur médicale et la façon dont nous réagissons lorsqu’une forme d’automatisation est impliquée dans les soins de santé, au sens large. Bien sûr si des erreurs sont commises, les responsabilités doivent être établies, IA ou non.
En fin de compte, il est probable que les erreurs imputables aux systèmes exploitant l’IA, directement ou indirectement, soient beaucoup moins fréquentes que celles causées par les humains. Il me semble plus judicieux d’adopter une approche plus épidémiologique et statistique pour évaluer l’impact de l’IA sur la médecine.