Les chatbots d’intelligence artificielle générative comme ChatGPT pourraient fournir des informations médicales utiles aux médecins et les assister dans leurs tâches, mais il faudra veiller à ne pas y recourir pour des questions éthiques et plus complexes, préviennent les chercheurs.
L’essentiel : ChatGPT deviendra de plus en plus utilisé dans le monde médical, prédisent des chercheurs américains.
- « Je pense que (cette technologie) sera plus importante pour les médecins que ne l’était le stéthoscope par le passé », déclare à Wired Robert Pearl, ex-CEO de Kaiser Permanente, un groupe médical américain comptant plus de 12 millions de patients.
- « Aucun médecin pratiquant une médecine de haute qualité ne le fera sans accéder à ChatGPT ou à d’autres formes d’IA générative », prédit celui qui est aujourd’hui professeur à la faculté de médecine de Stanford.
- ChatGPT peut par exemple aider en créant un résumé des soins pour les patients, rédigeant des lettres, et même en donnant des idées pour les diagnostics.
- Robert Pearl estime ainsi que les IA génératives comme ChatGPT peuvent contribuer à réduire les plus de 250.000 décès qui surviennent chaque année aux États-Unis en raison d’erreurs médicales.
- Ce développement n’est pas surprenant, puisque les entreprises développant ces IA génératives – OpenAI, mais aussi Google avec Bard, entre autres – ont fait des examens de médecine une référence pour améliorer leurs outils.
- L’an dernier, Microsoft Research a présenté BioGPT, un modèle de langage performant en médecine.
- Aujourd’hui, ChatGPT peut atteindre ou dépasser le score de passage de 60% de l’examen de licence médicale américain.
- Des chercheurs de Google et DeepMind ont développé Med-PaLM avec une précision de 67% sur le même test, mais leurs résultats restent inférieurs à ceux des cliniciens.
Biais et problèmes éthiques
Objection : L’IA générative n’est pas sans risque pour les patients.
- En témoigne l’expérience de Heather Mattie, enseignante en santé publique à l’Université Harvard.
- Elle raconte qu’elle a demandé à ChatGPT de résumer la manière dont la modélisation des connexions sociales a été utilisée pour étudier le VIH, un de ses sujets de recherche.
- Or ChatGPT a commencé à évoquer des sujets en dehors des connaissances de la chercheuse, lui rendant impossible de distinguer les faits de l’imagination de l’IA.
- Elle estime donc que l’IA peut être utile, à condition que l’utilisateur sache qu’elle peut générer des résultats incorrects ou biaisés.
- À ce sujet, elle s’inquiète particulièrement des biais de genre et sur base de la couleur de peau dont pourrait souffrir ChatGPT… À l’image des médecins humains par le passé.
- Ces biais sont particulièrement présents pour le diagnostic des maladies cardiovasculaires et l’évaluation des lésions en soins intensifs.
- Sans oublier que ChatGPT invente parfois des faits et a une connaissance limitée du monde après 2021.
Il y a plus : ChatGPT présente aussi des risques si on lui pose des questions éthiques complexes.
- Qu’adviendra-t-il si un médecin s’en remet à l’IA pour décider s’il vaut mieux soigner un patient avec un traitement lourd et risqué, ou adopter une approche plus douce, mais moins prometteuse ?
- Une étude publiée en janvier, qui a posé des énigmes éthiques à ChatGPT, a conclu que le chatbot est un « conseiller moral incohérent« . Il est ainsi capable d’influencer la prise de décision humaine, même lorsque les utilisateurs sont conscients que les conseils proviennent d’un logiciel d’IA.
- Des résultats que confirment les recherches de Jamie Webb, un bioéthicien du Centre pour les futurs technomoraux de l’Université d’Édimbourg.
- Il a étudié la possibilité de créer un « conseiller moral » alimenté par l’IA pour la médecine.
- Avant de conclure que ce serait difficile à réaliser, car ces systèmes ne peuvent pas concilier de manière fiable différents principes éthiques.
- De plus, les médecins pourraient perdre leur compétence morale s’ils devenaient trop dépendants de ces chatbots pour prendre des décisions difficiles.
En conclusion : l’IA générative peut s’avérer considérablement utile aux médecins pour des tâches administratives, mais elle devrait rester en dehors de tout questionnement éthique plus complexe, propre aux êtres humains et ses résultats devraient systématiquement être vérifiés par un médecin.