L’IA peut-elle ajouter de la valeur à l’enseignement médical et améliorer la communication entre les médecins et les patients ?
Certains pourraient penser qu'il s'agit d'un simple rhume en présence de symptômes tels qu'un nez qui coule ou une toux. Cela ne justifie pas une visite chez le médecin, et ils se tournent donc vers Google et WebMD pour obtenir des informations supplémentaires. Aujourd'hui, grâce aux progrès de l'IA, certains pourraient être tentés de passer du « Dr Google » au « Dr ChatGPT », mais le chatbot d'OpenAI, basé sur l'IA, peut-il fournir des conseils médicaux précis ?
Des chercheurs de l'Université Western ont tenté de répondre à cette question et de déterminer si ChatGPT était capable de devenir une ressource fiable dans le domaine des soins de santé et de l'enseignement médical. L'étude, dirigée par le Dr Amrit Kirpalani, professeur à la Schulich School of Medicine & Dentistry, a récemment été publiée dans PLOS One et j'ai découvert que ChatGPT n'était précis qu'à 49 % lorsqu'il s'agissait de fournir le bon diagnostic.
Bien qu'ils aient déterminé que ChatGPT n'était pas encore prêt à être utilisé comme un outil de diagnostic médical fiable pour les cas compliqués, leur étude a révélé qu'il était capable de prendre des sujets médicaux complexes et de les synthétiser d'une manière facile à comprendre, ce qui pourrait être bénéfique pour les instructeurs et les prestataires de soins de santé pour fournir des informations médicales dans un format digeste.
« Pour moi, le résultat le plus pertinent est que ChatGPT a fourni ses réponses d'une manière très simple et facile à comprendre », a déclaré Kirpalani. « Je pense que c'est important car on peut voir le potentiel de l'utiliser comme un excellent outil pour aider les gens à apprendre et à comprendre les cas médicaux. »
L'étude a demandé à ChatGPT de diagnostiquer 150 cas par le biais de Medscape Clinical Challenges, conçus pour tester les compétences diagnostiques des professionnels de la santé. Medscape est une plateforme publique proposant de nombreux cas complexes, où les cliniciens votent pour ce qu'ils pensent être la bonne réponse. L'équipe de recherche, qui comprenait les étudiants en médecine de troisième année Ali Hadi, Edward Tran et Branavan Nagarajan, a créé des invites demandant à ChatGPT de choisir le bon diagnostic dans un format à choix multiples et de fournir une justification.
Le chatbot a reçu des informations telles que les antécédents médicaux des patients, les résultats des examens physiques et les résultats des tests de laboratoire ou d'imagerie. Les chercheurs ont constaté qu'il avait du mal à interpréter les résultats des tests et qu'il négligeait parfois des informations essentielles qui étaient pertinentes pour le diagnostic. Cependant, le chatbot s'est avéré utile pour fournir les prochaines étapes du diagnostic et rendre les informations médicales plus accessibles.
Des recherches supplémentaires sont nécessaires pour « utiliser l’IA de manière responsable »
L’étude montre clairement que des recherches et des avancées supplémentaires sont nécessaires avant que l’IA puisse être utilisée comme un autre outil d’aide au diagnostic médical. Et à mesure que de nouveaux modèles d’IA progressent et s’améliorent, Kirpalani souligne l’importance de la maîtrise de l’IA.
« La maîtrise de l’IA est importante pour les patients, pour les prestataires de soins, pour les éducateurs et pour les étudiants, car nous devons comprendre comment nous pouvons utiliser l’IA de manière responsable et comment elle peut être appliquée et exploitée à des fins de soins de santé et d’éducation médicale », explique Kirpalani.
Quelle que soit l’exactitude de ces ressources en ligne, Kirpalani a souligné la nécessité d’évaluer et de vérifier les réponses provenant d’Internet par rapport à des sources fiables et évaluées par des pairs.
« Je dirais que nous sommes peut-être déjà au point où nous avons besoin de conseils en matière d'ingénierie rapide, où ils structurent une instruction qui peut être interprétée et comprise par un modèle d'IA génératif », a déclaré Kirpalani.
« Nous allons avoir besoin d’une surveillance accrue sur la manière dont il est utilisé pour garantir la sécurité des patients et pour nous assurer que [this kind of AI technology] sera déployé de manière réfléchie.