Nouvelles Du Monde

ChatGPT diagnostique mal la majorité des cas pédiatriques : ce que cela signifie pour les soins de santé

ChatGPT diagnostique mal la majorité des cas pédiatriques : ce que cela signifie pour les soins de santé

Intelligence) de l’application pour smartphone ChatGPT entourée d’une autre application d’IA à Vaasa, le 6 juin 2023. (Photo d’OLIVIER MORIN / AFP) (Photo d’OLIVIER MORIN/AFP via Getty Images)AFP via Getty Images

La version 3.5 de ChatGPT n’a pas pu formuler un diagnostic correct dans 83 cas pédiatriques sur 100, selon une étude récente publiée dans JAMA Pédiatrie.

Selon les auteurs de l’étude, 72 des diagnostics incorrects étaient complètement incorrects et 11 des diagnostics incorrects étaient cliniquement liés mais trop larges pour être considérés comme un diagnostic correct.

Une mise en garde de cette étude était que le grand modèle de langage utilisé représentait une ancienne version de ChatGPT. Malgré cela, que signifient ces résultats pour les soins de santé et l’utilisation de l’IA ?

L’étude susmentionnée souligne l’importance de la surveillance des médecins lors de la mise en œuvre d’outils d’IA et de grands modèles de langage en médecine clinique. Les outils d’IA commencent tout juste à être développés, et des recherches et des investigations bien plus poussées sont nécessaires avant qu’ils ne deviennent courants dans le domaine des soins de santé. Les médecins sont et devraient toujours être les arbitres finaux et les gestionnaires des soins aux patients, en particulier lorsque les enjeux sont aussi élevés que la vie ou la mort humaine, comme c’est le cas pour les soins aux patients.

Lire aussi  Des temps d'attente plus longs dans les hôpitaux, certains patients devant attendre jusqu'à 50 heures pour un lit

L’interprétation médicale est souvent nuancée et nécessite une compréhension contextuelle de divers facteurs. Par exemple, lorsque les médecins radiologues interprètent un scanner des jambes, ils peuvent constater un œdème sous-cutané au niveau du mollet. Ce résultat n’est pas spécifique et peut être observé dans le cadre de nombreux diagnostics ; y compris la cellulite, les contusions dues à un traumatisme et les maladies vasculaires dues à l’insuffisance cardiaque. Les médecins s’appuient sur des informations intégrées issues de l’histoire du patient pour poser le diagnostic final. Dans le scénario ci-dessus, si le patient avait de la fièvre, le diagnostic probable serait une cellulite, mais si le patient était victime d’un accident de voiture, l’œdème sous-cutané proviendrait probablement d’une contusion.

C’est précisément cette information contextuelle que l’IA doit encore développer, comme le montre l’étude publiée dans JAMA Pediatrics. Établir le bon diagnostic dans les cas pédiatriques nécessite non seulement la reconnaissance des symptômes, mais également la prise en compte de l’âge du patient et d’informations contextuelles supplémentaires sur le patient. L’IA excelle certainement dans la reconnaissance de formes, mais elle a probablement du mal à gérer des scénarios de santé plus complexes dans lesquels les symptômes pourraient se chevaucher avec divers diagnostics. Cette limitation est précisément la raison pour laquelle les médecins doivent réglementer et superviser les décisions et les diagnostics posés par de grands modèles linguistiques.

Lire aussi  Pénurie de médicaments : voici comment 2 000 pharmacies préparent à domicile comprimés, sirops et pommades

Le secteur de la santé devrait-il donc abandonner l’IA comme moyen d’améliorer les soins aux patients ?

L’IA présente d’énormes avantages et l’étude susmentionnée devrait inciter les chercheurs et les scientifiques à continuer de développer de grands modèles de langage pour améliorer les performances de l’IA. Ces outils ont le potentiel de transformer la médecine en réduisant l’épuisement professionnel, en communiquant avec les patients, en transcrivant les ordonnances et en traitant les patients à distance.

Les outils d’IA et les chatbots nécessitent des ensembles de données pour s’entraîner, et des ensembles de données plus complexes doivent être utilisés pour améliorer les performances d’outils tels que ChatGPT. Plus ces ensembles de données sont complets et moins ils comportent de biais, plus leurs performances seront supérieures. Biais reste une limitation bien reconnue des outils d’IA qui doit toujours être prise en compte lors de l’évaluation et de l’amélioration des logiciels d’IA.

Les résultats de l’étude publiée dans JAMA Pediatrics devraient nous rappeler que nous ne sommes pas là où nous devrions être en ce qui concerne la révolution de l’IA en médecine. L’IA est un outil, et non une solution, aux problèmes de santé et doit toujours être utilisée en étroite collaboration avec l’expertise des médecins.

Lire aussi  « Si la clinique du pays ferme ses portes, les gens se sentent laissés pour compte »

Suivez-moi sur Twitter ou LinkedIn.

Le Dr Omer Awan MD MPH CIIP est un médecin radiologue en exercice à Baltimore, MD, qui écrit sur les soins de santé et la santé publique. Il a obtenu son doctorat en médecine (MD) à la Faculté de médecine et des sciences de la santé de l’Université George Washington et sa maîtrise en santé publique (MPH) à l’Université Harvard. Il possède une expertise en médecine, en santé publique et en éducation médicale. En 2022, PubMed a nommé le Dr Awan expert mondial en enseignement. Il s’intéresse particulièrement à l’utilisation de méthodes pédagogiques innovantes pour éduquer le public sur des sujets liés à la santé publique, aux soins de santé et à la médecine. Sa chaîne YouTube « MedEdPage » est accessible ici : Suivez-le sur Twitter.

Lire la suiteLire moins
2024-02-11 15:21:41
1707655278


#ChatGPT #diagnostique #mal #majorité #des #cas #pédiatriques #cela #signifie #pour #les #soins #santé

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT