Nouvelles Du Monde

même les modèles prédictifs peuvent se tromper – Corriere.it

même les modèles prédictifs peuvent se tromper – Corriere.it

2023-10-14 14:00:56

De Ruggiero Corcella

Une étude américaine a mis en lumière les « défauts » de l’intelligence artificielle. Un entretien strict et constant de ces outils est requis (comme la révision d’une voiture)

De plus en plus d’outils d’IA sont utilisés pour tout prédire, de la septicémie aux accidents vasculaires cérébraux, dans l’espoir d’accélérer la découverte de traitements salvateurs. Mais, comme c’est le cas avec les humains, l’IA peut aussi commettre des erreurs.

« L’utilisation de l’Intelligence Artificielle (IA) est entrée dans la pratique clinique quotidienne, et il ne fait aucun doute qu’elle a apporté de nombreux avantages, notamment dans des domaines précis et définis. Un exemple frappant est la manière de
imagerie diagnostique,
où l’IA aide réellement le radiologue à interpréter les images (numériques) pour un diagnostic correct et de plus en plus rapide. Dans d’autres contextes cliniques nous travaillons toujours pour comprendre les meilleurs moyens d’application, comme pour moi des modèles prédictifs de risque pour les patients les plus graves, comme ceux hospitalisés en réanimation» explique Elena Giovanna Bignami, professeur titulaire d’anesthésie et de soins intensifs à l’Université de Parme et experte en intelligence artificielle de la Société italienne d’anesthésie, d’analgésie, de réanimation et de soins intensifs (Siaarti).

Selon les chercheurs de École de médecine Icahn et Université du MichiganCependant, au fil du temps, les modèles de soins de santé basés sur l’apprentissage automatique peuvent devenir victimes de leur propre succès. Dans une étude, l’équipe a évalué l’impact de la mise en œuvre de modèles prédictifs sur les performances ultérieures de ces modèles et d’autres. Les résultats – selon lesquels l’utilisation des modèles pour adapter la manière dont les soins sont dispensés peut modifier les hypothèses sous-jacentes sur lesquelles les modèles ont été « formés », souvent pour le pire – ont été publiés dans Annales de médecine interne.

Lire aussi  Un essai clinique montre l'efficacité et l'innocuité du brépocitinib pour le traitement des adultes atteints de rhumatisme psoriasique
Les modèles mis à l’épreuve à l’hôpital

«Nous voulions explorer ce qui se passe lorsqu’un modèle d’apprentissage automatique est mis en œuvre dans un hôpital et sont autorisés à influencer les décisions des médecins pour le bénéfice global des patients », déclare le premier auteur Akhil Vaid, instructeur clinique de médecine numérique et basée sur les données (D3M), qui fait partie du département de médecine d’Icahn Mount Sinai. Vaid et ses hommes ont fait semblant la mise en œuvre de deux modèles prédisant le risque de décès et de lésion rénale aiguë pour un patient dans les cinq jours suivant son admission aux soins intensifs.

Leurs simulations supposaient que les modèles faisaient ce qu’ils étaient censés faire : réduire les décès et les lésions rénales en identifiant les patients pour une intervention précoce. Mais quand les patients commencent à aller mieux, les modèles deviennent beaucoup moins précis pour prédire la probabilité d’insuffisance rénale aiguë et de mortalité, quelle qu’en soit la cause. Et le recyclage des modèles et d’autres méthodes pour arrêter la dégradation n’ont pas aidé. « Les modèles d’Intelligence Artificielle possèdent le capacité à apprendre et à établir des corrélations entre les données des patients entrants et les résultats correspondants, mais l’utilisation de ces modèles, par définition, peut modifier ces relations. Des problèmes surviennent lorsque ces relations altérées sont signalées dans les dossiers médicaux », explique Vaid.

Lire aussi  Virus du papillome humain - La vaccination est nécessaire...
Un cercle vicieux

La nouvelle étude a identifié un problème : Les modèles prédictifs efficaces créent une « boucle ». Alors que l’IA aide à orienter les interventions pour garder les patients en meilleure santé, dossiers médicaux électroniques au sein d’un système peut commencer à refléter des taux plus faibles de lésions rénales ou de mortalité – les mêmes données auxquelles d’autres modèles prédictifs sont appliqués et qui sont utilisées pour recycler les modèles au fil du temps.

L’étude a simulé des scénarios de soins intensifs dans deux établissements de santé importants, le Mont Sinaï Système de santé de New York et al. Beth Israel Diaconesse Boston Medical Center, analysant 130 000 admissions en soins intensifs. Les chercheurs ont démontré comment le problème apparaît dans trois scénarios, chacun étant couramment mis en œuvre par les systèmes de santé utilisant l’IA aujourd’hui.

Le vrai problème : la qualité des données

«Les conclusions ne sont pas toujours faciles à comprendre et semblent décourageantes – dit le professeur Bignami -, car le modèle prédictif semble donner de moins bons résultats, sans aider les cliniciens à prendre des décisions pour le réel bénéfice des patients. Vaid et ses collègues ont constaté que la capacité des modèles à être véritablement prédictifs est liée à « qualité des données » des mesures rapportées dans le dossier médical. De plus, l’application simultanée de plusieurs outils de prédiction « généraux », c’est-à-dire non ciblés sur une pathologie spécifique (comme le sepsis), peut conduire le médecin à j’ai trop d’informationsparfois de fausses alarmes et des délais d’intervention pas parfaitement adaptés”.

Lire aussi  Une approche de soins palliatifs pour la sclérose latérale amyotrophique
Un entretien minutieux de l’Ai est nécessaire

Avez-vous échoué sans possibilité de récupération ? “Nous ne devrions pas considérer les modèles prédictifs comme peu fiables”, déclare le professeur Girish Nadkarni, directeur de l’Institut Charles Bronfman de médecine personnalisée et responsable du système de médecine numérique et basé sur les données à Icahn Mount Sinai.

«Il s’agit plutôt de reconnaître que ces outils nécessitent une maintenance, une compréhension et une contextualisation régulières. Négliger de surveiller leurs performances et leur impact peut compromettre leur efficacité. Nous devons utiliser les modèles prédictifs de manière réfléchie, comme tout autre outil médical. Les systèmes de santé apprenants doivent prêter attention au fait qu’une utilisation et des mises à jour aveugles de tels modèles entraîneront de fausses alarmes, des tests inutiles et une augmentation des coûts. »

«Nous recommandons aux systèmes de santé de mettre en œuvre rapidement un système de suivi des individus concernés par les prédictions de l’apprentissage automatique et que les agences gouvernementales compétentes délivrent des lignes directrices» dit le Dr Vaid. “Ces les résultats sont également applicables en dehors du contexte de soins de santé et s’étendre aux modèles prédictifs en général. Par conséquent, nous vivons dans un monde où tout modèle utilisé naïvement peut perturber le fonctionnement des modèles actuels et futurs et finalement devenir inutile. »

14 octobre 2023 (modifié le 14 octobre 2023 | 08:37)

#même #les #modèles #prédictifs #peuvent #tromper #Corriere.it
1697316186

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT