Nouvelles Du Monde

Une nouvelle méthode vise à arrêter les attaques de type boîte blanche et boîte noire sur les modèles de diagnostic d’IA

Mercredi 29 novembre | 10h20 – 10h30 | W3-SSIN06-6 | S401

Citant les vulnérabilités des modèles de diagnostic mammographique du cancer du sein basés sur l’apprentissage profond, une équipe de recherche de l’Université de Pittsburgh a développé et évalué un nouveau cadre technique qui pourrait se défendre contre les attaques adverses contre les logiciels d’IA.

L’ensemble de données de départ du cadre comprenait 4 346 mammographies provenant d’une cohorte de 1 284 femmes ayant subi une mammographie numérique plein champ pour le dépistage du cancer du sein. Tout d’abord, l’équipe a construit un modèle de diagnostic utilisant un réseau VGG-16 pour classer le cancer du sein (366 tumeurs malignes prouvées par biopsie) par rapport à la normale (918 cas négatifs).

Degan Hao, MS, doctorant au programme de systèmes intelligents de l’Université de Pittsburgh, partagera les résultats d’une étude qui a testé la stratégie de formation contradictoire du groupe. Pour le cadre, un « algorithme de régularisation » a été développé pour faciliter l’apprentissage de « fonctionnalités robustes » pour la classification et une augmentation des données indépendante des étiquettes afin de résoudre le problème courant de fuite de données introduit par la synthèse de données en boîte noire. Une validation croisée quintuple a été utilisée pour comparer les valeurs d’AUC de l’entraînement contradictoire proposé par rapport à un entraînement régulier sans la nouvelle méthode.

Lire aussi  Tendances salle de bain 2024 : Tendances actuelles en matière de design de salle de bain !

Les chercheurs ont évalué deux types d’attaques contradictoires : l’attaque en boîte blanche (les attaquants connaissent les paramètres du modèle d’IA), dans laquelle des données contradictoires ont été générées par la méthode de descente de gradient projetée pour insérer des bruits contradictoires dans les images de mammographie ; et les attaques par boîte noire (les attaquants n’ont pas accès aux paramètres du modèle d’IA), dans lesquelles des données contradictoires ont été générées en insérant ou en retirant intentionnellement du tissu tumoral dans des mammographies.

Le modèle de diagnostic du cancer du sein a démontré une ASC de 0,668 avec un entraînement régulier. Sous une attaque de boîte blanche, les performances du modèle se sont dégradées jusqu’à une AUC de 0,415 ; cependant, le cadre proposé ramène l’AUC à 0,673. De même, l’attaque par boîte noire abaisse le modèle à une AUC de 0,461, mais le cadre de défense ramène l’AUC à 0,637.

Bien que le déploiement de l’IA médicale dans le flux de travail informatique clinique comporte des risques, tels que les attaques contradictoires en boîte blanche et en boîte noire décrites pour cette session, une stratégie de défense de l’IA pourrait rendre les modèles de diagnostic plus résilients et améliorer la sécurité des patients, selon Hao. Venez nous voir pour en savoir plus.

Lire aussi  Les États-Unis approuvent le premier vaccin contre le chikungunya

2023-11-17 03:21:13
1700181791


#Une #nouvelle #méthode #vise #arrêter #les #attaques #type #boîte #blanche #boîte #noire #sur #les #modèles #diagnostic #dIA

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT