Mercredi 29 novembre | 10h20 – 10h30 | W3-SSIN06-6 | S401
Citant les vulnérabilités des modèles de diagnostic mammographique du cancer du sein basés sur l’apprentissage profond, une équipe de recherche de l’Université de Pittsburgh a développé et évalué un nouveau cadre technique qui pourrait se défendre contre les attaques adverses contre les logiciels d’IA.
L’ensemble de données de départ du cadre comprenait 4 346 mammographies provenant d’une cohorte de 1 284 femmes ayant subi une mammographie numérique plein champ pour le dépistage du cancer du sein. Tout d’abord, l’équipe a construit un modèle de diagnostic utilisant un réseau VGG-16 pour classer le cancer du sein (366 tumeurs malignes prouvées par biopsie) par rapport à la normale (918 cas négatifs).
Degan Hao, MS, doctorant au programme de systèmes intelligents de l’Université de Pittsburgh, partagera les résultats d’une étude qui a testé la stratégie de formation contradictoire du groupe. Pour le cadre, un « algorithme de régularisation » a été développé pour faciliter l’apprentissage de « fonctionnalités robustes » pour la classification et une augmentation des données indépendante des étiquettes afin de résoudre le problème courant de fuite de données introduit par la synthèse de données en boîte noire. Une validation croisée quintuple a été utilisée pour comparer les valeurs d’AUC de l’entraînement contradictoire proposé par rapport à un entraînement régulier sans la nouvelle méthode.
Les chercheurs ont évalué deux types d’attaques contradictoires : l’attaque en boîte blanche (les attaquants connaissent les paramètres du modèle d’IA), dans laquelle des données contradictoires ont été générées par la méthode de descente de gradient projetée pour insérer des bruits contradictoires dans les images de mammographie ; et les attaques par boîte noire (les attaquants n’ont pas accès aux paramètres du modèle d’IA), dans lesquelles des données contradictoires ont été générées en insérant ou en retirant intentionnellement du tissu tumoral dans des mammographies.
Le modèle de diagnostic du cancer du sein a démontré une ASC de 0,668 avec un entraînement régulier. Sous une attaque de boîte blanche, les performances du modèle se sont dégradées jusqu’à une AUC de 0,415 ; cependant, le cadre proposé ramène l’AUC à 0,673. De même, l’attaque par boîte noire abaisse le modèle à une AUC de 0,461, mais le cadre de défense ramène l’AUC à 0,637.
Bien que le déploiement de l’IA médicale dans le flux de travail informatique clinique comporte des risques, tels que les attaques contradictoires en boîte blanche et en boîte noire décrites pour cette session, une stratégie de défense de l’IA pourrait rendre les modèles de diagnostic plus résilients et améliorer la sécurité des patients, selon Hao. Venez nous voir pour en savoir plus.
2023-11-17 03:21:13
1700181791
#Une #nouvelle #méthode #vise #arrêter #les #attaques #type #boîte #blanche #boîte #noire #sur #les #modèles #diagnostic #dIA