Nouvelles Du Monde

La nouvelle approche d’entraînement renforce la fiabilité des systèmes d’IA – Des chercheurs de l’EPFL et de l’Université de Pennsylvanie développent une stratégie de jeu à somme non nulle

La nouvelle approche d’entraînement renforce la fiabilité des systèmes d’IA – Des chercheurs de l’EPFL et de l’Université de Pennsylvanie développent une stratégie de jeu à somme non nulle

Certains systèmes d’IA souffrent d’un problème de fiabilité. Par exemple, les algorithmes de classification de contenu peuvent être trompés grâce à des techniques connues. Des chercheurs de l’EPFL ont développé une nouvelle approche d’entraînement pour tenter de remédier à cette situation.

De plus en plus de décisions sont prises par des systèmes d’IA, mais ils sont souvent vulnérables à des attaques subtiles mais efficaces. Selon l’EPFL, il est souvent possible de tromper un modèle d’IA en apportant de légères modifications aux données d’entrée. Par exemple, les filtres de contenu sur les plateformes de streaming vidéo, comme Youtube, peuvent être contournés. Un pirate malveillant pourrait ajouter du bruit à une vidéo inappropriée, ce qui ne serait pas détectable par un humain, mais suffisamment perturbant pour tromper le système d’IA et contourner les mécanismes de sécurité de la plateforme. Par conséquent, les enfants pourraient être exposés à des contenus problématiques, même si le filtre de contenu est activé.

Lire aussi  L'armée israélienne mène des raids sur les cibles militaires du Hezbollah au sud du Liban

Cependant, une équipe de chercheurs de l’EPFL et de l’Université de Pennsylvanie (UPenn), dirigée par le professeur Volkan Cevher, travaille sur une nouvelle approche d’entraînement pour rendre les systèmes d’IA plus robustes et fiables. Ils ont développé un algorithme d’entraînement appelé BETA (BEst Targeted Attack), basé sur une stratégie de jeu à somme non nulle. Contrairement à l’approche traditionnelle qui repose sur un jeu à somme nulle (où un joueur essaie de minimiser l’erreur de classification tandis que l’autre cherche à la maximiser), cette nouvelle approche demande au défenseur et à l’adversaire d’optimiser des objectifs différents. Cela permet une optimisation continue en deux étapes. Le défenseur minimise une limite supérieure pour l’erreur de classification, tandis que l’adversaire maximise la probabilité d’erreur de classification en utilisant un objectif de marge d’erreur. Cette approche plus réaliste permet de mieux entraîner les systèmes d’IA.

Les chercheurs ont déjà réussi à améliorer la sécurité des systèmes d’IA grâce à ce nouvel modèle. Leurs travaux ont même été récompensés par un Best Paper Award lors d’un atelier sur l’apprentissage automatique adversarial lors d’une conférence internationale en 2023.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT