Nouvelles Du Monde

Comment le NIST fait avancer une « IA digne de confiance » avec son cadre de gestion des risques liés à l’IA

Comment le NIST fait avancer une « IA digne de confiance » avec son cadre de gestion des risques liés à l’IA

Vous n’avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.


Votre IA est-elle digne de confiance ou non ? À mesure que l’adoption des solutions d’IA augmente à tous les niveaux, les consommateurs et les régulateurs s’attendent à une plus grande transparence sur le fonctionnement de ces systèmes.

Les organisations d’aujourd’hui doivent non seulement être en mesure d’identifier comment les systèmes d’IA traitent les données et prendre des décisions pour s’assurer qu’elles sont éthiques et impartiales, mais elles doivent également mesurer le niveau de risque posé par ces solutions. Le problème est qu’il n’existe pas de norme universelle pour créer une IA fiable ou éthique.

Cependant, la semaine dernière, le National Institute of Standards and Technology (NIST) a publié une brouillon élargi pour son cadre de gestion des risques liés à l’IA (RMF) qui vise à “traiter les risques liés à la conception, au développement, à l’utilisation et à l’évaluation des produits, services et systèmes d’IA”.

Le deuxième projet s’appuie sur sa version initiale de mars 2022 du RMF et sur un document conceptuel de décembre 2021. Les commentaires sur le projet sont attendus pour le 29 septembre.

Le RMF définit l’IA digne de confiance comme étant “valide et fiable, sûre, juste et les préjugés sont gérés, sécurisé et résilient, responsable et transparent, explicable et interprétable, et la confidentialité est renforcée”.

L’évolution du NIST vers une “IA digne de confiance”

Le nouveau cadre volontaire du NIST fournit aux organisations des paramètres qu’elles peuvent utiliser pour évaluer la fiabilité des solutions d’IA qu’elles utilisent quotidiennement.

L’importance de cela ne peut être sous-estimée, en particulier lorsque des réglementations telles que le règlement général sur la protection des données de l’UE (RGPD) donnent aux personnes concernées le droit de demander pourquoi une organisation a pris une décision particulière. Ne pas le faire pourrait entraîner une lourde amende.

Bien que le RMF n’impose pas de bonnes pratiques pour gérer les risques de l’IA, il commence à codifier comment une organisation peut commencer à mesurer le risque de déploiement de l’IA.

Le cadre de gestion des risques liés à l’IA fournit un modèle pour la réalisation de cette évaluation des risques, a déclaré Rick Holland, RSSI chez Digital Shadows, fournisseur de protection contre les risques numériques.

Lire aussi  Le PDG de Samsung cherche un "dénominateur commun" dans la guerre des puces sino-américaines

“Les responsables de la sécurité peuvent également tirer parti des six caractéristiques d’une IA digne de confiance pour évaluer les achats et les intégrer dans des modèles de demande de propositions (RFP)”, a déclaré Holland, ajoutant que le modèle pourrait “aider les défenseurs à mieux comprendre ce qui a toujours été une” boîte noire “. approcher.”

Holland note que l’annexe B du cadre NIST, intitulée “Comment les risques liés à l’IA diffèrent des risques liés aux logiciels traditionnels”, fournit aux professionnels de la gestion des risques des conseils pratiques sur la manière de mener ces évaluations des risques liés à l’IA.

Les limites du RMF

Bien que le cadre de gestion des risques soit un ajout bienvenu pour soutenir les contrôles internes de l’entreprise, il reste encore un long chemin à parcourir avant que le concept de risque dans l’IA ne soit universellement compris.

“Ce cadre de risque d’IA est utile, mais ce n’est qu’une égratignure à la surface de la véritable gestion du projet de données d’IA”, a déclaré Chuck Everette, directeur de la défense de la cybersécurité chez Deep Instinct. “Les recommandations ici sont celles d’un cadre très basique que tout scientifique de données, ingénieur et architecte expérimenté connaîtrait déjà. C’est une bonne base de référence pour ceux qui se lancent dans la création de modèles d’IA et la collecte de données. »

Lire aussi  « Dans les documentaires, les images nazies doivent être utilisées avec éthique »

En ce sens, les organisations qui utilisent le cadre doivent avoir des attentes réalistes quant à ce que le cadre peut et ne peut pas réaliser. À la base, il s’agit d’un outil permettant d’identifier les systèmes d’IA déployés, leur fonctionnement et le niveau de risque qu’ils présentent (c’est-à-dire s’ils sont dignes de confiance ou non).

« Les lignes directrices (et livre de jeu) dans le NIST RMF aidera les RSSI à déterminer ce qu’ils doivent rechercher et ce qu’ils doivent remettre en question concernant les solutions des fournisseurs qui s’appuient sur l’IA », a déclaré Sohrob Jazerounian, responsable de la recherche sur l’IA chez le fournisseur de cybersécurité, Vectra.

Le RMF rédigé comprend des conseils sur les actions suggérées, des références et de la documentation qui permettront aux parties prenantes de remplir les fonctions de « carte » et de « gouvernance » du RMF IA. La version finalisée comprendra des informations sur les deux fonctions RMF restantes – “mesurer” et “gérer” – sera publiée en janvier 2023.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie d’entreprise transformatrice et d’effectuer des transactions. En savoir plus sur l’adhésion.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT