Nouvelles Du Monde

L’IA responsable doit être une priorité — maintenant

L’IA responsable doit être une priorité — maintenant

Rejoignez les dirigeants du 26 au 28 juillet pour la semaine AI & Edge de Transform. Écoutez des dirigeants de haut niveau discuter de sujets concernant la technologie AL/ML, l’IA conversationnelle, l’IVA, le NLP, Edge, et plus encore. Réservez votre pass gratuit dès maintenant !


L’intelligence artificielle (IA) responsable doit être ancrée dans l’ADN d’une entreprise.

« Pourquoi les préjugés dans l’IA sont-ils quelque chose auquel nous devons tous réfléchir aujourd’hui ? C’est parce que l’IA alimente tout ce que nous faisons aujourd’hui », Miriam Vogelprésident et chef de la direction de EqualAIa déclaré à un public en direct lors de l’événement Transform 2022 de cette semaine.

Vogel a discuté en profondeur des sujets du biais de l’IA et de l’IA responsable lors d’une conversation au coin du feu dirigée par Victoria Espinel du groupe commercial L’alliance du logiciel.

Vogel possède une vaste expérience dans le domaine de la technologie et de la politique, notamment à la Maison Blanche, au ministère américain de la Justice (DOJ) et dans l’organisation à but non lucratif EqualAI, qui se consacre à la réduction des préjugés inconscients dans le développement et l’utilisation de l’IA. Elle est également présidente du Comité consultatif national sur l’IA (NAIAC) récemment lancé, mandaté par le Congrès pour conseiller le président et la Maison Blanche sur la politique en matière d’IA.

Comme elle l’a noté, l’IA devient de plus en plus importante dans notre vie quotidienne – et l’améliore considérablement – mais en même temps, nous devons comprendre les nombreux risques inhérents à l’IA. Tout le monde – constructeurs, créateurs et utilisateurs – doit faire de l’IA “notre partenaire”, ainsi qu’efficace, efficace et digne de confiance.

Lire aussi  Leadership conservateur : les arguments pour et contre un autre premier ministre « perturbateur » I Adam Boulton | Actualité politique

“Vous ne pouvez pas instaurer la confiance avec votre application si vous n’êtes pas sûr qu’elle est sûre pour vous, qu’elle est conçue pour vous”, a déclaré Vogel.

C’est le moment

Nous devons aborder la question de l’IA responsable maintenant, a déclaré Vogel, car nous sommes encore en train d’établir “les règles de la route”. Ce qui constitue l’IA reste une sorte de “zone grise”.

Et s’il n’est pas adressé ? Les conséquences pourraient être désastreuses. Les gens peuvent ne pas bénéficier des bonnes opportunités de soins de santé ou d’emploi en raison du biais de l’IA, et “des litiges viendront, la réglementation viendra”, a averti Vogel.

Lorsque cela se produit, “nous ne pouvons pas déballer les systèmes d’IA dont nous sommes devenus si dépendants et qui sont devenus entrelacés”, a-t-elle déclaré. “En ce moment, aujourd’hui, il est temps pour nous d’être très attentifs à ce que nous construisons et déployons, en nous assurant que nous évaluons les risques, en nous assurant que nous réduisons ces risques.”

Bonne ‘hygiène IA’

Les entreprises doivent aborder l’IA responsable dès maintenant en établissant des pratiques et des politiques de gouvernance solides et en établissant une culture sûre, collaborative et visible. Cela doit être “passé par les leviers” et géré consciencieusement et intentionnellement, a déclaré Vogel.

Par exemple, lors de l’embauche, les entreprises peuvent commencer simplement par demander si les plateformes ont été testées pour la discrimination.

Lire aussi  Dane Swan, Twitter, paris sportifs, prise de contrôle, Clayton Oliver, empannage vierge, luge, hilarant

“Cette question de base est extrêmement puissante”, a déclaré Vogel.

L’équipe RH d’une organisation doit être soutenue par une IA qui est inclusive et qui n’écarte pas les meilleurs candidats de l’emploi ou de l’avancement.

C’est une question de “bonne hygiène de l’IA”, a déclaré Vogel, et cela commence par la suite C.

« Pourquoi la suite C ? Parce qu’en fin de compte, si vous n’obtenez pas l’adhésion aux niveaux les plus élevés, vous ne pouvez pas mettre en place le cadre de gouvernance, vous ne pouvez pas obtenir d’investissement dans le cadre de gouvernance et vous ne pouvez pas adhésion pour s’assurer que vous le faites de la bonne manière », a déclaré Vogel.

De plus, la détection des préjugés est un processus continu : une fois qu’un cadre a été établi, un processus à long terme doit être mis en place pour évaluer en permanence si les préjugés entravent les systèmes.

“Le biais peut s’intégrer à chaque point de contact humain”, de la collecte de données aux tests, en passant par la conception, le développement et le déploiement, a déclaré Vogel.

IA responsable : un problème au niveau humain

Vogel a souligné que la conversation sur les préjugés de l’IA et la responsabilité de l’IA était initialement limitée aux programmeurs – mais Vogel pense que c’est “injuste”.

“Nous ne pouvons pas nous attendre à ce qu’ils résolvent les problèmes de l’humanité par eux-mêmes”, a-t-elle déclaré.

Lire aussi  Oura Ring 2 review comment mieux dormir et vivre plus sainement ? Biohacking

C’est la nature humaine : les gens n’imaginent souvent qu’aussi largement que leur expérience ou leur créativité le permettent. Ainsi, plus il est possible de faire entendre de voix, mieux c’est pour déterminer les meilleures pratiques et s’assurer que le problème séculaire des préjugés n’infiltre pas l’IA.

Cela est déjà en cours, les gouvernements du monde entier élaborant des cadres réglementaires, a déclaré Vogel. L’UE est en train de créer un règlement de type RGPD pour IA, par exemple. De plus, aux États-Unis, la Commission nationale pour l’égalité des chances en matière d’emploi et le DOJ ont récemment publié une proposition « sans précédent » déclaration commune sur la réduction de la discrimination en matière de handicap – quelque chose que l’IA et ses algorithmes pourraient aggraver s’ils ne sont pas surveillés. L’Institut national des normes et de la technologie a également été mandaté par le Congrès pour créer un cadre de gestion des risques pour l’IA.

“Nous pouvons attendre beaucoup des États-Unis en termes de réglementation de l’IA”, a déclaré Vogel.

Cela inclut le comité récemment formé qu’elle préside maintenant.

« Nous allons avoir un impact », a-t-elle déclaré.

Ne manquez pas le conversation complète de l’événement Transform 2022.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie d’entreprise transformatrice et d’effectuer des transactions. En savoir plus sur l’adhésion.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT