Nouvelles Du Monde

La réglementation à venir sur l’IA pourrait ne pas nous protéger d’une IA dangereuse

La réglementation à venir sur l’IA pourrait ne pas nous protéger d’une IA dangereuse

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.


La plupart des systèmes d’IA d’aujourd’hui sont des réseaux de neurones. Les réseaux de neurones sont des algorithmes qui imitent un cerveau biologique pour traiter de grandes quantités de données. Ils sont connus pour être rapides, mais ils sont impénétrables. Les réseaux de neurones nécessitent d’énormes quantités de données pour apprendre à prendre des décisions ; cependant, les raisons de leurs décisions sont dissimulées dans d’innombrables couches de neurones artificiels, tous réglés séparément sur divers paramètres.

En d’autres termes, les réseaux de neurones sont des “boîtes noires”. Et les développeurs d’un réseau de neurones non seulement ne contrôlent pas ce que fait l’IA, mais ils ne savent même pas pourquoi il fait ce qu’il fait.

C’est une horrible réalité. Mais ça empire.

Malgré le risque inhérent à la technologie, les réseaux de neurones commencent à gérer l’infrastructure clé des fonctions commerciales et gouvernementales critiques. À mesure que les systèmes d’IA prolifèrent, la liste des exemples de réseaux de neurones dangereux s’allonge chaque jour. Par exemple:

Événement

Sommet sur la sécurité intelligente à la demande

Découvrez le rôle essentiel de l’IA et du ML dans la cybersécurité et les études de cas spécifiques à l’industrie. Regardez les sessions à la demande aujourd’hui.

Regardez ici

Ces résultats vont de mortels à comiques à grossièrement offensants. Et tant que les réseaux de neurones sont utilisés, nous risquons de subir de nombreux dommages. Les entreprises et les consommateurs craignent à juste titre que tant que l’IA reste opaqueil reste dangereux.

Une réponse réglementaire arrive

En réponse à ces préoccupations, l’UE a proposé une Loi sur l’IA – qui devrait devenir loi d’ici janvier – et les États-Unis ont rédigé un Facture d’IA de Droits Plan. Les deux s’attaquent de front au problème de l’opacité.

La loi sur l’IA de l’UE stipule que les systèmes d’IA «à haut risque» doivent être construits avec transparence, permettant à une organisation d’identifier et d’analyser des données potentiellement biaisées et de les supprimer de toutes les analyses futures. Il supprime entièrement la boîte noire. La loi sur l’IA de l’UE définit les systèmes à haut risque comme comprenant les infrastructures critiques, les ressources humaines, les services essentiels, l’application de la loi, le contrôle des frontières, la jurisprudence et la surveillance. En effet, pratiquement toutes les principales applications d’IA développées pour le gouvernement et les entreprises seront considérées comme un système d’IA à haut risque et seront donc soumises à la loi européenne sur l’IA.

Lire aussi  Comment effectuer un zoom avant et arrière sur la carte

De même, le US AI Bill of Rights affirme que les utilisateurs doivent être en mesure de comprendre les systèmes automatisés qui affectent leur vie. Il a le même objectif que la loi européenne sur l’IA : protéger le public du risque réel qu’une IA opaque devienne dangereuse IA. Le Blueprint est actuellement un livre blanc non contraignant et donc édenté. Cependant, sa nature provisoire pourrait être une vertu, car elle donnera aux scientifiques et aux défenseurs de l’IA le temps de travailler avec les législateurs pour façonner la loi de manière appropriée.

Dans tous les cas, il semble probable que l’UE et les États-Unis exigeront des organisations qu’elles adoptent des systèmes d’IA qui fournissent des résultats interprétables à leurs utilisateurs. En bref, l’IA du futur devra peut-être être transparente et non opaque.

Mais va-t-il assez loin ?

L’établissement de nouveaux régimes réglementaires est toujours difficile. L’histoire ne manque pas d’exemples de législation malavisée qui écrase accidentellement de nouvelles industries prometteuses. Mais il offre également des contre-exemples où une législation bien conçue a profité à la fois à l’entreprise privée et au bien-être public.

Par exemple, lorsque la révolution Internet a commencé, la loi sur le droit d’auteur était loin derrière la technologie qu’elle était censée régir. En conséquence, les premières années de l’ère Internet ont été marquées par d’intenses litiges visant les entreprises et les consommateurs. Finalement, le Digital Millennium Copyright Act (DMCA) a été adopté. Une fois que les entreprises et les consommateurs se sont adaptés aux nouvelles lois, les entreprises Internet ont commencé à prospérer et des innovations comme les médias sociaux, qui auraient été impossibles sous les anciennes lois, ont pu prospérer.

Les leaders tournés vers l’avenir de l’industrie de l’IA ont compris depuis longtemps qu’un cadre statutaire similaire sera nécessaire pour que la technologie de l’IA atteigne son plein potentiel. Un régime réglementaire bien construit offrira aux consommateurs la sécurité de la protection juridique de leurs données, de leur vie privée et de leur sécurité, tout en donnant aux entreprises des réglementations claires et objectives en vertu desquelles elles pourront investir en toute confiance des ressources dans des systèmes innovants.

Lire aussi  Pubs : Facebook regorge toujours de publicités électorales bien qu'elles soient déjà illégales en cette période | Technologie

Malheureusement, ni la Loi sur l’IA ni la Déclaration des droits sur l’IA ne répondent à ces objectifs. Aucun des deux cadres n’exige suffisamment de transparence de la part des systèmes d’IA. Ni l’un ni l’autre de ces cadres n’assure une protection suffisante pour le public ou une réglementation suffisante pour les entreprises.

UN série d’analyses fourni à l’UE ont souligné les failles de la loi sur l’IA. (Des critiques similaires pourraient être adressées à la Déclaration des droits de l’IA, à la condition supplémentaire que le cadre américain ne soit même pas censé être une politique contraignante.) Ces défauts incluent :

  • N’offrant aucun critère permettant de définir un risque inacceptable pour les systèmes d’IA et aucune méthode pour ajouter de nouvelles applications à haut risque à la loi s’il est découvert que ces applications présentent un danger substantiel de préjudice. Ceci est particulièrement problématique car les systèmes d’IA deviennent de plus en plus larges dans leur utilité.
  • Exiger uniquement que les entreprises prennent en compte les préjudices causés aux individus, à l’exclusion des considérations de préjudices indirects et cumulés pour la société. Un système d’IA qui a un très petit effet sur, par exemple, les habitudes de vote de chaque personne pourrait, dans l’ensemble, avoir un impact social énorme.
  • Ne permettant pratiquement aucun contrôle public sur l’évaluation de la conformité de l’IA aux exigences de la loi. En vertu de la loi sur l’IA, les entreprises auto-évaluent la conformité de leurs propres systèmes d’IA sans l’intervention d’aucune autorité publique. Cela équivaut à demander aux sociétés pharmaceutiques de décider elles-mêmes si les médicaments sont sûrs – une pratique que les États-Unis et l’UE ont jugée préjudiciable au public.
  • Ne définit pas bien la partie responsable de l’évaluation de l’IA à usage général. Si une IA à usage général peut être utilisée à des fins à haut risque, la Loi s’applique-t-elle à elle? Si tel est le cas, le créateur de l’IA à usage général est-il responsable de la conformité, ou l’entreprise qui utilise l’IA à haut risque ? Cette imprécision crée une échappatoire qui incite à déplacer le blâme. Les deux entreprises peuvent prétendre que c’était la responsabilité de leur partenaire de s’auto-évaluer, pas la leur.
Lire aussi  Le bébé barbecue de Lauren Arthurs était parfait

Pour que l’IA prolifère en toute sécurité en Amérique et en Europe, ces failles doivent être corrigées.

Que faire de l’IA dangereuse jusque-là

Tant que des réglementations appropriées ne seront pas mises en place, les réseaux de neurones à boîte noire continueront d’utiliser les données personnelles et professionnelles de manière totalement opaque pour nous. Que peut faire quelqu’un pour se protéger d’une IA opaque ? Au minimum :

  • Poser des questions. Si vous êtes d’une manière ou d’une autre discriminé ou rejeté par un algorithme, demandez à l’entreprise ou au fournisseur : « Pourquoi ? » S’ils ne peuvent pas répondre à cette question, demandez-vous si vous devriez faire affaire avec eux. Vous ne pouvez pas faire confiance à un système d’IA pour faire ce qui est juste si vous ne savez même pas pourquoi il fait ce qu’il fait.
  • Soyez attentif aux données que vous partagez. Toutes les applications de votre smartphone doivent-elles connaître votre position ? Chaque plate-forme que vous utilisez doit-elle passer par votre adresse e-mail principale ? Un niveau de minimalisme dans le partage de données peut grandement contribuer à protéger votre vie privée.
  • Dans la mesure du possible, ne faites affaire qu’avec des entreprises qui suivent les meilleures pratiques en matière de protection des données et qui utilisent des systèmes d’IA transparents.
  • Plus important encore, soutenez une réglementation qui favorisera l’interprétabilité et la transparence. Tout le monde mérite de comprendre pourquoi une IA impacte leur vie comme elle le fait.

Les risques de l’IA sont réels, mais les avantages le sont tout autant. En s’attaquant au risque d’une IA opaque conduisant à des résultats dangereux, la Charte des droits de l’IA et la Loi sur l’IA tracent la bonne voie pour l’avenir. Mais le niveau de réglementation n’est pas encore assez robuste.

Michael Capps est PDG de Diveplane.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager de rédiger votre propre article !

En savoir plus sur DataDecisionMakers

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT