Nouvelles Du Monde

Les réunions de Biden avec les entreprises d’IA feront-elles une différence ?

Vendredi, l’administration Biden a annoncé que sept grandes sociétés américaines d’intelligence artificielle avaient accepté de mettre des garde-corps volontaires autour de leurs produits. Google, Microsoft, Meta, Amazon, OpenAI, Anthropic et Inflection se sont engagés à s’assurer que leurs produits répondent aux exigences de sécurité avant de les diffuser au public ; qu’ils engageront des experts externes pour tester leurs systèmes et signaler toute vulnérabilité ; et qu’ils développeront des mécanismes techniques pour informer les utilisateurs lorsqu’ils consultent du contenu généré par l’IA, probablement via une sorte de système de filigrane. Ils ont également déclaré qu’ils étaient déterminés à enquêter et à atténuer les risques sociétaux posés par les systèmes d’IA, y compris les biais algorithmiques « nuisibles » et les atteintes à la vie privée. Il y a trois façons d’accueillir l’annonce : avec l’espoir qu’elle pourrait protéger les gens des aspects les plus dangereux de l’IA, avec scepticisme qu’elle le fera, ou avec cynisme qu’il s’agit d’un stratagème de Big Tech pour éviter une réglementation gouvernementale ayant des conséquences réelles.

L’accord était le dernier effort de la Maison Blanche pour utiliser le pouvoir limité dont elle dispose pour freiner l’IA Au cours des dix derniers mois, l’administration a publié un plan pour une déclaration des droits de l’IA, un décret exécutif visant à éliminer les préjugés dans la technologie, y compris l’intelligence artificielle, et un plan stratégique national de recherche et de développement sur l’intelligence artificielle mis à jour, qui sont tous mûrement réfléchis mais largement ambitieux. À cette époque, OpenAI a lancé ChatGPT, son chatbot qui change la donne, capable de répondre aux requêtes avec une aisance étonnante et d’écrire du code ; Google a publié Bard, son propre chatbot impressionnant ; Microsoft a ajouté ChatGPT à son moteur de recherche, Bing, et l’intègre dans un certain nombre de ses produits populaires ; Meta, le propriétaire de Facebook, a lancé un grand modèle de langage appelé LLaMA ; et OpenAI et la startup Stability AI ont introduit des plates-formes capables de générer des images à partir d’invites de texte.

L’évolution rapide des compétences et des capacités de l’IA a engendré une panique mondiale collective sur ce qui pourrait arriver ensuite : une IA qui nous supplante au travail, une IA qui est plus intelligente et plus agile intellectuellement que nous ; une IA insensible qui anéantit la civilisation humaine. Sam Altman, PDG d’OpenAI, a averti le Congrès : “Si cette technologie tourne mal, elle peut mal tourner”, et a appelé les législateurs à la réglementer.

Ils semblent essayer. En janvier, le membre du Congrès Ted Lieu, un démocrate californien diplômé en informatique, a présenté une mesure non contraignante exhortant les membres de la Chambre à réglementer l’IA, qu’il a générée à l’aide de ChatGPT. Rien qu’en juin, les membres du Congrès ont présenté trois projets de loi traitant de différents aspects de l’IA, tous avec un soutien bipartite. L’un exigerait que les États-Unis informent les utilisateurs lorsqu’ils interagissent avec l’intelligence artificielle dans les communications gouvernementales et établissent un processus d’appel pour contester les décisions médiées par l’IA, tandis qu’un autre propose de tenir les entreprises de médias sociaux responsables de la diffusion de matériel préjudiciable créé par l’intelligence artificielle en niant protection en vertu de l’article 230, la partie de la Communications Decency Act qui immunise les plates-formes technologiques de toute responsabilité pour ce qu’elles publient. Lieu s’est joint à des collègues des deux côtés de l’allée pour proposer la création d’une commission bipartite de vingt personnes chargée d’examiner, de recommander et d’établir des réglementations pour l’IA

Lire aussi  Un projet de loi en Californie vise à restreindre la liberté d'expression en ligne: une menace pour l'anonymat sur les médias sociaux

Alors que ces propositions progressent dans le processus législatif, le chef de la majorité au Sénat, Chuck Schumer, a adopté une approche plus circonspecte. Dans une allocution récente au Centre d’études stratégiques et internationales, il a présenté un plan visant à informer les législateurs sur les technologies émergentes en convoquant au moins neuf groupes d’experts pour leur donner un cours accéléré sur l’IA et les aider à élaborer une législation éclairée. (On suppose qu’il vise, en partie, à éviter l’ignorance embarrassante affichée au fil des ans lorsque les membres du Congrès ont discuté de la réglementation des médias sociaux.) On peut cependant se demander si les bonnes intentions de Schumer produiront des résultats substantiels avant les prochaines élections.

Pendant ce temps, l’UE avance avec plus de célérité. En mai, la loi globale sur l’intelligence artificielle du Parlement européen a été retirée du comité et l’ensemble du Parlement a voté pour présenter sa version du projet de loi au Conseil de l’Union européenne, qui déterminera ses derniers détails. Si tout se passe comme prévu, il devrait être promulgué d’ici la fin de l’année. Parmi ses dispositions figurent une interdiction d’utiliser la reconnaissance faciale et une obligation pour les créateurs de chatbot de divulguer le matériel protégé par le droit d’auteur utilisé pour former leurs modèles. (Cela est devenu un sujet de discorde aux États-Unis ; récemment, la comédienne Sarah Silverman s’est jointe aux plaignants dans un recours collectif accusant OpenAI et Meta d’avoir violé le droit d’auteur en utilisant leur travail écrit sans autorisation.) Dans ses traits les plus larges, l’acte interdira l’utilisation de technologies artificielles qui présentent un “niveau de risque inacceptable pour la sécurité des personnes”. En supposant qu’il soit adopté, il deviendra le premier cadre juridique complet au monde pour l’IA

Lire aussi  Volkswagen cède sa participation dans Electrify America à Siemens

Avec rien de comparable sur le registre dans ce pays, il semblait probable que les entreprises technologiques américaines continueraient à faire progresser leurs produits sans relâche, quoi qu’il arrive. C’est pourquoi la nouvelle de vendredi dernier était significative. Google, Microsoft, Meta, Amazon, OpenAI, Anthropic et Inflection semblaient admettre qu’ils ne seraient peut-être pas en mesure de contrôler eux-mêmes leurs plates-formes d’IA. Dans un article de blog publié le jour de l’annonce, Brad Smith, le président de Microsoft, a résumé l’objectif de l’accord en trois mots : “sûr, sécurisé, digne de confiance”.

Mais il y a un paradoxe : tous les signataires ont déjà publié des systèmes d’IA générative, il est donc difficile d’imaginer comment ils prévoient de protéger le public des dangers qu’ils représentent déjà, comme l’écriture de code malveillant ou la diffusion de fausses informations nocives ; l’accord ne mentionne pas le retrait de ces produits du marché tant qu’ils n’ont pas été examinés par des experts. (On ne sait pas non plus qui seront ces experts, comment ils seront choisis, si les mêmes experts seront chargés d’examiner tous les systèmes et par quelle mesure ils détermineront le risque.) Quelques jours avant l’annonce de la Maison Blanche, Meta a publié une version open-source de son grand modèle de langage, LLaMA2. La société a déclaré qu’il est disponible gratuitement pour la recherche et l’utilisation commerciale, ce qui signifie qu’une fois qu’il est dans la nature, Meta peut ne pas être en mesure de contrôler qui y a accès. Selon Dame Wendy Hall, professeur Regius d’informatique à l’Université de Southampton, s’exprimant à la télévision britannique, l’IA open source est “un peu comme donner aux gens un modèle pour construire une bombe nucléaire”.

L’engagement des entreprises à filigraner le matériel généré par leurs produits d’IA est une disposition de sécurité bienvenue et nécessaire. Comme me l’a dit Anne Neuberger, conseillère adjointe à la sécurité nationale pour les technologies cybernétiques et émergentes, cela “réduira les risques de fraude et de tromperie à mesure que l’information se propage, car il y aura désormais des moyens de retracer le contenu généré jusqu’à sa source”. Mais ce n’est pas simple. Selon Sam Gregory, directeur exécutif de l’organisation à but non lucratif Witness, qui utilise la technologie pour protéger les droits de l’homme, “une partie du défi est qu’il n’y a pas de définition commune du filigrane”, et de nombreux filigranes “peuvent généralement être facilement rognés”. (Ils pourraient également être falsifiés ou manipulés.) Gregory a mentionné une approche plus informative, avancée par Microsoft, qui créerait une piste de métadonnées détaillée qui reflète l’historique d’une image donnée. Il a fait valoir que les divulgations ne devraient cependant pas révéler les personnes qui utilisent les outils d’IA. “Obliger ou pousser les gens à confirmer les origines des médias semble prometteur jusqu’à ce que vous placiez cette approche dans un contexte mondial de risques pour la vie privée, de voix dissidentes et de lois autoritaires qui ciblent la liberté d’expression.”

Lire aussi  Fuite des spécifications du Xiaomi Pad 6S Pro, utilise Snapdragon 8 Gen 2 et les dernières fonctionnalités

La partie la plus controversée de l’accord négocié est peut-être ce que les entreprises ont, pour la plupart, convenu pas à partager : les paramètres que l’on appelle les « poids » de leurs algorithmes. Ceux-ci déterminent la façon dont le modèle trie le matériel source et génère des réponses aux requêtes. Certains affirment que le secret dans ce domaine est une bonne chose : Neuberger m’a dit que « malgré l’open-sourcing », protéger les poids des modèles de la vue du public rendra plus difficile pour les mauvais acteurs de « voler des modèles à la pointe de la technologie et des ajustez-les pour mieux générer des logiciels malveillants ou d’autres approches basées sur l’IA pour de nouvelles cyberattaques. Mais Kit Walsh, un avocat senior de l’Electronic Frontier Foundation, a souligné que la rétention d’informations clés sur la façon dont les modèles sont construits compromet la transparence et pourrait dissimuler des sources de biais. “Garder secrets les détails des technologies d’IA est susceptible de contrecarrer les chercheurs de bonne foi qui tentent de protéger l’intérêt public, ainsi que la concurrence et la science ouverte”, a-t-elle écrit dans un e-mail. “Cela est d’autant plus vrai que l’IA est déployée pour prendre des décisions concernant le logement, l’emploi, l’accès aux médicaments, les sanctions pénales et une multitude d’autres applications où la responsabilité publique est essentielle.”

Le respect de l’accord est volontaire et il n’existe aucun mécanisme d’application pour obliger ces sept entreprises, ou toute autre entreprise, à rendre des comptes. Cela pourrait représenter un petit pas sur ce qui sera probablement un chemin long et sinueux vers une réglementation gouvernementale conséquente. Cela pourrait aussi être un moyen pour la Big Tech d’écrire ses propres règles. En mai, Altman a critiqué la proposition de réglementation de l’UE sur l’IA devant un public britannique. Il a averti que s’ils sont trop stricts, il est possible que l’entreprise cesse ses activités en Europe. Ses remarques étaient un aperçu des obstacles à venir. Une entreprise qui n’aime pas les règles pourrait menacer de faire ses valises et de partir. Alors quoi? ♦

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT