Nouvelles Du Monde

Loi sur l’IA : la loi européenne sur l’IA risque d’être abrogée

Loi sur l’IA : la loi européenne sur l’IA risque d’être abrogée

2023-11-17 14:04:00

Le trilogue sur la législation européenne en matière d’IA risque d’échouer. Le signalé le portail en ligne Euraktiv, citant des sources bien informées. Le principal point de discorde est la réglementation des « modèles d’IA à usage général », c’est-à-dire les grands modèles de langage tels que Llama 2 ou GPT-4. Certains gouvernements, comme ceux de la France et de l’Allemagne, s’opposent à une réglementation stricte de ces modèles.

Publicité

Si le processus ne redémarre pas début décembre, il ne restera peut-être pas assez de temps pour adopter la loi avant l’élection du prochain Parlement européen en juin 2024. Ce projet ambitieux pourrait alors même échouer complètement.


Après des études de physique, Wolfgang Stieler se tourne vers le journalisme en 1998. Il a travaillé chez c’t jusqu’en 2005 puis est devenu rédacteur en chef de Technology Review. Il y traite un large éventail de sujets allant de l’intelligence artificielle et de la robotique à la politique des réseaux et aux questions relatives à l’approvisionnement énergétique futur.

La loi régissant les applications de l’IA est en discussion depuis 2021, faisant de l’UE un leader mondial sur cette question. L’idée originale : les applications de l’intelligence artificielle sont divisées en classes de risque. Certaines applications, comme la biométrie en temps réel, seront totalement interdites. Les applications à haut risque dans lesquelles l’IA interviendrait dans des domaines essentiels de la vie, comme dans le domaine médical, judiciaire ou policier, sont strictement réglementées.

Cependant, la montée rapide des grands modèles de langage a conduit à rouvrir complètement la discussion. Le Conseil européen a initialement proposé des modèles de fondation ne peut pas du tout être réglementé – un poste qui vient plus tard a été modifiétandis que le Parlement européen s’engage à réglementer de manière approfondie ces modèles, quelle que soit leur application spécifique.

Le processus de trilogue en cours, un vote non public entre le Parlement européen, la Commission européenne et le Conseil européen, vise uniquement à trouver un compromis. Comme d’habitude, ces consultations internes sont également menées par un activité de lobbying intense accompagné et façonné.

Selon Euraktiv Un compromis a été trouvé en octobre, selon lequel les fabricants de modèles particulièrement « puissants » accepteraient de se soumettre à des audits par une autorité européenne qui n’a pas encore été créée. “Les contrôles peuvent être effectués par la Commission, par des auditeurs indépendants ou par des équipes rouges vérifiées ayant un accès API au modèle”, écrit Euraktiv. “Le cadre de gouvernance proposé comprend le Bureau de l’IA et un conseil scientifique pour des consultations régulières avec la communauté scientifique, la société civile et les développeurs.”

Mais le gouvernement français craint notamment que ces réglementations n’étouffent les start-up innovantes. Le fondateur de Mistral AI, qui développe son propre grand modèle de langage, s’est récemment plaint que son entreprise pourrait être menacée par la loi sur l’IA. “sera tué”, a-t-il déclaré dans un communiqué. Jonas Andrulis, fondateur de la startup allemande d’IA Aleph Alpha, n’a pas été aussi radical, mais tout aussi critique. exprimé dans sa déclaration.

“Il fallait s’attendre à ce qu’il y ait à nouveau des discussions houleuses dans la dernière ligne droite. Mais j’espère qu’en fin de compte, une bonne solution pourra être trouvée entre la protection des droits fondamentaux et les intérêts de l’industrie”, écrit l’avocate Sandra Wachter de l’Institut Internet d’Oxford. “Les bonnes lois n’arrivent ni trop tôt ni trop tard. Les lois qui arrivent trop tôt peuvent empêcher l’innovation, surtout lorsque les risques potentiels ne sont pas encore clairs. Les lois qui arrivent trop tard ne parviennent pas à prévenir les dommages. La loi sur l’IA a la chance d’entrer en vigueur force au bon moment.”

“Nous connaissons déjà les risques. Ils sont clairs, réels et problématiques”, poursuit Wachter. « L’IA peut désavantager et discriminer dans la justice pénale, les assurances et le monde du travail – y compris à l’encontre des femmes et des personnes qui ne sont pas blanches – lorsqu’elle prend des décisions.

Il en va de même pour les modèles de fondation ou GenAI. Nous savons que ceux-ci contribuent à la désinformation. Les deux ont un impact négatif considérable sur l’environnement. Nous savons que la formation des modèles et la maintenance des données coûtent d’énormes quantités d’électricité, d’eau et d’autres ressources. Nous savons également que ces modèles nécessitent de grandes quantités de données, ce qui nous pose de nouveaux problèmes en matière de protection des données et de droits d’auteur. Et nous savons que ces systèmes peuvent automatiser partiellement ou totalement les tâches. »

Conclusion de Wachter : « Nous connaissons ces risques et nous devons donc les prendre au sérieux. De plus : si une technologie présente tellement de risques potentiels qu’il n’est plus possible de les prédire de manière fiable, alors, à mon avis, il s’agit déjà par définition d’une technologie à haut risque. J’espère donc que la loi sur l’IA résoudra ces problèmes. »


(wst)

Vers la page d’accueil



#Loi #sur #lIA #loi #européenne #sur #lIA #risque #dêtre #abrogée
1700256509

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT