Nouvelles Du Monde

L’UE penche vers l’autorégulation dans la nouvelle loi sur l’intelligence artificielle | Technologie

L’UE penche vers l’autorégulation dans la nouvelle loi sur l’intelligence artificielle |  Technologie

2023-12-05 07:20:00

Qui contrôle les risques de l’intelligence artificielle, notamment les soi-disant « modèles fondateurs » comme ChatGPT ? La nouvelle directive européenne sur l’IA pour cette technologie – révolutionnaire mais aussi énormément disruptive – que les institutions communautaires négocient actuellement pour aboutir à un texte définitif penche de plus en plus vers l’autorégulation. La dernière proposition de l’Espagne, qui préside ce semestre le Conseil de l’UE et coordonne les négociations, propose “des obligations très limitées et l’introduction de codes de conduite” pour les entreprises, bien qu’avec plusieurs niveaux de contrôle intermédiaire, selon les documents disponibles. auquel EL PAÍS a eu accès. Mais le pouls continue : le Parlement européen exige un cadre un peu plus strict, tandis que la France, l’Italie et l’Allemagne – trois des partenaires les plus puissants du club communautaire – font pression pour que l’ampleur couverte par les propres codes de conduite des entreprises dépasse celle de la réglementations spécifiques ; Ils affirment qu’une réglementation stricte nuirait à l’innovation dans la recherche et les entreprises européennes. L’Europe arrive après les États-Unis, qui ont déjà approuvé leur propre loi, qui oblige les entreprises technologiques à informer le gouvernement américain de toute avancée présentant un « risque sérieux pour la sécurité nationale ».

L’Espagne, qui cédera à la fin du mois la présidence à la Belgique et qui a fait de l’avancement de la directive historique parmi ses principales priorités, navigue dans ces équilibres et a proposé une série de codes de conduite pour les modèles fondateurs (ou GPAI, pour son acronyme en anglais, ceux capables de créer du contenu audio, texte ou image à partir de l’observation d’autres données) qui impliquent un plus grand risque, réel ou potentiel, ceux que le règlement appelle « modèles fondamentaux de risque systémique » : c’est-à-dire, dotés de capacités à fort impact dont les résultats peuvent « ne pas être connus ou compris au moment de leur développement et de leur publication, ils peuvent donc entraîner des risques systémiques au niveau de l’UE ». Des codes qui incluent à la fois des « mesures internes » et un dialogue actif avec la Commission européenne pour « identifier les risques systémiques potentiels, élaborer d’éventuelles mesures d’atténuation et garantir un niveau adéquat de protection en matière de cybersécurité », indique le plan.

Les codes de conduite incluraient également des obligations de transparence pour « tous » les modèles fondateurs, conformément à la dernière position de négociation, qui soulève d’autres éléments, comme la déclaration par les entreprises de leur consommation énergétique. Pour tous les modèles fondateurs, certaines « obligations horizontales » seraient également établies. Mais, en outre, la nouvelle directive pourrait inclure une clause qui donnerait à la Commission européenne le pouvoir d’adopter une « législation dérivée » sur les modèles fondamentaux de « risque systémique » pour, si nécessaire, préciser davantage les éléments techniques des modèles GPAI et maintenir des références. à jour avec les évolutions technologiques et du marché. Cela équivaudrait à laisser la porte ouverte à de nouveaux chapitres réglementaires, selon des sources communautaires.

Lire aussi  The Callisto Protocol - éditeur déçu, mais et nous ?

La proposition espagnole propose également la création d’une Agence de Surveillance de l’Intelligence Artificielle, une organisation qui dresserait un portrait capa plus de sécurité, ce qui fournirait un « système centralisé de surveillance et de mise en œuvre ». L’agence pourrait également satisfaire aux exigences du Parlement européen, qui avait demandé la construction d’une sorte d’organisme spécialisé.

Les propositions pour terminer l’élaboration de la directive seront débattues ce mercredi entre les représentants des États membres (l’Espagne, qui préside le Conseil de l’UE), le Parlement européen et la Commission, dans une réunion décisive. C’est l’une des dernières opportunités pour lui d’avancer. Les négociations sont déjà très « avancées » et il y a même un accord sur ce qui constitue l’architecture générale de la loi, basée sur une pyramide des risques et sur le principe, soutenu par la présidence espagnole dans sa dernière proposition, que l’approche est « technologiquement neutre ». », c’est-à-dire ne pas réglementer des technologies spécifiques, mais plutôt leurs utilisations finales à travers la création de diverses catégories de risques, comme le propose le Parlement européen.

L’Espagne est optimiste. “L’Union européenne deviendrait la première région au monde à légiférer sur les usages de l’IA, ses limites, la protection des droits fondamentaux des citoyens et la participation à sa gouvernance, tout en garantissant la compétitivité de nos entreprises”, a déclaré le secrétaire d’État chargé de l’IA. La numérisation, raconte Carme Artigas, à EL PAÍS. Artigas croit en la responsabilité de l’UE d’aller au-delà, pour les utilisations à haut risque, de l’établissement d’un code de conduite et de modèles et bonnes pratiques d’autorégulation pour pouvoir limiter les risques que présente déjà cette technologie innovante, de la désinformation à la discrimination. , manipulation, surveillance ou contrefaçons profondes. Tout cela en tenant compte du fait que l’innovation et le progrès doivent être soutenus. « La réglementation européenne sur l’IA n’est donc pas seulement une norme juridique, ni une simple norme technique. C’est une norme morale », déclare Artigas.

Lire aussi  Comment Microsoft veut fiabiliser son copilote IA

Le problème, cependant, est que deux points clés restent ouverts – et le resteront probablement jusqu’à ce que les négociateurs se réunissent à nouveau face à face mercredi après-midi : l’un est la question des systèmes de surveillance biométrique ; La seconde est de savoir qui contrôle les modèles fondateurs les plus imprévisibles, ceux appelés « risque systémique ». Un débat alimenté par les derniers événements de la saga Open AI et le départ et le retour de Sam Altman au sein de l’entreprise leader, depuis que les chercheurs d’Open AI ont informé le conseil d’administration de l’entreprise d’une puissante découverte d’intelligence artificielle qui, selon eux, menaçait l’humanité avant le limogeage d’Altman. .

La tension est maximale. D’autant plus que l’Allemagne, la France et l’Italie ont renversé la situation il y a quelques semaines et se sont déclarées favorables à une large autorégulation des entreprises qui développent ces systèmes, au moyen de codes de conduite distincts, qui seraient certes obligatoires. Les trois pays ont envoyé au reste des États membres un document de position dans lequel ils défendent l’autorégulation de l’IA à usage général, appellent à une « approche équilibrée en faveur de l’innovation » basée sur le risque de l’IA et qui « réduit les charges ». des charges administratives inutiles » pour les entreprises qui, disent-ils, « entraveraient la capacité de l’Europe à innover ». En outre, dans le document confidentiel auquel ce journal a eu accès, ils s’engagent à éliminer « dans un premier temps » les sanctions en cas de non-respect des codes de conduite liés à la transparence et au dialogue.

Cependant, le chemin suivi par cette proposition de trois des plus grandes puissances de l’UE – certaines, comme la France, qui héberge des entreprises technologiques liées à l’IA, comme Mistral – constitue une ligne rouge pour les autres États membres et pour de nombreux experts, comme l’a a montré la lettre ouverte envoyée la semaine dernière à Paris, Berlin, Rome et Madrid, avancée par EL PAÍS, dans laquelle ils demandent instamment que la loi aille de l’avant et qu’elle ne soit pas diluée. Autrement dit, ils demandent moins de codes de conduite et plus de règles.

“L’autorégulation ne suffit pas”, affirme également Leonardo Cervera Navas, secrétaire général du Contrôleur européen de la protection des données (CEPD), qui ne cache pas qu’il souhaiterait que l’hypothétique et futur Bureau IA relève des responsabilités du CEPD. Cette entité de contrôle, suggère-t-il, pourrait servir de charnière entre ceux qui préfèrent l’autorégulation et ceux qui exigent des obligations noires sur blanc dans une loi, étant donné qu’elle permettrait un degré élevé d’autorégulation, mais supervisée en fin de compte par un droit supérieur et indépendant. les intérêts des entreprises. Pour l’expert, l’idéal est une « approche réglementaire flexible, pas trop dogmatique, agile, mais combinée à un contrôle fort », ce que réaliserait ce bureau.

Lire aussi  Tout le monde veut être le meilleur au Championnat du Monde Pokémon | Technologie

C’est également la position des négociateurs du Parlement européen, qui insistent sur le fait que la directive doit être très complète pour garantir la sécurité des citoyens et leurs droits fondamentaux face à des technologies au potentiel intrusif parfois encore inimaginable. « Le Conseil doit abandonner l’idée de n’avoir que des engagements volontaires convenus avec les développeurs des modèles les plus puissants. Nous voulons des obligations claires dans le texte», souligne par téléphone l’eurodéputé italien Brando Benifei, l’un des négociateurs du Parlement européen dans les négociations interinstitutionnelles (les soi-disant trilogues, qui éclairent le véritable texte juridique).

Parmi les obligations que les législateurs européens considèrent comme « cruciales » et qui devraient être inscrites dans la loi figurent la gouvernance des données, les mesures de cybersécurité et les normes d’efficacité énergétique. “Nous n’allons pas conclure un accord à tout prix”, prévient Benifei.

Ce qui semble désormais plus résolu est la question, très importante pour le Parlement européen, d’interdire ou de restreindre autant que possible ce qu’il appelle les « usages intrusifs et discriminatoires de l’IA », notamment les systèmes biométriques en temps réel ou dans l’espace public, sauf dans les espaces publics. cas très particuliers, quelques exceptions pour des raisons de sécurité. La position des députés européens est bien plus stricte que celle des Etats et, même si les négociations ont été « difficiles », l’optimisme règne, prudent bien sûr quant à la possibilité de trouver un terrain d’entente. Tant que, souligne le Parlement européen, l’interdiction de la police prédictive, de la surveillance biométrique dans les lieux publics et des systèmes de reconnaissance des émotions sur les lieux de travail et dans les systèmes éducatifs sera maintenue. « Nous avons besoin d’un degré suffisant de protection des droits fondamentaux avec les interdictions nécessaires lors de l’utilisation [estas tecnologías] pour la sécurité et la surveillance », résume Benifei.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.




#LUE #penche #vers #lautorégulation #dans #nouvelle #loi #sur #lintelligence #artificielle #Technologie
1701760951

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT