Nouvelles Du Monde

L’intelligence artificielle devrait être plus strictement réglementée

L’intelligence artificielle devrait être plus strictement réglementée

2023-12-09 03:39:47

Après des négociations marathon, le Parlement européen et les États membres se sont mis d’accord sur un compromis sur la réglementation des systèmes dotés d’intelligence artificielle. L’UE veut consolider sa réputation de puissance réglementaire mondiale grâce à ses règles pionnières.

L’UE souhaite soumettre l’utilisation de l’intelligence artificielle à des règles plus strictes.

Photomontage / www.imago-images.de

C’était un marathon. Pendant 36 heures, réparties sur trois jours et parfois nuits, les délégués du Parlement européen et des États membres de l’UE (Conseil des ministres) ont négocié les paramètres clés des règles prévues pour les systèmes dotés d’intelligence artificielle (IA). Le Parlement a réclamé des règles plus strictes, et les États membres ont freiné. La Commission européenne joue également un rôle important dans ces négociations grâce à ses connaissances techniques. Le samedi soir annoncé ceux qui sont impliqués accord – naturellement un compromis. Cela devrait permettre de finaliser l’accord sous ce Parlement et d’éviter des retards importants (l’UE élira un nouveau Parlement en juin 2024).

“L’UE sera le premier continent à fixer des règles claires pour l’utilisation de l’IA”, a annoncé le commissaire européen Thierry Breton. L’UE veut être une pionnière mondiale et exercer ainsi son influence réglementaire bien au-delà de ses frontières. Lorsque la Commission européenne a publié son rapport en avril 2021 Suggestion pour la réglementation de l’IA, elle était encore « seule » dans le contexte mondial, a récemment expliqué un représentant de la Commission : Mais depuis lors, la prise de conscience s’est généralisée dans le monde entier qu’une réglementation est nécessaire. Mais quel genre ?

Depuis la proposition de la Commission européenne, les modèles linguistiques à la Chat-GPT, qui peuvent, entre autres, écrire des poèmes, rédiger des essais, répondre à des questions sur Dieu et le monde et générer des photos, ont enthousiasmé le monde et donné au Parlement européen des idées pour le une réglementation spécifique de tels modèles s’en inspire.

Un vaste champ

Au fait, qu’est-ce que l’IA ? Selon des informations de samedi, les règles européennes prévues se fondent sur les Définition de l’association des pays de l’OCDE à. L’IA signifie un système basé sur une machine qui peut dériver des prévisions, des recommandations et des décisions à partir des informations reçues pour atteindre des objectifs définis par l’homme et qui influencent l’environnement réel ou virtuel. Cela peut inclure beaucoup de choses – par exemple les systèmes pour tondeuses à gazon et voitures automotrices, la recherche sur les drogues, les diagnostics médicaux, la gestion des ressources humaines, la surveillance policière, l’analyse juridique, le contrôle des armes, et, et, et.

Lire aussi  Un homme d'origine indienne reconnu coupable de l'agression d'une ex-petite amie adolescente au Royaume-Uni

Le potentiel d’innovation est considéré comme énorme et de grande envergure, mais il existe également de nombreuses craintes, notamment celle d’un scénario de conquête du monde par « les machines ». Les générations futures se moqueront de certaines prédictions, mais nous ne savons pas lesquelles aujourd’hui. La Commission européenne et le Parlement suivent leur réflexe bien établi (réglementer en cas de doute), tandis que les États membres ne veulent pas trop entraver l’innovation.

Que signifie ici un risque élevé ?

L’approche fondamentale du règlement européen proposé ne prête pas à controverse : plus les risques d’un système d’IA sont grands, plus la réglementation doit être stricte. Il ne devrait pas y avoir de règles particulières pour les systèmes inoffensifs ; pour les systèmes à faible risque, il existe certaines exigences de transparence, comme par exemple indiquer dans le résultat que le contenu a été généré par l’IA. Des exigences plus strictes s’appliquent aux systèmes à haut risque. Il y a ensuite la catégorie des « systèmes inacceptables » qui sont interdits.

L’une des grandes controverses était la question suivante : qu’est-ce qui est interdit et qu’est-ce qui est considéré comme un système à haut risque ? Les applications interdites comprennent, par exemple : l’extraction complète d’images de visages provenant d’Internet ou de caméras de surveillance ; Des systèmes de distribution de grades sociaux pour les citoyens sur le modèle de la Chine ; des systèmes de mesure des émotions des gens sur le lieu de travail et dans les établissements d’enseignement ; des systèmes permettant d’utiliser des données biométriques pour obtenir des informations sensibles sur des individus, telles que leur orientation religieuse et sexuelle ; Des systèmes qui manipulent le comportement des gens.

Exceptions aux poursuites

Jusqu’à récemment, l’utilisation de systèmes d’IA pour la reconnaissance faciale par la police était particulièrement controversée. Le Parlement souhaitait une interdiction aussi large que possible afin que les citoyens n’aient pas le sentiment d’être constamment surveillés dans les lieux publics. Les États membres, en revanche, souhaitaient laisser des options ouvertes à leurs forces de police. Le compromis prévoit désormais certaines exceptions à l’interdiction d’utiliser des systèmes de reconnaissance faciale dans les lieux publics à des fins policières. De telles exceptions nécessitent l’approbation des juges responsables. En outre, les exceptions se limitent aux poursuites engagées pour certains délits graves.

Il est possible d’utiliser les systèmes de reconnaissance faciale non seulement rétrospectivement, mais aussi en temps réel – avec des restrictions de temps et de lieu. De telles exceptions sont autorisées, par exemple, pour la recherche ciblée des victimes de certains crimes (tels que les enlèvements), la prévention d’actes de terrorisme spécifiques et la détection de personnes soupçonnées de crimes graves tels que le terrorisme, le meurtre, l’enlèvement, le viol et les attaques armées. vol.

Lire aussi  Promo exceptionnelle sur le GPS de vélo Garmin Edge 530 : profitez du prix le plus bas sur Amazon

En principe autorisés, mais sous certaines conditions, les systèmes présentent des risques élevés – en raison du potentiel de dommages importants à la santé, à la sécurité, aux droits de l’homme, à l’environnement, à la démocratie et à l’État de droit. Entre autres choses, les systèmes pour les infrastructures critiques, l’éducation, les éléments de sécurité des produits, la gestion du personnel, la migration, l’application de la loi et les processus démocratiques sont mentionnés.

Les exigences concernent entre autres l’évaluation et la réduction des risques, la qualité des données et la traçabilité des résultats. Fondamentalement, les propositions réglementaires se concentraient initialement sur les développeurs des systèmes et non sur les utilisateurs. Toutefois, les observateurs soulignent qu’au cours des négociations, des obligations ont également été ajoutées pour les utilisateurs de systèmes à haut risque, comme l’exigence d’une analyse d’impact sur les droits fondamentaux et l’obligation d’enregistrer la demande au moins pour les autorités publiques.

Il y a un effet Chat-GPT

L’un des points controversés depuis longtemps concerne la gestion des « modèles de base » : ces modèles sont entraînés avec d’énormes ensembles de données, de sorte qu’ils conviennent à de larges applications (« systèmes d’IA à usage général »). L’un des modèles de base les plus connus est GPT-4, utilisé pour Chat-GPT et Bing Chat. Les exigences générales de l’UE pour ces modèles de base et systèmes d’IA comprennent la documentation des informations techniques, la divulgation d’informations détaillées sur les données de formation utilisées et le respect de la loi européenne sur le droit d’auteur.

Pour les modèles présentant un impact élevé et des risques systémiques, des exigences supplémentaires sont prévues, telles que l’évaluation et l’atténuation des risques, des tests de modèle rigoureux, la déclaration des incidents graves et la déclaration de la consommation d’énergie.

De manière générale, un allègement est accordé aux petites et moyennes entreprises qui développent des systèmes d’IA.

Le non-respect des règles proposées entraînera des amendes pouvant aller jusqu’à 1,5 pour cent ou jusqu’à 7 pour cent du chiffre d’affaires annuel global de l’entreprise concernée, selon l’infraction et la taille de l’entreprise.

Les détails arrivent encore

La percée annoncée dans les négociations était un accord politique. L’approbation formelle et définitive du Parlement européen et du Conseil des ministres est toujours en attente, mais il ne s’agit généralement que d’une formalité une fois que de tels accords ont été conclus par les délégations de négociation. Cependant, la mise en œuvre technique concrète nécessitera encore beaucoup de travail au cours des prochains mois. Les détails de la mise en œuvre seront importants.

Lire aussi  Aligneurs transparents, blanchiment et facettes : guide pour améliorer votre sourire sans perdre votre santé

Le caractère de compromis de l’accord était évident dès les premières réactions. Alors que les représentants de l’Union européenne Consommateurs– et Organisations de défense des droits de l’homme critiqué les lacunes réglementaires, s’est plaint L’association industrielle Digital Europe a déclaré que la réglementation particulière des modèles de base entraînerait beaucoup d’efforts pour les entreprises concernées et pourrait nuire à la compétitivité de l’Europe.

Une réglementation européenne plus poussée sur l’IA est toujours en cours ; Cela concerne la responsabilité civile des développeurs et des utilisateurs en cas de dommage. La Commission européenne adoptera une directive sur la responsabilité en matière d’IA à l’automne 2022 suggéré. Ce dossier doit encore être discuté par le Parlement européen et le Conseil des ministres.

Les conséquences des règles adoptées ces derniers jours sont encore difficiles à estimer. Il faut toutefois s’attendre à ce que la réglementation européenne ait un impact bien au-delà des frontières de l’UE. D’une part, parce qu’il s’agit de la première réglementation globale en matière d’IA et qu’il peut donc également servir de signal pour d’autres régions. Et d’autre part, parce que les règles s’appliquent non seulement aux entreprises de l’UE, mais à tous les systèmes d’IA proposés sur le marché de l’UE. Le marché de l’UE est si vaste qu’il est peu probable que les fournisseurs fournissent des produits distincts à la Suisse ou à d’autres pays européens non membres de l’UE.

La question est de savoir dans quelle mesure les fournisseurs desserviront d’autres grands marchés comme l’Amérique du Nord et l’Asie avec des produits distincts si ces marchés sont soumis à des réglementations moins étendues. L’expérience du règlement européen sur la protection des données de 2016 montre que les règles de l’UE peuvent avoir des effets majeurs bien au-delà de l’Europe. Une situation similaire pourrait se produire avec les lois de l’UE sur les marchés et les services numériques. La professeure de droit Anu Bradford, qui enseigne aux États-Unis, a écrit cette année dans son livre « Digital Empires » : « Au cours de la dernière décennie, l’UE s’est imposée comme le régulateur le plus puissant de l’économie numérique. »



#Lintelligence #artificielle #devrait #être #strictement #réglementée
1702184103

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT