Nouvelles Du Monde

Lettre ouverte aux dirigeants européens pour l’approbation de la loi sur l’intelligence artificielle | Technologie

Lettre ouverte aux dirigeants européens pour l’approbation de la loi sur l’intelligence artificielle |  Technologie

2023-11-30 12:32:29

Cher M. Macron, Mme Meloni, M. Scholz et M. Sánchez [como presidente de turno]:

Nous sommes à un point critique dans la vie du projet de règlement sur l’IA (loi sur l’IA). En phase de trilogue, cette régulation est menacée par ce que nous considérons comme une opposition malavisée de la part de leurs représentants gouvernementaux, en faveur de l’autorégulation des entreprises développant des modèles fondamentaux d’IA (comme ChatGPT et Bard). Cela implique que ces entreprises devraient adhérer à leurs propres codes de conduite, plutôt que d’être réglementées directement par des organismes officiels. Ce changement d’approche retarde l’adoption du règlement sur l’IA, notamment compte tenu des prochaines élections au Parlement européen prévues en juin. Et, plus grave encore, cela pourrait nuire à son efficacité et présenter de graves risques pour les droits des citoyens européens et l’innovation européenne. Contre une approche d’autoréglementation, nous exhortons toutes les parties impliquées dans l’essai à approuver le règlement sur l’IA dès que possible. Nous exposerons ci-dessous trois raisons clés pour soutenir l’adoption du règlement IA dans sa forme originale.

Les entreprises ne devraient pas établir elles-mêmes les règles

Les codes de conduite, même lorsqu’ils sont obligatoires, sont insuffisants et souvent inefficaces. Lorsque les entreprises s’autoréglementent, elles peuvent donner la priorité à leurs profits plutôt qu’à la sécurité publique et aux questions éthiques. On ne sait pas non plus qui supervisera l’élaboration et l’application de ces codes de conduite, comment et avec quel degré de responsabilité. Cette approche récompense les entreprises qui prennent des risques en n’investissant pas de temps et de ressources dans des codes de conduite stricts, au détriment de celles qui s’y conforment.

Cela est également préjudiciable à l’industrie de l’IA, car cela laisse les entreprises dans l’incertitude quant à savoir si leurs produits et services seront autorisés sur le marché et si elles risquent des amendes après leur commercialisation. Il faudra peut-être remédier aux incertitudes au moyen de règles directes une fois que le règlement aura déjà été approuvé, limitant ainsi le débat parlementaire. Enfin, si chaque entreprise ou secteur établit ses propres règles, le résultat ne peut être qu’un patchwork confus de normes, ce qui alourdit la charge de surveillance du régulateur, mais rend également plus difficile pour les entreprises de se conformer aux codes, entravant ainsi à la fois l’innovation et l’innovation. ainsi que la conformité. Cela va à l’encontre de l’un des objectifs fondamentaux du règlement IA, qui est d’harmoniser les règles au sein de l’UE.

Lire aussi  Les actions de Tesla chutent, Li Auto coule alors que les fabricants de véhicules électriques réduisent les prix

Leadership de l’UE dans la réglementation de l’IA

L’opposition actuelle de la France, de l’Italie et de l’Allemagne à la réglementation des modèles fondamentaux d’IA met en péril le leadership de l’UE en matière de réglementation de l’IA. L’UE a été à l’avant-garde en plaidant pour l’élaboration de réglementations garantissant que la technologie soit sûre et équitable pour tous. Mais cet avantage pourrait être perdu si les défis réglementaires restants ne sont pas relevés rapidement et avec succès. Une UE indécise perdra son avantage compétitif face à des pays comme les États-Unis ou la Chine. Les citoyens européens courent le risque d’utiliser des produits d’IA réglementés selon des valeurs et des agendas non alignés sur les principes européens.

Le coût de la non-réglementation de l’IA

Retarder la réglementation de l’IA entraîne des coûts importants. Sans normes communes, les citoyens sont vulnérables aux applications d’IA qui ne servent pas l’intérêt public. Ce manque de réglementation ouvre la porte à de potentiels abus et abus des technologies de l’IA. Les conséquences sont graves et incluent des violations de la vie privée, des préjugés, de la discrimination et des menaces à la sécurité nationale dans des domaines critiques tels que les soins de santé, les transports et l’application de la loi. D’un point de vue économique, les applications non réglementées de l’IA peuvent fausser la concurrence et la dynamique du marché, créant ainsi des conditions de concurrence inégales dans lesquelles seules les entreprises puissantes et bien financées triompheront. C’est une erreur de penser que la réglementation va à l’encontre de l’innovation : ce n’est que grâce à la réglementation et, par conséquent, à une concurrence loyale, que l’innovation peut prospérer, au bénéfice des marchés, des sociétés et de l’environnement. Ce n’est qu’avec une meilleure réglementation que l’on pourra parvenir à davantage d’innovation.

Lire aussi  Sony avec écouteurs intra-auriculaires et station de charge Porsche

En conclusion, le Règlement IA est plus qu’une simple loi. Il s’agit d’une déclaration sur les valeurs que nous, en tant qu’Européens, voulons promouvoir et sur le type de société que nous voulons construire. Met en œuvre et renforce l’identité et la réputation de l’UE. Il met en évidence la crédibilité de l’UE et son rôle de premier plan dans la communauté mondiale de l’IA.

Pour toutes ces raisons – cinq ans après la publication du Cadre éthique pour une bonne société d’IA par AI4People, qui a guidé les premiers travaux du groupe de haut niveau de la Commission européenne sur l’IA – nous exhortons les institutions de l’UE et les États membres à trouver un compromis qui préserve l’intégrité et l’ambition du règlement sur l’IA. Que cette législation soit un modèle de gouvernance responsable et éthique de l’IA, servant d’exemple mondial à suivre pour d’autres.

La lettre est signée par :

Luciano Florididirecteur fondateur du Center for Digital Ethics de l’Université de Yale et président d’Atomium-EISMD.

Michel-Ange Baracchi BonviciniPremier Président du Comité Scientifique de l’Institut AI4People et Président de l’Institut AI4People.

Raja ChatilaProfesseur émérite d’Intelligence artificielle, de robotique et d’éthique informatique à Sorbonne Université.

Lire aussi  HPE Fabric OS : nouvelle vulnérabilité ! De multiples vulnérabilités permettent une élévation des privilèges

Patrice Chazeranddirecteur des affaires publiques à l’AI4People Institute et ancien directeur des affaires publiques numériques pour l’Europe.

Donald Combsvice-président et doyen de l’École des professions de la santé de la Eastern Virginia Medical School.

Herbe de Bianca De Teffedirecteur de l’éthique des données et de l’IA chez Deloitte.

Virginie digneprofesseur d’intelligence artificielle responsable, Université d’Umeå et membre du Conseil consultatif de haut niveau des Nations Unies sur l’intelligence artificielle.

Ronan Kennedyprofesseur agrégé, Faculté de droit, Université de Galway.

Robert Madelinprésident du conseil consultatif de l’Institut AI4People.

Claudio Novellichercheur postdoctoral, Département d’études juridiques de l’Université de Bologne et International Fellow du Digital Ethics Center (DEC) de l’Université de Yale.

Burkhard Schäferprofesseur de théorie juridique computationnelle à l’Université d’Édimbourg.

Afzal Siddiquiprofesseur au Département d’informatique et des sciences des systèmes de l’Université de Stockholm.

Sarah Spiekermanprésident de l’Institut pour les SI et la société de l’Université d’économie et de commerce de Vienne.

Ugo PagalloProfesseur titulaire de jurisprudence, théorie du droit et informatique juridique au Département de droit de l’Université de Turin.

Cory Robinsonprofesseur de conception de communication et de systèmes d’information à l’université de Linköping.

Elisabeth Staudeggerprofesseur d’informatique juridique et de droit informatique (droit des technologies de l’information), chef du département juridique et informatique de l’Institut des fondements juridiques de l’Université de Graz.

Mariarosaria Taddeoprofesseur d’éthique numérique et de technologies de défense à l’Oxford Internet Institute, Université d’Oxford.

Peggy Valcképrofesseur de droit et de technologie à l’Université catholique de Louvain et vice-doyen de la recherche à la Faculté de droit et de criminologie de Louvain.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.




#Lettre #ouverte #aux #dirigeants #européens #pour #lapprobation #loi #sur #lintelligence #artificielle #Technologie
1701371194

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT