Nouvelles Du Monde

L’Europe renforce le RGPD pour encadrer les intelligences artificielles

L’Europe renforce le RGPD pour encadrer les intelligences artificielles

Dans un contexte où les intelligences artificielles comme ChatGPT gagnent en popularité, l’Europe envisage de renforcer le RGPD pour mieux encadrer leur utilisation des données personnelles. Ces IA, utilisées dans des dispositifs connectés comme les smartwatches et des plateformes en ligne, peuvent accéder à des informations sensibles, souvent sans que les utilisateurs en soient pleinement conscients. Face à ces risques, l’Union européenne propose des mesures réglementaires visant à protéger les données personnelles et à informer les utilisateurs sur l’usage de leurs informations par les IA.

Cela vous intéressera aussi

[EN VIDÉO] Interview : comment est née l’intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique…

Alors que la Journée européenne consacrée à la protection des données personnelles cherche à sensibiliser les populations pour qu’elles reprennent en main leurs données privées sur le Web, l’avenir de celles-ci pourrait bien connaître une révolution. Il s’agit de celle de l’arrivée tonitruante de puissantes intelligences artificielles (IA), à l’instar de ChatGPT. Si ces IA savent convaincre par leurs talents rhétoriques, elles vont aussi être de plus en plus exploitées pour gérer les nombreuses données personnelles que l’on livre aux plateformes, souvent sans s’en rendre compte. L’IA n’est pas sans risques de ce point de vue.

Lire aussi  L'intelligence artificielle à l'honneur au festival international du film de Pingyao : entre craintes et émerveillement

Pour cette raison, l’Europe souhaite compléter son règlement général sur la protection des donnéesrèglement général sur la protection des données (RGPD). L’institution compte ajouter un ensemble de règles harmonisées sur l’utilisation de l’IA. Il faut dire que cette fameuse IA est désormais partout. On la porteporte au poignet nuit et jour avec les montres et bracelets connectés qui peuvent relever des données de santé et même détecter certaines pathologiespathologies. Or les consommateurs n’ont pas toujours conscience que poser des questions personnelles, d’ordre médical par exemple, à un outil conversationnel, c’est livrer aux entreprises qui gèrent cette intelligence artificielle des informations sensibles qui pourraient être exploitées à des fins commerciales. Et ce n’est pas le seul souci, car l’intelligence artificielle implique de nombreux acteurs, que ce soit le développeur, le fournisseur, l’importateur, le distributeur et l’utilisateur. Cet ensemble reste plutôt opaque pour le consommateur. Difficile donc de savoir qui a concrètement accès aux données personnelles et qui serait responsable en cas de problèmes.

Lire aussi  La fonctionnalité "Enregistrer mon trajet" d'Uber s'étend à d'autres villes

Une meilleure information sur les algorithmes des IA

Avec la multiplication de l’utilisation de ces IA, le risque de fuite ou de perte de contrôle sur les données personnelles est également important. C’est pourquoi, pour les protéger, les consommateurs doivent se renseigner sur l’entreprise qui recueille leurs données et sur sa politique de traitement de ces informations personnelles. Ce n’est pas toujours facile de le faire, même si certains acteurs du secteur sont plus vertueux que d’autres. C’est notamment le cas d’PommePomme qui se veut champion de la confidentialité des données en forçant les développeurs d’applicationapplication à demander automatiquement le consentement pour la collecte des données, par exemple.

Pour mieux protéger les utilisateurs, l’Union européenne a donc proposé trois textes : un cadre réglementaire sur l’intelligence artificielle, une directive sur la responsabilité en matièrematière d’IA, une directive sur la responsabilité des produits. Parmi ses compléments de réglementation, l’UE veut obliger, par exemple, les géants du numérique et autres plateformes et réseaux sociauxréseaux sociaux à mieux informer les utilisateurs sur leurs algorithmes. Et pour les obliger, le texte prévoit des sanctions importantes. Elles pourraient aller de 10 à 30 millions d’euros ou de 2 à 4 % du chiffre d’affaires en cas de manquement à ces nouvelles obligations. Reste à l’institution à adopter suffisamment rapidement ces textes avant que les IA ne s’octroient encore plus de liberté.

Lire aussi  Protégez-vous et votre entreprise

dans un article qui peut se classer haut dans Google
#Votre #vie #privée #estelle #bien #protégée #lère #lintelligence #artificielle
publish_date] pt]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT