Nouvelles Du Monde

L’autorité italienne de protection des données arrête ChatGPT dans le pays

L’autorité italienne de protection des données arrête ChatGPT dans le pays
Text-Roboter ChatGPT

Les défenseurs italiens de la vie privée voient un problème fondamental dans la façon dont ChatGPT a été formé.

(Photo : Reuters)

ROM L’autorité italienne de protection des données a temporairement bloqué la populaire machine à texte ChatGPT dans le pays. Vendredi, elle a souligné, entre autres, que l’opérateur OpenAI ne fournissait pas suffisamment d’informations sur l’utilisation des données. Il n’y a pas non plus de filtres qui empêchent les enfants de moins de 13 ans de voir des informations “absolument inappropriées” pour eux. Des enquêtes avaient été ouvertes.

Dans le même temps, par mesure de précaution, l’autorité a interdit le traitement des données des utilisateurs depuis l’Italie – ChatGPT n’est donc plus applicable dans le pays. OpenAI a eu 20 jours pour présenter des mesures contre les allégations. Après cela, il y a une pénalité pouvant aller jusqu’à 20 millions d’euros ou 4% des ventes mondiales.

L’autorité de protection des données a également fait référence à une récente violation de données. Certains utilisateurs de ChatGPT avaient vu des informations provenant des profils d’autres personnes. Selon OpenAI, le problème était dû à une erreur dans un logiciel utilisé pour ChatGPT.

ChatGPT s’appuie sur le logiciel qui capture d’énormes quantités de texte. Sur cette base, elle peut formuler des phrases difficilement distinguables de celles d’un être humain. Le programme estime quels mots pourraient suivre ensuite dans une phrase. L’un des risques de ce principe de base est que le logiciel “hallucine les faits”, comme l’appelle OpenAI – en présentant des informations incorrectes comme correctes.

Les défenseurs italiens de la vie privée voient également un problème fondamental dans la façon dont ChatGPT a été formé. Il n’existe aucune base légale pour la collecte et le stockage massifs de données personnelles pour entraîner les algorithmes.

>> Lire aussi : Que peut faire ChatGPT ?

L’agence a pris des mesures similaires contre un autre chatbot appelé Replica en février. La principale préoccupation est que les enfants de moins de 13 ans ne sont pas suffisamment protégés.

ChatGPT a impressionné au cours des derniers mois par la capacité du logiciel à imiter la parole humaine. Dans le même temps, on craint qu’une telle technologie basée sur l’intelligence artificielle ne soit utilisée à mauvais escient, par exemple pour diffuser de fausses informations.

Plus: L’élite technologique autour d’Elon Musk appelle à une pause dans le développement de l’IA

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT