Nouvelles Du Monde

Scorza (garant de la confidentialité) : “Contre les mesures d’urgence OpenAI et ChatGpt”. Voici ce qui peut arriver maintenant

Scorza (garant de la confidentialité) : “Contre les mesures d’urgence OpenAI et ChatGpt”.  Voici ce qui peut arriver maintenant

« Nous avons demandé à OpenAi de suspendre le traitement des données personnelles des utilisateurs italiens avec effet immédiat. Nous avons agi de manière indépendante. L’entreprise dispose désormais de 20 jours pour s’y conformer. Guido Scorza depuis 2020, il est membre du conseil d’administration de l’autorité de protection de la vie privée. La société qui a créé ChatGpt, selon le Garant, ne respecterait pas la loi italienne sur le traitement des données. « Il n’y a pas de divulgation, et c’est le délit que nous reprochons à l’entreprise. Mais il est évident qu’il y a aussi un autre thème : avec Chatgpt et les chatbots, nous avons des conversations, et dans ces conversations, nous avons souvent tendance à partager une grande partie de nos vies ».

Avocat, que contestez-vous avec OpenAI ?

« Notamment trois violations différentes : avoir collecté les données personnelles de milliards de personnes pour entraîner leurs algorithmes sans les informer de cette circonstance et, probablement sans disposer d’une base légale appropriée ; collecter les données personnelles des utilisateurs lors de conversations sans les informer du sort de ces données ; générer des contenus, en réponse à des questions, qui attribuent parfois aux personnes des faits et des circonstances inexacts et mensongers, proposant ainsi une représentation déformée de leur identité personnelle ».

Lire aussi  OSIRIS-Rex a réussi à amener sa capsule temporelle sur Terre

Pouvez-vous nous donner un exemple?

« Si je demande au chatbot quand Guido Scorza est entré au Collège du garant de la vie privée, la réponse est que cela s’est passé en 2016, alors que j’y suis entré en 2020. Pas mal dans ce cas. Mais si à la place il disait que j’ai renversé un enfant sur un front de mer puis que je me suis enfui et que ce fait n’était pas vrai, cela détruirait ma vie pour toujours. Et je ne pense pas que nous puissions nous attendre à ce que cela se produise.”

Qu’est-ce que votre arrêt implique?

« En attendant, OpenAi devrait cesser de traiter les données personnelles utilisées pour former des algorithmes. Nous avons adopté une disposition d’urgence, qui se fonde sur la présence d’un “fumus” de violation, donc non pas sur la certitude qu’il y a une infraction, mais sur l’apparente légitimité de cette infraction. Il faudra alors évaluer comment l’entreprise va réagir lors de l’enquête qui vient de débuter”.

Peut-on penser à un ChatGpt inaccessible en Italie ?

« Ordonner l’inaccessibilité à ChatGpt n’est pas de notre ressort. Si dès demain ChatGpt parvient, par exemple, à fonctionner sans traiter de données personnelles ou à corriger le tir par rapport aux violations que nous leur contestons, il pourra rester accessible ».

Lire aussi  La qualité des nouvelles coques iPhone FineWoven n'est pas convaincante : "elles sont terribles"

Qu’est-ce-qu’on fait maintenant?

“En attendant, une enquête a été ouverte. Qui continuera de toute façon. Il faut vérifier s’il y a eu violation ou non. La meilleure chose serait de le faire avec l’entreprise, dans ce cas OpenAI. Mais même s’ils n’acceptent pas de coopérer et de nous fournir leurs raisons, l’enquête se poursuivra”.

Quels sont les scénarios possibles ?

« L’enquête préliminaire pourrait réfuter nos soupçons d’illégalité dans le traitement des données personnelles effectué par OpenAI ou inversement les confirmer. Dans le premier cas, il y a archivage. Dans le second cas, des mesures pourraient être prises, soit correctives, soit sanctionnantes ».

Que faire si votre enquête confirme qu’OpenAI se comporte illégalement ?

« Nous pourrions prendre une mesure corrective, et OpenAI pourrait être contraint de supprimer les données accumulées sur les utilisateurs italiens, ou de ne plus en collecter à l’avenir. Soit on pourrait infliger une amende à caractère économique jusqu’à 2% ou 4% du chiffre d’affaires de l’entreprise à laquelle l’infraction est reprochée selon la gravité de l’infraction ».

Lire aussi  Les scientifiques ont révélé le plus ancien exemple de cerveau de vertébré bien conservé

Outre le traitement et la collecte de données, ChatGpt est un outil utilisé par beaucoup pour poser des questions, parfois intimes, ou concernant la sphère strictement personnelle. Est-ce aussi ce qui vous a poussé à déménager en urgence ?

« C’est une synthèse des deux choses. Il y a un fort soupçon qu’il y a une infraction et nous le clarifierons avec l’enquête. Dans ce cas, l’infraction pourrait sans doute avoir des conséquences plus graves car dans le cadre d’une conversation on est amené à partager encore plus de choses concernant la sphère intime. Mais au fond il y a violation d’une règle ».

Avez-vous agi de manière autonome ou existe-t-il une sorte de coordination entre les autorités européennes chargées de la protection de la vie privée ?

“Dans ce cas, nous avons agi de manière indépendante car OpenAi n’est pas basé en Europe et est en dehors des procédures de coopération, mais dans les prochains jours, j’imagine qu’il y aura certainement de la place pour une discussion au niveau européen pour comprendre si et comment coopérer et agir ensemble. “.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT