Nouvelles Du Monde

Surveillance de la vie privée : « L’IA se développe plus vite que nous ne pouvons suivre » | Technologie

Surveillance de la vie privée : « L’IA se développe plus vite que nous ne pouvons suivre » |  Technologie

L’autorité néerlandaise de protection des données prévient que nous ne sommes pas suffisamment conscients des risques liés aux algorithmes et à l’intelligence artificielle. L’IA est à l’origine de désinformation, de violations de la vie privée et de discrimination.

En bref:

  • L’autorité néerlandaise de protection des données met en garde contre les risques liés au développement et à l’utilisation rapides des algorithmes et de l’intelligence artificielle (IA).
  • L’IA peut conduire à la propagation de fausses informations, à des violations de la vie privée et à la discrimination, en particulier lorsqu’elle est formée avec des données non représentatives.
  • Malgré ces risques, l’IA offre des opportunités d’efficacité et de bien-être, par exemple dans le domaine de la santé, où elle peut contribuer à des diagnostics plus rapides, par exemple.

Selon l’autorité néerlandaise de protection de la vie privée, l’autorité néerlandaise de protection des données, l’utilisation croissante de l’intelligence artificielle et des innovations technologiques se produit plus rapidement que nous, en tant que société, ne pouvons suivre. En conséquence, nous sommes en retard dans la reconnaissance des risques. Mais aussi pour y faire face, par exemple par le biais de réglementations et d’applications.

Le scandale des prestations sociales montre les dangers que les algorithmes font peser sur notre vie privée. Des dizaines de milliers de personnes ont eu des ennuis parce qu’elles ont été qualifiées de fraudeurs par des algorithmes. Mais l’intelligence artificielle va encore plus loin, selon les experts.

Depuis l’arrivée du chatbot IA ChatGPT, presque toutes les entreprises technologiques utilisent l’intelligence artificielle. Mais l’IA n’est rien d’autre qu’un ensemble d’algorithmes, explique Rajiv Girwar, professeur à l’Université des Sciences Appliquées de Rotterdam. « Dès qu’un algorithme peut tirer des conclusions ou générer quelque chose de nouveau, nous l’appelons IA. »

Lire aussi  La FTC veut suspendre l'achat d'Activision après les licenciements chez Xbox Game Studios

Selon l’expert en protection de la vie privée Rejo Zenger de Bits of Freedom, les algorithmes et l’intelligence artificielle doivent être considérés comme une boîte noire. “Vous mettez certaines données dans la boîte, mais vous n’avez aucune idée de ce qui est fait avec les données dans cette boîte. Ensuite, une conclusion émerge ou de nouvelles données sont déployées, mais vous n’avez aucune idée de comment cela est arrivé.”

Recevez une notification des nouveaux développements. Restez informé grâce aux notifications

Risque de violation de la vie privée, de discrimination et de désinformation

Vous pouvez libérer les algorithmes et l’intelligence artificielle sur toutes les données que vous pouvez trouver sur Internet. Par exemple, sur les données de localisation de millions de Néerlandais disponibles en ligne. Vous pourriez alors demander à l’IA d’analyser qui pourrait être impliqué dans des affaires pénales. Il s’agit d’une atteinte importante à votre vie privée.

Les risques de l’intelligence artificielle dépendent des données avec lesquelles l’IA est entraînée, explique Céline van Waesberge, avocate chargée de la protection de la vie privée, du Project Moore Advocaten. Par exemple, avec des données de formation non représentatives, la discrimination et la génération d’informations incorrectes (désinformation) se cachent.

Lire aussi  La demande de lingots d’or en Allemagne s’effondre

Un bon exemple de données non représentatives peut être observé dans le domaine de la santé, par exemple. “Traditionnellement, il existe de nombreuses connaissances médicales sur les hommes”, souligne Van Waesberge. “Si vous entraînez un modèle d’IA exclusivement avec cela, le résultat risque de ne pas être fiable pour les enfants ou les femmes, par exemple.”

L’IA est souvent entraînée avec des données non représentatives

En outre, selon Van Waesberge, les habitants de notre pays doivent dans de nombreux cas donner leur autorisation avant qu’un modèle d’IA puisse être formé avec leurs données de santé sensibles à la vie privée. Il existe un risque que certains groupes de personnes donnent leur consentement et d’autres non.

En conséquence, certains groupes de personnes peuvent être surreprésentés dans les données de formation et d’autres groupes sous-représentés. Le résultat est que les données avec lesquelles l’IA est entraînée ne sont pas représentatives.

“Les conclusions tirées par un modèle d’IA et les informations générées par le système dépendent fortement des données que vous y avez introduites”, souligne également Zenger. “Nous supposons que les décisions informatiques sont neutres, mais comme les données sont souvent non représentatives, les informations et les conclusions générées peuvent être incorrectes, voire discriminatoires.”

La supervision de l’IA est une priorité

En raison de tous ces risques, la surveillance des algorithmes et de l’intelligence artificielle figure cette année parmi les priorités de l’autorité néerlandaise de protection des données. « Dans notre supervision, nous donnons la priorité aux plaintes, aux fuites de données et aux enquêtes impliquant des algorithmes et l’IA. »

Lire aussi  Les nouvelles politiques de location proposées opposent les locataires aux propriétaires

“Depuis janvier 2023, nous sommes également le superviseur coordinateur des algorithmes aux Pays-Bas”, poursuit l’organisme de surveillance de la vie privée. “Nous faisons cela pour protéger les valeurs publiques et les droits fondamentaux lors de l’utilisation d’algorithmes et d’IA.”

La confiance des citoyens néerlandais dans les algorithmes et l’IA est faible, conclut l’autorité néerlandaise de protection des données. Mais ce n’est pas tout à fait exact. “La technologie peut également contribuer à une prospérité et un bien-être durables.”

L’intelligence artificielle offre de nombreuses opportunités

“L’intelligence artificielle n’a pas seulement un côté obscur”, souligne également l’avocat spécialisé en protection de la vie privée Van Waesberge. “Dans le domaine des soins de santé, par exemple, nous devons vraiment l’adopter. Il existe déjà des exemples montrant que l’IA peut mieux reconnaître le cancer que l’œil humain.”

Mais l’intelligence artificielle ne remplacera certainement pas le médecin, estime Van Waesberge. “L’IA peut aider à établir un bon diagnostic plus rapidement et à prendre en charge certaines autres tâches”, explique l’avocat spécialisé dans la protection de la vie privée. “Cela laisse au médecin le temps, par exemple, d’avoir des contacts plus personnels ou d’aider davantage de patients. Cela peut rendre les soins plus efficaces et donc moins chers, et garantir une plus grande confiance dans les soins.”

2024-01-21 07:12:06
1705828169


#Surveillance #vie #privée #LIA #développe #vite #nous #pouvons #suivre #Technologie

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT