Nouvelles Du Monde

Cures et intelligence artificielle : la vie privée et le risque de l’algorithme discriminant

Cures et intelligence artificielle : la vie privée et le risque de l’algorithme discriminant

2023-10-11 12:46:06

L’intelligence artificielle en est une instrument de plus en plus utilisé dans le traitement: des technologies de la santé (pensez aux tomodensitogrammes et aux IRM) à la médecine prédictive ou aux choix de politique de santé des hôpitaux et des gouvernements basés sur des données et des algorithmes. Il s’agit d’un chemin sans retour, c’est pourquoi le Garant de la vie privée vient de lancer un ensemble de règles pour la création de services de santé au niveau national grâce à des systèmes d’intelligence artificielle. Parmi les demandes du garant figurent la transparence, le contrôle humain des décisions et la nécessité d’éviter les discriminations dans les traitements dues aux algorithmes.

Transparence maximale : le citoyen a le droit de savoir

Comme mentionné, le Garant de la Vie Privée a élaboré un décalogue qui va des bases juridiques du traitement aux rôles, de l’analyse d’impact sur la protection des données à l’exactitude, l’intégrité et la confidentialité des données elles-mêmes. Mais il existe fondamentalement trois principes clés identifiés par l’Autorité sur la base du règlement sur la vie privée et à la lumière de la jurisprudence du Conseil d’État : la transparence des processus décisionnels, les décisions automatisées supervisées par des humains et la non-discrimination algorithmique. Sur la base des indications du Garant, le patient doit avoir le droit de savoir, également par le biais de campagnes de communication, s’il existe et quels sont les processus décisionnels (par exemple, dans le domaine clinique ou politique de santé) basés sur les traitements automatisés effectués. grâce à des outils d’IA et de recevoir des informations claires sur la logique utilisée pour prendre ces décisions. Le processus de décision doit inclure une supervision humaine qui permet au personnel soignant de vérifier, valider ou infirmer les traitements effectués par les outils d’Intelligence Artificielle.

Lire aussi  Lancement de la saison de la grippe dans l'hémisphère sud avant les vacances d'été — Vax Before Travel

Le risque d’effets discriminatoires potentiels des algorithmes

Il convient, prévient le Garant, que le responsable du traitement utilise des systèmes d’IA fiables qui réduisent les erreurs dues à des causes technologiques ou humaines et vérifie périodiquement leur efficacité, en mettant en œuvre des mesures techniques et organisationnelles adéquates. Ces précautions sont également nécessaires afin d’atténuer les effets discriminatoires potentiels que le traitement de données inexactes ou incomplètes pourrait avoir sur la santé de la personne. Un exemple est le cas américain, évoqué par le Garant dans le Décalogue, concernant un système d’intelligence artificielle utilisé pour estimer le risque sanitaire de plus de 200 millions d’Américains. Les algorithmes tendaient à attribuer un niveau de risque plus faible aux patients afro-américains présentant les mêmes problèmes de santé, en raison de la métrique utilisée, basée sur la dépense individuelle moyenne de santé qui était moins élevée pour la population afro-américaine, avec pour conséquence de nier cette dernière. accès à des soins adéquats. Ce n’est pas tout : des données obsolètes ou inexactes, souligne l’Autorité, pourraient également influencer l’efficacité et l’exactitude des services que les systèmes d’IA entendent créer.

Lire aussi  Le manque de force de préhension peut indiquer un vieillissement prématuré, selon des recherches

Les bases juridiques de l’utilisation de l’IA

Une attention particulière a été portée par le Garant à l’adéquation de la base juridique pour l’utilisation de l’intelligence artificielle. Le traitement des données de santé au moyen de techniques d’IA, effectué pour des raisons d’intérêt public dans le secteur de la santé, doit être prévu par un cadre réglementaire spécifique, qui identifie des mesures adéquates pour protéger les droits, libertés et intérêts légitimes des parties intéressées. Conformément au cadre réglementaire du secteur, le Garant a également souligné la nécessité de réaliser une analyse d’impact avant de traiter des données de santé à l’aide de systèmes nationaux d’IA afin d’identifier les mesures appropriées pour protéger les droits et libertés des patients et en garantir le respect. aux principes du règlement européen sur la vie privée. En effet, un système national centralisé utilisant l’IA détermine un traitement systématique à grande échelle des données de santé qui relèvent des données « à haut risque », pour lesquelles l’analyse d’impact est obligatoire et doit être réalisée au niveau central pour permettre un examen global de l’adéquation et l’homogénéité des mesures adoptées.

#Cures #intelligence #artificielle #vie #privée #risque #lalgorithme #discriminant
1697024372

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT