Nouvelles Du Monde

Apple supprime l’outil d’analyse d’images de maltraitance d’enfants, suscitant une controverse

Apple supprime l’outil d’analyse d’images de maltraitance d’enfants, suscitant une controverse

2023-09-04 22:49:31

“Apple est l’une des entreprises les plus prospères au monde avec une armée d’ingénieurs de classe mondiale”, a déclaré Gardner à WIRED. “Il est de votre responsabilité de fournir un environnement sûr qui respecte la vie privée et permet la détection d’images et de vidéos d’abus sexuels sur des enfants.” Tant que les gens continueront à partager et à stocker sur iCloud une image connue d’un enfant violé, nous exigerons qu’ils fassent mieux.

à l’intérieur E-mail Envoyé à Cook, Gardner a affirmé que l’outil de numérisation de photos de l’entreprise “a non seulement positionné Apple comme le leader mondial en matière de confidentialité des utilisateurs, mais a également promis de supprimer des millions d’images et de vidéos d’abus sexuels sur des enfants d’iCloud… un sujet difficile à traiter”. personne ne veut en parler, c’est pourquoi on le passe sous silence et on le laisse de côté. Nous sommes là pour faire en sorte que cela n’arrive pas.

Lire aussi  Résultats du sondage hebdomadaire: le Motorola Edge + (2023) est bien parti, le prix de l'Edge 40 est désactivé

Apple affirme qu’en fin de compte, même sa conception bien intentionnée ne peut pas être protégée de manière adéquate dans la pratique et que les détections de nudité sur l’appareil constituent des alternatives plus sûres pour des fonctionnalités telles que la messagerie, FaceTime, AirDrop et la sélection de photos. La société a également commencé à proposer une interface de programmation d’applications (API) pour ses fonctionnalités de sécurité des communications afin que les développeurs tiers puissent les intégrer dans leurs applications. application. Apple note que la plateforme de communication Discord intègre des fonctionnalités et que les développeurs d’applications sont généralement ravis de les adopter.

“Nous avons décidé de ne pas donner suite à la proposition faite il y a quelques années d’une approche hybride client-serveur pour la détection CSAM pour les photos iCloud”, a écrit Neuenschwander à Heat Initiative. “Nous avons conclu qu’une mise en œuvre pratique n’est pas possible sans compromettre la sécurité et la confidentialité de nos utilisateurs à long terme.”

Lire aussi  Nouvelle tentative jeudi pour le premier vol de Starship

En réponse à la demande de Heat Initiative visant à ce qu’Apple crée un mécanisme de signalement CSAM pour les utilisateurs, la société a déclaré à WIRED que son objectif est de connecter ses clients ou victimes vulnérables directement aux ressources locales et aux forces de l’ordre de leur région qui peuvent les aider, plutôt que de Apple agissant comme intermédiaire pour traiter les plaintes. L’entreprise souligne qu’il pourrait être judicieux de proposer ce service d’intermédiation pour les plateformes interactives telles que les réseaux sociaux.

Il existe cependant un besoin Protéger les enfants des abus sexuels en ligne c’est urgentEt alors que ces préoccupations recoupent le débat plus large sur le chiffrement, la détermination d’Apple à nier l’utilisation de l’analyse des données continue d’être mise à l’épreuve.

Article initialement publié sur WIRED. Adapté par Andrei Osornio.



#Apple #supprime #loutil #danalyse #dimages #maltraitance #denfants #suscitant #une #controverse
1693863292

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT