2023-09-05 14:43:56
Apple a introduit de nouvelles protections de sécurité des enfants pour aider à détecter les matériels pédopornographiques connus (CSAM) en août 2021. Un peu plus d’un an plus tard, elle a fait marche arrière sur ses plans d’analyse CSAM et nous savons maintenant pourquoi.
Une partie de l’initiative de protection de l’enfance d’Apple consistait à identifier le matériel CSAM connu avant qu’il ne soit téléchargé sur iCloud Photos, mais cela s’est avéré controversé parmi les défenseurs de la vie privée qui craignaient qu’un précédent ne soit créé et que la technologie puisse être utilisée à mauvais escient. Maintenant, il semble qu’Apple ait finalement accepté.
Apple est à nouveau critiqué pour son manque de protections CSAM iCloud, ce qui a incité l’entreprise à expliquer sa réflexion, affirmant que “l’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter”.
La confidentialité avant tout
Un groupe de sécurité des enfants connu sous le nom de Heat Initiative a récemment envoyé une lettre au PDG d’Apple, Tim Cook, pour exiger que l’entreprise fasse davantage pour protéger les enfants victimes de maltraitance, selon un rapport. Filaire rapport. Cook n’a pas répondu, mais Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants chez Apple, l’a fait.
La réponse a également été fournie à Wired, ce qui signifie que nous comprenons désormais mieux la réflexion d’Apple derrière sa décision d’abandonner l’analyse du contenu CSAM – malgré de nombreux malentendus sur la façon dont cela fonctionnerait réellement.
En plus de créer de nouveaux vecteurs de fils de discussion, Neuenschwander affirme que l’analyse des données iCloud « entraînerait également une pente glissante avec des conséquences involontaires. L’analyse d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait créer un désir d’en rechercher d’autres ». systèmes de messagerie cryptés pour tous les types de contenu.
Apple a finalement choisi la confidentialité plutôt que d’essayer d’empêcher le stockage de matériel CSAM connu sur ses serveurs, semble-t-il. “Nous avons décidé de ne pas donner suite à la proposition d’une approche hybride client-serveur pour la détection CSAM pour iCloud Photos d’il y a quelques années”, aurait déclaré Neuenschwander dans la réponse à Heat Initiative. “Nous avons conclu qu’il n’était pas possible de le mettre en œuvre sans mettre en péril la sécurité et la confidentialité de nos utilisateurs.”
La chef de Heat Initiative, Sarah Gardner, a qualifié la décision d’Apple de « décevante », déclarant à Cook que « Apple est l’une des entreprises les plus prospères au monde avec une armée d’ingénieurs de classe mondiale », a écrit Gardner dans une déclaration à WIRED. « Il est de leur responsabilité de concevoir un environnement sûr et respectueux de la vie privée qui permette la détection des images et vidéos connues d’abus sexuels sur des enfants. Tant que les gens pourront partager et stocker une image connue d’un enfant violé dans iCloud, nous exigerons qu’ils fassent mieux.
#Apple #renoncé #une #fonctionnalité #controversée #protection #des #enfants #nous #savons #maintenant #pourquoi
1693916413