Nouvelles Du Monde

Apple abandonne officiellement son projet de scanner iCloud à la recherche d’images d’abus d’enfants

Apple abandonne officiellement son projet de scanner iCloud à la recherche d’images d’abus d’enfants

Image de l'article intitulé Apple annule officiellement ses projets de numérisation de photos iCloud à la recherche de matériel pédopornographique

Photo: Anton_Ivanov (Shutterstock)

Apple a officiellement tué l’une de ses propositions les plus controversées : un plan pour analyser les images iCloud à la recherche de signes de matériel d’abus sexuel d’enfants (ou CSAM).

Oui, l’été dernier, Apple annoncé qu’il déploierait la numérisation sur l’appareil, une nouvelle fonctionnalité d’iOS qui utilisait une technologie de pointe pour passer discrètement au crible les photos des utilisateurs individuels à la recherche de signes de mauvais matériel. La nouvelle fonctionnalité était conçu de sorte que, si le scanner trouvait des preuves de CSAM, il alerterait les techniciens humains, qui alerteraient alors vraisemblablement la police.

Le plan a immédiatement inspiré un torrentiel contrecoup des experts de la confidentialité et de la sécurité, les critiques faisant valoir que la fonction d’analyse pourrait finalement être réutilisée pour rechercher d’autres types de contenu. EMême avoir de telles capacités de numérisation dans iOS était une pente glissante vers des abus de surveillance plus larges, les critiques allégués, et te consensus général était que l’outil cdeviendrait rapidement une porte dérobée pour la police.

A l’époque, Apple luttait durement contre ces des reprochesmais la société a finalement cédé et, peu de temps après avoir initialement annoncé la nouvelle fonctionnalité, elle a déclaré qu’elle “reporter” mise en œuvre jusqu’à une date ultérieure.

Maintenant, il semble que cette date ne viendra jamais. Mercredi, au milieu des annonces d’une multitude de nouvelles sécurité iCloud Caractéristiques, la société a également révélé qu’elle n’irait pas de l’avant avec ses plans d’analyse sur l’appareil. Dans un rapport partagé avec le magazine Wired, Apple a clairement fait savoir qu’il avait décidé de prendre une autre route :

Après une consultation approfondie avec des experts pour recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonctionnalité de sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l’avant avec notre détection CSAM précédemment proposée. outil pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. .

Les plans d’Apple semblaient bien intentionnés. La prolifération numérique du CSAM est un un problème majeur– et les experts disent que cela n’a fait qu’empirer ces dernières années. Évidemment, un effort pour résoudre ce problème était une bonne chose. Cela dit, la technologie sous-jacente d’Apple suggéré d’utiliser – et les dangers de surveillance qu’il posait – semble que ce n’était tout simplement pas le bon outil pour le travail.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT