Nouvelles Du Monde

La décision d’Apple de supprimer son outil de numérisation de photos CSAM suscite une nouvelle controverse

La décision d’Apple de supprimer son outil de numérisation de photos CSAM suscite une nouvelle controverse

En décembre, Apple a déclaré qu’il mettait à mal les efforts visant à concevoir un outil d’analyse de photos iCloud préservant la confidentialité pour détecter les matériels d’abus sexuels sur enfants (CSAM) sur la plate-forme. Initialement annoncé en août 2021, le projet faisait polémique depuis ses débuts. Apple l’avait suspendu pour la première fois en septembre en réponse aux inquiétudes des groupes de défense des droits numériques et des chercheurs selon lesquelles un tel outil serait inévitablement abusé et exploité pour compromettre la confidentialité et la sécurité de tous les utilisateurs d’iCloud. Cette semaine, un nouveau groupe de sécurité des enfants connu sous le nom de Heat Initiative a déclaré à Apple qu’il organisait une campagne pour exiger que l’entreprise « détecte, signale et supprime » le matériel d’abus sexuel sur des enfants d’iCloud et offre davantage d’outils permettant aux utilisateurs de signaler les CSAM au entreprise.

Aujourd’hui, dans un geste rare, Apple a répondu à Heat Initiative, expliquant les raisons pour lesquelles il a abandonné le développement de sa fonction d’analyse iCloud CSAM et s’est plutôt concentré sur un ensemble d’outils et de ressources sur l’appareil pour les utilisateurs, connus collectivement sous le nom de fonctionnalités de sécurité des communications. La réponse de l’entreprise à Heat Initiative, qu’Apple a partagée avec WIRED ce matin, offre un rare aperçu non seulement de la raison pour laquelle elle s’est orientée vers la sécurité des communications, mais aussi de sa vision plus large de la création de mécanismes permettant de contourner les protections de la vie privée des utilisateurs, telles que le cryptage, pour surveiller données. Cette position est pertinente dans le débat plus large sur le chiffrement, d’autant plus que des pays comme le Royaume-Uni envisagent d’adopter des lois qui obligeraient les entreprises technologiques à pouvoir accéder aux données des utilisateurs pour se conformer aux demandes des forces de l’ordre.

Lire aussi  Chose rare : Apple a coupé près de 200 € sur le prix d'un Mac au Portugal. Nouveauté : va lancer un nouveau 15 pouces

“Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à briser la chaîne de coercition et d’influence qui rend les enfants vulnérables”, a écrit Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants d’Apple, dans la réponse de l’entreprise à Heat Initiative. Il a cependant ajouté qu’après avoir collaboré avec un ensemble de chercheurs en matière de confidentialité et de sécurité, de groupes de défense des droits numériques et de défenseurs de la sécurité des enfants, la société a conclu qu’elle ne pouvait pas poursuivre le développement d’un mécanisme d’analyse CSAM, même s’il était spécialement conçu pour préserver la vie privée. .

“L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter”, a écrit Neuenschwander. “Cela entraînerait également le risque d’une pente glissante de conséquences involontaires. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.

Lire aussi  L'effet du chômage, l'App Store d'Apple connaît une dépréciation significative des bénéfices

WIRED n’a pas pu joindre immédiatement Heat Initiative pour commenter la réponse d’Apple. Le groupe est dirigé par Sarah Gardner, ancienne vice-présidente des affaires extérieures de l’association à but non lucratif Thorn, qui travaille à utiliser les nouvelles technologies pour lutter contre l’exploitation des enfants en ligne et le trafic sexuel. En 2021, Thorn a salué le projet d’Apple de développer une fonctionnalité d’analyse iCloud CSAM. Gardner a déclaré dans un e-mail adressé au PDG Tim Cook le mercredi 30 août, qu’Apple a également partagé avec WIRED, que Heat Initiative avait trouvé la décision d’Apple de supprimer la fonctionnalité « décevante ».

“Nous croyons fermement que la solution que vous avez dévoilée a non seulement positionné Apple comme un leader mondial en matière de confidentialité des utilisateurs, mais a également promis d’éradiquer des millions d’images et de vidéos d’abus sexuels sur des enfants d’iCloud”, a écrit Gardner à Cook. «Je fais partie d’une initiative en développement impliquant des experts et des défenseurs de la sécurité des enfants qui ont l’intention de dialoguer avec vous et votre entreprise, Apple, sur votre retard continu dans la mise en œuvre d’une technologie critique… L’abus sexuel sur les enfants est une question difficile dont personne ne veut parler. à propos, c’est pourquoi il est réduit au silence et laissé de côté. Nous sommes là pour faire en sorte que cela n’arrive pas.

Lire aussi  Très fonctionnel et adaptable, nouveau monospace SpaceTourer

2023-08-31 22:32:43
1693524316


#décision #dApple #supprimer #son #outil #numérisation #photos #CSAM #suscite #une #nouvelle #controverse

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT