Nouvelles Du Monde

Apple explique plus clairement pourquoi il a abandonné son projet de détection CSAM dans les photos iCloud

Apple explique plus clairement pourquoi il a abandonné son projet de détection CSAM dans les photos iCloud

Apple a fourni jeudi son explication la plus complète à ce jour pour l’abandon l’année dernière de son projet controversé visant à détecter les éléments connus d’abus sexuels sur des enfants (CSAM) stockés dans iCloud Photos.

Déclaration d’Apple, partagée avec Filaire et reproduit ci-dessous, est venu en réponse à la demande du groupe de sécurité des enfants Heat Initiative selon laquelle l’entreprise « détecte, signale et supprime » les CSAM d’iCloud et offre davantage d’outils permettant aux utilisateurs de signaler ce contenu à l’entreprise.

“Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à briser la chaîne de coercition et d’influence qui rend les enfants vulnérables”, a écrit Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants chez Apple, dans la réponse de l’entreprise à Heat Initiative. Il a cependant ajouté qu’après avoir collaboré avec un ensemble de chercheurs en matière de confidentialité et de sécurité, de groupes de défense des droits numériques et de défenseurs de la sécurité des enfants, la société a conclu qu’elle ne pouvait pas poursuivre le développement d’un mécanisme d’analyse CSAM, même s’il était spécialement conçu pour préserver la vie privée. .

“L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter”, a écrit Neuenschwander. “Cela pourrait également entraîner une pente glissante avec des conséquences inattendues. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.”

En août 2021, Apple a annoncé son intention de créer trois nouvelles fonctionnalités de sécurité pour les enfants, notamment un système permettant de détecter les images CSAM connues stockées dans ‌iCloud Photos‌, une option de sécurité des communications qui brouille les photos sexuellement explicites dans l’application Messages et des ressources sur l’exploitation des enfants pour Siri. Communication Safety a été lancé aux États-Unis avec iOS 15.2 en décembre 2021 et s’est depuis étendu au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande, et les ressources ‌Siri‌ sont également disponibles, mais la détection CSAM n’a jamais fini par être lancée.

Lire aussi  Nouvelle fonctionnalité de WhatsApp qui vous fait vous demander où vous étiez ! Maintenant que cet effort se termine avec la mise à jour, voici la dernière innovation

Apple a initialement déclaré que la détection CSAM serait implémentée dans une mise à jour d’iOS 15 et d’iPadOS 15 d’ici la fin de 2021, mais la société a reporté la fonctionnalité en fonction des « commentaires des clients, des groupes de défense, des chercheurs et autres ». Ces projets ont été critiqués par un large éventail d’individus et d’organisations, notamment des chercheurs en sécurité, l’Electronic Frontier Foundation (EFF), des politiciens, des groupes politiques, des chercheurs universitaires et même certains employés d’Apple.

La dernière réponse d’Apple à ce problème intervient à un moment où le débat sur le chiffrement a été relancé par le gouvernement britannique, qui est envisage de modifier la législation sur la surveillance cela obligerait les entreprises technologiques à désactiver les fonctionnalités de sécurité telles que le cryptage de bout en bout sans en informer le public.

Apple affirme qu’elle supprimera les services tels que FaceTime et iMessage au Royaume-Uni si la législation est adoptée dans sa forme actuelle.

Lire aussi  Un astéroïde de 110 pieds s'est précipité vers la Terre aujourd'hui, a révélé la NASA

Remarque : En raison de la nature politique ou sociale de la discussion sur ce sujet, le fil de discussion se trouve dans notre Nouvelles politiques forum. Tous les membres du forum et les visiteurs du site sont invités à lire et à suivre le fil de discussion, mais la publication est limitée aux membres du forum ayant au moins 100 messages.

2023-09-01 13:09:09
1693565767


#Apple #explique #clairement #pourquoi #abandonné #son #projet #détection #CSAM #dans #les #photos #iCloud

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT