Nouvelles Du Monde

Apple a supprimé la fonction d’analyse CSAM

Apple a supprimé la fonction d’analyse CSAM

Apple l’année dernière iOS Avec la mise à jour 15.2, il a annoncé qu’il numériserait les photos iCloud avec la fonction CSAM. De cette façon, le géant de la technologie coopérerait avec la police en découvrant si un utilisateur commet des abus envers des enfants. Cependant, le porte-parole d’Apple a partagé avec sa déclaration qu’ils avaient abandonné cette fonctionnalité et pourquoi. Alors, qu’a dit Apple à propos de la suppression de la fonction d’analyse CSAM ? Découvrons ensemble les détails de l’actualité.

Apple confirme avoir supprimé le scan CSAM

Parallèlement à la fonction d’analyse CSAM, Apple a également apporté des modifications à l’application Messages, telles que le renforcement du contrôle parental, Siri et l’application Recherche. Immédiatement après que le géant de la technologie a annoncé ces fonctionnalités, de nombreux clients Apple ont réagi en disant que les photos iCloud ne devaient pas être numérisées pour des raisons de confidentialité.

Bien qu’Apple ait déclaré qu’il protégera la vie privée de ses utilisateurs sur le sujet et que les tiers ne peuvent pas accéder aux données, cela n’a pas fonctionné. Les gens n’étaient pas satisfaits de la surveillance et du dépistage de l’entreprise dans d’autres domaines.

Lire aussi  Uber lance le défi « Sustainovate » pour stimuler la mobilité durable en Inde Par Investing.com


Apple annonce trois nouvelles fonctionnalités pour améliorer la sécurité sur les iPhones

Apple annonce trois nouvelles fonctionnalités pour améliorer la sécurité sur les iPhones

Le géant de la technologie Apple introduira trois nouvelles fonctionnalités l’année prochaine pour renforcer la sécurité des produits iPhone ! Voici les détails..

Craig Federighi, vice-président du génie logiciel d’Apple, a confirmé au Wall Street Journal qu’ils avaient supprimé la fonction de numérisation CSAM. Il a déclaré que d’autres fonctionnalités apportées avec lui sont toujours utilisées. De plus, il a expliqué qu’ils dépensent leur énergie pour prévenir la maltraitance des enfants avant qu’elle ne se produise. Le géant de la technologie avait également supprimé les informations sur CSAM sur son site officiel en 2021. Cependant, il n’y a pas eu de déclaration officielle à ce sujet.

Apple a fait les déclarations suivantes à ce sujet :

“Nous avons décidé de ne pas utiliser l’outil de détection CSAM que nous avions précédemment recommandé pour iCloud Photos. Nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les enfants et les jeunes, à protéger leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous, même sans que les entreprises ne scannent les données personnelles.

Que pensez-vous, nos lecteurs, de ce problème ? Pensez-vous qu’il est vrai qu’Apple a parlé de la suppression de la fonction de détection CSAM ? Vous pouvez exprimer votre point de vue dans la section Commentaires.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT