Mise à jour : Republié le 25 avril avec des instructions sur la désactivation de l’IA dans Google Messages et WhatsApp, ainsi qu’une nouvelle option de confidentialité de la messagerie pour des milliards d’utilisateurs.
À l’époque, Google assurait que SafetyCore était un cadre facilitateur et ne commencerait pas à analyser les photos ou d’autres contenus. La nouvelle application, disait-on, « fournit une infrastructure sur l’appareil pour effectuer de manière sécurisée et privée une classification afin d’aider les utilisateurs à détecter les contenus indésirables. les utilisateurs contrôlent SafetyCore, et SafetyCore ne classe que des contenus spécifiques lorsqu’une application le demande via une fonctionnalité activée en option. »
Ce moment est arrivé avec Google Messages. Comme l’a rapporté un site spécialisé, « Google Messages déploie des avertissements de contenu sensible qui floutent les images de nudité sur Android. » Non seulement il floute le contenu, mais il avertit également que ces images peuvent être nuisibles et offre des options pour afficher le contenu explicite ou bloquer des numéros.
Cette analyze par IA a lieu sur l’appareil, et Google assure également que rien ne leur est renvoyé. Un spécialiste d’Android a confirmé cette affirmation : SafetyCore « ne fournit pas d’analyse côté client utilisée pour signaler des éléments à Google ou à qui que ce soit d’autre. Il fournit des modèles d’apprentissage automatique sur l’appareil utilisables par les applications pour classer le contenu comme étant du spam, des escroqueries, des logiciels malveillants, etc. Cela permet aux applications de vérifier le contenu localement sans le partager avec un service et de le marquer avec des avertissements pour les utilisateurs. »
Ce spécialiste a également déploré le fait que « ce ne soit pas open source et publié dans le cadre du projet Android Open Source et que les modèles ne soient pas non plus ouverts, et encore moins open source… Nous n’aurions aucun problème avec les fonctionnalités de réseau neuronal local pour les utilisateurs, mais elles devraient être open source. » Retour à ce point de secret, encore une fois.
La mise à jour de Google Messages était attendue. La question est maintenant de savoir ce qui va suivre. le risque est que cette capacité soit introduite au même moment où le contenu utilisateur sécurisé et chiffré subit une pression croissante de la part des législateurs et des agences de sécurité du monde entier. Chaque fois qu’une telle technologie est introduite, les défenseurs de la vie privée réagissent.
Pour l’instant, la fonctionnalité est désactivée par défaut pour les adultes, mais activée par défaut pour les enfants. Les adultes peuvent décider d’activer les nouvelles mesures de sécurité dans les paramètres de Google Messages, sous Protection et sécurité — Gérer les avertissements de contenu sensible. Selon l’âge
Google Messages et la détection de contenu sensible : Ce qu’il faut savoir
Mise à jour: Republié le 25 avril avec des instructions sur la désactivation de l’IA dans Google Messages et WhatsApp, ainsi qu’une nouvelle option de confidentialité de la messagerie.
Introduction
Google introduit une nouvelle fonctionnalité dans Google Messages qui utilise l’IA pour détecter le contenu sensible,plus précisément les images de nudité. Cette fonctionnalité soulève des questions importantes concernant la vie privée et la sécurité des utilisateurs.
Qu’est-ce que SafetyCore ?
SafetyCore est le cadre utilisé par Google pour effectuer cette analyse sur l’appareil. Google affirme que :
SafetyCore n’analyse pas les photos ou autres contenus.
Les utilisateurs contrôlent SafetyCore.
SafetyCore classe le contenu uniquement lorsque les applications le demandent, via une fonctionnalité optionnelle activée.
L’analyse se fait localement, sur l’appareil, et aucune donnée n’est renvoyée à Google.
Comment cela fonctionne-t-il dans Google Messages ?
Google Messages floute les images de nudité.
Il avertit les utilisateurs que ces images peuvent être nuisibles.
Il offre des options pour afficher le contenu ou bloquer les numéros.
Préoccupations et critiques
Secret : SafetyCore n’est pas open source, ce qui signifie que son fonctionnement interne n’est pas accessible au public.
Pression législative : L’introduction de cette technologie intervient dans un contexte de pression croissante des législateurs et des agences de sécurité du monde entier concernant le contenu utilisateur sécurisé et chiffré.
Instructions pour les utilisateurs
La fonctionnalité est désactivée par défaut pour les adultes.
Elle est activée par défaut pour les enfants.
Les adultes peuvent activer les mesures de sécurité dans Google Messages, sous : Protection et sécurité — Gérer les avertissements de contenu sensible.
FAQ
SafetyCore envoie-t-il mes données à Google ? Non, l’analyse se fait localement, sur votre appareil.
Comment puis-je désactiver cette fonctionnalité ? Pour les adultes, cela peut être désactivé dans les paramètres de Google Messages.
* Est-ce open source ? Non, SafetyCore n’est pas open source.