Le réseau social Tumblr apporte de nouveaux changements pour rester sur l’App Store d’Apple

Le site de microblogging et de réseautage social Tumblr, qui a fait face à une lutte de plusieurs années pour obtenir l’approbation sur l’App Store d’iOS, a déclaré avoir apporté de nouveaux changements afin de rester sur l’App Store d’Apple.

En 2018, l’application iOS de Tumblr a été retirée de l’App Store en vertu de la politique relative aux abus sexuels sur mineurs (CSAM).

Un mois plus tard, la plate-forme a réagi en interdisant tout contenu pornographique et autre contenu sexuellement explicite, entraînant une baisse du trafic mensuel de 29%.

Depuis lors, le trafic Web de la plate-forme est resté relativement stagnant, rapporte The Verge.

“Pour que nous restions dans l’App Store d’Apple et pour que notre application Tumblr iOS soit disponible, nous devions apporter des modifications qui nous aideraient à être plus conformes à leurs politiques concernant le contenu sensible”, a déclaré Tumblr dans un dernier article de blog.

De nombreux utilisateurs de Tumblr viennent sur la plateforme pour parler anonymement de leurs expériences.

La plate-forme a déclaré que “pour ceux d’entre vous qui accèdent à Tumblr via notre application iOS, nous voulions partager qu’à partir d’aujourd’hui, vous pourriez voir des différences pour les termes de recherche et le contenu recommandé pouvant contenir des types spécifiques de contenu sensible”.

“Afin de nous conformer aux directives de l’App Store d’Apple, nous devons ajuster, à court terme, ce à quoi vous pouvez accéder en ce qui concerne le contenu potentiellement sensible lors de l’utilisation de l’application iOS”, a déclaré la plate-forme.

Pour rester disponible dans l’App Store d’Apple, la société a dû étendre la définition de ce qu’est un contenu sensible ainsi que la manière dont ses utilisateurs y accèdent afin de se conformer aux directives d’Apple.

“Nous comprenons que, pour certains d’entre vous, ces changements peuvent être très frustrants – nous comprenons cette frustration et nous sommes désolés pour toute perturbation que ces changements peuvent causer”, a déclaré Tumblr.

La fonction CSAM d’Apple est destinée à protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter.

Cela fait partie des fonctionnalités, notamment l’analyse des bibliothèques de photos iCloud des utilisateurs pour le matériel d’abus sexuel d’enfants (CSAM), la sécurité de la communication pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites et des conseils CSAM étendus dans Siri et Search.

.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT