Facebook va commencer à supprimer des messages qui pourraient conduire à la violence

Facebook va commencer à supprimer des messages qui pourraient conduire à la violence

Facebook
Inc.

FB -0,30%

a déclaré mercredi qu'il va commencer à éliminer la désinformation qui pourrait déclencher la violence, une réponse aux critiques croissantes que le flux de rumeurs sur sa plate-forme a conduit à des dommages physiques aux personnes dans les pays du monde entier.

La nouvelle politique est un changement dans l'approche plus large de Facebook à la désinformation, qui jusqu'à présent a été axée sur la suppression de sa popularité sur la plate-forme sans scrub le contenu problématique entièrement. Mais l'entreprise a également été confrontée à plus de questions sur le rôle de la plate-forme en tant que vecteur de fausses informations susceptibles d'attiser les tensions sociales.

Facebook s'appuiera sur les organisations locales de son choix pour décider si des messages spécifiques contiennent de fausses informations et pourraient mener à la violence physique, ont indiqué des responsables de l'entreprise. Si les deux sont vraies, les messages seront supprimés.

Une porte-parole de Facebook a déclaré que l'entreprise mettrait en œuvre la nouvelle politique au Sri Lanka et plus tard au Myanmar, deux pays où des personnes et des groupes ont utilisé Facebook pour répandre des rumeurs qui mènent finalement à la violence physique. Les attaques dans ces pays ont attiré l'attention des médias.

"Il y a eu des cas de désinformation qui n'ont pas violé nos normes communautaires distinctes mais qui ont contribué à la violence physique dans les pays du monde entier", a déclaré

      Tessa Lyons,

       un chef de produit sur le fil de nouvelles de Facebook, citant spécifiquement le Sri Lanka et le Myanmar. "Il s'agit d'une nouvelle politique créée à cause de ces commentaires et de ces conversations."

La nouvelle politique soulève des questions que les responsables de l'entreprise ont déclaré être trop tôt pour répondre, y compris qui seront ses partenaires et quels seront les critères pour en devenir un. Une porte-parole de Facebook a déclaré qu'elle ne pouvait pas fournir une liste des organisations sur Facebook pour faire équipe avec ou des pays où ils pourraient déployer cette nouvelle politique.

On ne sait pas non plus comment ces partenaires détermineront si le contenu est faux ou s'il pourrait mener à la violence. Il n'était pas non plus clair comment Facebook garantirait que ces organisations restent indépendantes ou relativement libres de tout parti pris politique.

Mme Lyons a déclaré que Facebook était au début de la création de ces politiques et n'avait pas de détails à partager publiquement. Dans une interview, elle a déclaré que Facebook s'appuierait sur le jugement des organisations extérieures parce qu'elles ont «un contexte local et une expertise locale».

Facebook s'est appuyé sur des organisations tierces pour l'aider à naviguer dans d'autres problèmes épineux dans le passé. En décembre 2016, alors qu'il faisait face à des pressions croissantes pour permettre à la désinformation de proliférer sur la plate-forme pendant les élections américaines, Facebook a annoncé qu'il ferait équipe avec des organisations de vérification des faits aux États-Unis pour aider à supprimer les fausses nouvelles. Les organisations déterminent quelles revendications sont vraies et fausses. Si un nombre suffisant d'organisations disent que c'est faux, Facebook abaissera le classement des publications.

La société de médias sociaux a eu du mal à répondre à la critique selon laquelle ses politiques de contenu et son application de la loi ne parviennent pas à atténuer les dommages sociaux causés par la désinformation, dont certains incluent la violence physique. Directeur général

      Mark Zuckerberg

       a dit que c'est la responsabilité de Facebook de gérer les inconvénients de sa plate-forme.

Plus tôt ce mois-ci, le gouvernement indien a réprimandé le service de messagerie WhatsApp, propriété de Facebook, pour avoir laissé circuler des rumeurs et de faux rapports après une série d'attaques meurtrières contre des victimes accusées à tort d'enlèvement d'enfants.

La semaine dernière, les responsables de Facebook ont ​​dû répondre à des questions répétées des législateurs et des journalistes sur la raison pour laquelle l'entreprise autorise InfoWars, un site qui a diffusé des théories conspirationnistes discréditées sur les fusillades et d'autres problèmes, à rester sur le site. Mardi, un responsable de l'entreprise a déclaré lors d'une audition au Congrès que InfoWars n'avait pas encore atteint le seuil requis pour retirer la page de Facebook, sans expliquer le seuil.

Dans une interview avec Recode publiée mercredi, M. Zuckerberg a suscité plus de controverse quand il a déclaré que la négation de l'Holocauste devrait être une forme de discours protégée sur Facebook. "Je ne crois pas que notre plate-forme devrait l'abattre parce que je pense qu'il y a des choses que différentes personnes se trompent", a-t-il dit. "Je ne pense pas qu'ils se trompent intentionnellement."

Jonathan Greenblatt,

       le directeur général de l'Anti-Defamation League, a déclaré que ce discours provoque des dommages. "Le déni de l'Holocauste est une tactique délibérée, délibérée et de longue date de la part des antisémites qui est indiscutablement haineuse, blessante et menaçante pour les Juifs", a déclaré M. Greenblatt dans un communiqué. "Facebook a une obligation morale et éthique de ne pas permettre sa diffusion."

Écrire à Deepa Seetharaman à Deepa.Seetharaman@wsj.com

.

Leave a comment

Send a Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.