Facebook affirme que les fermetures de Covid-19 nuisent à sa capacité à lutter contre le suicide, l’automutilation et l’exploitation des enfants

Illustration de l'article intitulé Facebook dit que les arrêts de Covid-19 nuisent à sa capacité à lutter contre le suicide, l'automutilation et l'exploitation des enfants

Photo: Olivier Douliery (Getty Images)

Facebook a déclaré mardi qu’il ne pouvait pas modérer son propre site ou sa filiale Instagram aussi efficacement que possible pour certaines catégories de violations de règles pendant la pandémie du nouveau coronavirus, alors que presque personne n’avait la possibilité de faire appel des décisions de ses modérateurs au deuxième trimestre de 2020.

Par le dernière version de son rapport sur l’application des normes communautaires, qui couvre la période du deuxième trimestre d’avril 2020 à juin 2020, Facebook a pris des mesures contre 1,7 million de contenus qui enfreignaient ses politiques sur le suicide et l’automutilation au premier trimestre, mais seulement 911000 au deuxième trimestre. (Ce nombre est en baisse de 5 millions au quatrième trimestre 2019.) Alors que l’application de la loi contre le contenu en violation des politiques de Facebook sur la nudité des enfants et l’exploitation sexuelle est passée de 8,6 millions à 9,5 millions, elle était en baisse sur Instagram, où le nombre est passé d’environ 1 millions à un peu plus de 479 000. L’application des règles interdisant le contenu sur le suicide et l’automutilation sur Instagram est également passée de 1,3 million d’actions au premier trimestre à 275000 actions au deuxième trimestre. Instagram a renforcé la lutte contre les contenus graphiques et violents, mais sur Facebook, cette catégorie est passée de 25,4 millions d’actions au premier trimestre à 15,1 millions d’actions au deuxième trimestre.

Vice-président Facebook de l’intégrité Guy Rosen écrit dans un article de blog que le plus petit nombre de mesures prises était le résultat direct du coronavirus, car l’application des règles dans ces catégories nécessite une surveillance humaine accrue. De la société force qui souffre depuis longtemps des modérateurs de contenu, dont beaucoup sont des entrepreneurs, ne peuvent pas bien faire leur travail ou pas du tout à domicile, selon Rosen:

Avec moins de critiques de contenu, nous avons pris des mesures sur moins de contenus sur Facebook et Instagram pour le suicide et l’automutilation, ainsi que la nudité infantile et l’exploitation sexuelle sur Instagram. Malgré ces baisses, nous avons priorisé et pris des mesures sur le contenu le plus dangereux de ces catégories. Notre objectif reste de trouver et de supprimer ce contenu tout en augmentant la capacité des réviseurs aussi rapidement et en toute sécurité que possible.

Le rapport ne proposait pas d’estimations de la prévalence de la nudité violente, graphique ou adulte et de l’activité sexuelle sur Facebook ou Instagram, Rosen affirmant que la société «avait priorisé la suppression du contenu préjudiciable plutôt que la mesure de certains efforts».

Le processus d’appel de Facebook, par lequel les utilisateurs peuvent contester une décision de modération, a également stagné à des niveaux proches de zéro dans chaque catégorie. L’entreprise annoncé précédemment en juillet, avec les modérateurs absents du bureau, cela donnerait aux utilisateurs qui souhaitent faire appel «la possibilité de nous dire qu’ils ne sont pas d’accord avec notre décision et nous surveillerons ces commentaires pour améliorer notre précision, mais nous ne réviserons probablement pas le contenu une seconde fois.”

Facebook a pris des mesures sur un nombre beaucoup plus important de publications pour violation des règles contre les discours de haine au deuxième trimestre (22,5 millions, contre 9,6 millions au premier trimestre). Il a écrit dans le rapport que les outils d’apprentissage automatique automatisés détectent désormais 94,5% des discours de haine que l’entreprise finit par supprimer, ce qu’elle attribue au soutien d’un plus grand nombre de langues (anglais, espagnol et birman). La lutte contre le contenu des groupes haineux organisés a chuté (4,7 millions à 4 millions) tandis que celle contre le contenu terroriste a augmenté (6,3 millions à 8,7 millions).

Curieusement, la quantité de contenu qui a ensuite été restaurée sans appel après avoir été supprimée en vertu des règles anti-organisées contre la haine et le terrorisme a explosé au deuxième trimestre; Facebook a restauré 135 000 publications dans la première catégorie et 533 000 dans la seconde. Il ne semble pas que Facebook ait traité un seul appel pour l’une ou l’autre des catégories au deuxième trimestre, ce qui suggère que les modérateurs humains de l’entreprise ont les yeux tournés ailleurs. Facebook ne divulgue pas les données internes susceptibles de montrer la prévalence des discours de haine ou des groupes de haine organisés sur le site.

Gardez à l’esprit que c’est tout selon Facebook, qui a récemment fait l’objet d’accusations ferme les yeux pour juger les violations qui sont politiquement peu pratiques ainsi qu’une employé Se promener et boycott de l’annonceur faire pression sur l’entreprise pour qu’elle fasse plus contre les discours de haine et la désinformation. Par définition, le rapport ne montre que les contenus interdits dont Facebook a déjà connaissance. Des évaluations indépendantes de la gestion par l’entreprise de problèmes tels que le discours de haine n’ont pas toujours reflété l’insistance de Facebook sur le fait que des progrès sont en cours.

Un audit des droits civils sorti en juillet 2020 qui a conclu qu’il n’avait pas réussi à construire une infrastructure des droits civils et a fait des choix «vexants et déchirants» qui ont activement causé «des revers importants pour les droits civils». A Nations Unies rapport en 2019 a évalué la réaction de Facebook aux accusations de complicité dans le génocide des Rohingyas au Myanmar comme lente et médiocre, en particulier en appelant la société pour ne pas en faire assez pour supprimer rapidement le contenu raciste sur le site ou l’empêcher de télécharger par derrière en premier lieu. (Il est possible qu’une partie de la flambée des discours de haine sur Facebook soit due à l’introduction de davantage d’outils de détection en birman, la langue majoritaire du Myanmar.)

On ne sait toujours pas à quel point les outils d’IA de Facebook font leur travail. Professeur agrégé de l’Université de Seattle, Caitlin Carlson dit Wired le discours de haine n’est «pas difficile à trouver» sur le site, et les 9,6 millions de messages que Facebook a déclaré supprimés pour discours de haine au premier trimestre 2020 semblaient très faibles. En janvier 2020, Carlson et un collègue résultats publiés d’une expérience dans laquelle ils ont rassemblé 300 messages qui, selon eux, enfreindraient les normes de l’entreprise et les ont signalés aux modérateurs de Facebook, qui n’en ont retiré qu’environ la moitié. Des groupes dédiés aux théories du complot, comme le extrême droite QAnon un, continuer à courir sur le site et avoir millions de membres. Facebook, ainsi que d’autres sites de médias sociaux, ont également joué un rôle majeur dans la diffusion désinformation sur le coronavirus cette année.

De nombreux modérateurs de Facebook ont ​​commencé à retour au travail. Selon VentureBeat, Facebook a déclaré qu’il travaillait pour voir comment ses mesures peuvent être auditées «le plus efficacement», et a déclaré qu’il appelait à un audit externe et indépendant des données du rapport sur l’application des normes communautaires qu’il prévoit de commencer en 2021.

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.