Nouvelles Du Monde

Le propre conseil de surveillance de Facebook critique son programme spécial pour les VIP

Le propre conseil de surveillance de Facebook critique son programme spécial pour les VIP

Un programme Facebook et Instagram qui accorde aux célébrités, politiciens et autres utilisateurs de premier plan un traitement spécial fait plus pour les intérêts commerciaux de la société mère Meta que son objectif déclaré de protéger les droits de liberté d’expression des utilisateurs, selon le conseil de surveillance de Meta.

“Le programme de contre-vérification de Meta donne la priorité aux utilisateurs influents et puissants de la valeur commerciale de Meta et, tel que structuré, ne répond pas aux responsabilités de Meta en matière de droits de l’homme et aux valeurs de l’entreprise, avec de profondes implications pour les utilisateurs et la société civile mondiale”, a déclaré Thomas Hughes, directeur du conseil de surveillance, dans une déclaration.

Le conseil d’administration a déclaré que Meta semblait plus soucieux d’éviter de “provoquer” les VIP et d’échapper aux accusations de censure que d’équilibrer les questions délicates de liberté d’expression et de sécurité.

Il a appelé à la refonte du programme “imparfait” dans un rapport publié mardi qui comprenait des recommandations de grande envergure pour aligner le programme sur les principes internationaux et les propres valeurs déclarées de Meta.

Meta a déclaré dans un communiqué qu’il examinerait et répondrait aux recommandations du conseil – qui ne sont pas contraignantes – dans les 90 jours.

Le rapport arrive plus d’un an après que Meta ait demandé au planche – un groupe d’experts en droit, droits de l’homme et journalisme du monde entier, que l’entreprise a réuni et financé par une fiducie indépendante – pour examiner le programme, connu sous le nom de “recoupement“, qui avait été mis en évidence dans les révélations d’un lanceur d’alerte dans le le journal Wall Street.

Dans le cadre du programme, Meta maintient une liste d’utilisateurs, y compris des politiciens, des célébrités et des partenaires commerciaux – tels que des annonceurs, des organisations de santé et des éditeurs de presse – qui sont éligibles pour un examen supplémentaire si leurs messages sont soupçonnés d’enfreindre les règles de l’entreprise contre la violence, les discours de haine , la désinformation, la nudité et d’autres sujets. Dans certains cas, leurs messages sont entièrement exemptés des règles de Meta.

Les documents fournis au le journal Wall Street a révélé que l’ancien président Donald Trump et son fils Donald Trump Jr., la sénatrice démocrate Elizabeth Warren du Massachusetts, l’activiste conservatrice Candace Owens, la star du football brésilien Neymar et même le PDG de Meta Mark Zuckerberg faisaient partie de la liste des VIP.

Le conseil d’administration trouve que la “vérification croisée” prétend protéger les personnes vulnérables, mais profite en pratique aux puissants

Meta dit que le programme est destiné à résoudre un problème épineux.

Lire aussi  Comment modifier les messages envoyés dans WhatsApp

Les utilisateurs de Facebook et d’Instagram créent des milliards de messages chaque jour, ce qui signifie que l’entreprise dépend d’une combinaison d’examinateurs humains et de systèmes automatisés pour trouver et supprimer le contenu qui enfreint ses règles. Mais compte tenu de cette ampleur, il est inévitable que certains messages enfreignent à tort les politiques – ce que l’entreprise appelle des “faux positifs”.

La contre-vérification vise à réduire les faux positifs dans les cas où le risque et le préjudice potentiel d’une erreur sont les plus grands.

“Le système de contre-vérification a été conçu pour éviter les erreurs potentielles de sur-application et pour revérifier les cas où, par exemple, une décision pourrait nécessiter plus de compréhension ou il pourrait y avoir un risque plus élevé d’erreur”, a déclaré Nick Clegg, vice-président de Meta. des affaires mondiales, a écrit l’année dernière, lorsque l’entreprise a demandé au conseil d’administration d’intervenir. À titre d’exemple, il a cité des militants sensibilisant à la violence, des journalistes couvrant des zones de conflit et des messages provenant de pages ou de profils “à haute visibilité” susceptibles d’être vus par un grand nombre de personnes.

Mais le conseil a constaté dans son rapport que “bien que Meta caractérise la contre-vérification comme un programme visant à protéger les voix vulnérables et importantes, il semble être plus directement structuré et calibré pour répondre aux préoccupations des entreprises”.

Par exemple, le conseil a déclaré, sur la base de son examen, que l’une des principales raisons de la façon dont Meta examine les publications des utilisateurs sur la liste de vérification croisée “est d’éviter de provoquer des personnes” qui pourraient se plaindre aux cadres supérieurs ou “créer une controverse publique” pour Meta.

“La corrélation de la priorité la plus élevée dans la vérification croisée avec les préoccupations concernant la gestion des relations commerciales suggère que les conséquences que Meta souhaite éviter sont principalement liées aux entreprises et non aux droits de l’homme”, indique le rapport.

En outre, l’entreprise semble donner la priorité à éviter la “perception de censure” par rapport à ses autres responsabilités en matière de droits de l’homme, a déclaré le conseil d’administration.

Fondamentalement, le conseil a conclu que le programme de contre-vérification traite les utilisateurs de manière inégale, malgré les déclarations de Meta selon lesquelles tout le monde doit suivre les mêmes règles.

“La contre-vérification accorde à certains utilisateurs une plus grande protection que d’autres”, indique le rapport.

De plus, selon le conseil d’administration, le programme surreprésente les utilisateurs et le contenu des États-Unis et du Canada – des marchés où Meta génère le plus de revenus par utilisateur – même si la grande majorité des près de 3 milliards d’utilisateurs mensuels de Facebook vivent ailleurs.

Lire aussi  Si vous êtes né en automne, vous vivrez probablement plus longtemps : la science le dit

“Grâce à la conception de la vérification croisée, les utilisateurs des marchés lucratifs présentant un risque accru d’implications de relations publiques pour Meta bénéficient d’un plus grand droit à la protection de leur contenu et de leur expression que ceux d’ailleurs”, a déclaré le conseil.

Cette inégalité est exacerbée par le manque de transparence quant aux participants au programme. Le conseil d’administration a déclaré que Meta ne partagerait pas les profils, les pages et les comptes – que la société appelle des «entités» – sont inclus dans la vérification croisée, citant des obligations légales de protection de la vie privée des utilisateurs.

“Le conseil d’administration ne peut pas pleinement évaluer le degré auquel l’entreprise s’acquitte de ses responsabilités en matière de droits de l’homme dans le cadre du programme ou le profil des entités qui bénéficient d’un examen renforcé s’il ne sait pas comment le programme est mis en œuvre et précisément qui en bénéficie, ” dit le rapport.

Le conseil a noté qu’au cours de l’année écoulée, Meta a élargi la vérification croisée pour examiner le contenu qui pourrait être à haut risque d’être supprimé par erreur, même si les personnes qui le publient ne sont pas incluses dans les listes de vérification croisée.

Mais il a déclaré que la capacité limitée de l’entreprise à examiner le contenu signifiait que bon nombre de ces messages n’obtenaient jamais le même niveau d’examen supplémentaire que ceux des utilisateurs de haut niveau du programme.

56 millions de vues avant que le message enfreignant les règles de la star du football Neymar ne soit supprimé

Le rapport a également critiqué la politique de Meta consistant à laisser visibles les messages potentiellement enfreignant les règles d’utilisateurs de haut niveau pendant leur examen. En moyenne, les examens croisés prennent plus de cinq jours. Dans le cas le plus long que Meta a partagé avec le conseil d’administration, cela a pris sept mois.

“Cela signifie qu’en raison de la vérification croisée, le contenu identifié comme enfreignant les règles de Meta est laissé sur Facebook et Instagram lorsqu’il est le plus viral et pourrait causer des dommages”, a écrit le conseil.

Un exemple notoire cité par le conseil était une vidéo publiée par Neymar en 2019 qui comprenait des photos d’une femme qui l’avait accusé de viol. La vidéo a été vue 56 millions de fois sur Facebook et Instagram avant d’être supprimée, le le journal Wall Street signalé.

Le conseil d’administration a blâmé les ressources insuffisantes pour examiner les publications signalées dans le cadre du programme de vérification croisée, ainsi que l’incapacité de Meta à agir correctement de toute urgence sur les violations potentielles de “haute gravité”.

Lire aussi  Jules Hoffman de YouTube Kids Show "Songs for Littles" fait face à un contrecoup

“Dans l’affaire Neymar, il est difficile de comprendre comment des images intimes non consensuelles publiées sur un compte comptant plus de 100 millions de followers ne se seraient pas hissées en tête de liste pour un examen rapide et de haut niveau si un système de priorisation avait été mis en place. en place », indique le rapport.

“Compte tenu de la gravité de la violation de la politique et de l’impact sur la victime, cette affaire met en évidence la nécessité pour Meta d’adopter différentes approches pour le contenu en attente d’examen et de raccourcir les délais d’examen”, a-t-il déclaré.

De plus, le conseil a constaté que Meta n’avait pas appliqué ses règles habituelles à Neymar après l’incident.

“La société a finalement révélé que la seule conséquence était la suppression du contenu et que la sanction normale aurait été la désactivation du compte”, indique le rapport. Il a noté qu’en décembre 2021, Meta avait annoncé un accord de streaming exclusif avec la star du football.

Le conseil d’administration demande plus de transparence

Enfin, a déclaré le conseil d’administration, Meta ne suit pas les mesures qui montreraient si les couches d’examen supplémentaires fournies par le programme de vérification croisée entraînent des appels plus précis pour savoir si un message doit rester en place ou descendre que le processus d’application normal de l’entreprise.

“Meta ne se demande pas si les décisions finales sont les bonnes décisions”, indique le rapport.

Le conseil d’administration a formulé 32 recommandations sur la manière dont Meta devrait réorganiser le programme pour remédier aux défauts qu’il a trouvés et être à la hauteur de sa réputation de protection des droits de l’homme.

Cela inclut de rendre publics les critères d’inclusion dans le programme, de permettre aux gens de postuler pour en faire partie et d’étiqueter publiquement certains comptes, y compris les responsables gouvernementaux, les candidats politiques et les partenaires commerciaux.

L’entreprise doit également supprimer les comptes de la vérification croisée s’ils enfreignent les règles à plusieurs reprises et consacrer davantage de ressources à l’examen du contenu.

“Meta a la responsabilité de relever ses défis de modération de contenu de manière à profiter à tous les utilisateurs et pas seulement à quelques privilégiés”, indique le rapport.

Meta a déclaré qu’au cours de l’année écoulée, il avait amélioré le système de vérification croisée, notamment en développant des principes et des critères de gouvernance “standardisés”, en limitant le nombre d’employés pouvant ajouter des utilisateurs au programme et en créant un processus d’examen et de suppression des utilisateurs.

Droits d’auteur 2022 NPR. Pour en savoir plus, visitez https://www.npr.org.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT