Nouvelles Du Monde

Annonce approuvée par Facebook appelant à l’assassinat d’un militant pro-palestinien

Annonce approuvée par Facebook appelant à l’assassinat d’un militant pro-palestinien

2023-11-21 21:16:24

Une série de les publicités déshumanisantes et appelant à la violence contre les Palestiniens, destinées à tester les normes de modération des contenus de Facebook, ont toutes été approuvées par le réseau social, selon des documents partagés avec The Intercept.

Les publicités soumises, en hébreu et en arabe, incluaient des violations flagrantes des politiques de Facebook et de sa société mère Meta. Certaines contenaient des contenus violents appelant directement au meurtre de civils palestiniens, comme des publicités exigeant un « holocauste pour les Palestiniens » et l’élimination « des femmes, des enfants et des personnes âgées de Gaza ». D’autres messages, comme ceux décrivant les enfants de Gaza comme de « futurs terroristes » et faisant référence aux « porcs arabes », contenaient un langage déshumanisant.

“L’approbation de ces publicités n’est que le dernier d’une série d’échecs de Meta envers le peuple palestinien.”

« L’approbation de ces publicités n’est que le dernier d’une série d’échecs de Meta envers le peuple palestinien », a déclaré à The Intercept Nadim Nashif, fondateur du groupe palestinien de recherche et de défense des médias sociaux 7amleh, qui a soumis les publicités tests. « Tout au long de cette crise, nous avons constaté une persistance des préjugés et de la discrimination de Meta à l’égard des Palestiniens. »

L’idée de 7amleh de tester le dispositif de censure d’apprentissage automatique de Facebook est née le mois dernier, lorsque Nashif a découvert une publicité sur son fil Facebook appelant explicitement à l’assassinat du militant américain Paul Larudee, co-fondateur du Free Gaza Movement. La traduction automatique du texte publicitaire par Facebook disait : « Il est temps d’assassiner Paul Larudi. [sic], le terroriste antisémite et ‘des droits de l’homme’ des États-Unis.» Nashif a signalé l’annonce à Facebook et elle a été supprimée.

L’annonce a été placée par Ad Kan, un groupe israélien de droite fondé par d’anciens membres des Forces de défense israéliennes et des officiers du renseignement pour lutter contre les « organisations anti-israéliennes » dont le financement provient de sources prétendument antisémites, selon son site Internet. (Ni Larudee ni Ad Kan n’ont immédiatement répondu aux demandes de commentaires.)

Appeler à l’assassinat d’un militant politique constitue une violation des règles de Facebook en matière de publicité. Le fait que le message sponsorisé par Ad Kan soit apparu sur la plateforme indique que Facebook l’a approuvé malgré ces règles. La publicité a probablement été filtrée par le processus automatisé de Facebook, basé sur l’apprentissage automatique, qui permet à son activité publicitaire mondiale de fonctionner rapidement.

Lire aussi  Gummies : Qu'est-ce qui rend les gommes dures ou molles ?

« Notre système d’examen des annonces est conçu pour examiner toutes les annonces avant leur mise en ligne » selon à un aperçu de la politique publicitaire de Facebook. Alors que la modération humaine de Meta, qui reposait historiquement presque entièrement sur le travail d’entrepreneurs externalisés, a suscité un examen plus minutieux et des critiques, l’entreprise en est venue à s’appuyer davantage sur un logiciel automatisé d’analyse de texte pour faire respecter ses règles de parole et ses politiques de censure.

Si ces technologies permettent à l’entreprise d’éviter les problèmes de travail associés aux modérateurs humains, elles occultent également la manière dont les décisions de modération sont prises derrière des algorithmes secrets.

L’année dernière, un audit externe commandé par Meta a révélé que même si l’entreprise utilisait régulièrement la censure algorithmique pour supprimer les publications en arabe, l’entreprise ne disposait d’aucun algorithme équivalent pour détecter les « discours hostiles en hébreu » comme la rhétorique raciste et l’incitation à la violence. À la suite de l’audit, Meta a affirmé avoir « lancé un classificateur de « discours hostiles » en hébreu pour nous aider à détecter de manière proactive davantage de contenus en hébreu violant l’hébreu. » Du contenu, c’est-à-dire comme une publicité prônant le meurtre.

Incitation à la violence sur Facebook

Au milieu de la guerre israélienne contre les Palestiniens à Gaza, Nashif était suffisamment troublé par l’appel explicite au meurtre de Larudee dans la publicité pour craindre que des postes rémunérés similaires ne contribuent à la violence contre les Palestiniens.

L’incitation à la violence à grande échelle, passant des réseaux sociaux au monde réel, n’est pas une simple hypothèse : en 2018, des enquêteurs des Nations Unies trouvé Les publications Facebook violemment incendiaires ont joué un « rôle déterminant » dans le génocide des Rohingyas au Myanmar. (L’année dernière, un autre groupe a diffusé des publicités tests incitant contre les Rohingyas, un projet allant dans le même sens que l’expérience de 7amleh ; dans ce cas, toutes les annonces ont également été approuvées.)

La suppression rapide du message de Larudee n’explique pas comment l’annonce a été approuvée en premier lieu. À la lumière des assurances de Facebook selon lesquelles des garanties étaient en place, Nashif et 7amleh, qui s’associent officiellement à Meta sur les questions de censure et de liberté d’expression, sont restés perplexes.

« Meta a l’habitude de ne pas en faire assez pour protéger les communautés marginalisées. »

Lire aussi  Quelle quantité d’eau y a-t-il dans la croûte terrestre ?

Curieux de savoir si l’approbation était un hasard, 7amleh a créé et soumis 19 annonces, en hébreu et en arabe, avec des textes délibérément en violation des règles de l’entreprise – un test pour Meta et Facebook. Les publicités de 7amleh ont été conçues pour tester le processus d’approbation et voir si la capacité de Meta à filtrer automatiquement les incitations à la violence et au racisme s’était améliorée, même avec des exemples sans ambiguïté d’incitation à la violence.

« Nous savions, grâce à l’exemple de ce qui est arrivé aux Rohingyas au Myanmar, que Meta avait l’habitude de ne pas en faire assez pour protéger les communautés marginalisées », a déclaré Nashif, « et que leur système de gestion des publicités était particulièrement vulnérable. »

Meta semble avoir échoué au test de 7amleh.

Le règlement des normes communautaires de l’entreprise – auquel les publicités sont censées se conformer pour être approuvées – interdit non seulement les textes incitant à la violence, mais également toute déclaration déshumanisante contre des personnes en raison de leur race, de leur origine ethnique, de leur religion ou de leur nationalité. Malgré cela, les e-mails de confirmation partagés avec The Intercept montrent que Facebook a approuvé chaque annonce.

Bien que 7amleh ait déclaré à The Intercept que l’organisation n’avait pas l’intention de diffuser ces publicités et qu’elle allait les retirer avant la date prévue de leur diffusion, elle estime que leur approbation démontre que la plateforme sociale reste fondamentalement myope à l’égard des discours non anglais – des langues utilisées par un grand nombre de personnes. majorité de ses plus de 4 milliards d’utilisateurs. (Meta a rejeté rétroactivement les publicités en hébreu de 7amleh après que The Intercept les ait portées à l’attention de l’entreprise, mais les versions arabes restent approuvées dans le système publicitaire de Facebook.)

La porte-parole de Facebook, Erin McPike, a confirmé que les publicités avaient été approuvées accidentellement. “Malgré nos investissements continus, nous savons qu’il y aura des exemples de choses que nous manquerons ou que nous supprimerons par erreur, car les machines et les gens commettent des erreurs”, a-t-elle déclaré. “C’est pourquoi les annonces peuvent être examinées plusieurs fois, y compris une fois qu’elles sont mises en ligne.”

Quelques jours seulement après l’approbation de ses propres publicités expérimentales, 7amleh a découvert une publicité en arabe diffusée par un groupe se faisant appeler « Migrer maintenant » et appelant aux « Arabes de Judée et de Sumaria » – le nom que les Israéliens, en particulier les colons, utilisent pour désigner l’Ouest palestinien occupé. Banque – pour déménager en Jordanie.

Lire aussi  Trois infections à Covid sur 100 durent un mois ou plus

D’après la documentation Facebook, le filtrage automatisé et basé sur un logiciel est la « principale méthode » utilisée pour approuver ou refuser les annonces. Mais il n’est pas clair si les algorithmes de « discours hostiles » utilisés pour détecter les messages violents ou racistes sont également utilisés dans le processus d’approbation des publicités. Dans sa réponse officielle à l’audit de l’année dernière, Facebook a déclaré que son nouveau classificateur en langue hébraïque « améliorerait considérablement » sa capacité à gérer les « pics majeurs de violations de contenu », comme lors des flambées de conflit entre Israël et la Palestine. Cependant, d’après l’expérience de 7amleh, ce classificateur ne fonctionne pas très bien ou n’est pas utilisé pour une raison quelconque pour filtrer les publicités. (McPike n’a pas répondu lorsqu’on lui a demandé si l’approbation des publicités de 7amleh reflétait un problème sous-jacent avec le classificateur de discours hostile.)

Quoi qu’il en soit, selon Nashif, le fait que ces publicités aient été approuvées indique un problème global : Meta prétend pouvoir utiliser efficacement l’apprentissage automatique pour dissuader l’incitation explicite à la violence, alors qu’il ne le peut clairement pas.

« Nous savons que les classificateurs hébreux de Meta ne fonctionnent pas efficacement, et nous n’avons vu la société répondre à presque aucune de nos préoccupations », a déclaré Nashif dans son communiqué. « En raison de ce manque d’action, nous pensons que Meta pourrait être au moins partiellement responsable de certains des préjudices et de la violence que subissent les Palestiniens sur le terrain. »

L’approbation des versions arabes des publicités est une surprise particulière suite à un récent rapport du Wall Street Journal que Meta avait abaissé le niveau de certitude dont son système de censure algorithmique avait besoin pour supprimer les publications en arabe – de 80 pour cent de confiance que la publication enfreignait les règles, à seulement 25 pour cent. En d’autres termes, Meta était moins sûre que les messages en arabe qu’elle supprimait ou supprimaient contenaient réellement des violations de sa politique.

Nashif a déclaré : « Des actions soutenues ont eu pour résultat de réduire au silence les voix palestiniennes. »



#Annonce #approuvée #par #Facebook #appelant #lassassinat #dun #militant #propalestinien
1700592731

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT