La rapport par le cabinet de conseil Business for Social Responsibility, est une nouvelle mise en accusation de la capacité de l’entreprise à contrôler sa place publique mondiale et à équilibrer la liberté d’expression contre le potentiel de préjudice dans un contexte international tendu. Il représente également l’un des premiers témoignages d’initiés sur les échecs d’une plateforme sociale en temps de guerre. Et cela renforce les plaintes des militants palestiniens selon lesquelles la censure en ligne leur était plus lourde, comme l’ont rapporté le Washington Post et d’autres médias à l’époque.
“Le rapport du BSR confirme que la censure de Meta a violé le #Palestinien droit à la liberté d’expression parmi d’autres droits de l’homme grâce à sa plus grande application excessive du contenu arabe par rapport à l’hébreu, qui était largement sous-modéré », 7amleh, le Centre arabe pour l’avancement des médias sociaux, un groupe qui défend les droits numériques palestiniens , a déclaré dans un communiqué sur Twitter.
La guerre de mai 2021 a été initialement déclenchée par un conflit concernant une affaire imminente devant la Cour suprême israélienne concernant la question de savoir si les colons avaient le droit d’expulser des familles palestiniennes de leurs maisons dans un quartier contesté de Jérusalem. Au cours de manifestations tendues autour de l’affaire judiciaire, la police israélienne a pris d’assaut la mosquée Al Aqsa, l’un des sites les plus sacrés de l’Islam. Le Hamas, qui gouverne Gaza, a répondu en tirant des roquettes sur Israël, et Israël a riposté par une campagne de bombardements de 11 jours qui a fait plus de 200 morts palestiniens. Plus d’une douzaine de personnes en Israël ont également été tuées avant que les deux parties n’appellent à un cessez-le-feu.
Tout au long de la guerre, Facebook et d’autres plateformes sociales ont été saluées pour leur rôle central dans le partage de première main, sur le terrain, des récits du conflit en évolution rapide. Les Palestiniens ont publié des photos de maisons couvertes de décombres et de cercueils d’enfants pendant le barrage, ce qui a provoqué un tollé mondial pour mettre fin au conflit.
Mais des problèmes de modération de contenu sont également apparus presque immédiatement. Au début des manifestations, Instagram, qui appartient à Meta avec WhatsApp et Facebook, a commencé à restreindre le contenu contenant le hashtag #AlAqsa. Au début, la société blâmé le problème sur une erreur de déploiement de logiciel automatisé. Après que The Post ait publié un article soulignant le problème, une porte-parole de Meta a également ajouté qu’une “erreur humaine” avait causé le problème, mais n’a pas fourni d’autres informations.
Le rapport du BSR apporte un éclairage nouveau sur l’incident. Le rapport indique que le hashtag #AlAqsa a été ajouté par erreur à une liste de termes associés au terrorisme par un employé travaillant pour un sous-traitant tiers qui modère le contenu de l’entreprise. L’employé a tiré à tort “d’une liste mise à jour de termes du Département du Trésor américain contenant la Brigade Al Aqsa, ce qui a entraîné le masquage de #AlAqsa dans les résultats de recherche”, selon le rapport. La Brigade Al Aqsa est un groupe terroriste connu (BuzzFeed News a rapporté le échanges internes à propos de l’étiquetage erroné du terrorisme à l’époque).
Alors que la violence en Israël et à Gaza se joue sur les réseaux sociaux, les militants s’inquiètent de l’ingérence des entreprises technologiques
Le rapport, qui n’a enquêté que sur la période autour de la guerre de 2021 et ses conséquences immédiates, confirme des années de témoignages de journalistes et d’activistes palestiniens selon lesquels Facebook et Instagram semblent censurer leurs publications plus souvent que celles des hébréophones. BSR a constaté, par exemple, qu’après avoir ajusté la différence de population entre les hébreux et les arabophones en Israël et dans les territoires palestiniens, Facebook supprimait ou ajoutait des avertissements à plus de messages de Palestiniens que d’Israéliens. Les données internes examinées par BSR ont également montré que les logiciels signalaient régulièrement le contenu potentiellement enfreignant les règles en arabe à des taux plus élevés que le contenu en hébreu.
Le rapport a noté que cela était probablement dû au fait que les systèmes de discours de haine basés sur l’intelligence artificielle de Meta utilisent des listes de termes associés à des organisations terroristes étrangères, dont beaucoup sont des groupes de la région. Par conséquent, il serait plus probable qu’une personne postant en arabe verrait son contenu signalé comme potentiellement associé à un groupe terroriste.
En outre, le rapport indique que Meta a construit un tel logiciel de détection pour identifier de manière proactive les propos haineux et hostiles en arabe, mais ne l’a pas fait pour la langue hébraïque.
Le rapport a également suggéré qu’en raison d’une pénurie de modérateurs de contenu en arabe et en hébreu, la société acheminait du contenu potentiellement enfreignant les règles à des examinateurs qui ne parlent pas ou ne comprennent pas la langue, en particulier les dialectes arabes. Cela a entraîné d’autres erreurs.
Le rapport, qui a été commandé par Facebook sur la recommandation de son conseil de surveillance indépendant, a émis 21 recommandations à l’entreprise. Il s’agit notamment de modifier ses politiques d’identification des organisations et des individus dangereux, d’offrir plus de transparence aux utilisateurs lorsque les publications sont pénalisées, de réaffecter les ressources de modération de contenu en hébreu et en arabe en fonction de la “composition du marché” et de diriger les violations potentielles de contenu en arabe vers les personnes qui parlent la même chose. Dialecte arabe comme celui de la publication sur les réseaux sociaux.
Dans un réponse. La directrice des droits de l’homme de Meta, Miranda Sissons, a déclaré que l’entreprise mettrait pleinement en œuvre 10 des recommandations et en mettait partiellement en œuvre quatre. L’entreprise « évaluait la faisabilité » de six autres et ne prenait « aucune autre mesure » pour l’un d’entre eux.
“Il n’y a pas de solution rapide du jour au lendemain à bon nombre de ces recommandations, comme l’indique clairement BSR”, a déclaré Sissons. “Bien que nous ayons déjà apporté des changements importants à la suite de cet exercice, ce processus prendra du temps, y compris du temps pour comprendre comment certaines de ces recommandations peuvent être mieux traitées et si elles sont techniquement réalisables.”
Comment Facebook a négligé le reste du monde, alimentant les discours de haine et la violence en Inde
Dans sa déclaration, le Centre arabe pour l’avancement des médias sociaux (7amleh) a déclaré que le rapport qualifiait à tort le parti pris de Meta d’involontaire.
“Nous pensons que la censure continue pendant des années [Palestinian] des voix, malgré nos rapports et arguments d’un tel parti pris, confirment qu’il s’agit d’une censure délibérée à moins que Meta ne s’engage à y mettre fin », a-t-il déclaré.