Home » Sciences et technologies » Instagram contribue activement à la propagation de l’automutilation chez les adolescents, selon une étude | Méta

Instagram contribue activement à la propagation de l’automutilation chez les adolescents, selon une étude | Méta

by Nouvelles

Meta aide activement les contenus d’automutilation à prospérer sur Instagram en ne supprimant pas les images explicites et en encourageant ceux qui interagissent avec de tels contenus à se lier d’amitié les uns avec les autres, selon une nouvelle étude accablante qui a trouvé sa modération « extrêmement inadéquate ».

Le but de l’étude était de tester l’affirmation de Meta selon laquelle elle avait considérablement amélioré ses processus de suppression des contenus nuisibles, qui, selon elle, utilisent désormais l’intelligence artificielle (IA). L’entreprise technologique prétend supprimer environ 99 % des contenus préjudiciables avant qu’ils ne soient signalés.

Mais Digitalt Ansvar (Digital Accountability), une organisation qui promeut le développement numérique responsable, a constaté qu’au cours de l’expérience d’un mois, aucune image n’avait été supprimée.

Un porte-parole de Meta a déclaré : « Les contenus qui encouragent l’automutilation sont contraires à nos politiques. » Photographie : Algi Febri Sugita/ZUMA Press Wire/REX/Shutterstock

Lorsqu’il a créé son propre outil d’IA simple pour analyser le contenu, il a pu identifier automatiquement 38 % des images d’automutilation et 88 % des plus graves. Cela, selon l’entreprise, montre qu’Instagram a accès à une technologie capable de résoudre le problème mais « a choisi de ne pas la mettre en œuvre efficacement ».

Selon Digitalt Ansvar, la modération insuffisante de la plateforme suggère qu’elle ne respecte pas le droit de l’UE.

La loi sur les services numériques exige que les grands services numériques identifient les risques systémiques, y compris les conséquences négatives prévisibles sur le bien-être physique et mental.

“Plus tôt cette année, nous avons lancé les comptes Instagram pour adolescents, qui placeront les adolescents dans le cadre le plus strict de notre contrôle de contenu sensible, de sorte qu’ils soient encore moins susceptibles de se voir recommander du contenu sensible et, dans de nombreux cas, nous cachons complètement ce contenu.”

L’étude danoise a toutefois révélé qu’au lieu de tenter de fermer le réseau d’automutilation, l’algorithme d’Instagram l’aidait activement à se développer. La recherche suggère que les jeunes de 13 ans deviennent amis avec tous les membres du groupe d’automutilation après avoir été en contact avec l’un de ses membres.

Ceci, selon l’étude, « suggère que l’algorithme d’Instagram contribue activement à la formation et à la propagation de réseaux d’automutilation ».

S’adressant au ObservateurAsk Hesby Holm, directeur général de Digitalt Ansvar, a déclaré que la société était choquée par les résultats, pensant qu’à mesure que les images partagées devenaient de plus en plus graves, elles déclencheraient l’alarme sur la plateforme.

“Nous pensions qu’en procédant ainsi progressivement, nous atteindrions le seuil où l’IA ou d’autres outils reconnaîtraient ou identifieraient ces images”, a-t-il déclaré. “Mais grande surprise, ils ne l’ont pas fait.”

Il a ajouté : « C’était inquiétant parce que nous pensions qu’ils disposaient d’une sorte de machinerie essayant de comprendre et d’identifier ce contenu. »

ignorer la promotion de la newsletter passée

Analyses et avis sur l’actualité et la culture de la semaine présentés par les meilleurs écrivains de l’Observer

Avis de confidentialité : Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre Politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et Google politique de confidentialité et Conditions d’utilisation appliquer.

Ne pas modérer les images d’automutilation peut entraîner de « graves conséquences », a-t-il déclaré. « Ceci est fortement associé au suicide. Donc, si personne ne signale ou ne fait quoi que ce soit à propos de ces groupes, ils restent inconnus des parents, des autorités et de ceux qui peuvent les soutenir. Meta, estime-t-il, ne modère pas les petits groupes privés, comme celui créé par son entreprise, afin de maintenir un trafic et un engagement élevés. « Nous ne savons pas s’ils modèrent les grands groupes, mais le problème est que les groupes qui s’automutilent sont petits », a-t-il déclaré.

La psychologue Lotte Rubæk a quitté un groupe d’experts mondial après avoir accusé Meta de « fermer les yeux » sur les contenus nuisibles d’Instagram. Photographie : Linda Kastrup/Ritzau Scanpix/Alay

Lotte Rubæk, une psychologue de renom qui a quitté le groupe d’experts mondial de Meta sur la prévention du suicide en mars après l’avoir accusé de « fermer les yeux » sur les contenus nuisibles d’Instagram, a déclaré que même si elle n’était pas surprise par les résultats globaux, elle était choquée de voir qu’ils n’a pas supprimé le contenu le plus explicite.

«Je n’aurais pas pensé que ce serait zéro sur 85 messages supprimés», a-t-elle déclaré. «J’espérais que ce serait mieux.

« Ils ont répété à plusieurs reprises dans les médias qu’ils amélioraient constamment leur technologie et qu’ils disposaient des meilleurs ingénieurs du monde. Cela prouve, même à petite échelle, que ce n’est pas vrai.»

Rubæk a déclaré que l’incapacité de Meta à supprimer les images d’automutilation de ses plateformes « incitait » les jeunes femmes et les filles vulnérables à se faire encore plus de mal et contribuait à l’augmentation du nombre de suicides.

Depuis qu’elle a quitté le groupe d’experts mondial, elle a déclaré que la situation sur la plateforme n’avait fait qu’empirer, ce dont l’impact était évident sur ses patients.

La question de l’automutilation sur Instagram, a-t-elle déclaré, est une question de vie ou de mort pour les jeunes enfants et les adolescents. “Et d’une manière ou d’une autre, ce ne sont que des dommages collatéraux pour eux sur la manière de gagner de l’argent et des bénéfices sur leurs plateformes.”

Au Royaume-Uni, l’association caritative Esprit est disponible au 0300 123 3393 et Ligne d’enfants au 0800 1111. Aux États-Unis, appelez ou envoyez un SMS Santé mentale Amérique au 988 ou par chat 988lifeline.org. En Australie, l’assistance est disponible sur Au-delà du bleu au 1300 22 4636, Ligne de vie le 13 11 14, et à LigneHommes au 1300 789 978

#Instagram #contribue #activement #propagation #lautomutilation #chez #les #adolescents #selon #une #étude #Méta

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.