Nouvelles Du Monde

L’algorithme d’Instagram officiellement répertorié comme cause de décès dans une affaire judiciaire au Royaume-Uni – Technology News, Firstpost

L’algorithme d’Instagram officiellement répertorié comme cause de décès dans une affaire judiciaire au Royaume-Uni – Technology News, Firstpost

Instagram, propriété de Meta, a souvent fait face à l’allégation selon laquelle la plate-forme a nui à la santé mentale de nombreux jeunes adultes et adolescents, et qu’elle ne fait pas assez pour garantir que les personnes de certaines tranches d’âge obtiennent certains types de messages dans leurs flux.

Maintenant, Instagram a été officiellement répertorié comme cause de décès par un coroner dans une affaire impliquant une jeune fille de 14 ans nommée Molly Russell, décédée par suicide en 2017.

L’un des domaines clés sur lesquels se concentre le procès est le fait que Molly, la fille qui s’est suicidée, a consulté des milliers de messages sur des plateformes comme Instagram et Pinterest faisant la promotion de l’automutilationavant de se suicider.

Le coroner qui a témoigné dans l’affaire, Andrew Walker, a décrit à un moment donné le contenu que Russell aimait ou enregistrait dans les jours précédant sa mort comme si dérangeant qu’il l’a trouvé “presque impossible à regarder”.

Dans son témoignage en tant que coroner, Walker a conclu que la mort de Russell ne pouvait pas être considérée comme un suicide. Au lieu de cela, il a décrit sa cause de décès comme “un acte d’automutilation tout en souffrant de dépression et des effets négatifs du contenu en ligne”.

Lire aussi  Elon Musk aurait prévu de réduire de moitié les effectifs de Twitter

Walker est arrivé à sa conclusion sur la base de l’utilisation prolifique d’Instagram par Russell, qui comprenait le fait d’aimer, de partager ou d’enregistrer 16 300 messages pendant une période de six mois avant sa mort, et plus et environ 5 793 épingles sur Pinterest au cours de la même période, ce qui, lorsqu’il est combiné avec la façon dont les plates-formes ont fourni du contenu pour contribuer à l’état dépressif de Russell, a aggravé sa situation.

“Les plateformes fonctionnaient de manière à utiliser des algorithmes pour entraîner, dans certaines circonstances, des périodes de frénésie d’images, de clips vidéo et de texte”, qui “romantisaient les actes d’automutilation” et “cherchaient à isoler et à décourager la discussion avec ceux qui aurait pu aider », a déclaré Walker.

Afin d’inciter les utilisateurs à passer plus de temps sur leur application, des plates-formes comme Instagram et Pinterest organisent le flux d’un utilisateur de manière à ce qu’il ne montre que des choses pour lesquelles l’utilisateur aurait pu montrer ne serait-ce qu’un peu d’intérêt. L’intérêt est mesuré par le temps passé sur une publication, si la publication a été aimée ou enregistrée, si la publication a été engagée avec des commentaires, etc. L’algorithme d’Instagram ne tient pas compte de la nature de la publication, ni de l’âge de l’utilisateur qui interagit avec la publication. Ceci, selon les partisans, est l’un des plus grands domaines où la modération de contenu a échoué les utilisateurs.

Lire aussi  Surprise d'Apple ! Dans quelques jours...

Le témoignage de Walker ravive une question que les défenseurs de la sécurité des enfants se posent depuis des années : dans quelle mesure les plateformes de médias sociaux sont-elles responsables des algorithmes de contenu qui sont transmis aux mineurs, et pourquoi autoriser les mineurs sur la plateforme en premier lieu ?

Selon un rapport de Bloomberg, l’avocat de la famille Russell a demandé à Walker “d’envoyer des instructions sur la manière d’empêcher que cela ne se reproduise à Pinterest, Meta, le gouvernement britannique et le régulateur des communications”. Dans leur déclaration, la famille a poussé les régulateurs britanniques à adopter et à appliquer rapidement le projet de loi britannique sur la sécurité en ligne, qui pourrait instituer “de nouvelles garanties pour les jeunes utilisateurs du monde entier”.

Au cours du procès, Pinterest et Meta ont adopté des approches différentes pour défendre leurs politiques. Pinterest a déclaré qu’il ne disposait pas de la technologie pour modérer plus efficacement le contenu auquel Molly était exposée. La responsable de la santé et du bien-être de Meta, Elizabeth Lagone, a quant à elle déclaré au tribunal que le contenu consulté par Molly était considéré comme « sûr » selon les normes de Meta. La réponse officielle de Meta a irrité la famille Russell.

Lire aussi  L'énergie pourrait être un problème en Pennsylvanie - Si les républicains peuvent mener une campagne | Flaster Greenberg PC

«Nous avons entendu un cadre supérieur de Meta décrire ce flux de contenu mortel que les algorithmes de la plate-forme ont poussé à Molly, comme« SÛR »et ne contrevenant pas aux politiques de la plate-forme. Si cette piste démentielle de contenu suceur de vie était sûre, ma fille Molly serait probablement encore en vie », a écrit la famille Russell dans sa déclaration.

Ils ont également ajouté : « Pour la première fois aujourd’hui, des plateformes technologiques ont été officiellement tenues responsables de la mort d’un enfant. À l’avenir, en tant que famille, nous espérons que toutes les autres sociétés de médias sociaux appelées à participer à une enquête suivront l’exemple de Pinterest, qui a pris des mesures pour tirer des leçons et s’est engagée sincèrement et respectueusement dans le processus d’enquête.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT