Home » L’algorithme de recherche de YouTube oriente les téléspectateurs vers des vidéos fausses et sexualisées, selon une étude

L’algorithme de recherche de YouTube oriente les téléspectateurs vers des vidéos fausses et sexualisées, selon une étude

by Nouvelles

YouTube a mis en place de nombreux changements au cours de la dernière année pour limiter les vidéos problématiques qu’il recommande aux téléspectateurs. Une nouvelle étude suggère que les réparations ont du chemin à parcourir.

La fondation de logiciels à but non lucratif Mozilla a découvert que le puissant moteur de recommandation de YouTube continue de diriger les téléspectateurs vers des vidéos qui, selon eux, montraient de fausses allégations et du contenu sexualisé, les algorithmes de la plate-forme suggérant 71% des vidéos que les participants ont trouvées répréhensibles.

L’étude met en lumière le défi permanent Alphabet Inc.

GOOG 0,82%

La filiale YouTube est confrontée alors qu’elle essaie de contrôler le contenu généré par les utilisateurs qui en a fait le premier service vidéo au monde. Il est emblématique de la lutte qui fait rager les plateformes de Facebook Inc. à Twitter Inc.,

qui a pris de l’importance en encourageant les gens à partager des informations, mais qui fait maintenant face à une pression réglementaire et sociale pour contrôler le contenu qui divise, trompeur et dangereux sans censurer les divers points de vue.

Pour YouTube, cela montre également des lacunes dans ses efforts pour orienter les utilisateurs vers des vidéos qui devraient les intéresser en fonction des modèles d’audience, par opposition à celles qui deviennent virales pour d’autres raisons.

Dans l’étude, l’une des plus importantes du genre, 37 000 volontaires ont utilisé une extension de navigateur qui a suivi leur utilisation de YouTube sur une période de 10 mois terminée en mai. Lorsqu’un participant signalait une vidéo comme problématique, l’extension était en mesure de savoir si elle était recommandée au spectateur ou si la personne l’avait trouvée de manière indépendante. Les vidéos signalées par les participants comme répréhensibles comprenaient une parodie sexualisée de « Toy Story » et une vidéo électorale suggérant à tort Microsoft Corp.

le fondateur Bill Gates a embauché des étudiants impliqués dans Black Lives Matter pour compter les bulletins de vote dans les États du champ de bataille.

YouTube a ensuite supprimé 200 vidéos signalées par les participants, qui ont accumulé plus de 160 millions de vues avant leur suppression, selon Mozilla.

Un porte-parole de YouTube a déclaré que la société avait réduit les recommandations de contenu qu’elle définit comme nuisible à moins de 1% des vidéos visionnées. Il a déclaré qu’il avait lancé 30 changements au cours de la dernière année pour résoudre le problème. L’équipe de sécurité de l’entreprise affirme que son système automatisé détecte désormais 94 % des vidéos qui violent les politiques de YouTube et supprime la majorité d’entre elles avant qu’elles ne reçoivent 10 vues.

“L’objectif de notre système de recommandation est de connecter les téléspectateurs avec le contenu qu’ils aiment”, a déclaré le porte-parole.

YouTube utilise l’apprentissage automatique pour essayer d’attraper les vidéos qui enfreignent ses règles avant que les téléspectateurs ne les voient.


Photo:

Joseph Okpako/Getty Images

YouTube est harcelé depuis des années par des inquiétudes concernant les dangers des vidéos sur son site, y compris pour les enfants. L’année dernière, il a supprimé les chaînes faisant la promotion de QAnon et d’autres théories du complot qui, selon lui, pourraient encourager les dommages dans le monde réel.

La société attribue à son algorithme de recommandation d’avoir généré plus des deux tiers du milliard d’heures d’audience quotidienne qui a contribué à générer 19,7 milliards de dollars de revenus l’année dernière. Ces vidéos – 720 000 heures de vidéo téléchargées quotidiennement – ne sont pas filtrées par des modérateurs humains avant d’être mises en ligne, dans le cadre d’un effort de longue date pour donner la priorité aux téléchargements des utilisateurs et contrôler les coûts.

Le résultat est un système Whac-A-Mole où YouTube utilise l’apprentissage automatique pour essayer d’attraper des vidéos qui enfreignent ses politiques avant que les téléspectateurs ne les voient. Depuis 2019, selon la société, ses algorithmes de police ont réduit de 70% le contenu dit limite.

La directrice principale de Mozilla, Brandi Geurkink, qui a dirigé l’étude, a déclaré que la recherche avait accentué ce qu’elle a appelé une contradiction inhérente entre les algorithmes de YouTube, un ensemble recommandant des vidéos problématiques tandis qu’un autre essaie de les supprimer. Elle a noté que les participants rapportaient rarement trouver des vidéos problématiques lorsqu’ils recherchaient du contenu par eux-mêmes, mais son algorithme recommandait des choses qu’ils ne voulaient pas voir.

« Si les utilisateurs disent : « Ces recommandations ne fonctionnent pas pour nous », alors qui est au service de l’algorithme de recommandation ? » a déclaré Mme Geurkink.

La société affirme que ses enquêtes montrent que les utilisateurs sont généralement satisfaits de ce qu’elle recommande.

Mozilla possède et exploite le navigateur Internet Firefox, qui est en concurrence avec le navigateur Chrome d’Alphabet pour les utilisateurs et l’affichage publicitaire. Un accord de licence lié au navigateur représente plus de la moitié du financement de la Fondation Mozilla.

L’une des autres conclusions de l’étude était que les vidéos que les participants trouvaient répréhensibles étaient 60 % plus susceptibles d’être recommandées dans les pays où l’anglais n’est pas la langue principale, notamment le Brésil, l’Allemagne et la France.

Plus d’un cinquième des vidéos ont été signalées pour ce que les participants ont qualifié de désinformation, souvent sur des questions politiques ou Covid-19, 10 % pour des propos haineux et 7 % pour du contenu sexuel.

YouTube refuse de fournir des informations publiques sur le fonctionnement de son algorithme de recommandation, car il le considère comme propriétaire. En conséquence, l’étudier peut être difficile. Mozilla a tenté de surmonter cet obstacle en créant l’extension de navigateur et en faisant appel aux participants pour fournir un ensemble de données indépendant à grande échelle.

Écrire à Tripp Mickle à [email protected]

Recherche de YouTube

Plus de couverture de la centrale vidéo, sélectionnée par les éditeurs

Copyright ©2020 Dow Jones & Company, Inc. Tous droits réservés. 87990cbe856818d5eddac44c7b1cdeb8

.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.