Nouvelles Du Monde

Bluesky dispose de sa propre équipe de modérateurs, formés pour examiner les plaintes des utilisateurs et les systèmes automatisés.

Bluesky dispose de sa propre équipe de modérateurs, formés pour examiner les plaintes des utilisateurs et les systèmes automatisés.

2024-01-17 14:17:37

Ressource de réseau social Bluesky – CIEL BLEU

MADRID, 17 ans. (Portlatic/EP) –

Le réseau social décentralisé Ciel bleu Il dispose de sa propre équipe de modération qui travaille à plein temps pour examiner les plaintes des utilisateurs et les contenus identifiés par des systèmes automatisés, ce qui a conduit à la suspension de près de 6 500 éléments, dont des comptes et des publications, pour violation des règles.

Le réseau social Bluesky a profité du changement de direction de l’ancien Twitter pour se développer, jusqu’à atteindre le 3 millions d’utilisateurset de doter son service de mesures de modération, tant internes que sous forme d’outils destinés aux particuliers et aux communautés, qui disposent d’outils pour signaler des publications, des comptes ou des listes via l’application.

Ces contenus signalés sont ensuite soumis à un examen. Dans ce cas, Bluesky assure avoir opté pour un équipe de modérateurs humains, embauchés et formés exprèsqui travaille 24 heures sur 24 depuis le printemps pour vérifier si les politiques de la plateforme ne sont pas respectées.

Lire aussi  Avec seulement 800 000 capitaux, vous pouvez immédiatement obtenir une Smart TV Animax A21A de haute qualité !

Ce groupe a examiné 358 165 plaintes individuelles, comme indiqué dans la note qui accompagne leur premier Rapport de transparencepar rapport à 2023. Ils y rapportent également que 5,6 pour cent de leurs utilisateurs actifs (soit 76 699 comptes individuels) ont déposé une ou plusieurs plaintes et que 45 861 comptes individuels (3,4%) ont fait l’objet d’une plainte, à une ou plusieurs reprises. , que ce soit pour le compte lui-même ou comme l’une de ses publications.

L’entreprise peut réaliser suspensionstemporairement ou définitivement, dans les cas les plus graves, une action qui a été réalisée dans 4 667 comptes et 1 817 contenus individuels.

Pour détecter de manière proactive les contenus en infraction, Buesky utilise également des outils automatisés pour agir rapidement en conséquence, qu’il s’agisse d’ajouter des étiquettes d’avertissement ou de les renvoyer à l’équipe de modération. Ils peuvent également supprimer les publications qu’ils trouvent, telles que les contenus sur la maltraitance et l’exploitation des enfants, ce qui n’est pas toléré sur la plateforme.

Lire aussi  "Les buts les ont sortis du jeu"

OUTILS DE MODÉRATION

Les travaux de modération effectués en 2023 comprennent également la refonte de certaines fonctionnalités pour réduire les abus et la création de composants pour son infrastructure afin de soutenir les travaux dans le domaine de la confiance et de la sécurité.

Ils ont également anticipé l’arrivée de fonctionnalités de modération supplémentaires, comme la capacité de faire taire les mots et de désactiver temporairement les compteset un programme collaboratif pour lutter contre la désinformation dans les publications, par exemple les Notes communautaires, de X (ancien Twitter), dans lequel les utilisateurs participants ajoutent du contexte pour clarifier des informations fausses ou trompeuses.

Une autre nouveauté sera ce que l’entreprise appelle modération composable ou dockable, une approche introduite en avril de l’année dernière basée sur un écosystème de prestataires tiers, dans lequel seront présents une modération basique par défaut oui filtres personnalisés supplémentaires comme le système de marquage, avec des étiquettes qui peuvent être générées par des services tiers, des administrateurs de communauté ou les utilisateurs eux-mêmes.

Lire aussi  Quelle est la tendance du drapeau beige sur TikTok ?

De même, le compte de réseau social permet créer des listes de modération, pour désactiver et bloquer les comptes d’une communauté entière. Les auteurs des publications, quant à eux, peuvent ajouter des balises pour vous avertir du type de contenu que les utilisateurs peuvent rencontrer et ajuster les paramètres en conséquence décider qui peut répondre.

La société ajoute qu’elle dispose également d’un cadre d’outils automatisés qui soutient l’équipe de modération dans la lutte contre le spam, qui identifie les modèles de comportement, “pour signaler de manière proactive le contenu inacceptable avant que les utilisateurs humains ne le voient et ne le signalent”.



#Bluesky #dispose #propre #équipe #modérateurs #formés #pour #examiner #les #plaintes #des #utilisateurs #les #systèmes #automatisés
1705518749

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT