Nouvelles Du Monde

Laisser les utilisateurs des médias sociaux classer avec précision pourrait-il aider à mettre fin à la désinformation ?

Laisser les utilisateurs des médias sociaux classer avec précision pourrait-il aider à mettre fin à la désinformation ?

Lorsqu’elles luttent contre la propagation de la désinformation, les plateformes de médias sociaux placent généralement la plupart des utilisateurs sur le siège passager. Les plates-formes utilisent souvent des algorithmes d’apprentissage automatique ou des vérificateurs de faits humains pour signaler les contenus faux ou mal informés aux utilisateurs.

“Ce n’est pas parce qu’il s’agit du statu quo que c’est la bonne ou la seule façon de procéder”, déclare Farnaz Jahanbakhsh, étudiant diplômé du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT.

Elle et ses collaborateurs mené une étude dans lequel ils mettent plutôt ce pouvoir entre les mains des utilisateurs de médias sociaux.

Ils ont d’abord interrogé les gens pour savoir comment ils évitent ou filtrent la désinformation sur les réseaux sociaux. À l’aide de leurs découvertes, les chercheurs ont développé une plate-forme prototype qui permet aux utilisateurs d’évaluer l’exactitude du contenu, d’indiquer les utilisateurs en qui ils ont confiance pour évaluer l’exactitude et de filtrer les publications qui apparaissent dans leur flux en fonction de ces évaluations.

Grâce à une étude sur le terrain, ils ont constaté que les utilisateurs étaient capables d’évaluer efficacement les messages mal informés sans recevoir de formation préalable. De plus, les utilisateurs ont apprécié la possibilité d’évaluer les messages et de visualiser les évaluations de manière structurée. Les chercheurs ont également constaté que les participants utilisaient les filtres de contenu différemment – par exemple, certains bloquaient tout contenu désinformant tandis que d’autres utilisaient des filtres pour rechercher de tels articles.

Ce travail montre qu’une approche décentralisée de la modération peut conduire à une plus grande fiabilité du contenu sur les réseaux sociaux, déclare Jahanbakhsh. Cette approche est également plus efficace et évolutive que les schémas de modération centralisés, et peut plaire aux utilisateurs qui se méfient des plateformes, ajoute-t-elle.

« De nombreuses recherches sur la désinformation supposent que les utilisateurs ne peuvent pas décider ce qui est vrai et ce qui ne l’est pas, et nous devons donc les aider. Nous n’avons pas du tout vu cela. Nous avons vu que les gens traitent réellement le contenu avec un examen minutieux et qu’ils essaient également de s’entraider. Mais ces efforts ne sont pas actuellement soutenus par les plateformes », dit-elle.

Jahanbakhsh a rédigé l’article avec Amy Zhang, professeure adjointe à la Allen School of Computer Science and Engineering de l’Université de Washington; et l’auteur principal David Karger, professeur d’informatique au CSAIL. La recherche sera présentée à la conférence ACM sur le travail coopératif assisté par ordinateur et l’informatique sociale.

Combattre la désinformation

La propagation de la désinformation en ligne est un problème répandu. Cependant, les méthodes actuelles utilisées par les plateformes de médias sociaux pour marquer ou supprimer les contenus mal informés présentent des inconvénients. Par exemple, lorsque les plateformes utilisent des algorithmes ou des vérificateurs de faits pour évaluer les publications, cela peut créer des tensions parmi les utilisateurs qui interprètent ces efforts comme une atteinte à la liberté d’expression, entre autres problèmes.

Lire aussi  Médicament contre les maux de tête dans le test : ce qui agit contre les différents types de maux de tête

“Parfois, les utilisateurs veulent que la désinformation apparaisse dans leur flux parce qu’ils veulent savoir à quoi leurs amis ou leur famille sont exposés, afin qu’ils sachent quand et comment leur en parler”, ajoute Jahanbakhsh.

Les utilisateurs essaient souvent d’évaluer et de signaler les informations erronées par eux-mêmes, et ils tentent de s’entraider en demandant à des amis et à des experts de les aider à comprendre ce qu’ils lisent. Mais ces efforts peuvent se retourner contre eux car ils ne sont pas pris en charge par les plates-formes. Un utilisateur peut laisser un commentaire sur une publication trompeuse ou réagir avec un emoji en colère, mais la plupart des plateformes considèrent ces actions comme des signes d’engagement. Sur Facebook, par exemple, cela pourrait signifier que le contenu désinformant serait montré à plus de personnes, y compris les amis et les abonnés de l’utilisateur – exactement le contraire de ce que voulait cet utilisateur.

Pour surmonter ces problèmes et écueils, les chercheurs ont cherché à créer une plate-forme qui donne aux utilisateurs la possibilité de fournir et d’afficher des évaluations de précision structurées sur les publications, d’indiquer à d’autres personnes en qui ils ont confiance pour évaluer les publications et d’utiliser des filtres pour contrôler le contenu affiché dans leur flux. En fin de compte, l’objectif des chercheurs est de permettre aux utilisateurs de s’entraider plus facilement pour évaluer la désinformation sur les réseaux sociaux, ce qui réduit la charge de travail de chacun.

Les chercheurs ont commencé par interroger 192 personnes, recrutées via Facebook et une liste de diffusion, pour voir si les utilisateurs apprécieraient ces fonctionnalités. L’enquête a révélé que les utilisateurs sont hyper conscients de la désinformation et essaient de la suivre et de la signaler, mais craignent que leurs évaluations ne soient mal interprétées. Ils sont sceptiques quant aux efforts des plateformes pour évaluer le contenu pour eux. Et, alors qu’ils aimeraient des filtres qui bloquent le contenu non fiable, ils ne feraient pas confiance aux filtres exploités par une plate-forme.

À l’aide de ces informations, les chercheurs ont construit une plate-forme prototype de type Facebook, appelée Trustnet. Dans Trustnet, les utilisateurs publient et partagent des articles d’actualité complets et peuvent se suivre pour voir le contenu que d’autres publient. Mais avant qu’un utilisateur puisse publier un contenu sur Trustnet, il doit évaluer ce contenu comme exact ou inexact, ou s’enquérir de sa véracité, qui sera visible par les autres.

Lire aussi  La saison de la grippe approche. Es-tu prêt? Voici ce que le médecin suggère | Santé

“La raison pour laquelle les gens partagent des informations erronées n’est généralement pas parce qu’ils ne savent pas ce qui est vrai et ce qui est faux. Au contraire, au moment du partage, leur attention est mal dirigée vers d’autres choses. Si vous leur demandez d’évaluer le contenu avant de le partager, cela les aide à être plus exigeants », dit-elle.

Les utilisateurs peuvent également sélectionner des personnes de confiance dont ils verront les évaluations de contenu. Ils le font de manière privée, au cas où ils suivraient quelqu’un avec qui ils sont socialement connectés (peut-être un ami ou un membre de la famille) mais à qui ils ne feraient pas confiance pour évaluer le contenu. La plate-forme propose également des filtres qui permettent aux utilisateurs de configurer leur flux en fonction de la manière dont les publications ont été évaluées et par qui.

Test du réseau de confiance

Une fois le prototype terminé, ils ont mené une étude dans laquelle 14 personnes ont utilisé la plateforme pendant une semaine. Les chercheurs ont constaté que les utilisateurs pouvaient évaluer efficacement le contenu, souvent en fonction de l’expertise, de la source du contenu ou en évaluant la logique d’un article, même s’ils ne recevaient aucune formation. Ils ont également pu utiliser des filtres pour gérer leurs flux, bien qu’ils aient utilisé les filtres différemment.

« Même dans un si petit échantillon, il était intéressant de voir que tout le monde ne voulait pas lire ses actualités de la même manière. Parfois, les gens voulaient avoir des messages de désinformation dans leurs flux parce qu’ils y voyaient des avantages. Cela indique que cette agence est désormais absente des plateformes de médias sociaux et qu’elle devrait être rendue aux utilisateurs », déclare-t-elle.

Les utilisateurs avaient parfois du mal à évaluer le contenu lorsqu’il contenait plusieurs allégations, certaines vraies et d’autres fausses, ou si un titre et un article étaient disjoints. Cela montre la nécessité de donner aux utilisateurs plus d’options d’évaluation – peut-être en déclarant qu’un article est vrai mais trompeur ou qu’il contient une orientation politique, dit-elle.

Étant donné que les utilisateurs de Trustnet avaient parfois du mal à évaluer les articles dont le contenu ne correspondait pas au titre, Jahanbakhsh a lancé un autre projet de recherche pour créer une extension de navigateur qui permet aux utilisateurs de modifier les titres des actualités pour être plus aligné avec le contenu de l’article.

Lire aussi  La campagne Movember pour sensibiliser aux cancers masculins et inciter au dépistage

Si ces résultats montrent que les utilisateurs peuvent jouer un rôle plus actif dans la lutte contre la désinformation, Jahanbakhsh prévient que donner aux utilisateurs ce pouvoir n’est pas une panacée. D’une part, cette approche pourrait créer des situations où les utilisateurs ne voient que des informations provenant de sources partageant les mêmes idées. Cependant, les filtres et les évaluations structurées pourraient être reconfigurés pour aider à atténuer ce problème, dit-elle.

En plus d’explorer les améliorations de Trustnet, Jahanbakhsh souhaite étudier des méthodes qui pourraient encourager les gens à lire les évaluations de contenu de ceux qui ont des points de vue différents, peut-être par le biais de la gamification. Et parce que les plateformes de médias sociaux peuvent être réticentes à apporter des changements, elle développe également des techniques qui permettent aux utilisateurs de publier et de visualiser des évaluations de contenu via une navigation Web normale, plutôt que sur une plateforme.

Ce travail a été soutenu, en partie, par la National Science Foundation.

« Comprendre comment lutter contre la désinformation est l’un des enjeux les plus importants pour notre démocratie à l’heure actuelle. Nous avons largement échoué à trouver des solutions techniques à grande échelle. Ce projet offre une approche nouvelle et innovante à ce problème critique qui est très prometteuse », déclare Mark Ackerman, George Herbert Mead Collegiate Professor of Human-Computer Interaction à la University of Michigan School of Information, qui n’a pas participé à cette recherche. « Le point de départ de leur étude est que les gens comprennent naturellement les informations à travers les personnes en qui ils ont confiance dans leur réseau social, et donc le projet tire parti de la confiance des autres pour évaluer l’exactitude des informations. C’est ce que les gens font naturellement dans les milieux sociaux, mais les systèmes techniques ne le supportent pas bien actuellement. Leur système prend également en charge des informations fiables et d’autres sources d’informations. Contrairement aux plates-formes avec leur algorithme opaque, le système de l’équipe prend en charge ce type d’évaluation des informations que nous faisons tous.

Abonnez-vous pour recevoir des histoires contre-intuitives, surprenantes et percutantes dans votre boîte de réception tous les jeudis

Remarque : JavaScript est requis pour ce contenu.

Republié avec l’autorisation de Nouvelles du MIT. Lis le article original.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT