Nouvelles Du Monde

« De droite » : une macro-étude confirme que la désinformation sur Facebook est consommée par les conservateurs | Technologie

« De droite » : une macro-étude confirme que la désinformation sur Facebook est consommée par les conservateurs |  Technologie

2023-07-27 21:00:09

Facebook est un réseau dominé par les informations conservatrices, et ses utilisateurs de droite sont les écrasants consommateurs d’informations qualifiées de fausses. Les données qui ont confirmé ces deux hypothèses proviennent de de la recherche académique avec un accès sans précédent aux informations internes de Facebook, fournies par le réseau Meta. Les conclusions sont basées sur l’activité cumulée de 208 millions d’utilisateurs américains pendant plusieurs mois autour des élections américaines de 2020. L’article, dirigé par la chercheuse espagnole Sandra González-Bailón, de l’Université de Pennsylvanie, fait partie d’une série de quatre ouvrages qui analysent l’impact des réseaux Meta dans la polarisation croissante et qui ont été publiés ce jeudi dans les magazines Science y Nature.

“Je ne m’attendais pas à trouver certains des résultats que nous avons trouvés, avec des modèles aussi radicaux”, déclare González-Bailón par vidéoconférence de Philadelphie à EL PAÍS. “Mais c’est ce que disent les données”, ajoute-t-il. L’article étudie comment la combinaison du comportement de l’utilisateur et de l’algorithme sépare la consommation d’informations entre les progressistes et les conservateurs. Bien que ces deux groupes existent, ils ne sont pas symétriques, comme on le croyait auparavant : “Les publics qui consomment de l’actualité politique sur Facebook sont, en général, inclinés vers la droite”, indique l’article. Mais le chiffre le plus frappant est la différence de portée des informations qualifiées de fausses par vérificateurs de faits de Meta (qui ne représentent que 3 % du total des liens partagés sur le réseau) : 97 % au sein de ce groupe de pièces circulent parmi les utilisateurs conservateurs.

“C’est vrai que c’est l’article le plus controversé”, avoue à EL PAÍS le professeur David García, de l’université de Constance (Allemagne), qui a pu lire les pièces sous embargo pour écrire un bref commentaire sur Nature. “Mais c’est très important. Les preuves dont nous disposions n’étaient pas si solides. Il y avait une étude de 2015 qui avait des problèmes. Ils l’ont bien fait, car nous aurions tous voulu le faire ».

L’impact de toutes les recherches va plus loin : « Ce n’est pas tellement une surprise. Facebook est plus conservateur, mais ce qui est impressionnant, c’est que quelqu’un a pu le vérifier depuis l’extérieur de Facebook avec accès aux données internes », explique García. “Bien que les résultats ne soient pas très laids pour Facebook”, ajoute-t-il, évoquant surtout les trois autres enquêtes publiées au même moment, qui analysent les problèmes de chronologies (flux) algorithmes sur Instagram et Facebook, les risques de viralité et le bouton de partage, et les contenus reçus de personnes idéologiquement liées. Aucun des trois n’a trouvé de résultats clairs indiquant des solutions ou des coupables faciles.

une réponse difficile

Depuis des années, experts, technologues et universitaires tentent de comprendre comment les réseaux sociaux affectent nos sociétés. En un peu plus d’une décennie, la façon dont nous nous informons a changé : cela devrait avoir des conséquences, mais quoi ? Bien que ces articles tentent de répondre, il n’est pas facile de créer un monde parallèle pour comparer et voir où nous en serions aujourd’hui sans Facebook, Twitter (X de ce lundi) ou YouTube. “Ces résultats ne peuvent pas nous dire à quoi ressemblerait le monde si nous n’avions pas eu de médias sociaux au cours des 10 à 15 dernières années”, a admis Joshua Tucker, professeur à l’Université de New York et l’un des responsables académiques du projet. une conférence presse virtuelle.

“On ne peut pas séparer ce qui est algorithmique de ce qui est social”

Sandra González-Bailón, Université de Pennsylvanie

« La question de savoir si les réseaux sociaux détruisent la démocratie est très compliquée. C’est un puzzle et chacun de ces articles est une pièce », explique González-Bailón. Ces quatre articles ne sont que les premiers d’un total de 16 qui devraient continuer à paraître dans les mois à venir et sont les futures pièces de cet immense puzzle. Le projet né d’un accord d’août 2020 entre Meta et deux professeurs, qui ont ensuite sélectionné le reste des chercheurs. “Je n’avais jamais fait partie d’un projet où les normes de rigueur analytique, de vérification des données et de code ont été aussi solides et, par conséquent, d’un projet de garanties de qualité et que les résultats sont authentiques”, ajoute González-Dancer. Les auteurs comprennent à la fois des membres de l’académie, totalement indépendants de Meta, et des employés de l’entreprise. Le responsable interne de Meta pour ces travaux est le chercheur espagnol Pablo Barberá.

Lire aussi  Participez et gagnez la Nintendo Switch OLED Mario Edition sur Africa Radio !

Et si on supprimait l’algorithme ?

Les trois autres articles ont examiné ce qui arriverait à Facebook et Instagram si trois détails étaient modifiés, souvent accusés de polariser et de créer des bulles. Les articles ont demandé l’autorisation de plus de 20 000 participants, qui ont vu le contenu de leur chronologie modifié et qui ont été comparés à un groupe témoin. Les expérimentations se sont déroulées pendant trois mois, entre septembre et décembre 2020, autour de l’élection de Joe Biden à la présidence. Bien que les nombres puissent sembler petits, la taille de l’échantillon et la durée de l’expérience ont été soulignées comme inhabituelles et très précieuses par les chercheurs.

Le premier de ces travaux mesure l’impact du remplacement des algorithmes Facebook et Instagram (qui ordonnent ce que l’on voit sur notre écran) par une simple ligne chronologique : le dernier post publié est le premier que l’on voit et ainsi de suite, sans aucun algorithme plaçant le plus “intéressant” au-dessus. C’est un moyen évident de mesurer si le fameux « algorithme » nous déroute. Si, par exemple, le contenu politique le plus extrême est celui que l’on voit le plus car il suscite plus d’intérêt que le contenu modéré, et donc nous polarise. Le résultat est qu’il n’affecte guère la polarisation ou la connaissance politique des utilisateurs dans la réalité.

Cela ne signifie pas que le changement n’a pas d’autres conséquences. La réduction du contenu algorithmique amène les utilisateurs à passer moins de temps sur les deux réseaux Meta, probablement parce que le contenu est plus ennuyeux ou répétitif, et les amène à aller sur TikTok ou YouTube. Les utilisateurs avec un contenu chronologique ont également vu plus de contenu provenant de sources non fiables et politiques.

Lire aussi  Danger! Une puissante éruption solaire de classe X frappe la Terre ; L'Amérique du Sud en panne d'électricité

Maintenant, nous évitons partagé

Dans un autre article, les auteurs ont supprimé une partie du contenu partagé sur Facebook. L’intention était de réduire l’importance de la viralisation. Encore une fois, il n’y a pas eu de changements substantiels, mais il y a eu des “conséquences inattendues” difficiles à prévoir, selon Andrew Guess, un professeur de l’Université de Princeton qui a dirigé l’étude : “Les gens commencent à ne pas faire la distinction entre les choses qui se sont produites la semaine dernière et non. Parce que? La plupart des informations que les gens obtiennent sur la politique sur Facebook proviennent du partage, et lorsque vous supprimez ces messages, ils voient moins de contenu viral et potentiellement trompeur, mais ils voient également moins de contenu provenant de sources fiables », ajoute Guess. Le changement a diminué la sensibilisation des utilisateurs aux événements actuels, sans affecter les autres variables. Cela ne semble donc pas un changement positif.

“Les utilisateurs ont leur propre initiative et que leur comportement n’est pas complètement déterminé par des algorithmes”

David Garcia, Université de Constance

Le troisième article, le seul publié dans NatureEssayez de réduire la présence de contenu provenant d’utilisateurs idéologiquement liés. Encore une fois, cela ne révèle pas non plus de changements substantiels, mais les utilisateurs dont le contenu partageant les mêmes idées ont été coupés ont fini par interagir davantage avec ce qu’ils ont finalement vu : “Les utilisateurs ont trouvé d’autres moyens de lire des contenus partageant les mêmes idées, par exemple, via groupes et canaux ou descendre dans le alimentation de Facebook. Cela montre que les utilisateurs ont leur propre initiative et que leur comportement n’est pas complètement déterminé par des algorithmes », écrit García. Bien que les chercheurs excluent ce qu’ils appellent les « chambres d’écho extrêmes », ils ont constaté que 20 % des utilisateurs de Facebook reçoivent 75 % du contenu de comptes partageant les mêmes idées. Réduire ce contenu aux vues similaires, écrivent les auteurs, ne provoque pas de changement substantiel de polarisation ou d’idéologie.

Comment séparer les réseaux de la vie

Il y a plusieurs problèmes possibles avec ces études : les réponses sont auto-imputées, et la période et le pays peuvent avoir causé un résultat qui n’est pas reproductible comme c’est le cas dans d’autres circonstances. La conclusion la plus évidente : il est difficile d’isoler et de mesurer un phénomène avec autant de ramifications que la polarisation, même si cela montre que des ajustements lâches ne changent pas l’impact, positif ou négatif, des réseaux sociaux sur la démocratie.

Même dans l’article avec les preuves les plus solides, dirigé par González-Bailón et axé sur l’observation de l’ensemble du réseau, les universitaires détectent que les libéraux et les conservateurs consomment des régimes d’information différents. Mais ils ne savent pas si ce régime est provoqué par l’algorithme ou par les avis antérieurs de l’individu : « Le grand apport de notre article est qu’on utilise tout ce qui s’est passé sur la plateforme, en mettant l’accent sur les liens d’actualités politiques, et que est un point très fort », déclare González-Bailón. « Mais nous ne pouvons pas séparer ce qui est algorithmique de ce qui est social. Les algorithmes, après tout, apprennent du comportement des utilisateurs et c’est la boucle que nous n’avons pas fini de casser », ajoute-t-il.

Lire aussi  En vente à bas prix, le Samsung Galaxy S23 FE offre des performances épiques avec un enregistrement vidéo jusqu'à 8K

Sans cet algorithme, les utilisateurs vivraient-ils moins polarisés ? Peut-être, mais ce n’est pas certain. L’article de González-Bailón a découvert une autre chose intéressante à propos du régime d’information sur Facebook : les groupes et les pages sont plus importants que les utilisateurs que vous suivez. Ils ont également vérifié que les liens spécifiques ont plus de poids que les domaines : les pages et les groupes créent un régime spécifique qui favorise leur idéologie. Par exemple, ils peuvent partager beaucoup de médias traditionnels, mais ne choisir que les articles qu’ils privilégient ou veulent critiquer : “Facebook a créé un écosystème informationnel où les groupes et les pages sont des machines particulièrement efficaces pour faire ce genre de sélection de buffet”, a-t-il ajouté. dit Gonzalez-Bailon.

Dans sa réponse aux articles, García fait une analogie avec le changement climatique pour clarifier le défi impossible auquel ces articles étaient confrontés : « Imaginez une politique qui réduit les émissions de carbone dans certaines villes. Par rapport à un groupe témoin de villes, il est peu probable que nous trouvions un effet sur les anomalies de température, mais l’absence d’effet ne serait pas la preuve que les émissions de carbone ne causent pas le changement climatique », écrit-il. La même chose peut arriver avec les réseaux, ajoute-t-il, puisque ces expérimentations n’excluent pas que les algorithmes de réseau aient contribué à la polarisation : les expérimentations “montrent qu’il y a une limite à l’efficacité des solutions pour les individus lorsqu’il s’agit de modifier les comportements collectifs”. Ces limites doivent être surmontées grâce à l’utilisation d’approches coordonnées, telles que la réglementation ou l’action collective », ajoute García.

La régulation est l’un des moyens les plus demandés par les universitaires impliqués pour répéter et étendre ce type d’expérience, au-delà de la bonne volonté ou de l’intérêt dans ce cas de Meta. “Une approche proactive est nécessaire pour établir ces collaborations à l’avenir, afin que les effets des technologies sur le comportement politique puissent être étudiés sans avoir à endurer plus d’une décennie de préoccupation”, écrit García, ajoutant que la nouvelle loi sur les services numériques de l’UE est un cadre “réalisable” pour ces collaborations entre l’industrie et le milieu universitaire.

Vous pouvez suivre LE PAYS Technologie dans Facebook y Twitter ou inscrivez-vous ici pour recevoir nos bulletin d’information sémanal.




#droite #une #macroétude #confirme #désinformation #sur #Facebook #est #consommée #par #les #conservateurs #Technologie
1690535812

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT