vendredi, novembre 8, 2024

L’algorithme de YouTube a poussé les allégations de fraude électorale aux partisans de Trump, selon un rapport

Pendant des années, les chercheurs ont suggéré que les algorithmes alimentant le contenu des utilisateurs ne sont pas la cause des chambres d’écho en ligne, mais sont plus probablement dus au fait que les utilisateurs recherchent activement un contenu qui correspond à leurs croyances. Cette semaine, des chercheurs de l’Université de New York pour le Center for Social Media and Politics ont montré les résultats d’une expérience YouTube qui vient d’être menée juste au moment où des allégations de fraude électorale ont été soulevées à l’automne 2020. Ils disent que leurs résultats fournissent une mise en garde importante aux recherches antérieures de montrant la preuve qu’en 2020, l’algorithme de YouTube était responsable de recommander « de manière disproportionnée » du contenu de fraude électorale aux utilisateurs plus « sceptiques quant à la légitimité de l’élection pour commencer ».

Un co-auteur de l’étude, le politologue de l’Université Vanderbilt, James Bisbee, a déclaré à The Verge que même si les participants se voyaient recommander un faible nombre de vidéos de négation électorale – un maximum de 12 vidéos sur des centaines de participants cliqués – l’algorithme en a généré trois fois plus pour les gens. prédisposés à adhérer au complot qu’aux personnes qui ne l’ont pas fait. « Plus vous êtes sensible à ces types de récits sur l’élection … plus on vous recommanderait du contenu sur ce récit », a déclaré Bisbee.

La porte-parole de YouTube, Elena Hernandez, a déclaré à Ars que le rapport de l’équipe de Bisbee « ne représente pas avec précision le fonctionnement de nos systèmes ». Hernandez déclare : « YouTube n’autorise ni ne recommande les vidéos qui avancent de fausses allégations selon lesquelles des fraudes, des erreurs ou des problèmes généralisés se sont produits lors de l’élection présidentielle américaine de 2020 » et les « vidéos et chaînes les plus vues et recommandées de YouTube liées aux élections proviennent de sources faisant autorité, comme les chaînes d’information. »

L’équipe de Bisbee déclare directement dans son rapport qu’elle n’a pas tenté de résoudre l’énigme du fonctionnement du système de recommandation de YouTube :

« Sans accès à l’algorithme de secret commercial de YouTube, nous ne pouvons pas affirmer avec certitude que le système de recommandation déduit l’appétit d’un utilisateur pour le contenu de fraude électorale en utilisant ses historiques de surveillance passés, ses données démographiques ou une combinaison des deux. Aux fins de notre contribution , nous traitons l’algorithme comme la boîte noire qu’il est, et nous demandons simplement s’il recommandera de manière disproportionnée le contenu de fraude électorale aux utilisateurs qui sont plus sceptiques quant à la légitimité de l’élection. »

Pour mener leur expérience, l’équipe de Bisbee a recruté des centaines d’utilisateurs de YouTube et a recréé l’expérience de recommandation en demandant à chaque participant de compléter l’étude en se connectant à son compte YouTube. Après que les participants ont cliqué sur diverses recommandations, les chercheurs ont enregistré tout contenu recommandé signalé comme soutenant, réfutant ou signalant de manière neutre les allégations de fraude électorale de Trump. Une fois qu’ils ont fini de regarder des vidéos, les participants ont rempli un long sondage pour partager leurs opinions sur l’élection de 2020.

Bisbee a déclaré à Ars que « le but de notre étude n’était pas de mesurer, de décrire ou de désosser le fonctionnement interne de l’algorithme YouTube, mais plutôt de décrire une différence systématique dans le contenu qu’il recommandait aux utilisateurs qui étaient plus ou moins préoccupés par l’élection ». fraude. » Le seul objectif de l’étude était d’analyser le contenu fourni aux utilisateurs pour tester si les systèmes de recommandation en ligne contribuaient à « l’environnement d’information polarisé ».

« Nous pouvons montrer ce modèle sans rétro-ingénierie de l’algorithme de boîte noire qu’ils utilisent », a déclaré Bisbee à Ars. « Nous avons juste regardé ce que de vraies personnes étaient montrées. »

Test du système de recommandation de YouTube

L’équipe de Bisbee a signalé cela parce que l’algorithme de YouTube repose sur les historiques de visionnage et les abonnements. Dans la plupart des cas, c’est une expérience positive pour le contenu recommandé de s’aligner sur les intérêts des utilisateurs. Mais en raison des circonstances extrêmes qui ont suivi les élections de 2020, les chercheurs ont émis l’hypothèse que le système de recommandation alimenterait naturellement plus de contenu sur la fraude électorale aux utilisateurs qui étaient déjà sceptiques quant à la victoire de Joe Biden.

Pour tester l’hypothèse, les chercheurs « ont soigneusement contrôlé le comportement de vrais utilisateurs de YouTube lorsqu’ils étaient sur la plate-forme ». Les participants se sont connectés à leurs comptes et ont téléchargé une extension de navigateur pour capturer des données sur les vidéos recommandées. Ensuite, ils ont parcouru 20 recommandations, en suivant un chemin spécifié par les chercheurs, par exemple en cliquant uniquement sur la deuxième vidéo recommandée à partir du haut. Chaque participant a commencé à regarder une vidéo « initiale » attribuée au hasard (politique ou non politique) pour s’assurer que la vidéo initiale qu’il a regardée n’influence pas les recommandations ultérieures basées sur les préférences antérieures de l’utilisateur que l’algorithme reconnaîtrait.

Il y avait de nombreuses limites à cette étude, que les chercheurs ont décrites en détail. Peut-être avant tout, les participants n’étaient pas représentatifs des utilisateurs typiques de YouTube. La majorité des participants étaient de jeunes démocrates diplômés d’université qui regardaient YouTube sur des appareils exécutant Windows. Les chercheurs suggèrent que le contenu recommandé aurait pu différer si plus de participants étaient conservateurs ou de tendance républicaine, et donc supposément plus susceptibles de croire à la fraude électorale.

Il y a également eu un problème où YouTube a supprimé les vidéos de fraude électorale de la plate-forme en décembre 2020, entraînant la perte d’accès des chercheurs à ce qu’ils ont décrit comme un nombre insignifiant de vidéos recommandées aux participants qui n’ont pas pu être évaluées.

L’équipe de Bisbee a rapporté que la principale conclusion du rapport était une preuve préliminaire d’un modèle de comportement de l’algorithme de YouTube, mais pas une véritable mesure de la propagation de la désinformation sur YouTube en 2020.

Source-147

- Advertisement -

Latest