Même lorsque les utilisateurs disent à YouTube qu’ils ne sont pas intéressés par certains types de vidéos, des recommandations similaires continuent à arriver, une nouvelle étude de Mozilla trouvé.
En utilisant les données de recommandations vidéo de plus de 20 000 utilisateurs de YouTube, les chercheurs de Mozilla ont découvert que des boutons tels que « pas intéressé », « je n’aime pas », « arrêter de recommander la chaîne » et « supprimer de l’historique des vidéos regardées » sont largement inefficaces pour empêcher un contenu similaire d’être recommandé. Même à leur meilleur, ces boutons permettent toujours de passer plus de la moitié des recommandations similaires à ce qu’un utilisateur a dit ne pas être intéressé, selon le rapport. Au pire, les boutons ont à peine fait une brèche dans le blocage de vidéos similaires.
Pour collecter des données à partir de vidéos et d’utilisateurs réels, les chercheurs de Mozilla ont recruté des volontaires qui ont utilisé les RegretsReporter, une extension de navigateur qui superpose un bouton général « Arrêter de recommander » aux vidéos YouTube visionnées par les participants. Sur le back-end, les utilisateurs ont été assignés au hasard à un groupe, donc différents signaux ont été envoyés à YouTube chaque fois qu’ils ont cliqué sur le bouton placé par Mozilla – n’aime pas, pas intéressé, ne recommande pas la chaîne, supprime de l’historique et un groupe de contrôle pour qui aucun retour n’a été envoyé à la plateforme.
À l’aide des données collectées à partir de plus de 500 millions de vidéos recommandées, les assistants de recherche ont créé plus de 44 000 paires de vidéos – une vidéo « rejetée », plus une vidéo recommandée par la suite par YouTube. Les chercheurs ont ensuite évalué eux-mêmes les paires ou utilisé l’apprentissage automatique pour décider si la recommandation était trop similaire à la vidéo qu’un utilisateur a rejetée.
Par rapport au groupe de contrôle de base, l’envoi des signaux « n’aime pas » et « pas intéressé » n’était que « marginalement efficace » pour prévenir les mauvaises recommandations, empêchant respectivement 12 % des 11 % des mauvaises recommandations. Les boutons « Ne pas recommander la chaîne » et « Supprimer de l’historique » étaient légèrement plus efficaces – ils ont empêché 43 % et 29 % des mauvaises recommandations – mais les chercheurs affirment que les outils proposés par la plate-forme sont encore insuffisants pour éloigner les contenus indésirables.
« YouTube devrait respecter les commentaires des utilisateurs sur leur expérience, les traiter comme des signaux significatifs sur la façon dont les gens veulent passer leur temps sur la plate-forme », écrivent les chercheurs.
La porte-parole de YouTube, Elena Hernandez, affirme que ces comportements sont intentionnels car la plateforme n’essaie pas de bloquer tout le contenu lié à un sujet. Mais Hernandez a critiqué le rapport, affirmant qu’il ne tenait pas compte de la conception des contrôles de YouTube.
« Il est important de noter que nos contrôles ne filtrent pas des sujets ou des points de vue entiers, car cela pourrait avoir des effets négatifs pour les téléspectateurs, comme la création de chambres d’écho », a déclaré Hernandez. Le bord. « Nous accueillons favorablement la recherche universitaire sur notre plate-forme, c’est pourquoi nous avons récemment étendu l’accès à l’API de données via notre programme de recherche YouTube. Le rapport de Mozilla ne tient pas compte du fonctionnement réel de nos systèmes, et il nous est donc difficile de recueillir de nombreuses informations.
Hernandez dit que la définition de « similaire » de Mozilla ne tient pas compte du fonctionnement du système de recommandation de YouTube. L’option « pas intéressé » supprime une vidéo spécifique, et le bouton « ne pas recommander la chaîne » empêche la chaîne d’être recommandée à l’avenir, dit Hernandez. La société affirme qu’elle ne cherche pas à arrêter les recommandations de tout contenu lié à un sujet, une opinion ou un conférencier.
Outre YouTube, d’autres plates-formes comme TikTok et Instagram ont introduit de plus en plus d’outils de rétroaction permettant aux utilisateurs de former l’algorithme, soi-disant, pour leur montrer un contenu pertinent. Mais les utilisateurs ont souvent se plaindre que même lorsqu’ils signalent qu’ils ne veulent pas voir quelque chose, des recommandations similaires persistent. Selon la chercheuse de Mozilla Becca Ricks, Becca Ricks, chercheur chez Mozilla, ne sait pas toujours clairement ce que font réellement les différents contrôles, et les plates-formes ne sont pas transparentes quant à la manière dont les commentaires sont pris en compte.
« Je pense que dans le cas de YouTube, la plate-forme équilibre l’engagement des utilisateurs avec la satisfaction des utilisateurs, ce qui est finalement un compromis entre la recommandation de contenu qui amène les gens à passer plus de temps sur le site et le contenu que l’algorithme pense que les gens aimeront », a déclaré Ricks. Le bord par email. « La plate-forme a le pouvoir de modifier lequel de ces signaux a le plus de poids dans son algorithme, mais notre étude suggère que les commentaires des utilisateurs ne sont pas toujours les plus importants. »