samedi, novembre 23, 2024

L’aversion de YouTube fonctionne à peine, selon une nouvelle étude sur les recommandations

Si vous avez déjà eu l’impression qu’il est difficile de « désentraîner » l’algorithme de YouTube pour ne pas suggérer un certain type de vidéo une fois qu’il se glisse dans vos recommandations, vous n’êtes pas seul. En fait, il peut être encore plus difficile que vous ne le pensez d’amener YouTube à comprendre précisément vos préférences. Un problème majeur, selon Mozilla, est que les contrôles intégrés à l’application de YouTube, tels que le bouton « Je n’aime pas », sont largement inefficaces en tant qu’outil de contrôle du contenu suggéré. Selon le rapport, ces boutons « empêchent moins de la moitié des recommandations algorithmiques indésirables ».

Les chercheurs de Mozilla ont utilisé les données recueillies à partir de RegretsReporter, son extension de navigateur qui permet aux gens leurs données de recommandations à utiliser dans des études comme celle-ci. Au total, le rapport s’est appuyé sur des millions de vidéos recommandées, ainsi que sur des rapports anecdotiques de milliers de personnes.

Mozilla a testé l’efficacité de quatre contrôles différents : le bouton « Je n’aime pas », « Pas intéressé », « Ne recommande pas la chaîne » et « Supprimer de l’historique des vidéos regardées ». Les chercheurs ont constaté que ceux-ci avaient des degrés d’efficacité variables, mais que l’impact global était « faible et inadéquat ».

Sur les quatre contrôles, le plus efficace était « ne pas recommander depuis le canal », qui a empêché 43 % des recommandations indésirables, tandis que « pas intéressé » était le moins efficace et n’a empêché qu’environ 11 % des suggestions indésirables. Le bouton « Je n’aime pas » était presque le même à 12 %, et « Supprimer de l’historique de la montre » a éliminé environ 29 %.

Dans leur rapport, les chercheurs de Mozilla ont noté les efforts considérables que les participants à l’étude ont déclaré qu’ils feraient parfois pour éviter les recommandations indésirables, telles que regarder des vidéos tout en étant déconnectés ou connectés à un VPN. Les chercheurs affirment que l’étude souligne la nécessité pour YouTube de mieux expliquer ses contrôles aux utilisateurs et de donner aux utilisateurs des moyens plus proactifs de définir ce qu’ils veulent voir.

« La façon dont YouTube et de nombreuses plates-formes fonctionnent est qu’elles s’appuient sur une grande quantité de données passives pour déduire quelles sont vos préférences », explique Becca Ricks, chercheuse senior chez Mozilla et co-auteur du rapport. «Mais c’est une façon un peu paternaliste de fonctionner où vous faites en quelque sorte des choix au nom des gens. Vous pourriez demander aux gens ce qu’ils veulent faire sur la plate-forme au lieu de simplement regarder ce qu’ils font.

La recherche de Mozilla s’inscrit dans un contexte d’appels croissants aux principales plates-formes pour rendre leurs algorithmes plus transparents. Aux États-Unis, les législateurs ont proposé des projets de loi pour « opaquer » les algorithmes de recommandation et détenir les entreprises pour biais algorithmique. L’Union européenne est encore plus en avance. La loi sur les services numériques récemment adoptée exigera des plates-formes comment fonctionnent les algorithmes de recommandation et les ouvrira aux chercheurs extérieurs.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145

- Advertisement -

Latest