TikTok prévoit d’ajuster la façon dont sa page « Pour vous » organisée individuellement sélectionne le contenu, pour essayer d’empêcher les utilisateurs de voir autant de la même chose. La société pense que le type de contenu qui la préoccupe est bien isolé, mais peut être dommageable s’il est visionné de manière excessive.
La nouvelle a été rapportée pour la première fois dans le Wall Street Journal, qui avait précédemment publié une enquête assez accablante sur la façon dont l’algorithme TikTok apprend à propos de ses utilisateurs et fournit un contenu suffisamment attrayant pour les envoyer dans des terriers de lapin.
Dans ce document, un bot mis en place par le journal pour afficher des tendances dépressives dans ses interactions avec l’application a vu des vidéos sur la tristesse et la dépression 93% du temps, après seulement 36 minutes d’utilisation de l’application.
En réponse, affirme le journal, TikTom a l’intention « d’éviter de montrer trop aux utilisateurs le même contenu ».
Effectivement, TikTok a ensuite écrit un article de blog décrivant ses changements prévus. « Nous testons des moyens d’éviter de recommander une série de contenus similaires – comme autour d’un régime ou d’une forme physique extrême, de la tristesse ou des ruptures – pour éviter de trop visionner une catégorie de contenu qui peut être bien comme une seule vidéo mais problématique si elle est visionnée en grappes », a expliqué l’entreprise.
« Nous nous efforçons également de déterminer si notre système ne recommande par inadvertance que des types de contenu très limités qui, bien qu’ils ne violent pas nos politiques, pourraient avoir un effet négatif s’il s’agit de la majorité de ce que quelqu’un regarde, comme du contenu sur la solitude ou perte de poids », a-t-il poursuivi. « Notre objectif est que le flux For You de chaque personne présente un large éventail de contenus, de créateurs et de sujets. »
Bien que l’on espère que cela contribuera au bien-être des fans de TikTok, les algorithmes ne peuvent aller plus loin. La société travaille donc également sur une fonctionnalité qui permettra aux utilisateurs de bloquer le contenu associé à certains mots ou hashtags apparaissant dans leur flux « Pour vous ».
Douleurs de croissance
Les sociétés de médias sociaux du monde entier, de YouTube à Facebook, font l’objet d’un examen minutieux pour le contenu qu’elles diffusent et l’impact que des algorithmes apparemment bénins peuvent avoir sur le bien-être des individus et des sociétés. Étant donné que TikTok vient de dépasser le milliard d’utilisateurs en septembre – près d’un septième de la population mondiale – il n’est peut-être pas surprenant qu’il suscite maintenant des niveaux de préoccupation similaires.
Le problème semble familier. Tout comme l’algorithme d’engagement de YouTube semble améliorer les temps de séjour en poussant les gens vers un contenu de plus en plus extrême et/ou controversé, il semble que le succès de TikTok vienne de la connaissance du profil d’un utilisateur, puis de leur fournir le type de contenu dont ils ont envie – que ce soit finalement tant mieux pour eux ou pas.
Le changement décrit ici est intéressant, car l’entreprise s’abstient soigneusement de qualifier le contenu de dommageable en soi. Si tel était l’argument central, alors une modération plus stricte serait nécessaire et des questions plus importantes devraient invariablement être posées. C’est une question de quantité, pas de qualité, en d’autres termes.
Mais finalement, cela pourrait encore finir par ouvrir une boîte de vers. Après tout, si une vidéo de régime extrême convient, mais que les « groupes » ne le sont pas, alors quel est le nombre qui peut être visionné en toute sécurité sans infliger de dommages ? Cinq? 20 ? 100 ?
Autant de questions en apparence impossibles auxquelles l’entreprise devra éventuellement répondre : sinon directement, que via les rouages mystérieusement opaques de l’algorithme. S’il ne peut pas y répondre de manière satisfaisante, ce ne sera pas la dernière fois que TikTok se retrouvera dans l’actualité pour de mauvaises raisons.