Des changements majeurs arrivent sur TikTok qui affineront les types de vidéos que les utilisateurs voient, qu’il s’agisse d’une préférence exprimée ou d’une modération pour un public plus jeune.
Les utilisateurs pourront bientôt bloquer certains types de vidéos de leur page For You personnalisée qu’ils ne veulent plus voir. Il y aura un paramètre qui filtre les vidéos avec des mots ou des hashtags que vous ne souhaitez pas voir apparaître sur votre flux basé sur un algorithme. Semblable à la façon de désactiver les mots-clés et les hashtags sur Twitter, cette nouvelle option cédera plus de contrôle de contenu aux utilisateurs qu’auparavant.
Bien qu’il y ait déjà l’option de « ne pas aimer » une vidéo sur votre Pour Votre Page, ce n’est pas une garantie que vous ne la reverrez plus. Il semble que le paramètre de filtre devrait en fait empêcher les vidéos sur des sujets qui ne vous intéressent pas de vous atteindre.
TikTok modifiera également la modération du contenu à sa fin, progressant dans le signalement du contenu mature qui ne devrait pas atteindre les jeunes utilisateurs. Les vidéos peuvent désormais afficher des classements de niveau de contenu qui avertiraient ou restreindraient le contenu mature pour les mineurs, étant donné que TikTok a une compréhension précise de l’âge d’un utilisateur.
De plus, TikTok prend des mesures pour identifier les tendances problématiques et limiter la quantité de vidéos liées à une telle tendance – en particulier le contenu préjudiciable à la santé mentale ou causant d’autres types de préjudices – qui apparaîtront sur la page For You de quelqu’un.
L’un de ces types de vidéos à lui seul peut convenir, mais l’idée est que si un utilisateur reçoit plusieurs vidéos sur un sujet problématique, cela pourrait être troublant pour son expérience sur l’application. Le bord (s’ouvre dans un nouvel onglet) a fourni des exemples de contenu basé sur les régimes ou la dépression.
Modération du contenu TikTok – pourquoi c’est important
Des parents californiens ont récemment déposé une plainte contre TikTok, affirmant que la plateforme était responsable de la mort malheureuse de deux jeunes utilisateurs. Selon le New York Times (s’ouvre dans un nouvel onglet)la poursuite allègue que les filles, âgées de 8 et 9 ans, sont décédées après avoir participé à un défi dangereux qui leur a été présenté sur la plate-forme.
Maintenant, il faut savoir que TikTok a une limite d’âge interdisant aux utilisateurs de moins de 13 ans de créer des comptes. Cependant, il est possible de mentir lors de la création d’un profil.
Si un utilisateur impressionnable voyait une seule vidéo d’une tendance problématique par rapport à plusieurs vidéos de cette tendance, il semble moins probable qu’il soit persuadé de participer. Bien sûr, si la tendance est complètement dangereuse, la modération de contenu de TikTok ne devrait même pas laisser une vidéo atteindre un adolescent (ou quelqu’un d’encore plus jeune).
Peut-être qu’une partie de la nouvelle modération de contenu utilisera les habitudes de visionnage d’un utilisateur pour déterminer s’il est réellement en âge d’utiliser TikTok, même si les informations de son compte suggèrent le contraire.
Compte tenu de l’échelle exponentielle de TikTok, apporter des changements qui assurent la sécurité du public devrait être une priorité. Il est encourageant d’apprendre que certains ajustements sont en cours, même si certains peuvent prétendre que c’est trop peu, trop tard.
Vous pouvez lire l’intégralité de l’article de blog sur les modifications entrantes de TikTok ici.