Les parents en deuil ont demandé à TikTok de vérifier leur âge et ont obtenu des cotes de maturité à la place [Updated]

(Mise à jour, 15 h 15 HE : Un porte-parole de TikTok a répondu avec plus de détails sur la manière dont les niveaux de contenu seront attribués. Une fois qu’une vidéo est téléchargée, TikTok examinera les vidéos pour s’assurer qu’elles respectent les directives de la communauté. Une fois que la vidéo a passé cet examen et est devenue visible sur TikTok, « elle peut être envoyée à nos collègues de Trust and Safety pour modération » s’il y a « une augmentation de la popularité ou lorsqu’un membre de la communauté signale la vidéo ». Pendant la modération, une vidéo peut être supprimée pour avoir enfreint les conditions d’utilisation de TikTok, ou le modérateur peut choisir « d’attribuer un niveau de contenu à la vidéo ».

Répondant aux préoccupations concernant les utilisateurs de moins de 13 ans sur TikTok, le porte-parole a également décrit les moyens par lesquels TikTok a déjà pris des mesures pour empêcher les utilisateurs mineurs d’accéder à la plate-forme : « Alors que la plupart des gens comprennent l’importance de dire la vérité sur leur âge, certains ne fournissent pas les informations correctes, ce qui est un défi auquel de nombreux services en ligne sont confrontés. C’est pourquoi notre engagement à faire respecter nos exigences d’âge minimum ne s’arrête pas à la porte d’âge, et nous adoptons un certain nombre d’approches supplémentaires pour identifier et supprimer les titulaires de comptes présumés mineurs. Nous avons mis en œuvre des méthodes et des processus pour détecter et supprimer les utilisateurs mineurs, ce qui a conduit à la suppression d’environ 20 millions de comptes dans le monde au premier trimestre 2022. » TikTok s’attend également à ce que « les niveaux de contenu offrent un niveau de protection supplémentaire aux membres de la communauté qui indiquent sincèrement qu’ils ont moins de 18 ans ».)

Histoire originale: Les fonctionnalités de sécurité de TikTok ont ​​récemment fait l’objet d’une action en justice intentée par des parents qui affirment que la conception addictive de l’application est responsable de la mort d’au moins sept enfants, dont six étaient trop jeunes pour être sur TikTok. Ces parents ont suggéré que TikTok prenne des mesures pour protéger les jeunes utilisateurs, exhortant la plateforme à ajouter un processus de vérification de l’âge pour restreindre le contenu ou résilier les comptes des enfants utilisateurs de moins de 13 ans, l’âge minimum requis pour rejoindre TikTok.

Ce n’est pas la direction que TikTok a décidé d’aller, cependant. Au moins pas encore. Au lieu de cela, TikTok a annoncé mercredi qu’il ajoutait de nouvelles mesures de sécurité pour tous les utilisateurs conçues pour limiter l’exposition à des contenus préjudiciables et donner aux utilisateurs plus de contrôle sur ce qui apparaît dans leurs flux. Cela inclut de donner aux utilisateurs le pouvoir de bloquer le contenu contenant certains mots, hashtags ou sons.

En se concentrant spécifiquement sur l’amélioration des mesures de sécurité pour les «membres de la communauté adolescente» de TikTok, TikTok «travaille également à la construction d’un nouveau système pour organiser le contenu en fonction de la maturité thématique» – essentiellement, en créant des notes de maturité pour les vidéos TikTok, comme les notes que vous voyez sur les films ou jeux vidéos.

« Dans les semaines à venir, nous commencerons à introduire une première version pour aider à empêcher le contenu avec des thèmes manifestement matures d’atteindre un public âgé de 13 à 17 ans », a écrit le responsable de la confiance et de la sécurité de TikTok, Cormac Keenan, dans le billet de blog.

De plus, TikTok a fourni une mise à jour sur les étapes précédemment annoncées qu’il prend avec son algorithme pour empêcher les utilisateurs de faire défiler sans fin des « expériences de visionnage potentiellement difficiles ou déclenchantes ».

« L’année dernière, nous avons commencé à tester des moyens d’éviter de recommander une série de contenus similaires sur des sujets qui peuvent convenir en tant que vidéo unique mais potentiellement problématiques s’ils sont visionnés à plusieurs reprises, tels que des sujets liés aux régimes, à la forme physique extrême, à la tristesse et à d’autres sujets de bien-être. sujets », a écrit Keenan. « Nous avons également testé des moyens de reconnaître si notre système peut recommander par inadvertance une gamme plus restreinte de contenu à un spectateur. »

Probablement parce que les normes de la communauté TikTok limitent les comptes à 13 ans et plus, TikTok n’a jusqu’à présent discuté que de l’impact souhaité des nouvelles fonctionnalités de sécurité sur les utilisateurs adultes et adolescents. Cela signifie que TikTok n’a pas encore pris de mesures pour répondre aux préoccupations des parents concernant « des centaines de milliers d’enfants aussi jeunes que 6 ans », dont le procès allègue que TikTok sait « utilisent actuellement son produit de médias sociaux » sans dispositifs de sécurité conçus juste pour eux.

TikTok n’a pas immédiatement répondu à une demande de commentaire sur les nouvelles fonctionnalités de sécurité ou sur le fonctionnement des cotes de maturité. Il n’est pas clair s’il existe de futures fonctionnalités de sécurité, telles que la vérification de l’âge, prévues pour répondre aux préoccupations croissantes concernant les enfants de moins de 13 ans qui auraient été blessés lors de l’utilisation de l’application.

Source-147