Les nouveaux noms d’utilisateur ne sont pas le seul changement apporté à l’application de chat populaire Discord, désormais utilisée par 150 millions de personnes chaque mois. La société teste également une suite de contrôles parentaux qui permettrait une surveillance accrue des plus jeunes utilisateurs de Discord, a appris TechCrunch et confirmé Discord. Lors d’un test en direct exécuté dans l’application iOS de Discord aux États-Unis, la société a introduit une nouvelle fonctionnalité « Family Center », où les parents pourront configurer des outils leur permettant de voir les noms et les avatars des amis récemment ajoutés de leur adolescent, les serveurs l’adolescent a rejoint ou auquel il a participé et les noms et avatars des utilisateurs avec lesquels il a directement envoyé un message ou avec qui il s’est engagé dans des discussions de groupe.
Cependant, Discord précise dans un écran informatif, les parents ne pourront pas voir le contenu des messages ou des appels de leur ado afin de respecter leur vie privée.
Cette approche, qui fait la distinction entre le besoin de surveillance parentale et le droit d’un mineur à la vie privée, est similaire à la façon dont Snapchat a mis en place le contrôle parental dans son application l’année dernière. Comme le système de Discord, Snapchat permet uniquement aux parents de savoir à qui leur adolescent parle et se lie d’amitié, pas ce qu’ils ont tapé ou les médias qu’ils ont partagés.
Les utilisateurs qui font partie du test Discord verront le nouveau hub Family Center lié dans la section Paramètres utilisateur de l’application, sous les sections Confidentialité et sécurité et Profils. À partir de là, les parents peuvent lire un aperçu des fonctionnalités du Family Center et cliquer sur un bouton pour « Commencer » lorsqu’ils sont prêts à configurer les choses.
Discord explique sur cet écran qu’il « a créé Family Center pour vous fournir plus de contenu sur la façon dont votre adolescent utilise Discord afin que vous puissiez travailler ensemble pour créer des comportements positifs en ligne ». Il détaille ensuite les différents contrôles parentaux, qui leur permettront de voir avec qui leur adolescent discute et est ami, et à quels serveurs ils rejoignent et participent.
Semblable à TikTok, les parents peuvent scanner un code QR fourni par l’adolescent pour mettre le compte sous leur surveillance.
Les captures d’écran ont été découvertes par la société de renseignement sur les applications Watchful.ai. De plus, une poignée d’utilisateurs avait posté leur propre captures d’écran sur Twitter lorsqu’ils ont rencontré la nouvelle expérience plus tôt cette année, ou avaient simplement remarqué sur la fonctionnalité lorsque vous la rencontrez dans l’application.
Nous avons contacté Discord pour commenter les tests, en leur montrant quelques captures d’écran du test. La société a confirmé le développement, mais n’a pas offert d’engagement ferme quant au moment ou si la fonction de contrôle parental serait réellement déployée.
« Nous travaillons toujours pour améliorer notre plate-forme et assurer la sécurité des utilisateurs, en particulier nos jeunes utilisateurs », a déclaré un porte-parole de Discord. « Nous vous ferons savoir si et quand quelque chose sortira de ce travail », ont-ils ajouté.
La société a refusé de répondre à nos questions sur la portée des tests, ou si elle prévoyait de proposer les outils en dehors des États-Unis, entre autres.
Bien que Discord soit aujourd’hui régulièrement utilisé par une foule plus jeune de la génération Z, grâce à ses racines en tant que foyer pour les joueurs, il est souvent exclu de la conversation plus large sur les dommages causés aux adolescents par l’utilisation des médias sociaux. Pendant ce temps, alors que les dirigeants de Facebook, Twitter, Instagram, Snap, YouTube et TikTok ont dû témoigner devant le Congrès sur ce sujet, Discord a pu rester à l’écart.
Dans l’espoir de devancer les réglementations attendues, la plupart des grandes entreprises de médias sociaux ont depuis déployé des fonctionnalités de contrôle parental pour leurs applications, si elles ne proposaient pas déjà de tels outils. YouTube et Instagram ont annoncé des plans de contrôle parental en 2021, et Instagram les a finalement lancés en 2022 avec d’autres applications Meta à suivre. Snapchat a également déployé des contrôles parentaux en 2022. Et TikTok, qui disposait déjà de contrôles parentaux avant le début des enquêtes du Congrès, les a renforcés ces derniers mois.
Mais avec l’absence de réglementation au niveau fédéral, plusieurs États américains ont commencé leurs propres lois sur l’utilisation des médias sociaux, y compris de nouvelles restrictions sur les applications de médias sociaux dans des États comme l’Utah et le Montana, ainsi qu’une législation plus large pour protéger les mineurs, comme California’s Age Appropriate Design Code Act, qui entrera en vigueur l’année prochaine.
La discorde, jusqu’à présent, est passée inaperçue, malgré les avertissements des experts en sécurité des enfants, des forces de l’ordre et des médias concernant les dangers que l’application représente pour les mineurs, au milieu des informations selon lesquelles des toiletteurs et des prédateurs sexuels utilisent le service pour cibler les enfants. L’organisation à but non lucratif, le National Center on Sexual Exploitation, a même ajouté Discord à sa « Dirty Dozen List » en raison de son incapacité à « traiter de manière adéquate le contenu et les activités d’exploitation sexuelle sur sa plate-forme », indique-t-il.
L’organisation dénonce spécifiquement le manque de technologie de vérification de l’âge significative de Discord, une modération insuffisante et des paramètres de sécurité inadéquats.
Aujourd’hui, Discord offre à ses utilisateurs l’accès à un centre de sécurité en ligne qui guide les utilisateurs et les parents sur la façon de gérer un compte ou un serveur Discord sécurisé, mais cela ne va pas jusqu’à fournir aux parents des outils pour surveiller l’utilisation par leur enfant du service ou les empêcher de rejoindre des serveurs ou de communiquer avec des inconnus. Les nouveaux contrôles parentaux ne répondront pas aux deux dernières préoccupations, mais ils sont au moins une reconnaissance qu’une sorte de contrôle parental est nécessaire.
Il s’agit d’un changement par rapport à la position antérieure de Discord sur la question, car la société a déclaré au Wall Street Journal au début de 2021 que sa philosophie était de donner la priorité aux utilisateurs, pas à leurs parents, et a déclaré qu’elle ne prévoyait pas d’ajouter une telle fonctionnalité.