L’année dernière, le National Center for Missing and Exploited Children (NCMEC) a publié des données montrant qu’il recevait énormément plus de rapports de matériel d’abus sexuels sur des enfants (CSAM) de Facebook que tout autre service Web qu’il suivait. Là où d’autres plateformes sociales populaires comme Twitter et TikTok avaient des dizaines de milliers de rapports, Facebook en avait 22 millions.
Aujourd’hui, Facebook a annoncé de nouveaux efforts pour limiter la propagation de certains de ces CSAM sur ses plateformes. En partenariat avec le NCMEC, Facebook construit une « plate-forme mondiale » pour prévenir la « sextorsion » en aidant à « arrêter la propagation des images intimes des adolescents en ligne ».
« Nous travaillons avec le National Center for Missing and Exploited Children (NCMEC) pour créer une plate-forme mondiale pour les adolescents qui craignent que les images intimes qu’ils ont créées ne soient partagées sur des plates-formes publiques en ligne sans leur consentement », a déclaré Antigone Davis, vice-présidente mondiale de Facebook. responsable de la sécurité, a déclaré lundi dans un article de blog.
Cette plate-forme mondiale pour adolescents fonctionnera de la même manière que la plate-forme créée par Meta pour aider les adultes à combattre le « revenge porn », a déclaré Davis, qui, selon Facebook, était « la première initiative mondiale de ce type ». Il permet aux utilisateurs de générer un hachage pour empêcher de manière proactive la distribution d’images sur Facebook et Instagram.
Selon Davis, Meta a constaté que plus de 75 % du contenu exploitant des enfants qui prolifère sur ses plateformes à des taux supérieurs aux autres médias sociaux est publié par des personnes « sans intention apparente de nuire ». Au lieu de cela, le CSAM est partagé pour exprimer son indignation, son dégoût ou sa « mauvaise humeur », a déclaré Davis.
« Le partage de ce contenu enfreint nos politiques, quelle que soit l’intention », a déclaré Davis. « Nous prévoyons de lancer une nouvelle campagne PSA qui encourage les gens à s’arrêter et à réfléchir avant de partager ces images en ligne et à nous les signaler à la place. »
Elle a également déclaré qu’il y aurait plus de nouvelles sur la nouvelle plateforme pour adolescents dans les semaines à venir.
Le NCMEC n’a pas immédiatement répondu à la demande de commentaires d’Ars.
Meta étudie l’étiquetage des adultes « suspects »
Dans son blog, Davis a décrit plusieurs autres mises à jour que Meta a apportées pour mieux protéger les adolescents.
Pour les nouveaux utilisateurs de moins de 16 ans (ou 18 ans dans certains pays), Meta définira les paramètres de confidentialité par défaut pour empêcher les étrangers de voir leur liste d’amis, les pages qu’ils suivent ou les publications dans lesquelles ils sont tagués. Les adolescents auront également des paramètres par défaut. limiter qui peut commenter leurs messages et les inviter à examiner les messages dans lesquels ils sont tagués avant que ces messages n’apparaissent sur leurs pages. Pour tous les adolescents déjà sur les plateformes, Meta a déclaré qu’il enverrait des notifications leur recommandant de mettre à jour leurs paramètres de confidentialité.
Cependant, la plus grande précaution que Meta teste actuellement est peut-être une étape vers le signalement des utilisateurs adultes soupçonnés de harceler les adolescents comme des comptes «suspects».
« Un compte » suspect « est un compte appartenant à un adulte qui peut avoir été récemment bloqué ou signalé par un jeune, par exemple », a écrit Davis.
Pour déterminer qui est « suspect », Meta prévoit de s’appuyer sur les rapports d’utilisateurs adolescents. Lorsqu’un utilisateur adolescent bloque un compte, l’utilisateur adolescent reçoit également une notification pour signaler le compte à Meta pour lui faire savoir « si quelque chose le met mal à l’aise lors de l’utilisation de nos applications ». Pour identifier plus d’utilisateurs suspects, Meta a déclaré qu’il examinerait tous les blocages par les adolescents, qu’ils fassent ou non un rapport.
Tout compte signalé comme suspect ne sera pas affiché dans les recommandations People You May Know des utilisateurs adolescents. Davis a déclaré que Meta envisageait également de supprimer complètement le bouton de message lorsqu’un compte « suspect » consultait le profil d’un utilisateur adolescent.
Même ceci est un système imparfait, bien sûr. Le principal défaut de la solution de Meta ici est que le signalement des utilisateurs « suspects » ne se produira qu’après que certains adolescents aient déjà été harcelés.