Un document divulgué indique que Facebook pourrait sous-déclarer les images de maltraitance d’enfants

Un document de formation utilisé par les modérateurs de contenu de Facebook soulève la question de savoir si le réseau social sous-déclare les images d’abus sexuels potentiels sur des enfants, Le New York Times rapporte. Le document aurait dit aux modérateurs de « pécher du côté d’un adulte » lors de l’évaluation des images, une pratique que les modérateurs ont contestée mais que les dirigeants de l’entreprise ont défendue.

Le problème est de savoir comment les modérateurs de Facebook doivent gérer les images dans lesquelles l’âge du sujet n’est pas immédiatement évident. Cette décision peut avoir des implications importantes, car les images présumées de maltraitance d’enfants sont signalées au Centre national pour les enfants disparus et exploités (NCMEC), qui transmet les images aux forces de l’ordre. Les images représentant des adultes, en revanche, peuvent être supprimées de Facebook si elles enfreignent ses règles, mais ne sont pas signalées aux autorités extérieures.

Mais, comme Le NYT souligne qu’il n’existe pas de moyen fiable de déterminer l’âge à partir d’une photographie. Les modérateurs seraient formés pour utiliser une méthode vieille de plus de 50 ans pour identifier « les phases progressives de la puberté », mais la méthodologie « n’a pas été conçue pour déterminer l’âge de quelqu’un ». Et, puisque les directives de Facebook demandent aux modérateurs de supposer que les photos dont ils ne sont pas sûrs sont des adultes, les modérateurs soupçonnent que de nombreuses images d’enfants peuvent passer.

Cela est encore compliqué par le fait que les modérateurs de contrat de Facebook, qui travaillent pour des entreprises extérieures et n’obtiennent pas les mêmes avantages que les employés à temps plein, peuvent n’avoir que quelques secondes pour prendre une décision et peuvent être pénalisés pour avoir fait le mauvais choix. appel.

Facebook, qui signale plus de matériel d’abus sexuels sur des enfants au NCMEC que toute autre entreprise, affirme que se tromper du côté des adultes vise à protéger les utilisateurs et la vie privée et à éviter les faux rapports qui pourraient entraver la capacité des autorités à enquêter sur les cas réels d’abus. Le responsable de la sécurité de l’entreprise, Antigone Davis, a déclaré au journal qu’il pourrait également s’agir d’une responsabilité légale pour eux de faire de faux rapports. Notamment, toutes les entreprises ne partagent pas la philosophie de Facebook sur cette question. Apple, Snap et TikTok adopteraient tous « l’approche opposée » et rapporteraient des images lorsqu’ils ne seraient pas sûrs de leur âge.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Source-145