Meta a presque doublé la quantité de contenu violent supprimé de Facebook

Meta a presque doublé la quantité de contenu violent qu’il supprime de Facebook. Au cours du premier trimestre 2022, la société a supprimé 21,7 millions d’éléments de contenu pour avoir enfreint ses règles concernant la violence et l’incitation à la violence, contre 12,4 millions au trimestre précédent.

Les retraits ont également augmenté pour le trimestre sur Instagram, mais seulement légèrement. La société a supprimé 2,7 millions de publications pour avoir enfreint ses règles en matière de violence, contre 2,6 millions au cours du dernier trimestre 2021.

La société a partagé les nouvelles mesures dans le cadre de son rapport trimestriel sur l’application des normes communautaires. Dans le rapport, Meta a attribué l’augmentation des retraits à une « expansion de notre technologie de détection proactive ». Selon la société, plus de 98 % des messages supprimés ont été supprimés avant que les utilisateurs ne les signalent.

Le rapport arrive à un moment où Meta fait l’objet d’un examen minutieux pour son temps de réponse suite à la récente fusillade de masse à Buffalo, New York. Les enregistrements en direct du tournage diffusés sur Facebook et d’autres plateformes et entreprises ont mis du temps à retirer toutes les nouvelles copies. Une copie publiée sur Facebook a été partagée plus de 46 000 fois avant d’être supprimée plus de neuf heures après sa publication initiale, selon Le Washington Post.

Comme pour les fusillades de masse précédentes comme Christchurch, la possibilité pour les gens de télécharger et de faire rapidement de nouvelles copies d’enregistrements en direct a testé la capacité de Meta à appliquer ses politiques.

« L’un des défis que nous voyons à travers des événements comme celui-ci est que les gens créent de nouveaux contenus, de nouvelles versions, de nouveaux liens externes pour essayer d’échapper à nos politiques [and] échapper à notre application », a déclaré Guy Rosen, vice-président de l’intégrité de Meta, lors d’un appel avec des journalistes. « Comme pour tout incident, nous allons continuer à apprendre à affiner nos processus, à affiner nos systèmes pour nous assurer que nous pouvons détecter que nous pouvons supprimer plus rapidement le contenu en infraction à l’avenir. »

Meta a également partagé des statistiques mises à jour sur le contenu qu’il supprime par erreur. Pour le contenu violent, la société a déclaré qu’elle avait finalement restauré 756 000 messages Facebook qui avaient fait l’objet d’un appel après leur suppression initiale. La société a déclaré qu’elle « travaillait également sur le développement de mesures robustes autour des erreurs », mais n’a pas expliqué ce qu’elle mesurerait au-delà des restaurations de contenu en appel.

Mise à jour pour clarifier que Meta a partagé des chiffres mis à jour sur les retraits qui ont fait l’objet d’un appel et ont ensuite été rétablis.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Source-145