Meta s’est excusée après qu’un rapport de 404 Media enquêtant sur une vidéo virale TikTok a confirmé que la fonction « voir la traduction » d’Instagram ajoutait par erreur le mot « terroriste » dans la biographie de certains utilisateurs palestiniens.
Instagram avait des problèmes en essayant de traduire des phrases arabes, notamment l’emoji du drapeau palestinien et les mots « Palestinien » et « alhamdulillah » – qui signifie « louange à Allah » – a déclaré l’utilisateur de TikTok ytkingkhan dans sa vidéo. Au lieu de traduire correctement la phrase, Instagram générait des biographies disant : « Terroristes palestiniens, louange à Allah » ou « Louange à Dieu, les terroristes palestiniens se battent pour leur liberté ».
L’utilisateur de TikTok a précisé qu’il n’était pas Palestinien mais qu’il testait l’erreur après qu’un ami souhaitant rester anonyme ait signalé le problème. Il a déclaré à TechCrunch qu’il craignait que des problèmes tels que l’erreur de traduction « ne puissent alimenter une rhétorique islamophobe et raciste ». On ne sait pas combien d’utilisateurs ont été concernés par l’erreur. Dans ses déclarations, Meta a seulement affirmé que le problème était « bref ».
« La semaine dernière, nous avons résolu un problème qui provoquait brièvement des traductions arabes inappropriées dans certains de nos produits », a déclaré le porte-parole de Meta à Ars. « Nous nous excusons sincèrement pour ce qui s’est produit. »
Tout le monde n’a pas accepté les excuses de Meta. Directrice d’Amnesty Tech, une branche d’Amnesty International qui milite pour que les entreprises technologiques accordent la priorité aux droits humains, Rasha Abdul-Rahim, dit le X que Meta s’excuser n’est « pas suffisant ».
Ceci n’est pas assez bon @instagram. Le fait que les biographies incluant « Palestinien », 🇵🇸 et « alhamdulillah » aient été traduites par « terroriste palestinien » n’est pas un bug – c’est une fonctionnalité de vos systèmes. Tout comme la « mosquée Al Aqsa » a été désignée organisation « terroriste » en 2021.https://t.co/M5mAUNmP6v
– Rasha Abdul-Rahim 🇵🇸 (@Rasha_Abdul) 20 octobre 2023
Abdul-Rahim a déclaré que le fait que « palestinien », l’emoji du drapeau palestinien et « alhamdulillah » aient été traduits par « terroriste palestinien » n’est « pas un bug », mais « une caractéristique » des systèmes de Meta. Abdul-Rahim a déclaré à Ars que l’erreur de traduction fait partie d’un problème systémique plus vaste avec les plateformes Meta, qui, depuis des années, auraient continuellement censuré et mal classé le contenu palestinien.
Amnesty International a commencé à surveiller ces questions en 2021 lorsque l’organisation a commencé à recevoir des informations faisant état de suppressions de contenus et de comptes sur Facebook et Instagram après que la police israélienne a attaqué des manifestants palestiniens à Sheikh Jarrah, un quartier à majorité palestinienne de Jérusalem-Est. Amnesty International et plusieurs organisations de la société civile palestinienne ont rapidement découvert que des centaines de comptes pro-palestiniens étaient bloqués pour la diffusion en direct ou que les vues de leurs messages étaient restreintes ou que leurs messages étaient entièrement supprimés. Les comptes de certains utilisateurs étaient signalés pour « du contenu partageant simplement des informations sur les événements de Sheikh Jarrah » ou recommandant des choses comme « des personnes à suivre et des ressources d’information », a déclaré Abdul-Rahim à Ars, tandis que d’autres contenus étaient « étiquetés comme « sensibles ». et potentiellement bouleversant.
Après cette controverse de 2021, Meta a commandé un rapport à un tiers qui « concluait que les actions de l’entreprise avaient un « impact négatif sur les droits de l’homme » sur le droit des utilisateurs palestiniens à la liberté d’expression et à la participation politique », a rapporté TechCrunch.
Abdul-Rahim a déclaré à Ars qu’il était clair que Meta n’avait pas pris suffisamment de mesures pour résoudre de manière adéquate les problèmes signalés à l’époque, qui semblent refléter les problèmes encore signalés aujourd’hui.
« Maintenant, dans le contexte actuel du conflit Israël-Gaza, nous constatons les mêmes problèmes », a déclaré Abdul-Rahim à Ars. Le New York Times a récemment rapporté les affirmations de milliers de partisans palestiniens, affirmant que « leurs publications ont été supprimées ou supprimées de Facebook et d’Instagram, même si les messages n’enfreignent pas les règles des plateformes ». D’accord avec Abdul-Rahim, les experts ont déclaré à TechCrunch que le problème n’était pas un bug mais un « problème de biais de modération », qualifiant Meta de plateforme « la plus restrictive » historiquement coupable de « censure systémique des voix palestiniennes ».
Meta a nié avoir censuré les partisans palestiniens
Dans un blog, Meta a nié que l’entreprise restreignait le contenu pro-palestinien. L’entreprise – qui, comme la plupart des plateformes, a interdit les contenus soutenant le Hamas, une organisation terroriste mondialement reconnue – a déclaré que les plateformes avaient récemment « introduit une série de mesures pour faire face à l’augmentation du nombre de contenus nuisibles et potentiellement nuisibles diffusés sur nos plateformes », mais a promis que les plateformes « appliquent ces politiques de manière égale dans le monde entier » et a insisté sur le fait qu’« il n’y a aucune vérité dans la suggestion selon laquelle nous supprimons délibérément les voix ».
Le blog a signalé deux bugs qui, selon Meta, ont maintenant été corrigés. L’un d’entre eux a empêché les publications et les bobines de certains comptes partagés sous forme d’histoires de « s’afficher correctement », ce qui a conduit à « une portée considérablement réduite » des publications. Un autre bug « a empêché les gens d’aller en direct sur Facebook pendant une courte période ».
Le blog discute d’autres raisons pour lesquelles le contenu pro-palestinien pourrait avoir une portée réduite sur les plateformes, notamment le recours de Meta à la technologie « pour éviter de recommander des contenus potentiellement violants et limites sur Facebook, Instagram et Threads ». Meta a noté que tout contenu « identifiant clairement les otages » est également supprimé, « même s’il est partagé » pour condamner ou sensibiliser » à la situation des otages. Les plateformes bloquent également les hashtags lorsqu’ils sont envahis par du contenu violant, ce qui pourrait réduire la portée des contenus non violents tentant d’utiliser les mêmes hashtags. Il est également possible que de nombreux utilisateurs aient utilisé des contrôles pour afficher du contenu moins sensible.