X abandonne la haine antisémite et islamophobe, selon un nouveau rapport

Au milieu d’une escalade du conflit au Moyen-Orient, X ne parvient pas à modérer les discours de haine sur sa plateforme qui promeut les complots antisémites, fait l’éloge d’Hitler et déshumanise les musulmans et les Palestiniens.

Dans le cadre d’une nouvelle étude, le Center for Countering Digital Hate (CCDH), une organisation à but non lucratif qui étudie la haine et l’extrémisme en ligne, a collecté un échantillon de 200 publications X sur 101 comptes contenant des discours de haine. Chaque message a été signalé sur la plateforme le 31 octobre à l’aide des outils de reporting de X et soit « traitait directement du conflit en cours, soit semblait en être informé ».

Cet outil invite les utilisateurs à signaler le contenu et à fournir des informations sur la catégorie de comportement à laquelle il appartient, y compris une option pour les discours de haine. Ces options de signalement incluent « les insultes, les stéréotypes racistes ou sexistes, la déshumanisation, l’incitation à la peur ou à la discrimination, les références haineuses, les symboles et logos haineux ».

Selon le CCDH, 196 des 200 publications restent en ligne, tandis qu’un compte a été suspendu après avoir été signalé et deux ont été « verrouillés ». Un échantillon des messages examinés par TechCrunch montre que X a continué à héberger du contenu représentant des caricatures antisémites, qualifiant les Palestiniens d’« animaux » et invitant les autres à « profiter du spectacle de juifs et de musulmans s’entre-tuant ».

Tous les exemples de publications X examinés par TechCrunch restaient en ligne au moment de la rédaction. Sur les 101 comptes représentés dans les exemples de publications, 82 étaient des comptes vérifiés payés avec un chèque bleu.

Le nombre de vues sur les publications X variait, mais certaines ont été vues plus de 100 000 fois, y compris des publications niant l’Holocauste, et un gif interactif représentant un homme dans une kippa en train d’être étouffé, qui a été vu près d’un million de fois. Les publications qui n’ont pas été supprimées ont collecté plus de 24 millions de vues au total.

Même si un échantillon de 200 publications ne représente qu’une fraction du contenu de X à un moment donné, de nombreuses publications se distinguent par leur racisme flagrant, leur acceptation ouverte de la violence et le fait qu’elles restent en ligne, même maintenant. Les sociétés de médias sociaux ne parviennent régulièrement pas à supprimer des pans de contenus qui enfreignent leurs règles, mais elles suppriment généralement ces publications très rapidement lorsque des chercheurs ou des journalistes les mettent en avant.

Parmi les exemples de publications inclus dans le rapport du CCDH, certains portent désormais une étiquette indiquant « Visibilité limitée : cette publication peut enfreindre les règles de X contre les conduites haineuses ». D’autres contenus, notamment des messages promouvant des complots antisémites, rejetant en plaisantant l’Holocauste et utilisant un langage déshumanisant pour normaliser la violence contre les musulmans, restent en ligne sans étiquette. TechCrunch a demandé à X pourquoi la société n’avait pris aucune mesure contre la majorité des messages signalés il y a deux semaines, mais a reçu la réponse automatique « Occupé maintenant, veuillez revenir plus tard ».

« X a cherché à rassurer les annonceurs et le public sur leur maîtrise du discours de haine – mais nos recherches indiquent que ce ne sont que des paroles vides de sens », a déclaré Imran Ahmed, PDG du Center for Countering Digital Hate. « Notre test de « client mystère » des systèmes de modération de contenu de X – pour voir s’ils ont la capacité ou la volonté de supprimer 200 cas de discours de haine clairs et sans ambiguïté – révèle que les acteurs haineux semblent avoir carte blanche pour publier des propos vicieusement antisémites et haineux. sur la plateforme d’Elon Musk.

Dans ses directives de sécurité, X déclare que les utilisateurs « ne peuvent pas attaquer d’autres personnes sur la base de la race, de l’origine ethnique, de l’origine nationale, de la caste, de l’orientation sexuelle, du sexe, de l’identité de genre, de l’appartenance religieuse, de l’âge, d’un handicap ou d’une maladie grave ». Sous la direction d’Elon Musk, l’entreprise anciennement connue sous le nom de Twitter a réduit ses effectifs en matière de modération de contenu, a annulé ses politiques de sécurité protégeant les groupes marginalisés et a invité des vagues d’utilisateurs précédemment bannis à revenir sur la plateforme.

Cette année, X a intenté une action en justice contre le CCDH, alléguant que l’organisation à but non lucratif utilisait les données de la plateforme sans autorisation et nuisait intentionnellement aux activités publicitaires de l’entreprise. Le CCDH maintient que X brandit des menaces juridiques pour faire taire ses recherches, ce qui a largement été pris en compte dans un certain nombre de rapports sur la modération laxiste du contenu de X sous Elon Musk.

Le jour même où le CCDH publiait son nouveau rapport, X publiait un article de blog vantant ses systèmes de modération de contenu pendant le conflit en cours en Israël et à Gaza. La société affirme avoir pris des mesures contre plus de 325 000 éléments de contenu qui enfreignent ses conditions d’utilisation et ces actions peuvent inclure « la restriction de la portée d’une publication, la suppression de la publication ou la suspension du compte ».

« Dans des périodes d’incertitude telles que le conflit Israël-Hamas, notre responsabilité de protéger la conversation publique est amplifiée », a écrit l’équipe de sécurité de X.

Source-146