dimanche, décembre 22, 2024

Twitter d’Elon Musk frappé d’un procès pour discours de haine négationniste en Allemagne

Propriétaire de Twitter et autoproclamé « absolutiste de la liberté d’expression« Elon Musk fait face à une contestation judiciaire en Allemagne sur la manière dont la plateforme gère les discours de haine antisémites.

Le procès, qui a été déposé hier devant le tribunal régional de Berlin par HateAid, un groupe qui milite contre le discours de haine, et l’Union européenne des étudiants juifs (EUJS), affirme que Twitter, propriété de Musk, ne parvient pas à appliquer ses propres règles contre les contenus antisémites, y compris la négation de l’holocauste.

La négation de l’Holocauste est un crime en Allemagne – qui a des lois strictes interdisant discours de haine antisémite – faisant du tribunal de Berlin une arène incontournable pour entendre une telle contestation.

« [A]Bien que Twitter interdise les hostilités antisémites dans ses règles et politiques, la plateforme laisse une grande partie de ce contenu en ligne. Même si la plateforme en est alertée par les utilisateurs », argumentent les justiciables. « Les études actuelles prouvent que 84 % des messages contenant des discours de haine antisémites n’ont pas été examinés par les plateformes de médias sociaux, comme le montre une étude du Center for Countering Digital Hate. Ce qui signifie que Twitter sait que des Juifs sont publiquement attaqués sur la plateforme chaque jour et que l’antisémitisme devient une normalité dans notre société. Et que la réponse de la plateforme n’est en aucun cas adéquate.

Pour sa part, Musk a affirmé à plusieurs reprises que Twitter respecterait toutes les lois des pays où il opère (y compris les lois européennes sur la parole). Bien qu’il n’ait pas encore fait de commentaire public sur ce procès spécifique.

Depuis que le PDG de Tesla a repris Twitter à la fin du mois d’octobre, il a considérablement réduit les effectifs de Twitter, y compris dans les fonctions de sécurité essentielles telles que la modération de contenu, et a également réduit le personnel des bureaux régionaux en Europe, y compris en Allemagne. De plus, il a entièrement dissous le Conseil de confiance et de sécurité de Twitter et a rétabli des dizaines de comptes qui avaient été précédemment interdits pour avoir enfreint les règles de Twitter – créant des conditions qui semblent idéales pour que les discours de haine se développent sans contrôle.

Au cours des trois mois environ de Musk en tant que PDG de Twitter, il y a eu des rapports anecdotiques – et certaines études – suggérant une augmentation de la haine sur la plate-forme. Alors que de nombreux anciens utilisateurs ont accusé une augmentation de la haine et des abus d’avoir abandonné la plate-forme depuis qu’il a pris la relève.

Notamment, le procès se concentre sur des exemples de discours de haine qui ont été publiés sur Twitter au cours des trois derniers mois depuis que Musk était en charge, selon Bloomberg, qui a rendu compte du litige plus tôt.

Cela ressemble donc à un test juridique intéressant pour Musk, car le procès applique une lentille externe sur la façon dont la plate-forme applique les politiques anti-discours de haine à une époque de reconfiguration opérationnelle erratique (et drastique) sous la surveillance du nouveau propriétaire.

Alors que le milliardaire libertaire essaie généralement de détourner les critiques selon lesquelles il dirige Twitter dans des eaux toxiques – via un mélange de déni, de pêche au boosterisme, d’attaques ciblées contre les critiques et d’auto-glorification continue (de ce qu’il présente comme un effort quasi-néo-éclaircissant pour être une servante de l’avenir de la civilisation humaine, en «libérant l’oiseau», alors qu’il formule son discours sur Twitter «réformes») – il a admis une montée précoce de la haine sur la plate-forme en novembre.

À l’époque, tweetant un graphique pour illustrer une affirmation selon laquelle les ingénieurs de Twitter avaient réussi à réduire les impressions de discours de haine à un tiers de moins que les « niveaux d’avant le pic » (alors qu’il baptisait la soudaine augmentation de la haine observée dans la période immédiatement après sa prise de contrôle de Twitter). Bien qu’il ait également suggéré que le pic n’était lié qu’à un petit nombre de comptes, plutôt qu’à une réduction plus large de l’efficacité de la modération de contenu depuis qu’il a pris le relais et s’est mis à déchirer le règlement existant.

Alors que Musk semble aimer cultiver l’impression qu’il est un « absolutiste de la liberté d’expression », la vérité, comme toujours avec le cow-boy de l’espace, semble beaucoup moins binaire.

Par exemple, sur Twitter, il a pris une série de décisions apparemment unilatérales et arbitraires sur l’opportunité de censurer (ou non) certains messages et/ou comptes – y compris, dans un premier temps, l’annulation de l’interdiction de Kanye West (alias Ye) puis de l’interdire à nouveau pour avoir tweeté. une image d’une croix gammée avec une étoile de David ; ce dernier étant un symbole du judaïsme, le premier un emblème nazi.

Ou l’annulation du compte de l’ancien président américain Donald Trump, qui a été suspendu après la violente attaque contre la capitale américaine par des partisans de Trump – mais refusant catégoriquement de réintégrer le prédicateur de haine d’InfoWars, Alex Jones, alors que Musk semble s’opposer au tristement célèbre mensonge du complot de Jones selon lequel les enfants qui sont morts dans la fusillade de l’école de Sandy Hook étaient des acteurs.

D’autres décisions prises par Musk concernant la modération du contenu de Twitter semblent être motivées uniquement par son propre intérêt, comme l’interdiction d’un compte qui a tweeté l’emplacement de son jet privé (qu’il a surnommé « les coordonnées de l’assassinat »). L’année dernière, il a également suspendu un certain nombre de journalistes qui avaient rendu compte de l’épisode car il affirmait que leurs reportages avaient les mêmes implications pour sa sécurité personnelle – avant de faire marche arrière face à une tempête de critiques selon lesquelles il censurait la presse libre.

Pourtant, lorsqu’il n’interdit pas les journalistes, Musk a littéralement invité un certain nombre de hacks triés sur le volet pour passer au crible des documents internes – et publier ce qu’il a surnommé les «fichiers Twitter» – dans ce qui ressemble à une tentative nue (mais très fastidieuse) de façonner le récit sur la façon dont l’ancien leadership de la plate-forme a géré la modération du contenu et les problèmes connexes, comme les entrées d’agences d’État faisant des demandes de retrait de tweet, etc. et jeter de l’huile sur les théories du complot conservatrices qui revendiquent l’interdiction systématique de l’ombre et/ou le déclassement de leur contenu par rapport aux opinions libérales.

(Alors que des recherches réelles menées par Twitter, avant Musk, examinant son amplification algorithmique des tweets politiques ont révélé, au contraire, que ses IA donnent en fait plus d’élévation aux opinions de droite, concluant: «Dans 6 des 7 pays étudiés, le courant dominant la droite politique bénéficie d’une plus grande amplification algorithmique que la gauche politique dominante. » Mais qui se soucie des données non triées sur le volet, n’est-ce pas ?)

En ce qui concerne les abus et la haine, Musk est également tout à fait capable de le répandre lui-même sur Twitter – en utilisant sa tactique de mégaphonie à la traîne et de moquerie des groupes vulnérables (ou «wokisme») pour jeter de la viande rouge à sa base de droite aux dépens des personnes qui courent un risque disproportionné d’être maltraités, comme les personnes trans et non binaires dont il se moque délibérément des pronoms.

Musk s’est également abaissé à tweeter et/ou à amplifier des attaques ciblées contre des individus qui ont conduit à des attaques abusives de la part de ses partisans – comme celle qui a forcé l’ancien responsable de la confiance et de la sécurité de Twitter, Yoel Roth, à fuir sa propre maison. Alors, hypocrisie sur les risques pour la sécurité personnelle ? Beaucoup.

Même un observateur occasionnel de Musk-Twitter conclurait sûrement qu’il y a un manque de cohérence dans la prise de décision du chef Twit – ce qui, si cet arbitraire se répercute sur l’application inégale et partielle des politiques de la plate-forme, est une mauvaise nouvelle pour la confiance et la sécurité de Twitter. utilisateurs (et RIP pour tout concept de « santé conversationnelle » sur la plate-forme).

Reste à savoir si les incohérences de Musk conduiront également à une ordonnance du tribunal en Allemagne obligeant Twitter à supprimer les discours de haine illégaux, via ce procès HateAid-EUJS.

« Les actions de Twitter sont basées uniquement sur ses propres règles, opaques, reposant sur le fait que les utilisateurs n’ont aucune possibilité de faire appel – par exemple, lorsqu’il s’agit de la non-suppression des incitations à la haine », fait valoir Joséphine Ballon, responsable du service juridique de HateAid dans un communiqué.

« Il n’y a pas eu un seul cas où un réseau social a été poursuivi pour cela par les autorités. C’est pourquoi la société civile doit s’impliquer et chercher des moyens d’exiger la suppression de ces contenus. En tant qu’ONG, nous agissons en tant que représentant des communautés affectées qui sont quotidiennement sujettes à l’hostilité et aux incitations à la haine. Ainsi, nous pouvons faire pression sur les plateformes à long terme.

Fait intéressant, le procès ne semble pas être intenté en vertu de la loi allemande de longue date sur le retrait des discours de haine – alias NetzDG – qui, du moins sur le papier, donne aux régulateurs le pouvoir de sanctionner les plateformes jusqu’à des dizaines de millions de dollars si elles ne parviennent pas à rapidement supprimer le contenu illégal qui leur est signalé.

Mais, comme le note Ballon, il n’y a pas eu de poursuites NetzDG liées à des violations de retrait de contenu (bien que l’application de messagerie Telegram ait récemment été condamnée à une petite amende pour des violations liées au fait de ne pas avoir de canaux de signalement appropriés ou de représentation légale en place).

Un avocat local à qui nous avons parlé, qui n’est pas directement impliqué dans l’affaire HateAid-EUJS, a suggéré qu’il y avait eu une sorte d’accord tacite entre les autorités fédérales et la société de médias sociaux selon laquelle l’Allemagne n’appliquerait pas NetzDG sur la question de la modération du contenu – également avec un un œil sur la réglementation numérique entrante de l’UE alors que la loi sur les services numériques, qui commence à s’appliquer plus tard cette année pour les grandes plateformes, harmonise les règles de gouvernance et de déclaration de contenu dans tout le bloc dans un cadre paneuropéen unique qui devrait remplacer l’ancien régime allemand de réglementation des discours de haine .

Pour leur part, les plaideurs dans cette affaire de discours de haine contre Twitter disent qu’ils veulent obtenir des éclaircissements juridiques sur la question de savoir si les individus (et les groupes de défense) peuvent intenter une action en justice pour la suppression de « contenus punissables, antisémites et incitatifs » – tels que la négation de l’Holocauste – même lorsqu’ils ne sont pas personnellement insultés ou menacés par le contenu.

Dans une FAQ sur une page web détaillant leurs arguments, ils expliquent [emphasis theirs]:

Si nous pouvons l’exiger, c’est au tribunal de décider. À ce jour, il n’est pas clair dans quelle mesure les utilisateurs de Twitter, sur la base des règles et politiques de Twitter, sont en droit d’exiger la suppression de ces contenus dans les cas où ils ne sont pas eux-mêmes concernés. Nous pensons que Twitter doit respecter ses propres règles dont il se vante dans ses conditions contractuelles — pour supprimer les messages antisémites et faire en sorte que les Juifs puissent se sentir en sécurité sur la plateforme.

Par notre action, nous assumons Twitter sur ses promesses contractuelles. Nous pensons que les plateformes doivent supprimer les contenus antisémites – évidemment, la plate-forme doit être obligée de le faire.

S’ils réussissent, ils espèrent qu’il sera plus facile pour les utilisateurs de faire valoir leurs droits à la suppression des contenus illégaux. contre d’autres plates-formes majeures, aussi. Il pourrait donc y avoir des implications plus larges si la poursuite l’emporte.

« Avec ce processus fondamental, nous voulons que les tribunaux établissent clairement que des plateformes comme Twitter sont déjà obligées de protéger les utilisateurs contre la violence numérique antisémite sur la base de leurs propres accords d’utilisation », ajoutent-ils. « Un tel jugement permettra aux utilisateurs de faire valoir plus facilement leurs droits face aux grands opérateurs de plateformes à l’avenir. Le principe sous-jacent est simple : si les termes du contrat stipulent que le discours de haine est interdit, alors Twitter doit à l’utilisateur de le supprimer. Cela pourrait ensuite être appliqué, par exemple, par des ONG telles que HateAid pour rendre Internet plus sûr.

Twitter a été contacté pour une réponse au procès – mais depuis que Musk a repris la plate-forme, il a abandonné une fonction de communication externe de routine et n’a encore répondu à aucune des demandes de commentaire de TechCrunch. (Mais nous avons quand même demandé.)

Il convient de noter qu’avant Musk, Twitter ne recevait pas non plus d’applaudissements écrasants pour son succès dans la lutte contre les discours de haine illégaux.

En novembre, le dernier rapport de l’UE surveillant le code anti-haine du bloc – un accord volontaire auquel Twitter et un certain nombre d’autres plateformes de médias sociaux ont été signés pendant des années – a révélé qu’avant la prise de contrôle de Musk, Twitter fonctionnait relativement mal par rapport aux autres signataires lorsqu’il s’agit de répondre rapidement aux signalements de discours de haine illégaux, la Commission signalant qu’elle n’a supprimé que 45,4 % de ces contenus en 24 heures (contre un taux de suppression global de 63,6 %). Alors que, sur la période surveillée du 28 mars au 13 mai, Twitter a reçu le deuxième plus grand nombre de signalements de discours de haine illégaux (Facebook en a obtenu le plus) – rapportant un peu moins de 1 100 signalements. Il semblait donc à la fois héberger une quantité relativement importante de discours de haine illégaux (par rapport aux plateformes homologues) et suivre ses rivaux dans la rapidité avec laquelle il supprimait les éléments toxiques.

Il sera donc certainement intéressant de voir l’état de ces mesures lorsque (ou si) Twitter appartenant à Musk rapportera un nouveau lot de données à la Commission plus tard cette année.

Source-146

- Advertisement -

Latest