Lorsqu’un homme armé s’est garé sur le parking d’une épicerie à Buffalo, New York, samedi lors d’une attaque raciste visant une communauté noire, sa caméra tournait déjà.
CNN rapporte que un livestream sur Twitch enregistré du point de vue du suspect a montré des acheteurs dans le parking à l’arrivée du tireur présumé, puis l’a suivi à l’intérieur alors qu’il commençait un saccage qui a tué 10 personnes et en a blessé trois. Twitch, populaire pour les diffusions en direct de jeux, a supprimé la vidéo et suspendu l’utilisateur « moins de deux minutes après le début de la violence », selon Samantha Faught, responsable des communications de l’entreprise pour les Amériques. Seulement 22 personnes vu l’attaque se dérouler en temps réel en ligne, Le Washington Post rapports.
Mais des millions de personnes ont vu les images diffusées en direct après coup. Les copies et les liens vers la vidéo republiée ont proliféré en ligne après l’attaque, se propageant sur les principales plateformes comme Twitter et Facebook ainsi que sur des sites moins connus comme Streamable, où la vidéo a été visionnée plus de 3 millions de fois, selon Le New York Times.
Ce n’est pas la première fois que les auteurs de fusillades de masse diffusent leur violence en direct en ligne, les images se diffusant par la suite. En 2019, un homme armé a attaqué des mosquées à Christchurch en Nouvelle-Zélande, diffusant en direct ses meurtres sur Facebook. La plateforme a déclaré avoir supprimé 1,5 million de vidéos de l’attaque dans les 24 heures qui ont suivi. Trois ans plus tard, avec des images de Buffalo rechargées et partagées quelques jours après l’attaque meurtrière, les plateformes continuent de lutter pour endiguer la vague de contenus violents, racistes et antisémites créés à partir de l’original.
La modération des flux en direct est particulièrement difficile car les choses se déroulent en temps réel, explique Rasty Turek, PDG de Pex, une société qui crée des outils d’identification de contenu. Turek, qui a parlé à Le bord après la fusillade de Christchurch, dit que si Twitch était effectivement capable de perturber le flux et de le supprimer dans les deux minutes suivant son début, cette réponse serait « ridiculement rapide ».
« Ce n’est pas seulement la norme de l’industrie, c’est une réalisation sans précédent par rapport à de nombreuses autres plateformes comme Facebook », déclare Turek. Faught dit que Twitch a supprimé le flux en cours de diffusion, mais n’a pas répondu aux questions sur la durée de diffusion du tireur présumé avant le début de la violence ou sur la manière dont Twitch a été initialement alerté du flux.
Parce que la diffusion en direct est devenue si largement accessible ces dernières années, Turek reconnaît qu’il est impossible de réduire le temps de réponse de la modération à zéro – et peut-être pas le bon cadre pour réfléchir au problème. Ce qui compte le plus, c’est la façon dont les plateformes gèrent les copies et les rechargements du contenu nuisible.
« Le défi n’est pas le nombre de personnes qui regardent le livestream », dit-il. « Le défi est de savoir ce qui se passe avec cette vidéo par la suite. » Dans le cas de l’enregistrement en direct, il s’est propagé comme une contagion : selon Le New York Timesles messages Facebook liés au clip Streamable ont accumulé plus de 43 000 interactions car les messages ont persisté pendant plus de neuf heures.
Les grandes entreprises technologiques ont créé un système de détection de contenu pour des situations comme celle-ci. Le Forum Internet mondial de lutte contre le terrorisme (GIFCT), créé en 2017 par Facebook, Microsoft, Twitter et YouTube, a été créé dans le but d’empêcher la diffusion de contenus terroristes en ligne. Après les attentats de Christchurch, la coalition a déclaré qu’elle commencerait à suivre en ligne les contenus et les groupes d’extrême droite, après s’être principalement concentrée sur l’extrémisme islamique. Le matériel lié à la fusillade de Buffalo – comme les hachages de la vidéo et le manifeste que le tireur aurait mis en ligne – était ajoutée à la base de données GIFCT, permettant en théorie aux plateformes de capturer et de supprimer automatiquement le contenu republié.
Mais même avec le GIFCT agissant comme une réponse centrale dans les moments de crise, la mise en œuvre reste un problème, dit Turek. Bien que les efforts coordonnés soient admirables, toutes les entreprises ne participent pas à l’effort et leurs pratiques ne sont pas toujours clairement mises en œuvre.
« Vous avez beaucoup de ces petites entreprises qui n’ont essentiellement pas les ressources [for content moderation] et je m’en fiche », dit Turek. « Ils n’ont pas à le faire. »
Twitch indique qu’il a capté le flux assez tôt – le tireur de Christchurch a pu diffusé pendant 17 minutes sur Facebook – et dit qu’il surveille les restreams. Mais la réponse lente de Streamable signifie qu’au moment où la vidéo republiée a été supprimée, des millions de personnes avaient visionné le clip et un lien vers celui-ci était partagé des centaines de fois sur Facebook et Twitterselon Le New York Times. Hopin, la société propriétaire de Streamable, n’a pas répondu à Le borddemande de commentaire.
Bien que le lien Streamable ait été supprimé, des parties et des captures d’écran de l’enregistrement sont facilement accessibles sur d’autres plates-formes telles que Facebook, TikTok et Twitter, où il a été rechargé. Ces principales plates-formes ont ensuite dû se démener pour supprimer et supprimer les versions repartagées de la vidéo.
Le contenu filmé par le tireur de Buffalo a été supprimé de YouTube, a déclaré Jack Malon, porte-parole de la société. Malon dit que la plate-forme « met également en évidence des vidéos provenant de sources faisant autorité dans la recherche et les recommandations ». Les résultats de recherche sur la plate-forme renvoient des segments d’actualités et des conférences de presse officielles, ce qui rend plus difficile la recherche de nouveaux téléchargements qui passent.
Twitter « supprime les vidéos et les médias liés à l’incident », a déclaré un porte-parole de l’entreprise qui a refusé d’être nommé en raison de problèmes de sécurité. TikTok n’a pas répondu aux multiples demandes de commentaires. Mais quelques jours après le tournage, des parties de la vidéo que les utilisateurs ont rechargées sur Twitter et TikTok restent.
La porte-parole de Meta, Erica Sackin, a déclaré que plusieurs versions de la vidéo et de la chape du suspect étaient ajoutées à une base de données pour aider Facebook à détecter et à supprimer le contenu. Les liens vers des plateformes externes hébergeant le contenu sont définitivement bloqués.
Mais même dans la semaine, des clips semblant provenir du livestream ont continué à circuler. Le lundi après-midi, Le bord a visionné une publication sur Facebook avec deux clips du flux en direct présumé, l’un montrant l’agresseur entrant dans le parking en train de se parler et un autre montrant une personne pointant une arme sur quelqu’un à l’intérieur d’un magasin alors qu’il hurlait de terreur. Le tireur marmonne des excuses avant de continuer, et une légende superposée sur le clip suggère que la victime a été épargnée parce qu’elle était blanche. Sackin a confirmé que le contenu violait les politiques de Facebook et le message a été supprimé peu de temps après Le bord interrogé à ce sujet.
Au fur et à mesure qu’il parcourait le Web, le clip original a été coupé et épissé, remixé, partiellement censuré et autrement édité, et sa portée étendue signifie qu’il ne disparaîtra probablement jamais.
Reconnaître cette réalité et déterminer comment aller de l’avant sera essentiel, déclare Maria Y. Rodriguez, professeure adjointe à l’École de travail social de l’Université de Buffalo. Rodriguez, qui étudie les médias sociaux et leurs effets sur les communautés de couleur, affirme que la modération et la préservation de la liberté d’expression en ligne exigent de la discipline, non seulement autour du contenu de Buffalo, mais également dans les décisions quotidiennes que prennent les plates-formes.
« Les plateformes ont besoin d’un certain soutien en termes de réglementation qui peut offrir certains paramètres », déclare Rodriguez. Des normes sur la façon dont les plateformes détectent les contenus violents et les outils de modération qu’elles utilisent pour faire apparaître des contenus nuisibles sont nécessaires, dit-elle.
Certaines pratiques de la part des plateformes pourraient minimiser les dommages causés au public, comme les filtres de contenu sensibles qui donnent aux utilisateurs la possibilité de visualiser du matériel potentiellement dérangeant ou de simplement faire défiler, dit Rodriguez. Mais les crimes de haine ne sont pas nouveaux et des attaques similaires sont susceptibles de se reproduire. La modération, si elle est effectuée efficacement, pourrait limiter la circulation du matériel violent – mais ce qu’il faut faire avec l’auteur est ce qui a empêché Rodriguez de dormir la nuit.
« Que faisons-nous de lui et d’autres personnes comme lui? » elle dit. « Que faisons-nous des créateurs de contenu ? »