TikTok ne doit pas faire échouer les Ukrainiens

Le Vietnam était connu comme la première guerre télévisée. Le mouvement vert iranien et le printemps arabe ont été appelés les premières révolutions Twitter. Et maintenant, l’invasion russe de l’Ukraine est surnommée la première guerre TikTok. Comme L’Atlantique et d’autres l’ont souligné, ce n’est pas le cas, ni au sens propre ni au sens figuré : TikTok n’est que la dernière plateforme de médias sociaux à voir son expansion rentable se transformer en un rôle de premier plan en cas de crise.

Mais comme ses #ukraine et #украина publient près de 60 milliards de vues combinées, TikTok devrait apprendre des échecs des autres plateformes au cours de la dernière décennie, des échecs qui ont exacerbé les horreurs de la guerre, facilité la désinformation et entravé l’accès à la justice pour les droits humains crimes. TikTok devrait prendre des mesures dès maintenant pour mieux soutenir les créateurs partageant des preuves et des expériences, les téléspectateurs, ainsi que les personnes et les institutions qui utilisent ces vidéos pour obtenir des informations fiables et une responsabilité en matière de droits de l’homme.

Premièrement, TikTok peut aider les personnes sur le terrain en Ukraine qui souhaitent galvaniser l’action et être considérées comme des témoins de première ligne. L’entreprise devrait fournir des conseils ciblés directement à ces créateurs vulnérables. Cela pourrait inclure des notifications ou des vidéos sur leur page Pour vous qui montrent (1) comment filmer d’une manière plus vérifiable et digne de confiance pour les sources extérieures, (2) comment se protéger et protéger les autres au cas où une vidéo tournée en situation de crise deviendrait un outil de surveillance et de ciblage pur et simple, et (3) comment partager leurs images sans qu’elles soient supprimées ou rendues moins visibles en tant que contenu graphique. TikTok devrait commencer le processus d’intégration d’approches émergentes (telles que les normes C2PA) qui permettent aux créateurs de choisir de montrer la provenance d’une vidéo. Et il devrait offrir des moyens simples, disponibles en évidence lors de l’enregistrement, pour brouiller les visages des personnes vulnérables de manière protectrice et pas seulement esthétique.

TikTok devrait également investir dans une modération de contenu robuste, localisée et contextuelle et dans le routage des appels pour ce conflit et la prochaine crise. Les créateurs de médias sociaux sont à la merci d’algorithmes capricieux qui ne peuvent pas faire la différence entre un contenu violent nuisible et des victimes de guerre partageant leurs expériences. Si un clip ou un compte est retiré ou suspendu, souvent parce qu’il enfreint une règle dont l’utilisateur n’a jamais eu connaissance, il est peu probable qu’il puisse accéder à un processus d’appel rapide ou transparent. Cela est particulièrement vrai s’ils vivent en dehors de l’Amérique du Nord et de l’Europe occidentale. La société devrait immédiatement renforcer sa modération de contenu en Ukraine.

La plate-forme est mal conçue pour des informations précises mais brillamment conçue pour un engagement humain rapide. La renommée instantanée que la page For You peut accorder a apporté la vie quotidienne et l’humour noir de jeunes Ukrainiens comme Valeria Shashenok (@valerissh) de la ville de Chernihiv dans les flux des gens du monde entier. Les militants des droits de l’homme savent que l’un des meilleurs moyens d’impliquer les gens dans un témoignage significatif et de contrer l’impulsion naturelle à détourner le regard se produit lorsque vous vivez leurs réalités d’une manière personnelle et humaine. Il ne fait aucun doute qu’une partie de cet aperçu de la vie réelle des gens en Ukraine amène les gens vers un lieu de plus grande solidarité. Pourtant, plus la souffrance des autres est décontextualisée – et la page For You encourage aussi le va-et-vient entre des histoires disparates – plus la souffrance est vécue comme un spectacle. Cela risque de se tourner vers l’auto-validation narcissique ou pire : le trolling des personnes les plus vulnérables.

Et cela suppose que le contenu que nous visionnons est partagé de bonne foi. La possibilité de remixer l’audio, ainsi que la facilité intuitive de TikTok à éditer, combiner et réutiliser des séquences existantes, entre autres facteurs, rendent la plate-forme vulnérable à la désinformation et à la désinformation. À moins d’être repérées par une correspondance automatisée avec un faux connu, étiquetées comme médias affiliés à l’État ou identifiées par un vérificateur de faits comme incorrectes ou par les équipes de TikTok comme faisant partie d’une campagne d’influence coordonnée, de nombreuses vidéos trompeuses circulent sans aucune orientation ou des outils pour aider les téléspectateurs à acquérir une culture médiatique de base.

TikTok devrait faire plus pour s’assurer qu’il identifie, examine et étiquette rapidement ces contrefaçons pour leurs téléspectateurs, et les supprime ou les supprime des recommandations. Ils devraient augmenter leur capacité de vérification des faits sur la plate-forme et déterminer comment leur modèle commercial et l’algorithme qui en résulte continuent de promouvoir des vidéos trompeuses avec un engagement élevé. Nous, les personnes qui consultent le contenu, avons également besoin d’un meilleur soutien direct. L’une des premières étapes que les vérificateurs de faits professionnels prennent pour vérifier les images consiste à utiliser une recherche d’image inversée pour voir si une photo ou une vidéo existait avant la date à laquelle elle prétend avoir été prise ou si elle provient d’un lieu ou d’un événement différent de ce qu’elle est. prétendu être. Comme l’a souligné Abbie Richards, experte en désinformation sur TikTok, TikTok n’indique même pas la date à laquelle une vidéo a été publiée lorsqu’elle apparaît dans le flux For You. Comme d’autres plates-formes, TikTok ne met pas non plus à disposition de ses utilisateurs une recherche d’image inversée ou une recherche de vidéo facile sur la plate-forme ou n’offre pas d’indications dans le flux des dupes vidéo précédentes. Il est plus que temps de simplifier la possibilité de vérifier si une vidéo que vous voyez dans votre flux provient d’une heure et d’un lieu différents de ceux qu’elle prétend, par exemple avec une recherche intuitive d’images/vidéos inversées ou une simple piste de provenance en un clic pour les vidéos. créé dans la plate-forme.

Personne ne visite le « Centre d’aide ». Les outils doivent être accompagnés de conseils dans des vidéos qui apparaissent sur la page Pour vous des utilisateurs. Les téléspectateurs doivent développer les muscles de l’éducation aux médias pour savoir comment porter un bon jugement sur les images auxquelles ils sont exposés. Cela inclut des principes de partage comme SIFT ainsi que des conseils spécifiques au fonctionnement de TikTok, tels que ce qu’il faut rechercher sur les flux en direct extrêmement populaires de TikTok : par exemple, vérifiez les commentaires et regardez le contenu précédent du créateur, et sur n’importe quelle vidéo, vérifiez toujours pour s’assurer que l’audio est original (comme Richards et Marcus Bosch, un autre expert de TikTok misinfo, ont suggéré). Des sources d’information fiables doivent également faire partie du flux, comme TikTok semble avoir commencé à le faire de plus en plus.

TikTok démontre également un problème qui se pose lorsque les algorithmes de recommandation de contenu se croisent avec les bonnes pratiques d’éducation aux médias de « lecture latérale ». Perversement, plus vous prêtez attention à une vidéo suspecte, plus vous y revenez après avoir recherché d’autres sources, plus l’algorithme TikTok vous nourrit davantage de la même chose et donne la priorité au partage de cette vidéo potentiellement fausse avec d’autres personnes.

Les politiques de modération de contenu sont censées être une protection contre la diffusion de contenu violent, incitatif ou interdit. Les plateformes suppriment de grandes quantités de séquences, qui incluent souvent du contenu pouvant aider à enquêter sur les violations des droits humains et les crimes de guerre. Les algorithmes d’intelligence artificielle et les humains identifient, à tort et à raison, ces vidéos comme des discours dangereux, des contenus terroristes ou des images violentes inacceptables pour le visionnage. Un pourcentage élevé du contenu est supprimé par un algorithme de modération de contenu, dans de nombreux cas avant qu’il ne soit vu par un œil humain. Cela peut avoir un effet catastrophique dans la quête de justice et de responsabilité. Comment les enquêteurs peuvent-ils demander des informations dont ils ignorent l’existence ? Combien de matériel est perdu à jamais parce que les organisations des droits de l’homme n’ont pas eu la chance de le voir et de le préserver ? Par exemple, en 2017, l’organisation indépendante d’archivage des droits de l’homme Syrian Archive a découvert que des centaines de milliers de vidéos de la guerre civile syrienne avaient été balayées par l’algorithme YouTube. En un clin d’œil, il a supprimé des preuves essentielles qui pourraient contribuer à la responsabilité, à la mémoire communautaire et à la justice.

Il est plus que temps que nous ayons une bien meilleure transparence sur ce qui est perdu et pourquoi, et que nous clarifions comment les plateformes seront réglementées, contraintes ou accepteront de créer ce que l’on appelle des «casiers à preuves» numériques qui sauvegardent de manière sélective et appropriée le matériel essentiel pour la justice. Nous en avons besoin à la fois pour préserver le contenu qui ne respecte pas la politique de la plate-forme, ainsi que le contenu qui est supprimé de manière incorrecte, en particulier en sachant que la modération du contenu est interrompue. Des groupes comme WITNESS, Mnemonic, le Centre des droits de l’homme de Berkeley et Human Rights Watch s’efforcent de trouver des moyens de créer ces archives, en équilibrant la responsabilité avec les droits de l’homme, la confidentialité et, espérons-le, le contrôle ultime de leurs archives par la communauté. TikTok rejoint désormais la société d’autres grandes plateformes de médias sociaux qui doivent relever ce défi. Pour commencer, ils devraient prendre des mesures proactives pour comprendre ce qui doit être préservé et s’engager auprès des mécanismes de responsabilisation et des groupes de la société civile qui ont préservé les preuves vidéo.

L’invasion de l’Ukraine n’est pas la première guerre des médias sociaux. Mais c’est peut-être la première fois qu’une entreprise de médias sociaux fait ce qu’elle devrait faire pour les personnes qui témoignent en première ligne, à distance et dans la salle d’audience.


Plus de grandes histoires WIRED

Source-144