Les experts évaluent la Big Tech sur sa capacité à gérer la désinformation sur les élections de mi-mandat

Bloomberg via Getty

Les élections américaines de 2016 ont été un signal d’alarme sur les dangers de la désinformation politique sur les réseaux sociaux. Avec deux autres cycles électoraux en proie à la désinformation, les entreprises de médias sociaux ont de l’expérience dans l’identification et la lutte contre la désinformation. Cependant, la nature de la menace que représente la désinformation pour la société continue de changer de forme et de cible. Le gros mensonge sur l’élection présidentielle de 2020 est devenu un thème majeur, et les communautés d’immigrés sont de plus en plus dans le collimateur des campagnes de désinformation – des efforts délibérés pour répandre la désinformation.

Les entreprises de médias sociaux ont annoncé leur intention de lutter contre la désinformation lors des élections de mi-mandat de 2022, mais les entreprises varient dans leurs approches et leur efficacité. Nous avons demandé à des experts des médias sociaux d’évaluer dans quelle mesure Facebook, TikTok, Twitter et YouTube sont prêts à gérer la tâche.

2022 ressemble à 2020

Dam Hee Kim, professeur adjoint de communication, Université de l’Arizona

Les médias sociaux sont des sources d’information importantes pour la plupart des Américains en 2022, mais ils pourraient également être un terrain fertile pour la diffusion de fausses informations. Les principales plateformes de médias sociaux ont annoncé des plans pour lutter contre la désinformation lors des élections américaines de mi-mandat de 2022, mais les experts ont noté qu’elles ne sont pas très différentes de leurs plans de 2020.

Une considération importante : les utilisateurs ne sont pas contraints d’utiliser une seule plate-forme. L’intervention d’une entreprise peut se retourner contre elle et favoriser la diffusion d’informations erronées sur plusieurs plates-formes. Les principales plateformes de médias sociaux peuvent avoir besoin de coordonner leurs efforts pour lutter contre la désinformation.

Facebook/Méta : C

Facebook a été largement blâmé pour son incapacité à lutter contre la désinformation lors de la campagne présidentielle de 2016. Bien que l’engagement – likes, partages et commentaires – avec la désinformation sur Facebook ait culminé à 160 millions par mois lors de l’élection présidentielle de 2016, le niveau de juillet 2018, 60 millions par mois, était toujours à des niveaux élevés.

Des preuves plus récentes montrent que l’approche de Facebook doit encore être améliorée lorsqu’il s’agit de gérer les comptes qui diffusent des informations erronées, de signaler les publications de désinformation et de réduire la portée de ces comptes et publications. En avril 2020, les vérificateurs des faits ont informé Facebook de 59 comptes diffusant des informations erronées sur le COVID-19. En novembre 2021, 31 d’entre eux étaient encore actifs. En outre, les comptes Facebook gérés par l’État chinois ont diffusé des informations erronées sur la guerre en Ukraine en anglais auprès de leurs centaines de millions d’abonnés.

Gazouillement : B

Alors que Twitter n’a généralement pas été traité comme le plus grand coupable de désinformation depuis 2016, il n’est pas clair si ses mesures de désinformation sont suffisantes. En fait, les parts de désinformation sur Twitter sont passées d’environ 3 millions par mois lors de l’élection présidentielle de 2016 à environ 5 millions par mois en juillet 2018.

Cette tendance semble s’être poursuivie puisque plus de 300 000 Tweets, à l’exclusion des retweets, incluaient des liens signalés comme faux après vérification des faits entre avril 2019 et février 2021. Moins de 3 % de ces tweets étaient accompagnés d’étiquettes d’avertissement ou de fenêtres contextuelles. Parmi les tweets qui partageaient le même lien vers la désinformation, seule une minorité affichait ces avertissements, ce qui suggère que le processus de mise en garde contre la désinformation n’est pas automatique, uniforme ou efficace. Twitter a annoncé qu’il avait repensé les étiquettes pour empêcher d’autres interactions et faciliter les clics pour obtenir des informations supplémentaires.

TikTok : D

En tant que plate-forme de médias sociaux à la croissance la plus rapide, TikTok présente deux caractéristiques notables : sa base d’utilisateurs à prédominance de jeunes adultes consomme régulièrement des informations sur la plate-forme, et ses courtes vidéos sont souvent accompagnées d’images et de sons accrocheurs. Bien que ces vidéos soient plus difficiles à examiner que le contenu textuel, elles sont plus susceptibles d’être rappelées, d’évoquer des émotions et de persuader les gens.

L’approche de TikTok en matière de désinformation nécessite des améliorations majeures. Une recherche de sujets d’actualité importants en septembre 2022 a révélé des vidéos générées par les utilisateurs, dont 20 % comprenaient de la désinformation, et des vidéos contenant de la désinformation figuraient souvent dans les cinq premiers résultats. Lorsque des expressions neutres étaient utilisées comme termes de recherche, par exemple « élections 2022 », la barre de recherche de TikTok suggérait d’autres expressions payantes, par exemple « 6 janvier FBI ». De plus, TikTok présente des sources fiables aux côtés de comptes qui diffusent des informations erronées.

YouTube : B-

Entre avril 2019 et février 2021, 170 vidéos YouTube ont été signalées comme fausses par un organisme de vérification des faits. Un peu plus de la moitié d’entre eux ont été présentés avec des panneaux d’information « en savoir plus », sans toutefois être signalés comme faux. YouTube semble avoir ajouté des panneaux d’information principalement en détectant automatiquement certains mots-clés impliquant des sujets controversés comme COVID-19, pas nécessairement après avoir vérifié le contenu de la vidéo pour la désinformation.

YouTube pourrait recommander plus de contenu par des sources fiables pour atténuer le défi de l’examen de toutes les vidéos téléchargées pour la désinformation. Une expérience a collecté la liste des vidéos recommandées après qu’un utilisateur avec un historique de visionnage vide a regardé une vidéo qui a été marquée comme fausse après vérification des faits. Parmi les vidéos recommandées, 18,4 % étaient trompeuses ou hyperpartisanes, et trois des 10 chaînes les plus recommandées avaient un score de rapport factuel mitigé ou faible de Media Bias/Fact Check.

Source-147