Les États-Unis continuent de lutter contre la gestion de la pandémie. Là où les cas augmentent en ce moment, certaines villes et comtés envisagent de rétablir les mandats de masque, et de nombreux hôpitaux sont confrontés à une pénurie chronique d’infirmières.
Malgré de nouvelles inquiétudes et une récente augmentation des décès quotidiens enregistrés aux États-Unis et dans le monde, Meta réfléchit déjà à ce à quoi pourrait ressembler un retour à la normale. Cela inclut la spéculation récente que la normalité pourrait signifier qu’il est temps de revenir à l’âge d’or de l’entreprise en permettant à la désinformation sur la santé de se propager par le biais de publications sur Facebook et Instagram.
Mardi, le président des affaires mondiales de Meta, Nick Clegg, a écrit dans un communiqué que Meta envisageait si Facebook et Instagram devraient continuer ou non à supprimer tous les messages faisant la promotion de mensonges sur les vaccins, les masques et la distanciation sociale. Pour les aider à décider, Meta demande à son conseil de surveillance d’évaluer si la « politique actuelle de désinformation sur le COVID-19 est toujours appropriée » maintenant que « les circonstances extraordinaires au début de la pandémie » sont passées et que de nombreux « pays du monde entier cherchent à revenir à une vie plus normale. »
Clegg dit que Meta a commencé à supprimer des catégories entières d’informations du site pour la première fois pendant la pandémie, et cela a créé une tension qu’il essaie maintenant de résoudre entre deux des valeurs de l’entreprise : protéger la « liberté d’expression et la sécurité » des utilisateurs.
« Nous demandons un avis consultatif au Conseil de surveillance pour savoir si les mesures actuelles de Meta pour lutter contre la désinformation sur le COVID-19 dans le cadre de notre politique de désinformation sur la santé nocive continuent d’être appropriées, ou si nous devons traiter cette désinformation par d’autres moyens, comme l’étiquetage ou la rétrogradation soit directement ou via notre programme tiers de vérification des faits », a écrit Clegg.
Le conseil de surveillance a déjà accepté la demande de Meta et envoie les commentaires du public ici. Le conseil s’attend à « un grand nombre de soumissions ». Une fois que le conseil d’administration a examiné toutes les contributions et émis son avis de politique, Meta dispose de 60 jours pour répondre publiquement et expliquer comment il agira ou non sur les recommandations.
Cependant, Meta n’a pas à se conformer aux décisions prises par le conseil de surveillance, et même si un passage à une modération de contenu moins extrême est approuvé, les critiques interpréteront probablement cette décision comme Meta cherchant un bouc émissaire afin que le relâchement des restrictions ne soit pas perçu. comme une décision interne.
Pourquoi changer la politique maintenant ?
Clegg a déclaré à The Verge que Meta demande maintenant des conseils au conseil de surveillance parce que « le conseil de surveillance peut prendre des mois pour produire un avis », et la société veut des commentaires maintenant afin que Meta puisse agir « de manière plus réfléchie » lors de la modération du contenu lors de futures pandémies.
Bien avant de changer son nom en Meta, Facebook a passé l’année précédant la pandémie à « prendre des mesures » pour réprimer la propagation de la désinformation anti-vax. Ces étapes sont similaires aux étapes que Clegg suggère qu’il convient de revenir à maintenant. En 2019, la société a commencé à vérifier davantage de messages contenant de la désinformation, à limiter la portée de certains et à interdire les publicités contenant de la désinformation.
Ensuite, la pandémie a commencé et la recherche a révélé que malgré ces mesures, le contenu anti-vax sur Facebook a augmenté et, par rapport aux informations officielles, s’est propagé plus rapidement à des publics neutres qui n’avaient pas encore formé d’opinion sur la vaccination contre le COVID-19. Bloomberg a rapporté que cela avait dangereusement stimulé la réticence à la vaccination pendant la pandémie, et Facebook savait que cela se produisait mais était motivé par les profits pour ne pas réagir rapidement. Une étude a montré que les pages ayant la plus grande portée dans les fils d’actualité neutres étaient « les personnes qui vendent ou profitent de la désinformation sur les vaccins ».
Finalement, le Congrès a enquêté et Facebook a changé son nom puis sa politique, décidant que « certaines informations erronées peuvent entraîner un risque imminent de préjudice physique, et nous avons la responsabilité de ne pas laisser ce contenu proliférer ». La société a officiellement adopté la politique de supprimer « la désinformation à une échelle sans précédent », en supprimant 25 millions de contenus qu’elle aurait probablement laissés autrement, en raison de ses politiques de protection de la liberté d’expression.
Maintenant, Clegg dit que Meta a le devoir de reconsidérer s’il a agi de manière imprudente en décidant unilatéralement de supprimer tous ces messages, de sorte que la prochaine fois qu’il y aura une pandémie, il y ait des directives plus claires à portée de main qui pèsent adéquatement sur la liberté d’expression et les problèmes de désinformation nuisibles. L’idée est que la politique de désinformation nocive sur la santé de Meta ne devrait être utilisée que pour limiter la propagation de la désinformation pendant les périodes où les sources officielles d’information sont rares, comme elles l’étaient au début de la pandémie, mais pas maintenant.
Meta demande essentiellement au conseil de surveillance de considérer : à une époque où il existe des sources d’information officielles évidentes, les entreprises technologiques devraient-elles avoir moins d’obligations de limiter la propagation de la désinformation ?
Alors que de plus en plus de personnes se préparent à se masquer pour aider à limiter la transmission aux États-Unis et que l’hésitation à la vaccination reste une force motrice de transmission, cette question semble prématurée d’une plate-forme qui a déjà prouvé à quel point il est difficile de contrôler la propagation de la désinformation même lorsqu’il y a une interdiction totale de désinformation nuisible.
Meta n’a pas immédiatement répondu à la demande de commentaire d’Ars. (Mise à jour: Un porte-parole de Meta a déclaré à Ars que « conformément à nos normes communautaires, nous supprimons les informations erronées lors d’urgences de santé publique lorsque les autorités de santé publique concluent que les informations sont fausses et susceptibles de contribuer directement au risque de préjudice physique imminent ». Pendant la pandémie, « le COVID-19 a été déclaré une urgence de santé publique de portée internationale (USPPI) », donc Meta « a appliqué cette politique au contenu contenant des allégations liées au COVID-19 qui, selon les autorités de santé publique, « sont soit fausses, soit » susceptible de contribuer à un dommage physique imminent. » Maintenant, ils sollicitent la contribution du Conseil de surveillance pour examiner « les politiques actuelles avant une future pandémie potentielle afin que nous puissions ajuster ces politiques de manière appropriée ». Ce mois-ci, un comité d’urgence COVID-19 de l’Organisation mondiale de la santé « a convenu à l’unanimité que la pandémie de COVID-19 répond toujours aux critères d’un événement extraordinaire qui continue d’avoir un impact négatif sur la santé de la population mondiale ».)