a fait part de ses inquiétudes concernant la modération automatisée tout en annulant la décision de l’entreprise de laisser une publication négationniste sur Instagram. La négation de l’Holocauste est considérée comme un discours de haine selon la politique de Meta. Le message en question représentait Squidward de Bob l’éponge et prétendait inclure des faits réels sur l’Holocauste. Cependant, ces affirmations « étaient soit manifestement fausses, soit déformaient des faits historiques », a déclaré le Conseil de surveillance.
Les utilisateurs ont signalé la publication six fois après sa première parution en septembre 2020, mais dans quatre cas, les systèmes de Meta ont soit déterminé que le contenu ne violait pas les règles, soit ils ont automatiquement clôturé le dossier. Début 2020, alors que la pandémie de COVID-19 s’installait, Meta a commencé à fermer automatiquement les révisions de contenu afin de réduire la charge de travail des réviseurs humains et de libérer de la bande passante pour l’examen manuel des rapports à haut risque. Néanmoins, deux des rapports publiés par Squidward ont également été jugés non-violants par des évaluateurs humains.
En mai dernier, un utilisateur a déposé un recours contre la décision de Meta de laisser le contenu incriminé sur Instagram. Mais cet appel a de nouveau été automatiquement clôturé par Meta en raison de ses politiques d’automatisation liées au COVID-19, selon le Conseil de surveillance. L’utilisateur a alors fait appel au conseil d’administration.
Le comité a mené une évaluation du contenu négationniste sur les plateformes de Meta et a découvert que le mème Squidward était utilisé pour diffuser divers types de récits antisémites. Il note que certains utilisateurs tentent d’échapper à la détection et continuent de diffuser du contenu négationniste en utilisant d’autres orthographes de mots (par exemple en remplaçant les lettres par des symboles) et en utilisant des dessins animés et des mèmes.
Le Conseil de surveillance s’est déclaré préoccupé par le fait que Meta ait continué à appliquer ses politiques d’automatisation liées au COVID-19 à partir de mai dernier, « longtemps après que les circonstances les ont raisonnablement justifiées ». Il a également fait état d’un malaise quant à « l’efficacité et la précision des systèmes de modération de Meta dans la suppression du contenu négationniste de ses plateformes ». Il note que les évaluateurs humains ne peuvent pas qualifier de manière granulaire le contenu offensant de « négation de l’Holocauste » (ces messages sont filtrés dans une catégorie de « discours de haine »). Le conseil d’administration souhaite également en savoir plus sur la capacité de l’entreprise à « donner la priorité à une application précise des discours de haine à un niveau politique granulaire », à mesure qu’elle s’oriente plus fortement.
Le comité a recommandé que Meta « prenne des mesures techniques » pour s’assurer qu’il mesure systématiquement et suffisamment la précision de son application du contenu négationniste. Cela inclut la collecte d’informations plus granulaires. Le conseil d’administration a également demandé à Meta de confirmer publiquement si elle avait mis fin à toutes les politiques d’automatisation liées au COVID-19 qu’elle avait établies au début de la pandémie.
Lorsqu’on lui a demandé des commentaires, Meta a dirigé Engadget vers la décision du conseil d’administration sur son site de transparence. La société reconnaît avoir laissé par erreur la publication incriminée sur Instagram et, au moment où le conseil d’administration s’est saisi de l’affaire, Meta a déclaré avoir supprimé le contenu. Suite à la décision du conseil d’administration, Meta déclare qu’elle « lancera un examen d’un contenu identique dans un contexte parallèle. Si nous déterminons que nous avons la capacité technique et opérationnelle pour prendre également des mesures sur ce contenu, nous le ferons rapidement ». Il prévoit d’examiner les autres recommandations du conseil et de publier une mise à jour ultérieurement.