Le groupe consultatif externe de Meta, son comité de surveillance, a annoncé aujourd’hui qu’il étendait son champ d’action à Threads ainsi qu’à Facebook et Instagram pour examiner les décisions de modération de contenu de Meta.
Cela signifie que si les utilisateurs de Threads ne sont pas satisfaits de la décision de Meta sur des questions telles que le contenu ou la suppression d’un compte, ils peuvent faire appel au Conseil de surveillance.
« L’expansion du Board vers Threads s’appuie sur notre volonté d’aider Meta à résoudre les questions les plus difficiles concernant la modération du contenu. Avoir une responsabilité indépendante dès le début pour une nouvelle application telle que Threads est d’une importance vitale », a déclaré la coprésidente du Conseil de surveillance, Helle Thorning-Schmidt, dans un communiqué.
En 2018, Mark Zuckerberg a officiellement évoqué pour la première fois la création d’un conseil de surveillance indépendant. En janvier 2020, Facebook a proposé les statuts du conseil d’administration et a annoncé la première série de membres en mai. En octobre 2020, la commission a annoncé qu’elle commencerait à examiner les cas. En 2021, l’organisme d’observation a élargi son champ d’action pour examiner la décision de Meta de maintenir certains contenus.
Le Conseil de surveillance a statué sur des affaires importantes au fil des années. La décision la plus notable a été la critique de Facebook pour avoir interdit « indéfiniment » l’ancien président Donald Trump. Bien qu’il ait reconnu que Trump avait enfreint les règles de la plateforme, le conseil d’administration a déclaré que les lignes directrices ne contenaient pas de spécifications pour une interdiction indéfinie.
Plus tôt cette année, le conseil d’administration a demandé à Meta de réformer ses règles « incohérentes » concernant les fausses vidéos.
Modération du contenu sur les discussions
Depuis le lancement de Threads en juillet de l’année dernière, les utilisateurs ont remis en question à plusieurs reprises ses pratiques de modération. En octobre, le Washington Post a rapporté que la plateforme bloquait des termes tels que « Covid » et « vaccins », ainsi que « gore », « nu », « sexe » et « porno ». Le même mois, le responsable d’Instagram, Adam Mosseri, a mentionné que cette interdiction était temporaire. Cependant, l’entreprise n’a pas levé l’interdiction pour l’instant.
Plus tôt ce mois-ci, Threads a déclaré qu’il exécutait un programme de vérification des faits et que les utilisateurs voyaient des étiquettes sur certains messages. Cependant, la société a précisé que c’était parce qu’elle faisait correspondre les vérifications des faits existantes sur les autres propriétés de Meta avec les publications sur Threads. L’année dernière, Meta a annoncé son intention d’introduire un programme de vérification des faits distinct pour Threads, mais la société n’a pas encore finalisé de quoi feront partie les vérificateurs de faits.
Mosseri a été catégorique sur la décision de ne pas recommander de contenu politique et « d’amplifier l’actualité » sur la plateforme. Cependant, la nouvelle fonction de sujets tendances du réseau social pourrait présenter du contenu politique à condition qu’il ne viole pas la politique de l’entreprise, a déclaré Meta la semaine dernière.
La coprésidente du Conseil de surveillance, Catalina Botero Marino, a souligné qu’avec les sondages qui auront lieu cette année dans des pays comme les États-Unis et l’Inde, les progrès de l’IA et les conflits à travers le monde, la modération du contenu est devenue plus difficile.
« Avec les conflits qui font rage en Europe, au Moyen-Orient et ailleurs, des milliards de personnes se rendant aux urnes lors d’élections mondiales et les abus croissants envers les groupes marginalisés en ligne, il n’y a pas de temps à perdre. Les progrès de l’intelligence artificielle peuvent rendre la modération du contenu encore plus difficile », a déclaré Marino.
« Le Conseil s’engage à trouver des solutions concrètes qui protègent la liberté d’expression tout en réduisant les préjudices, et nous sommes impatients d’établir des normes qui amélioreront l’expérience en ligne de millions d’utilisateurs de Threads. »
Le processus du conseil de surveillance
Le Conseil de surveillance n’a pas modifié sa procédure de recours contre les décisions de Meta concernant Threads. Un utilisateur doit d’abord faire appel à Meta, et dans les 15 jours suivant la réception du verdict, il doit faire appel au conseil d’administration s’il n’est pas satisfait du jugement de la plateforme sociale.
La commission peut prendre jusqu’à 90 jours pour réviser la décision à compter de la date d’appel. Dans le passé, le conseil d’administration et Meta ont été critiqués pour la lenteur de leurs réponses. Cependant, l’organisation n’a modifié aucun processus pour Threads pour le moment.
Le conseil peut notamment émettre à la fois des recommandations et des décisions. Bien que les recommandations ne soient pas contraignantes, Meta est tenue de suivre les décisions du conseil d’administration.