Les outils automatisés de Meta ont supprimé le contenu de la guerre Israël-Hamas qui n’enfreignait pas ses règles

Le Conseil de surveillance de Meta a publié sa décision concernant son tout premier examen accéléré, qui n’a pris que 12 jours au lieu de semaines, et s’est concentré sur le contenu entourant la guerre entre Israël et le Hamas. Le Conseil a annulé la décision initiale de la société de supprimer deux éléments de contenu des deux côtés du conflit. Puisqu’elle a soutenu la décision ultérieure de Meta de restaurer les publications sur Facebook et Instagram, aucune autre action n’est attendue de la part de l’entreprise. Cependant, l’examen du Conseil a mis en lumière la façon dont le recours de Meta à des outils automatisés pourrait empêcher les gens de partager des informations importantes. Dans ce cas particulier, le Conseil a noté que « cela augmentait la probabilité de supprimer des postes précieux informant le monde sur les souffrances humaines des deux côtés du conflit au Moyen-Orient ».

Pour son premier examen accéléré, le Conseil de surveillance a choisi d’enquêter sur deux appels particuliers qui représentent ce que les utilisateurs de la région touchée ont soumis depuis les attaques du 7 octobre. L’une d’elles est une vidéo publiée sur Facebook d’une femme suppliant ses ravisseurs de ne pas la tuer lorsqu’elle a été prise en otage lors des premières attaques terroristes contre Israël. L’autre vidéo publiée sur Instagram montre les conséquences d’une frappe contre l’hôpital Al-Shifa à Gaza lors de l’offensive terrestre israélienne. Il montrait des Palestiniens morts et blessés, y compris des enfants.

L’examen du Conseil a révélé que les deux vidéos avaient été supprimées par erreur après que Meta ait ajusté ses outils automatisés pour être plus agressif dans le contrôle du contenu après les attaques du 7 octobre. Par exemple, le retrait de la vidéo de l’hôpital Al-Shifa et le rejet d’un appel d’un utilisateur demandant sa réintégration ont tous deux été effectués sans intervention humaine. Les deux vidéos ont ensuite été restaurées avec des écrans d’avertissement indiquant qu’un tel contenu est autorisé à des fins d’information et de sensibilisation. Le Conseil d’administration a commenté que Meta « aurait dû agir plus rapidement pour adapter sa politique compte tenu de l’évolution rapide des circonstances et des coûts élevés en matière de liberté et d’accès à l’information liés à la suppression de ce type de contenu… » Il a également exprimé des inquiétudes quant à l’évolution rapide de l’approche de l’entreprise. toute modération pourrait lui donner une apparence d’arbitraire et remettre en question sa politique.

Cela dit, le Conseil a constaté que Meta avait rétrogradé le contenu qu’il avait rétabli avec des écrans d’avertissement. Cela les a empêchés d’être recommandés à d’autres utilisateurs de Facebook et d’Instagram, même après que l’entreprise a déterminé qu’ils étaient destinés à sensibiliser les gens. Il convient de noter qu’un certain nombre d’utilisateurs ont signalé avoir été bannis en octobre après avoir publié du contenu sur les conditions à Gaza.

Le Conseil a également attiré l’attention sur le fait que Meta n’a autorisé la publication de contenus de prise d’otages issus des attentats du 7 octobre que par les utilisateurs de ses listes de vérification croisée entre le 20 octobre et le 16 novembre. Ces listes sont généralement constituées d’utilisateurs de haut niveau exemptés de le système de modération automatisé de l’entreprise. Le Conseil a déclaré que la décision de Meta mettait en évidence ses préoccupations concernant le programme, en particulier son « traitement inégal des utilisateurs ». [and] manque de critères transparents d’inclusion. Il a déclaré que l’entreprise doit « assurer une plus grande représentation des utilisateurs dont le contenu est susceptible d’être important du point de vue des droits de l’homme sur les listes de recoupement de Meta ».

« Nous saluons la décision prise aujourd’hui par le Conseil de surveillance sur cette affaire. L’expression et la sécurité sont importantes pour nous et pour les personnes qui utilisent nos services. Le conseil d’administration a annulé la décision initiale de Meta de supprimer ce contenu, mais a approuvé la décision ultérieure de restaurer le contenu avec un écran d’avertissement. Meta a précédemment rétabli ce contenu, donc aucune autre mesure ne sera prise à ce sujet », a déclaré la société à Engadget dans un communiqué. « Comme expliqué dans notre centre d’aide, certaines catégories de contenu ne sont pas éligibles aux recommandations et le conseil d’administration n’est pas d’accord avec Meta interdisant le contenu dans ce cas des surfaces de recommandation. Il n’y aura pas d’autres mises à jour sur cette affaire, car le conseil d’administration n’a fait aucune recommandation dans le cadre de sa décision.

Source-145