Meta critiquée pour la suppression de vidéos montrant la guerre entre Israël et le Hamas

Le Conseil de surveillance de Meta a critiqué les outils de modération automatisés de l’entreprise, les qualifiant de trop agressifs après que deux vidéos montrant des otages, des civils blessés et d’éventuelles victimes de la guerre entre Israël et le Hamas aient été – dit-il – injustement supprimées de Facebook et d’Instagram. Dans un rapport publié mardi, le comité d’examen externe a déterminé que les messages auraient dû rester en ligne et que la suppression du contenu avait un coût élevé pour « la liberté d’expression et l’accès à l’information » pendant la guerre. (Un avertissement pour nos lecteurs : les descriptions suivantes du contenu peuvent être dérangeantes.)

L’une des vidéos supprimées, publiée sur Facebook, montre une Israélienne lors de l’attaque du Hamas contre Israël le 7 octobre, implorant les ravisseurs qui la prenaient en otage de ne pas la tuer. L’autre vidéo a été publiée sur Instagram et montre ce qui semble être les conséquences d’une frappe israélienne sur ou à proximité de l’hôpital al-Shifa dans la ville de Gaza. Le message contient des images de Palestiniens tués ou blessés, dont des enfants.

La commission affirme que, dans le cas de cette dernière vidéo, tant la suppression que le rejet de l’appel de l’utilisateur à restaurer les images ont été effectués par les outils de modération automatisés de Meta, sans aucun examen humain. La commission a procédé à un réexamen de la décision selon un « délai accéléré de 12 jours » et, une fois l’affaire examinée, les vidéos ont été restaurées avec un écran d’avertissement de contenu.

Dans son rapport, le conseil d’administration a constaté que les seuils de modération qui avaient été abaissés pour détecter plus facilement les contenus en infraction à la suite de l’attaque du 7 octobre « augmentaient également la probabilité que Meta supprime par erreur les contenus non en infraction liés au conflit ». Le conseil d’administration affirme que le manque de modération humaine lors de ces types de crises peut conduire à « la suppression incorrecte de discours susceptibles de présenter un intérêt public important » et que Meta aurait dû être plus rapide pour autoriser le contenu « partagé dans le but de condamner ». , sensibilisation, reportage d’actualité ou appel à la libération » avec un écran d’avertissement appliqué.

Le conseil d’administration a également critiqué Meta pour avoir rétrogradé les deux publications examinées avec des écrans d’avertissement, les empêchant d’apparaître comme contenu recommandé aux autres utilisateurs de Facebook et d’Instagram, bien que la société ait reconnu que les publications étaient destinées à sensibiliser. Meta a depuis a répondu à la décision du conseil d’administration pour annuler les renvois, affirmant que, comme aucune recommandation n’a été fournie par le panel, il n’y aura pas d’autres mises à jour de l’affaire.

Meta n’est pas le seul géant des médias sociaux à être scruté pour sa gestion du contenu entourant la guerre entre Israël et le Hamas. Les utilisateurs vérifiés sur X (anciennement Twitter) ont été accusés d’être des « super-diffuseurs de désinformation » par l’organisation de surveillance de la désinformation NewsGuard. TikTok et YouTube font également l’objet d’un examen minutieux en vertu de la loi européenne sur les services numériques suite à une vague de contenus illégaux et de désinformation sur les plateformes, et l’UE a ouvert une enquête formelle sur X. L’affaire du Conseil de surveillance, en revanche, met en évidence les risques de surmodération. – et les plates-formes délicates doivent marcher.

source site-132