Le conseil de surveillance de Meta se prononcera sur les images sexuelles générées par l’IA

Le comité de surveillance de Meta adopte une fois de plus les règles du réseau social en matière de contenu généré par l’IA. Le conseil a accepté deux cas qui traitent d’images explicites de personnalités publiques créées par l’IA.

Bien que les règles de Meta interdisent déjà la nudité sur Facebook et Instagram, le conseil d’administration a déclaré dans un communiqué qu’il souhaitait déterminer si « les politiques de Meta et ses pratiques d’application sont efficaces pour lutter contre les images explicites générées par l’IA ». Parfois qualifiées de « deepfake porn », les images générées par l’IA de célébrités féminines, de politiciens et d’autres personnalités publiques sont devenues une forme de harcèlement en ligne de plus en plus répandue et ont suscité une vague de . Avec ces deux cas, le Conseil de surveillance pourrait pousser Meta à adopter de nouvelles règles pour lutter contre ce harcèlement sur sa plateforme.

Le Conseil de surveillance a déclaré qu’il ne nommait pas les deux personnalités publiques au centre de chaque affaire afin d’éviter de nouveaux harcèlements, bien qu’il ait décrit les circonstances entourant chaque poste.

Un cas concerne une publication sur Instagram montrant une image générée par l’IA d’une femme indienne nue qui a été publiée par un compte qui « ne partage que des images de femmes indiennes générées par l’IA ». Le message a été signalé à Meta, mais le rapport a été fermé après 48 heures car il n’a pas été examiné. Le même utilisateur a fait appel de cette décision, mais l’appel a également été clos et n’a jamais été réexaminé. Meta a finalement supprimé le message après que l’utilisateur a fait appel au Conseil de surveillance et que le conseil a accepté de prendre en charge l’affaire.

Le deuxième cas concernait une publication sur Facebook dans un groupe dédié à l’art de l’IA. Le message en question montrait « une image générée par l’IA d’une femme nue avec un homme lui pelotant la poitrine ». La femme était censée ressembler à « une personnalité publique américaine » dont le nom figurait également dans la légende du message. Le message a été supprimé automatiquement car il avait déjà été signalé et les systèmes internes de Meta ont pu le faire correspondre au message précédent. L’utilisateur a fait appel de la décision de retrait, mais l’appel a été « automatiquement clos ». L’utilisateur a alors fait appel au Conseil de Surveillance, qui a accepté d’examiner le cas.

Dans un communiqué, la coprésidente du Conseil de surveillance, Helle Thorning-Schmidt, a déclaré que le conseil avait examiné les deux cas provenant de pays différents afin d’évaluer les disparités potentielles dans la manière dont les politiques de Meta sont appliquées. « Nous savons que Meta est plus rapide et plus efficace pour modérer le contenu sur certains marchés et dans certaines langues que dans d’autres », a déclaré Thorning-Schmidt. « En prenant un cas aux États-Unis et un en Inde, nous voulons voir si Meta protège toutes les femmes dans le monde de manière équitable. »

Le Conseil de surveillance sollicite les commentaires du public au cours des deux prochaines semaines et publiera sa décision dans les prochaines semaines, ainsi que ses recommandations politiques pour Meta. Un processus similaire impliquant une vidéo éditée de manière trompeuse a récemment conduit Meta à accepter davantage de contenu généré par l’IA sur sa plate-forme.

Source-145