Meta a besoin de règles actualisées pour les deepfakes sexuellement explicites, selon le conseil de surveillance

Le conseil de surveillance de Meta exhorte l’entreprise à mettre à jour ses règles concernant les deepfakes sexuellement explicites. Le conseil a formulé ces recommandations dans le cadre de sa décision dans deux affaires impliquant des images générées par l’IA de personnalités publiques.

Les deux plaintes sont le fruit de deux recours déposés par des utilisateurs concernant des images de personnalités publiques générées par l’IA, bien que le conseil ait refusé de nommer les personnes concernées. L’une des publications, qui provenait d’Instagram, représentait une femme indienne nue. La publication a été signalée à Meta, mais le signalement a été automatiquement fermé après 48 heures, tout comme un recours ultérieur d’un utilisateur. L’entreprise a finalement supprimé la publication après l’attention du conseil de surveillance, qui a néanmoins annulé la décision initiale de Meta de laisser l’image en ligne.

La deuxième publication, qui a été partagée sur un groupe Facebook dédié à l’art de l’IA, montrait « une image générée par l’IA d’une femme nue avec un homme lui caressant la poitrine ». Meta a automatiquement supprimé la publication car elle avait été ajoutée à un système interne qui peut identifier les images qui ont déjà été signalées à l’entreprise. Le conseil de surveillance a estimé que Meta avait eu raison de supprimer la publication.

Dans les deux cas, le conseil de surveillance a déclaré que les deepfakes de l’IA violaient les règles de l’entreprise interdisant les images « sexualisées et désobligeantes prises à partir de Photoshop ». Mais dans ses recommandations à Meta, le conseil de surveillance a déclaré que le langage actuel utilisé dans ces règles est obsolète et pourrait rendre plus difficile pour les utilisateurs de signaler des images explicites créées par l’IA.

Le conseil d’administration estime qu’il devrait plutôt mettre à jour ses politiques pour préciser qu’il interdit les images explicites non consensuelles créées ou manipulées par l’IA. « Une grande partie des images sexualisées non consensuelles diffusées en ligne aujourd’hui sont créées par des modèles d’IA génératifs qui modifient automatiquement les images existantes ou en créent de nouvelles », écrit le conseil. « Meta devrait s’assurer que son interdiction des contenus sexualisés désobligeants couvre cet éventail plus large de techniques de modification, d’une manière qui soit claire pour les utilisateurs et les modérateurs de l’entreprise. »

Le conseil d’administration a également dénoncé la pratique de Meta consistant à fermer automatiquement les recours des utilisateurs, ce qui pourrait avoir, selon lui, des « répercussions importantes sur les droits de l’homme » des utilisateurs. Cependant, le conseil d’administration a déclaré qu’il ne disposait pas de « suffisamment d’informations » sur cette pratique pour formuler une recommandation.

La diffusion d’images explicites d’IA est devenue un problème de plus en plus important, car le « deepfake porn » est devenu une forme de harcèlement en ligne de plus en plus répandue ces dernières années. La décision du conseil intervient un jour après que le Sénat américain a adopté un projet de loi visant à lutter contre les deepfakes explicites. Si elle est adoptée, la mesure permettrait aux victimes de poursuivre les créateurs de telles images jusqu’à 250 000 dollars.

Ce n’est pas la première fois que le conseil de surveillance pousse Meta à mettre à jour ses règles concernant le contenu généré par l’IA. Dans une autre affaire très médiatisée, le conseil a enquêté sur une vidéo du président Joe Biden. L’affaire a finalement conduit Meta à modifier ses politiques concernant la manière dont le contenu généré par l’IA est étiqueté.

Source-145