lundi, décembre 23, 2024

Le conseil de surveillance de Meta va enquêter sur la politique subjective sur la suppression des images sexuelles de l’IA

Meta continue d’adapter lentement les politiques de Facebook et d’Instagram pour tenir compte des dommages croissants causés par l’IA, se confrontant cette semaine à la façon dont elle gère les deepfakes explicites qui se propagent sur ses plateformes.

Mardi, le Meta Oversight Board a annoncé qu’il examinerait deux cas impliquant des images sexualisées de célébrités féminines générées par l’IA que Meta avait initialement traitées de manière inégale pour « évaluer si les politiques de Meta et ses pratiques d’application sont efficaces pour traiter les images explicites générées par l’IA ».

Le conseil d’administration ne nomme pas les femmes célèbres dont les deepfakes sont en cours d’examen dans l’espoir d’atténuer « les risques d’aggravation du harcèlement », a indiqué le conseil.

Dans un cas, un utilisateur d’Instagram a signalé une image nue créée par l’IA, créée pour « ressembler à une personnalité publique indienne », et publiée sur un compte qui « ne partage que des images de femmes indiennes générées par l’IA ». Au lieu de supprimer le deepfake, Meta a automatiquement fermé le rapport de l’utilisateur « car il n’a pas été examiné dans les 48 heures ». La tentative de l’utilisateur de faire appel du rapport a également été automatiquement fermée.

Meta a finalement laissé le deepfake jusqu’à ce que l’utilisateur fasse appel au conseil de surveillance. Le porte-parole de Meta a décliné la demande d’Ars de commenter le retard de Meta à supprimer l’image avant l’intervention du conseil d’administration. « A la suite de la sélection de ce cas par le Conseil, Meta a déterminé que sa décision de laisser le contenu en ligne était une erreur et a supprimé le message pour violation des normes communautaires sur l’intimidation et le harcèlement », a indiqué le blog du Conseil.

Un utilisateur de Facebook a eu beaucoup plus de succès en signalant un deepfake créé pour « ressembler à une personnalité publique américaine » qui était représentée nue « avec un homme lui pelotant la poitrine ». Cette image générée par l’IA a été publiée dans « un groupe Facebook pour les créations d’IA » avec une légende nommant la célèbre femme, a indiqué le conseil d’administration.

Dans ce cas, un autre « utilisateur avait déjà publié cette image », ce qui a conduit Meta à intensifier l’examen de son équipe de sécurité, supprimant le contenu « en tant que violation de la politique sur l’intimidation et le harcèlement » qui interdit « les photos ou les dessins sexualisés désobligeants ».

Parce que Meta a interdit l’image, elle a également été ajoutée au « système d’application automatisé de Meta qui trouve et supprime automatiquement les images qui ont déjà été identifiées par des évaluateurs humains comme enfreignant les règles de Meta ».

Pour cette affaire, le conseil d’administration a été invité à examiner le cas d’un utilisateur de Facebook qui avait tenté de partager l’image de l’IA après qu’une première tentative de protestation contre la décision de la supprimer ait été automatiquement fermée par Meta.

Le conseil de surveillance de Meta examine actuellement les deux cas et, au cours des deux prochaines semaines, il sollicitera les commentaires du public pour aider les plates-formes de Meta à se mettre au courant de l’atténuation des méfaits de l’IA. Les utilisateurs de Facebook et d’Instagram, ainsi que les organisations qui « peuvent apporter de précieuses perspectives », auront jusqu’au 30 avril pour soumettre leurs commentaires.

Les commentaires peuvent être partagés de manière anonyme et il est demandé aux commentateurs « d’éviter de nommer ou de partager de toute autre manière des informations privées sur des tiers ou de spéculer sur l’identité des personnes représentées dans le contenu de ces cas ».

Le conseil demande spécifiquement des commentaires sur « la nature et la gravité des dommages causés par la pornographie deepfake » – « en particulier » pour les « femmes qui sont des personnalités publiques ». Ils souhaitent également que les experts évaluent la prévalence du problème des deepfakes aux États-Unis et en Inde, où résident les célébrités impliquées dans ces cas.

En décembre, le ministre indien de l’informatique, Rajeev Chandrasekhar, a qualifié les deepfakes de célébrités se propageant sur les réseaux sociaux de désinformation « dangereuse » et « préjudiciable » qui doit « être traitée par les plateformes », a rapporté la BBC. D’autres pays, dont les États-Unis et, plus récemment, le Royaume-Uni, ont proposé des lois criminalisant la création et le partage en ligne de deepfakes explicites d’IA.

Le conseil d’administration de Meta a demandé aux commentateurs publics de donner leur avis sur les meilleures « politiques et processus d’application qui pourraient être les plus efficaces » pour lutter contre les deepfakes et de donner leur avis sur la qualité du travail de Meta dans l’application de sa règle « photoshop ou dessins sexualisés désobligeants ». . Cela inclut la réception de commentaires sur les « défis » auxquels les utilisateurs sont confrontés en signalant des deepfakes lorsque Meta s’appuie « sur des systèmes automatisés qui clôturent automatiquement les appels dans les 48 heures si aucun examen n’a eu lieu ».

Une fois que le conseil aura soumis ses recommandations, Meta aura 60 jours pour répondre. Dans un article de blog, Meta a déjà confirmé qu’elle « mettrait en œuvre la décision du conseil d’administration ».

Source-147

- Advertisement -

Latest