Google interdit aux annonceurs de promouvoir des services pornographiques deepfakes

Google interdit depuis longtemps les publicités sexuellement explicites, mais jusqu’à présent, la société n’a pas interdit aux annonceurs de promouvoir prestations de service que les gens peuvent utiliser pour faire du porno deepfake et d’autres formes de nus générés. C’est sur le point de changer.

Google actuellement interdit aux annonceurs de promouvoir un « contenu sexuellement explicite », que Google définit comme « du texte, une image, un audio ou une vidéo d’actes sexuels graphiques destinés à susciter ». Le Nouvelle politique interdit désormais la publicité de services qui aident les utilisateurs à créer également ce type de contenu, que ce soit en modifiant l’image d’une personne ou en en générant une nouvelle.

Le changement, qui entrera en vigueur le 30 mai, interdit « la promotion de contenus synthétiques qui ont été modifiés ou générés pour être sexuellement explicites ou contenir de la nudité », tels que les sites Web et les applications qui expliquent aux gens comment créer du porno deepfake.

« Cette mise à jour vise à interdire explicitement les publicités pour les services proposant de créer de la pornographie deepfake ou du contenu nu synthétique », a déclaré le porte-parole de Google, Michael Aciman. Le bord.

Aciman affirme que toutes les publicités qui enfreignent ses politiques seront supprimées, ajoutant que l’entreprise utilise une combinaison d’examens humains et de systèmes automatisés pour appliquer ces politiques. En 2023, Google a supprimé plus de 1,8 milliard de publicités pour violation de ses politiques en matière de contenu sexuel, selon le rapport de l’entreprise. Rapport annuel sur la sécurité des publicités.

Le changement a été signalé pour la première fois par 404 Médias. Comme 404 note, alors que Google interdisait déjà aux annonceurs de promouvoir du contenu sexuellement explicite, certaines applications qui facilitent la création de pornographie deepfake ont contourné ce problème en se présentant comme non sexuelles sur les publicités Google ou dans le Google Play Store. Par exemple, une application d’échange de visage ne s’est pas présentée comme sexuellement explicite sur le Google Play Store, mais l’a fait sur des sites pornographiques.

La pornographie deepfake non consensuelle est devenue un problème constant ces dernières années. Deux collégiens de Floride ont été arrêtés en décembre dernier pour avoir prétendument créé des photos nues de leurs camarades de classe générées par l’IA. Cette semaine encore, un homme de Pittsburgh âgé de 57 ans a été condamné à plus de 14 ans de prison pour possession de faux matériels pédopornographiques. L’année dernière, le FBI a publié un avis concernant une « légère hausse » des stratagèmes d’extorsion impliquant le chantage de personnes avec des nus générés par l’IA. Alors que de nombreux modèles d’IA rendent difficile, voire impossible, la création de nus générés par l’IA, certains services permettent aux utilisateurs de générer du contenu sexuel.

Il pourrait bientôt y avoir une action législative contre le deepfake porn. Le mois dernier, la Chambre et le Sénat a introduit la loi DEFIANCEqui établirait un processus par lequel les victimes de « contrefaçon numérique » pourraient poursuivre en justice les personnes qui fabriquent ou distribuent des deepfakes non consensuels.

source site-132