Google exigera bientôt des clauses de non-responsabilité pour les publicités politiques générées par l’IA

Google va bientôt commencer à exiger les annonceurs politiques doivent « divulguer de manière visible » lorsqu’ils ont réalisé leurs publicités avec l’IA, comme l’a rapporté plus tôt Bloomberg. Depuis novembre, Google déclare que les annonceurs doivent inclure une information lorsqu’une annonce électorale présente un « contenu synthétique » qui représente « des personnes ou des événements d’apparence réaliste ».

Cela inclut les publicités politiques qui utilisent l’IA pour donner l’impression que quelqu’un dit ou fait quelque chose qu’il n’a jamais fait, ainsi que la modification des images d’un événement réel (ou la fabrication d’un événement réaliste) pour créer une scène qui ne s’est jamais produite. .

Google affirme que ces types d’annonces doivent contenir une clause de non-responsabilité dans un endroit « clair et visible », notant qu’elle s’appliquera aux images, aux vidéos et au contenu audio. Les étiquettes devront indiquer des éléments tels que « Cet audio a été généré par ordinateur » ou « Cette image ne représente pas des événements réels ». Tous les ajustements « sans conséquence », tels que l’éclaircissement d’une image, les modifications d’arrière-plan ou la suppression des yeux rouges avec l’IA, ne nécessiteront pas d’étiquette.

« Compte tenu de la prévalence croissante des outils produisant du contenu synthétique, nous élargissons encore nos politiques pour exiger des annonceurs qu’ils divulguent lorsque leurs publicités électorales incluent du matériel qui a été modifié ou généré numériquement », a déclaré Allie Bodack, porte-parole de Google, dans un communiqué. Le bord.

Mise à jour le 6 septembre à 19 h 12 HE : Ajout d’une déclaration d’un porte-parole de Google.

source site-132