Des mesures drastiques de la part de X, Microsoft pourrait ne pas arrêter la propagation du faux porno Taylor Swift

Après que de fausses images explicites de Taylor Swift aient commencé à se répandre sur X, la plateforme anciennement connue sous le nom de Twitter a tenté de bloquer toutes les recherches sur la pop star.

« Il s’agit d’une action temporaire et effectuée avec beaucoup de prudence alors que nous accordons la priorité à la sécurité sur cette question », a déclaré Joe Benarroch, responsable des opérations commerciales de X, dans un communiqué à Reuters.

Cependant, même cette mesure drastique ne semble pas être une solution efficace, car « Swift » était une tendance lundi matin sur X. Le blocage temporaire ne fait rien non plus pour empêcher les recherches utilisant des fautes d’orthographe du nom du chanteur.

X n’a pas immédiatement répondu à la demande de commentaire d’Ars.

Les images nuisibles sont apparues pour la première fois la semaine dernière sur X après une fuite d’une chaîne Telegram toxique où les utilisateurs discutaient des moyens d’utiliser des outils d’IA populaires comme Microsoft Designer pour générer des images intimes non consensuelles de célébrités, a découvert 404 Media. Comme pour les solutions de contournement de la recherche X, des fautes d’orthographe et des piratages de mots clés ont été utilisés pour échapper aux filtres de contenu de Designer. Ars a également trouvé un fil de discussion Reddit dans lequel les utilisateurs discutaient de l’utilisation de Designer pour générer des images sexualisées de « peinture corporelle » très similaires à certaines des images d’AI Swift devenues virales.

La semaine dernière, Microsoft a déclaré à Ars qu’elle enquêtait, mais jusqu’à présent, la société n’a pas confirmé les informations selon lesquelles Designer avait été utilisé pour générer les images Swift. Cela n’a pas empêché Microsoft de prendre également des mesures drastiques et de sévir fortement contre les filtres de contenu de Designer.

Selon 404 Media, les utilisateurs de Telegram et de 4chan ont été déçus de constater cette semaine que Microsoft a introduit davantage de protections dans Designer, empêchant apparemment la génération du visage d’une célébrité par l’outil. Désormais, les mots-clés qui fonctionnaient auparavant pour générer des images de stars comme Ariana Grande ou Zendaya affichent désormais simplement des « filles génériques » avec des looks similaires, ont déclaré les utilisateurs, se plaignant que « Microsoft Designer a été très corrigé » et c’est « presque comme s’il ne générerait pas de célébrités ». plus. »

Mardi, le PDG de Microsoft, Satya Nadella, apparaîtra sur NBC Nouvelles du soir pour discuter du rôle que ses outils ont pu jouer dans la génération du porno IA de Swift. Des millions de personnes ont vu certaines de ces images avant que les suppressions de contenu ne commencent, l’une des images les plus largement partagées ayant été vue 47 millions de fois, a rapporté le New York Times.

Ars a reçu une transcription de la prochaine émission de NBC, où Nadella confirmera que Microsoft prévoit « d’agir rapidement » pour réduire les méfaits des outils d’IA comme Designer et Bing, qui peuvent être utilisés pour générer des images de tout ce que les utilisateurs peuvent imaginer via des invites textuelles.

« Je pense que, tout d’abord, c’est absolument alarmant et terrible, et donc oui, nous devons agir », a déclaré Nadella à NBC.

Nadella a déclaré qu' »il y a beaucoup à faire et beaucoup à faire » chez Microsoft pour placer des garde-fous autour des technologies d’IA afin d’empêcher les résultats nuisibles, mais ce qui est également nécessaire, c’est une « convergence mondiale et sociétale sur certaines normes », comme si tout le monde parvenait à un consensus. que les images non consensuelles de l’IA sont nuisibles. Actuellement, toutes les plateformes ne sont pas d’accord sur ce point. En collaboration avec les forces de l’ordre, les plateformes « peuvent gouverner bien plus que nous ne le pensons », a déclaré Nadella à NBC.

Source-147