Satya Nadella dit que les contrefaçons explicites de Taylor Swift AI sont « alarmantes et terribles »

Le PDG de Microsoft, Satya Nadella, a répondu à une controverse concernant de fausses images sexuellement explicites de Taylor Swift créées par l’IA. Dans une interview avec NBC Nouvelles du soir qui sera diffusé mardi prochain, Nadella qualifie la prolifération de nus simulés non consensuels d' »alarmante et terrible », déclarant à l’intervieweur Lester Holt que « je pense qu’il nous incombe d’agir rapidement sur ce sujet ».

Dans une transcription distribuée par NBC avant l’émission du 30 janvier, Holt demande à Nadella de réagir à Internet « explosant de fausses images, et j’insiste sur de fausses images sexuellement explicites de Taylor Swift ». La réponse de Nadella parvient à ouvrir plusieurs boîtes de vers de politique technologique tout en en disant remarquablement peu à leur sujet – ce qui n’est pas surprenant lorsqu’il n’y a pas de solution infaillible en vue.

Je dirais deux choses : premièrement, je reviens encore une fois à ce que je pense être notre responsabilité, à savoir toutes les barrières de sécurité que nous devons placer autour de la technologie afin qu’un contenu plus sûr soit produit. Et il y a beaucoup à faire et beaucoup de choses sont faites dans ce domaine. Mais il s’agit d’une convergence mondiale, sociétale — vous savez, je dirai, de convergence sur certaines normes. Et nous pouvons le faire – surtout lorsque vous disposez de plates-formes juridiques, d’application de la loi et technologiques qui peuvent s’unir – je pense que nous pouvons gouverner bien plus que nous ne le pensons – ce pour quoi nous nous accordons le mérite.

Microsoft pourrait avoir un lien avec les fausses images Swift. UN 404 Médias rapport indique qu’ils proviennent d’une communauté de création pornographique non consensuelle basée sur Telegram qui recommande d’utiliser le générateur d’images Microsoft Designer. Le concepteur refuse théoriquement de produire des images de personnes célèbres, mais les générateurs d’IA sont faciles à embobiner, et 404 j’ai découvert que vous pouviez enfreindre ses règles en apportant de petites modifications aux invites. Bien que cela ne prouve pas que Designer a été utilisé pour les images Swift, c’est le genre de problème technique que Microsoft peut résoudre.

Mais les outils d’IA ont considérablement simplifié le processus de création de faux nus de vraies personnes, provoquant des troubles pour les femmes qui ont beaucoup moins de pouvoir et de célébrité que Swift. Et contrôler leur production n’est pas aussi simple que d’obliger les grandes entreprises à renforcer leurs garde-fous. Même si les grandes plateformes « Big Tech » comme celle de Microsoft sont verrouillées, les utilisateurs peuvent recycler des outils ouverts comme Stable Diffusion pour produire des images NSFW malgré les tentatives pour rendre cela plus difficile. Bien moins d’utilisateurs pourraient accéder à ces générateurs, mais l’incident de Swift démontre à quel point le travail d’une petite communauté peut s’étendre.

Il existe d’autres solutions provisoires, comme les réseaux sociaux limitant la portée des images non consensuelles ou, apparemment, Justice de justicier imposée par Swiftie contre les gens qui les propagent. (Est-ce que cela compte comme une « convergence sur certaines normes » ?) Pour l’instant, cependant, le seul plan clair de Nadella est de mettre de l’ordre dans la maison de l’IA de Microsoft.

source site-132