Un ingénieur de Microsoft qui a fait part de ses inquiétudes concernant le créateur d’images Copilot écrit une lettre à la FTC

L’ingénieur Microsoft Shane Jones de DALL-E 3 d’OpenAI en janvier dernier, suggérant que le produit présente des failles de sécurité qui facilitent la création d’images violentes ou sexuellement explicites. Il a également allégué que l’équipe juridique de Microsoft avait bloqué ses tentatives d’alerter le public sur le problème. Maintenant, il a déposé sa plainte directement auprès de la FTC,

« J’ai exhorté à plusieurs reprises Microsoft à retirer Copilot Designer de l’usage public jusqu’à ce que de meilleures garanties puissent être mises en place », a écrit Jones dans une lettre adressée à la présidente de la FTC, Lina Khan. Il a noté que Microsoft « a refusé cette recommandation », et demande donc maintenant à l’entreprise d’ajouter des informations sur le produit pour alerter les consommateurs du danger présumé. Jones souhaite également que la société modifie la note de l’application pour s’assurer qu’elle est uniquement destinée à un public adulte. L’application Android de Copilot Designer est actuellement classée « E pour tout le monde ».

Microsoft continue « de commercialiser le produit auprès de « n’importe qui ». N’importe où. N’importe quel appareil' », a-t-il écrit, récemment utilisé par le PDG de l’entreprise, Satya Nadella. Jones a écrit une lettre distincte au conseil d’administration de l’entreprise, l’exhortant à entamer « un examen indépendant des processus responsables de signalement des incidents d’IA de Microsoft ».

Une image d’un lit de banane.

Un exemple d’image (un canapé banane) généré par DALL-E 3 (OpenAI)

Tout cela se résume à savoir si la mise en œuvre par Microsoft de DALL-E 3 créera ou non des images violentes ou sexuelles, malgré les garde-fous mis en place. Jones dit qu’il est trop facile de « tromper » la plate-forme pour qu’elle crée les choses les plus grossières imaginables. L’ingénieur et membre de l’équipe rouge affirme avoir régulièrement vu le logiciel créer des images peu recommandables à partir d’invites inoffensives. Le message « pro-choix », par exemple, créait des images de démons se régalant de nourrissons et de Dark Vador tenant une perceuse sur la tête d’un bébé. Le message « accident de voiture » générait des images de femmes sexualisées, ainsi que des représentations violentes d’accidents de voiture. D’autres messages créaient des images d’adolescents tenant des fusils d’assaut, d’enfants consommant de la drogue et des images contraires à la loi sur le droit d’auteur.

Ce ne sont pas seulement des allégations. CNBC a pu recréer à peu près tous les scénarios évoqués par Jones en utilisant la version standard du logiciel. Selon Jones, de nombreux consommateurs sont confrontés à ces problèmes, mais Microsoft ne fait pas grand-chose pour y remédier. Il allègue que l’équipe Copilot reçoit plus de 1 000 plaintes quotidiennes concernant les produits, mais qu’on lui a dit qu’il n’y avait pas suffisamment de ressources disponibles pour enquêter de manière approfondie et résoudre ces problèmes.

« Si ce produit commence à diffuser des images nuisibles et dérangeantes à l’échelle mondiale, il n’y a aucun endroit pour le signaler, aucun numéro de téléphone à appeler et aucun moyen de faire remonter le problème pour que le problème soit réglé immédiatement », a-t-il déclaré. CNBC.

OpenAI a déclaré à Engadget en janvier lorsque Jones a déposé sa première plainte selon laquelle la technique d’incitation qu’il a partagée « ne contourne pas les systèmes de sécurité » et que la société a « développé des classificateurs d’images robustes qui empêchent le modèle de générer des images nuisibles ».

Un porte-parole de Microsoft a ajouté que la société a « établi des canaux de reporting internes robustes pour enquêter correctement et résoudre tout problème », ajoutant que Jones devrait « valider et tester de manière appropriée ses préoccupations avant de les faire connaître publiquement ». La société a également déclaré qu’elle « se connectait avec ce collègue pour répondre à toutes ses préoccupations restantes ». Cependant, c’était en janvier, il semble donc que les préoccupations restantes de Jones n’aient pas été correctement prises en compte. Nous avons contacté les deux sociétés pour obtenir une déclaration mise à jour.

Cela se produit juste après que le chatbot Gemini de Google ait rencontré sa propre controverse sur la génération d’images. Il s’est avéré que le robot ressemblait aux papes catholiques amérindiens. Google a désactivé la plateforme de génération d’images pendant qu’elle

Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.

Source-145