Google explique les images « embarrassantes » de Gemini prises par l’IA de divers nazis

Google a publié une explication pour les images « embarrassantes et erronées » générées par son outil Gemini AI. Dans un article de blog vendrediGoogle affirme que son modèle a produit des images « historiques inexactes » en raison de problèmes de réglage. Le bord et d’autres ont surpris Gemini en train de générer des images de nazis de diverses races et de pères fondateurs des États-Unis plus tôt cette semaine.

« Notre réglage pour garantir que Gemini montre un éventail de personnes n’a pas pris en compte les cas qui devraient clairement pas montrer une gamme », écrit Prabhakar Raghavan, vice-président senior de Google, dans le message. « Et deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que prévu et a refusé de répondre entièrement à certaines invites – interprétant à tort certaines invites très anodines comme sensibles. »

Les résultats de Gemini pour l’invite « génèrent une image d’un sénateur américain des années 1800 ».
Capture d’écran par Adi Robertson

Cela a conduit Gemini AI à « surcompenser dans certains cas », comme ce que nous avons vu avec les images des nazis de diverses races. Cela a également amené les Gémeaux à devenir « trop conservateurs ». Cela l’a amené à refuser de générer des images spécifiques d’une « personne noire » ou d’une « personne blanche » lorsque cela lui était demandé.

Dans le billet de blog, Raghavan dit que Google est « désolé, la fonctionnalité n’a pas bien fonctionné ». Il note également que Google souhaite que Gemini « fonctionne bien pour tout le monde », ce qui signifie obtenir des représentations de différents types de personnes (y compris différentes ethnies) lorsque vous demandez des images de « joueurs de football » ou de « quelqu’un qui promène un chien ». Mais il dit :

Cependant, si vous demandez à Gemini des images d’un type spécifique de personne – comme « un enseignant noir dans une salle de classe » ou « un vétérinaire blanc avec un chien » – ou de personnes dans des contextes culturels ou historiques particuliers, vous devriez absolument obtenir une réponse. une réponse qui reflète fidèlement ce que vous demandez.

Raghavan dit que Google va continuer à tester les capacités de génération d’images de Gemini AI et « travailler à l’améliorer de manière significative » avant de la réactiver. « Comme nous l’avons dit depuis le début, les hallucinations sont un défi connu dans tous les LLM. [large language models] – il y a des cas où l’IA se trompe », note Raghavan. « C’est quelque chose que nous travaillons constamment à améliorer. »

source site-132