Google suspend la capacité de l’outil d’IA Gemini à générer des images de personnes après des inexactitudes historiques

Google déclare avoir temporairement suspendu la capacité de Gemini, sa suite phare de modèles d’IA générative, à générer des images de personnes pendant qu’il travaille à la mise à jour de la technologie pour améliorer la précision historique des résultats impliquant des représentations humaines.

Dans un poste sur la plateforme de médias sociaux X, la société a annoncé ce qu’elle a qualifié de « pause » dans la génération d’images de personnes – écrivant qu’elle s’efforçait de résoudre les « problèmes récents » liés aux inexactitudes historiques.

« Pendant ce temps, nous allons suspendre la génération d’images de personnes et rééditerons bientôt une version améliorée », ajoute-t-il.

Google a lancé l’outil de génération d’images Gemini plus tôt ce mois-ci. Cependant, des exemples de ces images générant des images incongrues de personnages historiques ont été trouvés. sur les réseaux sociaux ces derniers jours – comme les images des pères fondateurs des États-Unis représentés comme des Amérindiens, des Noirs ou des Asiatiques – suscitant des critiques, voire du ridicule.

Écrivant dans un article sur LinkedIn, le capital-risqueur basé à Paris, Michael Jackson, a rejoint le groupe aujourd’hui – qualifiant l’IA de Google de « parodie absurde de DEI ». (DEI signifiant « Diversité, équité et inclusion ».)

Dans un posté sur X hier, Google a confirmé qu’il était « conscient » que l’IA produisait « des inexactitudes dans certaines représentations de génération d’images historiques », ajoutant dans un communiqué : « Nous travaillons pour améliorer immédiatement ce type de représentations. La génération d’images Al de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose car des gens du monde entier l’utilisent. Mais ici, on manque le but. »

Les outils d’IA générative produisent des résultats basés sur les données d’entraînement et d’autres paramètres, tels que les poids du modèle.

De tels outils ont plus souvent été critiqués pour avoir produit des résultats biaisés de manière plus stéréotypée – comme des images ouvertement sexualisées de femmes ou en répondant à des invitations à des postes de haut rang avec des images d’hommes blancs.

Un précédent outil de classification d’images d’IA créé par Google a provoqué l’indignation, en 2015, lorsqu’il a classé à tort les hommes noirs comme des gorilles. La société a promis de résoudre le problème mais, comme Wired l’a rapporté quelques années plus tard, sa « solution » n’était qu’une simple solution de contournement : Google empêchant simplement la technologie de reconnaître les gorilles.

Source-146