Stable Diffusion 2 est là, mais tout le monde n’est pas content

L’art de l’IA est la tendance la plus en vogue de 2022, et tout cela grâce à des modèles comme DALL-E et Stable Diffusion. En utilisant ceux-ci, vous êtes en mesure de générer des images alimentées par l’IA étrangement réalistes. Stable Diffusion 2 a été officiellement publié, apportant plusieurs améliorations – et apparemment nerfé à d’autres égards.

Les plus grandes améliorations de Stable Diffusion 2 ont été soigneusement résumées par Stability AI, mais en gros, vous pouvez vous attendre à des invites de texte plus précises et à des images plus réalistes. Les modèles texte-image sont formés avec un nouvel encodeur de texte (OpenCLIP) et ils sont capables de produire des images 512 × 512 et 768 × 768.

IA de stabilité

D’autres modèles s’améliorent également beaucoup, notamment l’upscaler, qui peut désormais produire des images beaucoup plus précises, et le modèle profondeur-image, qui peut générer de nouvelles images en utilisant à la fois du texte et une image existante. Il existe également un modèle d’inpainting qui peut échanger des parties d’une image pour générer une toute nouvelle image.

Cependant, la nouvelle mise à jour présente quelques inconvénients. Les utilisateurs se sont plaints du fait que la nouvelle version de Stable Diffusion rend plus difficile la génération de contenu NSFW ainsi que d’art qui imite le style d’un artiste réel, ce qui a conduit certains à affirmer que la nouvelle version a été « énervée ». Compte tenu des fortes critiques de l’art de l’IA pour ses capacités à produire de fausses images d’apparence réelle, il ne serait pas surprenant que le modèle s’éloigne délibérément de la production d’images qui pourraient causer des problèmes.

Si vous souhaitez accéder au nouveau Stable Diffusion 2, assurez-vous d’en savoir plus sur GitHub.

Source : IA de stabilité, Engadget


Source-135