Moins d’une semaine après que Meta a dévoilé des autocollants générés par l’IA dans son application Facebook Messenger, les utilisateurs en abusent déjà pour créer des images maladroites de personnages protégés par le droit d’auteur et partager les résultats sur les réseaux sociaux, rapporte VentureBeat. En particulier, un artiste nommé Pier-Olivier Desbiens a publié mardi une série d’autocollants virtuels qui sont devenus viraux sur X, démarrant un fil de générations d’images d’IA tout aussi décalées partagées par d’autres.
« FJ’ai découvert que Facebook Messenger a généré des autocollants maintenant et je ne pense pas que quiconque impliqué ait réfléchi à quoi que ce soit.« , a écrit Desbiens dans son message. « WNous vivons vraiment dans le futur le plus stupide imaginable », a-t-il ajouté dans une réponse.
Disponible pour certains utilisateurs sur une base limitée, la nouvelle fonctionnalité d’autocollants IA permet aux utilisateurs de créer des images d’autocollants simulées générées par l’IA à partir de descriptions textuelles dans Facebook Messenger et Instagram Messenger. Les autocollants sont ensuite partagés dans des chats, à la manière des emojis. Meta utilise son nouveau modèle de synthèse d’images Emu pour les créer et a mis en œuvre des filtres pour détecter ce qui pourrait être des générations potentiellement offensantes pour certaines personnes. Mais de nombreuses combinaisons nouvelles passent entre les mailles du filet.
Les générations partagées sur X incluent Mickey Mouse tenant une mitrailleuse ou un couteau ensanglanté, les tours jumelles enflammées du World Trade Center, le pape avec une mitrailleuse, Elmo de Sesame Street brandissant un couteau, Donald Trump en bébé qui pleure, les personnages des Simpsons. en sous-vêtements étriqués, Luigi avec une arme à feu, le Premier ministre canadien Justin Trudeau exhibant ses fesses, et plus encore.
Ce n’est pas la première fois que les images générées par l’IA inspirent des discussions pleines d’expérimentateurs étourdis essayant de briser les filtres de contenu sur les réseaux sociaux. Des générations comme celles-ci sont possibles dans des modèles d’images open source non censurés depuis plus d’un an, mais il est à noter que Meta a publié publiquement un modèle capable de les créer sans garanties plus strictes en place grâce à une fonctionnalité intégrée dans des applications phares telles qu’Instagram et Messenger.
Notamment, le DALL-E 3 d’OpenAI a récemment été soumis à des rythmes similaires, avec des personnes testant les limites de filtre du générateur d’images AI en créant des images comportant Vrais gens ou inclure du contenu violent. Il est difficile de détecter tout le contenu potentiellement nuisible ou inapproprié dans les cultures du monde entier lorsqu’un générateur d’images peut créer presque toutes les combinaisons d’objets, de scénarios ou de personnes que vous pouvez imaginer. Et cela pourrait étouffer les normes culturelles de la liberté d’expression. Il s’agit d’un autre défi auquel seront confrontées les équipes de modération dans l’avenir des applications basées sur l’IA et des espaces en ligne.
Au cours de la dernière année, il a été courant pour les entreprises de tester en version bêta des systèmes d’IA générative via un accès public, ce qui nous a apporté des doozies comme le modèle Galactica défectueux de Meta en novembre dernier et la première version désarticulée du modèle d’IA de Bing Chat. Si l’on en croit les exemples passés, lorsque quelque chose d’étrange attire l’attention, le développeur réagit généralement soit en le supprimant, soit en renforçant les filtres intégrés. Alors, Meta supprimera-t-il la fonctionnalité d’autocollants IA ou simplement réprimera-t-il en ajoutant plus de mots et d’expressions à son filtre de mots clés ?
Lorsque la journaliste de VentureBeat, Sharon Goldman, a interrogé mardi le porte-parole de Meta, Andy Stone, à propos des autocollants, il a souligné un article de blog intitulé Créer des fonctionnalités d’IA génératives de manière responsable et a déclaré : « Comme pour tous les systèmes d’IA générative, les modèles pourraient renvoyer des résultats inexacts ou inappropriés. Nous continuerons à améliorer ces fonctionnalités à mesure qu’elles évoluent et que de plus en plus de personnes partagent leurs commentaires.