Deep Agency montre les dangers de l’application de l’IA à l’industrie de la mode

L’IA générative bouleverse industries — avec une controverse compréhensible.

Plus tôt ce mois-ci, Danny Postma, le fondateur de Headlime, une startup de copie marketing alimentée par l’IA récemment acquise par Jasper, a annoncé Deep Agency, une plate-forme qu’il décrit comme un « studio photo et agence de mannequins IA ». En utilisant l’IA génératrice d’art, Deep Agency crée et propose des « modèles virtuels » à louer à partir de 29 $ par mois (pour une durée limitée), permettant aux clients de placer les modèles sur des arrière-plans numériques pour réaliser leurs séances photo.

« Qu’est-ce que l’agence profonde ? C’est un studio photo, avec quelques grandes différences », a expliqué Postma dans un série de tweets. « Pas d’appareil photo. Pas de vraies personnes. Pas de localisation physique… A quoi ça sert ? Des tonnes de choses, comme l’automatisation du contenu pour les influenceurs des médias sociaux, les modèles pour les publicités des spécialistes du marketing et la photographie de produits de commerce électronique.

Deep Agency est très bien dans la phase de preuve de concept, c’est-à-dire… un peu bourré. Il y a beaucoup d’artefacts dans les visages des modèles, et la plate-forme place des garde-corps – intentionnels ou non – autour desquels les physiques peuvent être générés. Dans le même temps, la création de modèles de Deep Agency est étrangement difficile à contrôler ; essayez de générer un modèle féminin vêtu d’une tenue particulière, comme celle d’un policier, et Deep Agency ne peut tout simplement pas le faire.

Néanmoins, la réaction au lancement a été rapide – et mitigée.

Certains utilisateurs de Twitter applaudi la technologie, exprimant un intérêt à l’utiliser pour modéliser des marques de vêtements et de vêtements. Autres accusé Postma de poursuivre un modèle commercial « profondément contraire à l’éthique », en grattant la photographie et les ressemblances d’autres peuples et en les vendant à des fins lucratives.

La fracture reflète le débat plus large sur l’IA générative, qui continue d’attirer des niveaux de financement étonnants tout en soulevant une multitude de problèmes moraux, éthiques et juridiques. Selon PitchBook, les investissements dans l’IA générative atteindront 42,6 milliards de dollars en 2023 et monteront en flèche pour atteindre 98,1 milliards de dollars d’ici 2026. Mais des entreprises telles que OpenAI, Midjourney et Stability AI sont actuellement en proie à des poursuites pour leurs technologies d’IA générative, que certains accusent de reproduire les travaux de artistes sans les rémunérer équitablement.

Crédits image : Agence profonde

Deep Agency semble avoir particulièrement touché une corde sensible en raison de l’application – et des implications – de son produit.

Postma, qui n’a pas répondu à une demande de commentaire, n’hésite pas à ce que la plate-forme puisse concurrencer – et peut-être nuire aux moyens de subsistance – des modèles et photographes du monde réel. Alors que certaines plateformes comme Shutterstock ont ​​créé des fonds pour partager les revenus de l’art généré par l’IA avec des artistes, Deep Agency n’a pas pris une telle mesure – et n’a pas signalé son intention de le faire.

Par coïncidence, quelques semaines seulement après les débuts de Deep Agency, Levi’s a annoncé qu’elle s’associerait au studio de design LaLaLand.ai pour créer des modèles personnalisés générés par l’IA afin « d’augmenter la diversité des modèles que les acheteurs peuvent voir porter ses produits ». Levi’s a souligné qu’elle prévoyait d’utiliser les modèles synthétiques aux côtés de modèles humains et que cette décision n’aurait pas d’incidence sur ses plans d’embauche. Mais cela a soulevé des questions quant à la raison pour laquelle la marque n’a pas recruté plus de modèles avec les diverses caractéristiques qu’elle recherche, étant donné la difficulté que ces modèles ont eu historiquement à trouver des opportunités dans l’industrie de la mode. (Selon une enquête, en 2016, 78 % des mannequins dans les publicités de mode étaient blancs.)

Dans une interview par e-mail avec TechCrunch, Os Keyes, doctorant à l’Université de Washington qui étudie l’IA éthique, a fait l’observation que la modélisation et la photographie – et les arts en général – sont des domaines particulièrement vulnérables à l’IA générative parce que les photographes et les artistes manquent de structure. pouvoir. Ce sont en grande partie des sous-traitants indépendants mal payés pour de grandes entreprises qui cherchent à réduire leurs coûts, note Keyes. Les mannequins, par exemple, doivent souvent payer des commissions d’agence élevées (~ 20 %) ainsi que des dépenses professionnelles, qui peuvent inclure des billets d’avion, des logements de groupe et le matériel promotionnel nécessaire pour décrocher des emplois chez les clients.

« L’application de Postma est – si elle fonctionne – en fait conçue pour expulser davantage la chaise des travailleurs créatifs déjà précaires et envoyer l’argent à Postma à la place », a déclaré Keyes. « Ce n’est pas vraiment une chose à applaudir, mais ce n’est pas non plus extrêmement surprenant… Le fait est que sur le plan socio-économique, des outils comme celui-ci sont conçus pour creuser davantage et concentrer les bénéfices. »

D’autres critiques contestent la technologie sous-jacente. Les systèmes de génération d’images à la pointe de la technologie, tels que ceux utilisés par Deep Agency, sont appelés «modèles de diffusion», qui apprennent à créer des images à partir d’invites textuelles (par exemple, «un croquis d’un oiseau perché sur un rebord de fenêtre»). se frayer un chemin à travers les données de formation récupérées sur le Web. Le problème dans l’esprit des artistes est la tendance des modèles de diffusion à copier et coller essentiellement des images – y compris du contenu protégé par le droit d’auteur – à partir des données qui ont été utilisées pour les former.

Agence profonde

Crédits image : Agence profonde

Les entreprises commercialisant des modèles de diffusion prétendent depuis longtemps que le « fair use » les protège dans le cas où leurs systèmes seraient entraînés sur du contenu sous licence. (Inscrite dans la loi américaine, la doctrine de l’utilisation équitable permet une utilisation limitée du matériel protégé par le droit d’auteur sans avoir à obtenir au préalable l’autorisation du titulaire des droits.) Mais les artistes allèguent que les modèles enfreignent leurs droits, en partie parce que les données de formation ont été obtenues sans leur autorisation ou leur consentement. .

« La légalité d’une startup comme celle-ci n’est pas tout à fait claire, mais ce qui est clair, c’est qu’elle vise à mettre beaucoup de gens au chômage », a déclaré Mike Cook, un éthicien de l’IA et membre du groupe de recherche ouvert Knives and Paintbrushes. a déclaré TechCrunch dans une interview par e-mail. « Il est difficile de parler de l’éthique d’outils comme celui-ci sans aborder des questions plus profondes liées à l’économie, au capitalisme et aux affaires. »

Il n’y a aucun mécanisme permettant aux artistes qui soupçonnent que leur art a été utilisé pour former le modèle de Deep Agency de supprimer cet art de l’ensemble de données de formation. C’est pire que des plateformes comme DeviantArt et Stability AI, qui offrent aux artistes des moyens de ne pas contribuer à l’art pour former l’IA génératrice d’art.

Deep Agency n’a pas non plus précisé si elle envisagerait d’établir un partage des revenus pour les artistes et autres personnes dont le travail a contribué à créer le modèle de la plateforme. D’autres fournisseurs, tels que Shutterstock, expérimentent cela, en s’appuyant sur un pool combiné pour rembourser les créateurs dont le travail est utilisé pour former des modèles d’art IA.

Cook souligne un autre problème : la confidentialité des données.

Deep Agency permet aux clients de créer un modèle de « jumeau numérique » en téléchargeant environ 20 images d’une personne dans diverses poses. Mais le téléchargement de photos sur Deep Agency les ajoute également aux données de formation pour les modèles de niveau supérieur de la plate-forme, à moins que les utilisateurs ne les suppriment explicitement par la suite, comme indiqué dans les conditions d’utilisation.

La politique de confidentialité de Deep Agency ne dit pas exactement comment la plate-forme gère les photos téléchargées par les utilisateurs, en fait, ni même où elle les stocke. Et il n’y a apparemment aucun moyen d’empêcher les acteurs voyous de créer un jumeau virtuel de quelqu’un sans leur permission – une peur légitime à la lumière des modèles de nus profonds non consensuels comme Stable Diffusion ont été utilisés pour créer.

Agence profonde

Crédits image : Agence profonde

« Leurs conditions d’utilisation stipulent en fait que » vous comprenez et reconnaissez que des générations similaires ou identiques peuvent être créées par d’autres personnes en utilisant leurs propres invites « . C’est assez amusant pour moi car le principe du produit est que tout le monde peut avoir des modèles d’IA sur mesure qui sont uniques à chaque fois », a déclaré Cook. « En réalité, ils reconnaissent la possibilité que vous obteniez exactement la même image que quelqu’un d’autre, et que vos photos soient également transmises à d’autres pour une utilisation potentielle. Je ne peux pas imaginer que beaucoup de grandes entreprises aiment la perspective de l’une ou l’autre de ces choses. »

Un autre problème avec les données de formation de Deep Agency est le manque de transparence autour de l’ensemble d’origine, explique Keyes. C’est-à-dire qu’il n’est pas clair sur quelles images le modèle alimentant Deep Agency a été formé (bien que les filigranes confus dans ses images donnent des indices) — ce qui laisse ouverte la possibilité d’un biais algorithmique.

Un nombre croissant de recherches a révélé des stéréotypes raciaux, ethniques, sexistes et autres dans l’IA génératrice d’images, y compris dans le modèle populaire de diffusion stable développé avec le soutien de Stability AI. Ce mois-ci, des chercheurs de la start-up d’IA Hugging Face et de l’Université de Leipzig ont publié un outil démontrant que des modèles tels que Stable Diffusion et DALL-E 2 d’OpenAI ont tendance à produire des images de personnes qui semblent blanches et masculines, en particulier lorsqu’on leur demande de représenter des personnes en position d’autorité. .

Selon Chloe Xiang de Vice, Deep Agency ne génère des images de femmes que si vous achetez un abonnement payant – un biais problématique dès le départ. De plus, écrit Xiang, la plate-forme a tendance à créer modèles féminins blancs blonds même si vous sélectionnez une image d’une femme d’une race ou d’une ressemblance différente dans le catalogue pré-généré. Changer l’apparence d’un modèle nécessite de faire des ajustements supplémentaires, pas si évidents.

« L’IA génératrice d’images est fondamentalement défectueuse car elle dépend de la représentativité des données sur lesquelles l’IA génératrice d’images a été formée », a déclaré Keyes. « S’il comprend principalement des Blancs, des Asiatiques et des Noirs à la peau claire, toutes les synthèses du monde ne fourniront pas de représentation pour les personnes à la peau plus foncée. »

Malgré les problèmes flagrants avec Deep Agency, Cook ne le voit pas ou des outils similaires disparaître de si tôt. Il y a tout simplement trop d’argent dans l’espace, dit-il – et il n’a pas tort. Au-delà de Deep Agency et LaLaLand.ai, des startups comme ZMO.ai et Surreal obtiennent de gros investissements en capital-risque pour la technologie qui génère des modèles de mode virtuels, l’éthique soit maudite.

« Les outils ne sont pas encore assez bons, comme peut le voir toute personne utilisant la version bêta de Deep Agency. Mais ce n’est qu’une question de temps », a déclaré Cook. « Les entrepreneurs et les investisseurs continueront de se cogner contre des opportunités comme celle-ci jusqu’à ce qu’ils trouvent un moyen de faire fonctionner l’un d’entre eux. »

Source-146