Adobe apporte des fonctionnalités d’IA génératives à Photoshop, After Effects et Premiere Pro

La suite de logiciels de montage photo et vidéo d’Adobe s’appuie depuis longtemps sur l’assistance de l’intelligence artificielle pour aider ses utilisateurs humains à faire leur travail, ayant utilisé le système Sensei AI pendant plus d’une décennie pour alimenter des fonctionnalités telles que Filtres neuronaux dans Photoshop ou Acrobat Mode liquide. Mardi, Adobe a dévoilé sa prochaine génération de fonctionnalités d’intelligence artificielle, une famille de modèles génératifs que la société a collectivement surnommés Firefly, dont le premier générera à la fois des images et des effets de police.

« L’IA générative est la prochaine évolution de la créativité et de la productivité axées sur l’IA, transformant la conversation entre le créateur et l’ordinateur en quelque chose de plus naturel, intuitif et puissant », a déclaré David Wadhwani, président, Digital Media Business d’Adobe, dans le communiqué de mardi. « Avec Firefly, Adobe apportera des « ingrédients créatifs » alimentés par l’IA générative directement dans les flux de travail des clients, augmentant la productivité et la confiance créative de tous les créateurs, des professionnels de la création haut de gamme à la longue traîne de l’économie des créateurs. »

Avec lui, les futurs artistes numériques ne sont plus limités par leur dextérité médiocre ou leur manque de talent artistique – ils pourront créer des illustrations de qualité professionnelle en utilisant uniquement la puissance de leurs mots. Et ce n’est pas seulement du texte à l’image – la nature multimodale de Firefly signifie que l’audio, la vidéo, les illustrations et les modèles 3D peuvent tous être générés via le système et suffisamment de gymnastique verbale.

Le premier modèle de la famille Firefly est, selon la société, formé sur « des centaines de millions » d’images du catalogue de photos Adobe Stock, du contenu sous licence ouverte et des éléments du domaine public, garantissant pratiquement que le modèle n’entraînera pas de poursuites judiciaires comme StableDiffusion a fait avec le désagrément de Getty. Cela permet également de garantir que les photographes et artistes de Stock seront rémunérés pour l’utilisation de leurs œuvres dans la formation de ces IA.

Engadget a eu droit à un bref aperçu du système avant l’annonce de mardi. L’écran de saisie, où les utilisateurs saisiront leur invite textuelle dans le système, présente une sélection organisée de pièces générées ainsi que les invites qui les ont déclenchées. Ceux-ci servent à mettre en évidence les capacités génératives des modèles et à inspirer d’autres utilisateurs à explorer les limites de leur créativité assistée par machine.

Une fois que l’utilisateur saisit son invite de texte (dans ce cas, le PR d’Adobe a utilisé un adulte debout sur une plage avec un effet de double exposition à l’aide d’images dérivées de la base de données de photos Adobe Stock), le système renverra environ une demi-douzaine de suggestions d’images initiales. À partir de là, l’utilisateur peut choisir entre des styles d’image et des effets populaires, dicter ses propres modifications à l’invite, collaborer avec l’IA et généralement manipuler le processus hautement orientable jusqu’à ce que le système crache ce qu’il recherche. La qualité d’image résultante était presque photoréaliste, bien qu’aucune des images de la démo ne présente des mains, nous n’avons donc pas pu compter les doigts pour plus de précision.

Initialement, la base de données d’images formée sera la propre bibliothèque Stock sous licence d’Adobe, bien que la société envisage de permettre aux utilisateurs individuels d’incorporer également leurs propres portefeuilles. Cela devrait permettre aux photographes ayant leurs propres styles établis de recréer ces esthétiques dans le modèle afin que ce qu’il génère corresponde au motif existant de l’utilisateur. La société n’a pas fourni de calendrier pour savoir quand cela pourrait se produire.

Le premier modèle a également une fonction sœur qui peut créer des effets de police personnalisés et générer des logos filaires basés sur des griffonnages et des croquis numérisés. Tout cela est très cool, mais pourrait potentiellement mettre un nombre inadmissible d’artistes numériques au chômage s’il devait être détourné. La Content Authenticity Initiative (CAI) d’Adobe vise à empêcher que cela ne se produise.

Le CAI est la tentative d’Adobe d’établir une certaine forme de règles de base dans cette nouvelle industrie du Far West de la Silicon Valley. Il s’agit d’un ensemble de normes d’exploitation proposées par l’industrie qui établiraient et régiraient les comportements éthiques et la transparence dans le processus de formation à l’IA. Par exemple, le CAI créerait une balise « ne pas former » qui fonctionne dans la même idée de base que robots.txt. Cette étiquette serait persistante, restant avec l’art au fur et à mesure qu’il se déplace sur Internet, alertant tous ceux qui le trouveraient qu’il a été fabriqué par une machine. Jusqu’à présent, environ 900 entités dans le monde, « y compris des entreprises de médias et de technologie, des ONG, des universitaires et autres », selon le communiqué, ont signé le plan.

Source-145