Cette semaine, Adobe a dévoilé un outil expérimental d’IA audio pour rejoindre ses outils basés sur l’image dans Photoshop. Décrit par la société comme « un outil de génération et d’édition de musique générative par IA à un stade précoce », le Project Music GenAI Control d’Adobe peut créer de la musique (et d’autres éléments audio) à partir d’invites de texte, qu’il peut ensuite affiner dans la même interface.
Adobe présente la technologie basée sur Firefly comme un allié créatif qui, contrairement aux expériences audio génératives comme MusicLM de Google, va encore plus loin et évite les tracas liés au déplacement de la sortie vers des applications externes comme Pro Tools, Logic Pro ou GarageBand pour l’édition. « Au lieu de couper manuellement la musique existante pour créer des intros, des sorties et de l’audio de fond, Project Music GenAI Control pourrait aider les utilisateurs à créer exactement les morceaux dont ils ont besoin, résolvant ainsi les problèmes du flux de travail de bout en bout », a écrit Adobe dans un article de blog d’annonce. .
La compagnie suggère de commencer par des entrées de texte telles que « rock puissant », « happy dance » ou « sad jazz » comme base. À partir de là, vous pouvez saisir d’autres invites pour ajuster son tempo, sa structure et sa répétition, augmenter son intensité, étendre sa longueur, remixer des sections entières ou créer des boucles. La société affirme pouvoir même transformer l’audio en fonction d’une mélodie de référence.
Adobe affirme que la musique obtenue est sans danger pour un usage commercial. Il intègre également ses informations d’identification de contenu (« étiquettes nutritionnelles » pour le contenu généré), une tentative d’être transparent sur la nature assistée par l’IA de votre chef-d’œuvre.
« L’un des aspects les plus intéressants de ces nouveaux outils est qu’ils ne se limitent pas à générer de l’audio : ils l’élèvent au niveau de Photoshop en donnant aux créatifs le même type de contrôle approfondi pour façonner, peaufiner et éditer leur audio. Il s’agit d’une sorte de contrôle de la musique au niveau des pixels », a écrit Nicholas Bryan, chercheur chez Adobe Research.
Le projet est une collaboration avec l’Université de Californie à San Diego et la School of Computer Science de l’Université Carnegie Mellon. L’annonce d’Adobe a souligné la nature expérimentale de Project Music GenAI Control. (Il n’a pas révélé grand-chose de son interface dans la vidéo ci-dessus, ce qui suggère qu’il n’a peut-être pas encore d’interface utilisateur destinée aux consommateurs.) Vous devrez donc peut-être attendre un peu avant que la fonctionnalité (vraisemblablement) fasse son chemin dans la suite Creative Cloud d’Adobe. .