YouTube lance une nouvelle fonctionnalité qui permettra aux utilisateurs de créer leur propre morceau de Charlie Puth, Demi Lovato ou T-Pain et d’en faire la musique de fond d’un court métrage. Il s’agit de l’un des nombreux nouveaux outils basés sur l’IA sur lesquels Google travaille pour sa plateforme de vidéo sociale.
Développées par le laboratoire d’IA DeepMind de Google, les nouvelles fonctionnalités musicales seront alimentées par un nouveau modèle de génération de musique appelé Lyria qui, selon la société, « excelle dans la génération de musique de haute qualité avec des instrumentaux et des voix ».
Pour voir à quel point cela fonctionne dans le monde réel, YouTube a signé des accords de partenariat avec Alec Benjamin, Charlie Puth, Charli XCX, John Legend et d’autres pour obtenir une licence sur leur style et leur son pour de nouvelles créations de synthèse texte-musique entièrement générées par l’IA. .
Comment ça marche?
Lors de la création d’un nouveau court-métrage, un créateur pourra sélectionner un artiste dans un carrousel, saisir une invite et demander à Lyria de générer une bande sonore de 30 secondes dans le style de l’artiste sélectionné. Cela comprendra des paroles, une piste d’accompagnement et une voix générée par l’IA dans le style de l’artiste.
Pour montrer à quel point cela fonctionne bien, Google a partagé un morceau généré de 21 secondes par Charlie Puth comprenant les paroles « Bébé, nous n’avons rien en commun mais je sais que j’aurais aimé que tu veuilles depuis si longtemps maintenant. »
La voix est comme celle de Charlie Puth mais avec un réglage automatique excessif et une distorsion plus que nécessaire. Je suis sûr que cela s’améliorera avec le temps et que c’est parfait pour les Shorts, mais il y a un étrange problème de vallée au travail.
Quand sera-t-il disponible?
YouTube n’a pas donné de calendrier de lancement, donc pour le moment, on ne sait pas exactement quand il sera disponible pour les utilisateurs Premium. Cependant, lorsqu’il sera réalisé en direct, il devrait être trouvé via l’écran d’expérimentation des applications iOS et Android.
Tout cela s’ils suivent le modèle des précédentes expériences d’IA impliquant des résumés et une organisation des commentaires sur des vidéos très médiatisées.
Ce n’était que l’une des deux nouvelles fonctionnalités musicales de l’IA que Google DeepMind a révélées dans un article de blog. L’autre, utilisant également Lyria, est une nouvelle suite d’outils d’IA musicale qui sera disponible pour les artistes, auteurs-compositeurs et producteurs dans le cadre du programme Music AI Incubator de YouTube. Par exemple, être capable de chanter une mélodie pour créer une ligne de cor ou transformer des accords MIDI en chœur vocal.
Comment protègent-ils les artistes ?
L’autre grande question est la suivante : comment protégez-vous les artistes de ce projet contre la création de versions de leur musique générées par l’IA ? Pour Dream Track, Google a conclu des accords de licence avec les artistes impliqués.
Cette décision fait suite au lancement de la politique d’IA responsable de YouTube, annoncée hier. Cela inclut le lancement de drapeaux sur les vidéos YouTube créées à l’aide de l’IA.
DeepMind a également travaillé sur des moyens de filigraner le contenu créé avec l’IA à l’aide d’un nouvel outil appelé SynthID. Il s’agit d’un son diffusé dans l’audio, non audible par les humains, mais qui peut être capté par les lecteurs et les ordinateurs pour ajouter des étiquettes ou alerter des étiquettes si Lyria a été utilisée pour générer une chanson.