La société de vidéo d’intelligence artificielle Pika Labs a commencé le déploiement de son dernier modèle Pika 1.0 qui, selon elle, peut générer des clips riches et immersifs à partir de texte, d’images ou d’autres vidéos.
Pika Labs a été créé à partir du laboratoire d’IA de l’Université de Standford, proposant une première version de son modèle via Discord.
La nouvelle version fait suite à un cycle d’investissement de 55 millions de dollars et sera également disponible pour la première fois via une plate-forme Web.
La société a décrit son objectif comme étant de « permettre à chacun d’être le réalisateur de ses propres histoires et de faire ressortir le créateur qui sommeille en chacun de nous ».
Commencer par une liste d’attente
Pika Labs démarre avec une liste d’attente pour la version 1.0. Les premiers utilisateurs seront ceux qui feront l’usage le plus actif et le plus impressionnant du modèle précédent via Discord. Ce déploiement commence cette semaine. Une fois que le modèle est « stable », ils commenceront à être déployés sur les autres modèles de la liste.
Il y a déjà un demi-million d’utilisateurs de Pika qui accèdent au modèle original via Discord et produisent des millions de vidéos par semaine. Pika 1.0 est une mise à niveau importante ajoutant la possibilité de générer des vidéos dans une gamme de styles, notamment l’animation 3D, l’anime et le cinéma.
Dans une vidéo promotionnelle de Pika 1.0, vous voyez un exemple de vêtements modifiés à la volée, le style du clip vidéo mis à jour et même de vraies personnes comme Elon Musk représentées comme un personnage de dessin animé.
A quoi peut-il servir ?
🌟Exemple d’IA « Modifier la région »🌟https://t.co/JHRrintgm5 pic.twitter.com/mVnW1oDDoU5 décembre 2023
La société a commencé à démontrer une poignée de fonctionnalités les plus uniques, notamment la modification de régions spécifiques dans une vidéo.
Dans un court clip partagé sur X, il montre une femme tapant sur un téléphone alors que l’arrière-plan est modifié pour inclure un arbre de Noël. Ses vêtements sont ensuite changés pour lui mettre un pull de Noël.
Cela suggère que le modèle disposera de capacités avancées d’édition in situ, générant des objets aléatoires dans une scène. C’est quelque chose qui n’était auparavant possible que dans l’IA d’image, révélé pour la première fois par OpenAI dans DALL-E 2.
Il inclura également la possibilité d’éditer des vidéos existantes à l’aide d’invites en langage naturel, ce qui est également promis avec Emu Video de Meta et disponible dans une moindre mesure avec Runway.
Ce que promet Pika 1.0, c’est une vidéo générative à la hauteur des avancées en matière d’images génératives. Il permettra aux utilisateurs de transformer n’importe quelle idée en court métrage.
Qu’il s’agisse d’une photo que vous avez prise et que vous souhaitez transformer en dessin animé, ou simplement rendre la vidéo d’un proche plus festive, la preuve sera dans l’utilisation réelle.
Je n’ai pas encore pu essayer le modèle moi-même, je ne peux donc pas dire combien de temps cela prend, quelle est sa précision ou quelles sont les limites du modèle. S’il tient ses promesses, cela changera à jamais la façon dont nous réalisons des vidéos.