Google a introduit VideoPOET, ouvrant la voie à une nouvelle génération de vidéos cohérentes.

Après que le logiciel Copilot AI de Microsoft puisse générer des clips audio à partir de textes, Google a présenté VideoPoet, un grand modèle de langage (LLM) qui pousse les limites de la génération de vidéos avec des clips de 10 secondes qui produisent moins d’artefacts. Le modèle prend en charge une gamme de tâches de génération de vidéos, notamment la conversion de texte en vidéo, la transformation d’images en vidéo, la stylisation vidéo, le remplissage et les fonctionnalités audio-vidéo. Contrairement à ses prédécesseurs, VideoPoet se distingue par sa capacité à générer des vidéos de grande amplitude cohérentes. Le modèle montre sa puissance en produisant des vidéos de dix secondes de long, laissant derrière lui ses concurrents, y compris Gen-2. Notamment, VideoPoet ne s’appuie pas sur des données spécifiques pour la génération de vidéos, ce qui le distingue des autres modèles qui nécessitent une entrée détaillée pour des résultats optimaux. Cette capacité multifonctionnelle est rendue possible grâce à l’utilisation d’un modèle grand format multimodal, le positionnant sur une trajectoire susceptible de devenir la norme en matière de génération de vidéos. VideoPOET de Google s’éloigne du courant dominant dans les modèles de génération de vidéos, qui reposent principalement sur des approches fondées sur la diffusion. Au lieu de cela, VideoPoet exploite la puissance des grands modèles de langage (LLM). Le modèle intègre de manière transparente diverses tâches de génération de vidéos au sein d’un seul LLM, ce qui élimine le besoin de composants entraînés séparément pour chaque fonction. Les vidéos résultantes présentent une longueur variable et des actions et styles divers en fonction du contenu du texte d’entrée. De plus, VideoPoet peut convertir des images d’entrée en animations en fonction des invitations fournies, ce qui montre son adaptabilité à différentes entrées.

Share the Post: