Présentation de la diffusion vidéo stable

Aujourd’hui, nous lançons Stable Video Diffusion, notre premier modèle de base pour la vidéo générative basé sur le modèle d’image Stable Diffusion. Maintenant disponible en aperçu de recherche, ce modèle de pointe en intelligence artificielle générative représente une étape importante de notre parcours en vue de créer des modèles pour tous les types de personnes. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle en local sont disponibles sur notre page Hugging Face. De plus amples détails concernant les capacités techniques du modèle figurent dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, y compris la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient et étendent cette base, similairement à l’écosystème qui s’est développé autour de la diffusion stable.

Share the Post: