Présentation de la diffusion vidéo stable

Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre premier modèle de base pour la vidéo générative basée sur le modèle d’image Stable Diffusion. Désormais disponible en aperçu de la recherche, ce modèle d’IA générative de pointe représente une avancée significative dans notre quête de création de modèles pour tout le monde, de tous les types. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids requis pour faire fonctionner le modèle en local peuvent être trouvés sur notre page Hugging Face. Plus de détails sur les capacités techniques du modèle peuvent être trouvés dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, y compris la synthèse multi-vues à partir d’une seule image avec un ajustement fin sur les jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient sur ceux-ci et les étendent, similaires à l’écosystème qui s’est développé autour de la diffusion stable.

Share the Post: