Présentation de la diffusion vidéo stable

Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre premier modèle de base pour la vidéo générative basé sur le modèle d’image Stable Diffusion. Disponible à titre de prévisualisation de la recherche, ce modèle novateur de l’IA générative de la vidéo représente une étape importante de notre parcours en vue de créer des modèles pour tous les types de personnes. Avec cette version de recherche, nous avons rendu disponible le code source de Stable Video Diffusion sur notre dépôt GitHub et les poids requis pour exécuter le modèle localement sont disponibles sur notre page Hugging Face. De plus amples renseignements sur les capacités techniques du modèle se trouvent dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, y compris la synthèse multi-vues à partir d’une seule image avec un ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient sur ce modèle de base et le prolongent, de manière similaire à l’écosystème qui s’est développé autour de la diffusion stable.

Share the Post: