Présentation de la diffusion vidéo stable

Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre premier modèle de diffusion vidéo génératif fondé sur le modèle d’image Stable Diffusion. Disponible dès maintenant en aperçu scientifique, ce modèle de pointe en intelligence artificielle vidéo représente une avancée importante dans notre quête pour créer des modèles pour tous et de tous les types. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle en local peuvent être trouvés sur notre page Hugging Face. De plus amples informations sur les capacités techniques du modèle sont disponibles dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, notamment la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient et étendent cette base, similairement à l’écosystème qui s’est construit autour de la diffusion stable.

Share the Post: