Présentation de la diffusion vidéo stable

Aujourd’hui, nous mettons en ligne la diffusion vidéo stable, notre premier modèle de base pour la vidéo générative basée sur le modèle d’image stable diffusion. Maintenant disponible en aperçu de la recherche, ce modèle de pointe de l’IA générative représente une étape importante de notre parcours vers la création de modèles pour tous les types de personnes. Avec cette version de recherche, nous avons rendu le code de diffusion vidéo stable disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle localement peuvent être trouvés sur notre page Hugging Face. De plus amples détails concernant les capacités techniques du modèle peuvent être trouvés dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, y compris la synthèse multi-vues à partir d’une seule image avec l’affinage sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient sur ceux-ci et les étendent, similaire à l’écosystème qui s’est développé autour de la diffusion stable.

Share the Post: