Présentation de la diffusion vidéo stable

Aujourd’hui, nous lançons la diffusion vidéo stable, notre premier modèle de génération de vidéos basé sur le modèle d’images Stable Diffusion. Désormais disponible en aperçu de recherche, ce modèle d’intelligence artificielle de pointe représente une avancée significative dans notre quête de création de modèles pour tous les types de personnes. Avec ce lancement de recherche, nous avons rendu le code de la diffusion vidéo stable disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle en local peuvent être trouvés sur notre page Hugging Face. Vous trouverez de plus amples détails sur les capacités techniques du modèle dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, notamment la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient et étendent cette base, similar to the ecosystem that has built around stable diffusion.

Share the Post: