Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre première version de base pour la vidéo générative basée sur le modèle Stable Diffusion. Disponible dès à présent en aperçu par la recherche, ce modèle de pointe de l’IA générative de vidéo représente une avancée significative dans notre quête visant à créer des modèles pour tous les types de personnes. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle localement peuvent être trouvés sur notre page Hugging Face. Des détails supplémentaires concernant les capacités techniques du modèle peuvent être trouvés dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut facilement être adapté à diverses tâches de post-traitement, notamment la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient sur cette version de base et la prolongent, similairement à l’écosystème qui s’est développé autour de la diffusion stable.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation