Aujourd’hui, nous lançons la diffusion vidéo stable, notre premier modèle de génération de vidéos basé sur le modèle d’images stables de diffusion. Disponible en aperçu de la recherche, ce modèle de pointe de l’IA générative représente une avancée significative de notre parcours visant à créer des modèles pour tous les types de personnes. Avec ce lancement de la recherche, nous avons rendu le code de la diffusion vidéo stable disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle en local sont disponibles sur notre page Hugging Face. De plus amples détails sur les capacités techniques du modèle sont disponibles dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, notamment la synthèse à plusieurs vues à partir d’une seule image avec un ajustement fin sur des jeux de données à plusieurs vues. Nous prévoyons une variété de modèles qui s’appuient sur ce modèle de base et le prolongent, similar to the ecosystem that has built around stable diffusion.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation