Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre premier modèle de diffusion vidéo génératif basé sur le modèle d’image Stable Diffusion. Désormais disponible en aperçu de recherche, ce modèle vidéo génératif de pointe représente une avancée significative dans notre parcours en vue de créer des modèles pour tous, de tous les types. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids nécessaires pour exécuter le modèle en local sont disponibles sur notre page Hugging Face. Vous trouverez de plus amples détails sur les capacités techniques du modèle dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut être facilement adapté à diverses tâches de post-traitement, notamment la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient et étendent cette base, similairement à l’écosystème qui s’est développé autour de la diffusion stable.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du