Aujourd’hui, nous mettons en ligne Stable Video Diffusion, notre premier modèle de diffusion vidéo génératif basé sur le modèle d’image Stable Diffusion. Désormais disponible en aperçu de recherche, ce modèle de pointe de l’IA générative représente une étape importante de notre parcours vers la création de modèles pour tous et de tous les types. Avec cette version de recherche, nous avons rendu le code de Stable Video Diffusion disponible sur notre dépôt GitHub et les poids requis pour exécuter le modèle localement sont disponibles sur notre page Hugging Face. De plus amples informations sur les capacités techniques du modèle sont disponibles dans notre article de recherche. Adaptable à de nombreuses applications vidéo Notre modèle vidéo peut facilement être adapté à diverses tâches de post-traitement, y compris la synthèse multi-vues à partir d’une seule image avec ajustement fin sur des jeux de données multi-vues. Nous prévoyons une variété de modèles qui s’appuient sur ce modèle de base et le prolongent, de manière similaire à l’écosystème qui s’est développé autour de la diffusion stable.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)