L’impact de l’outil Sora de conversion texte-vidéo d’OpenAI sera « profond ».

La semaine dernière, OpenAI a dévoilé une nouvelle fonctionnalité pour sa plateforme d’IA générative (genAI) qui peut utiliser une entrée de texte pour générer une vidéo – avec des acteurs réalistes et d’autres éléments en mouvement. Le nouveau modèle genAI, appelé Sora, dispose d’une fonction texte-vidéo qui peut créer des scènes en mouvement complexes et réalistes avec plusieurs personnages, des types de mouvement spécifiques et des détails précis du sujet et de l’arrière-plan « tout en maintenant la qualité visuelle et en respectant la demande de l’utilisateur. » Sora comprend non seulement ce que l’utilisateur demande dans la demande, mais aussi comment ces choses existent dans le monde physique. La technologie traduit essentiellement les descriptions écrites en contenu vidéo, en exploitant des modèles d’IA qui comprennent les entrées textuelles et génèrent des éléments visuels et auditifs correspondants, selon Bernard Marr, un futuriste technologique et consultant en affaires et technologie. « Ce processus implique des algorithmes d’apprentissage profond capables d’interpréter le texte et de synthétiser des vidéos qui reflètent les scènes, actions et dialogues décrits », a déclaré Marr.

Share the Post: