Microsoft lance un créateur de deepfakes au cours de l’événement Ignite 2023

L’un des produits les plus inattendus lancés lors de l’événement Microsoft Ignite 2023 est un outil capable de créer un avatar photoréaliste d’une personne et de l’animer pour dire des choses que cette personne n’a pas nécessairement dites. Appelé Azure AI Speech text-to-speech avatar, cette nouvelle fonctionnalité, disponible en version bêta publique à partir d’aujourd’hui, permet aux utilisateurs de générer des vidéos d’un avatar parlant en téléchargeant des images d’une personne qu’ils souhaitent que l’avatar ressemble et en écrivant un script. L’outil de Microsoft entraîne un modèle pour animer l’avatar, tandis qu’un modèle de synthèse vocale séparé – préconstruit ou entraîné sur la voix de la personne – « lit » le script à haute voix. « Avec l’avatar de synthèse vocale, les utilisateurs peuvent plus efficacement créer des vidéos … pour créer des vidéos de formation, des présentations de produits, des témoignages de clients [et autres] simplement avec une entrée textuelle », écrit Microsoft dans un billet de blog. « Vous pouvez utiliser l’avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots et plus encore. » Les avatars peuvent parler dans plusieurs langues. Et, dans les scenarios de chatbot, ils peuvent s’appuyer sur des modèles IA comme OpenAI GPT-3.5 pour répondre aux questions hors script des clients. Maintenant, il y a de nombreuses façons dont un outil peut être abusé – ce que Microsoft réalise à juste titre. (Une technologie d’avatar génératrice similaire de la startup AI Synthesia a été utilisée pour produire de la propagande au Venezuela et des reportages falsifiés promus par des comptes de médias sociaux pro-Chine.) La plupart des abonnés Azure ne pourront accéder qu’aux avatars prédéfinis au lancement; Les avatars personnalisés sont actuellement une fonctionnalité d’accès limité disponible uniquement sur inscription et « uniquement dans certains cas d’utilisation », selon Microsoft.

Share the Post: