Microsoft lance un créateur de deepfakes lors de l’événement Ignite 2023

L’un des produits les plus inattendus lancés à l’occasion de l’événement Microsoft Ignite 2023 est un outil qui peut créer un avatar photoréaliste d’une personne et l’animer en prononçant des phrases que cette personne n’a pas nécessairement prononcées. Appelé Azure AI Speech text-to-speech avatar, cette nouvelle fonctionnalité, disponible en version préliminaire publique à partir d’aujourd’hui, permet aux utilisateurs de générer des vidéos d’un avatar parlant en téléchargeant des images d’une personne qu’ils souhaitent que l’avatar ressemble et en écrivant un script. L’outil de Microsoft forme un modèle pour entraîner l’animation, tandis qu’un modèle de synthèse vocale séparé – préconstruit ou formé à partir de la voix de la personne – «lit» le script à haute voix. «Avec text to speech avatar, les utilisateurs peuvent plus efficacement créer des vidéos … pour créer des vidéos de formation, des présentations de produits, des témoignages de clients [et autres] simplement avec du texte», écrit Microsoft dans un article de blog. «Vous pouvez utiliser l’avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots et plus encore.» Les avatars peuvent s’exprimer dans plusieurs langues. Et, dans le cadre de scénarios de chatbot, ils peuvent utiliser des modèles d’IA tels que GPT-3.5 d’OpenAI pour répondre à des questions hors script de la part des clients. Maintenant, il existe de nombreuses façons dont un tel outil pourrait être abusé – ce que Microsoft reconnaît à juste titre. (Une technologie d’avatar génératrice similaire de la startup d’IA Synthesia a été mal utilisée pour produire de la propagande au Venezuela et des faux reportages promus par des comptes de médias sociaux pro-Chine.) La plupart des abonnés Azure ne pourront accéder qu’aux avatars préconstruits – et non personnalisés – au lancement; les avatars personnalisés sont actuellement une fonctionnalité «d’accès limité» disponible uniquement sur inscription et «uniquement dans certains cas d’utilisation», indique Microsoft.

Share the Post: