Microsoft lance un créateur de deepfakes lors de l’événement Ignite 2023.

L’un des produits les plus inattendus lancés lors de l’événement Microsoft Ignite 2023 est un outil capable de créer un avatar photoréaliste d’une personne et de l’animer en disant des choses que cette personne n’a pas nécessairement dites. Appelé Azure AI Speech text-to-speech avatar, la nouvelle fonctionnalité, disponible en préversion publique dès aujourd’hui, permet aux utilisateurs de générer des vidéos d’un avatar parlant en téléchargeant des images d’une personne qu’ils souhaitent que l’avatar ressemble et en écrivant un scénario. L’outil de Microsoft forme un modèle pour gérer l’animation, tandis qu’un modèle de texte-à-la-voix distinct – préconstruit ou formé à la voix de la personne – «lit» le scénario à haute voix. «Avec text to speech avatar, les utilisateurs peuvent plus efficacement créer des vidéos … pour créer des vidéos de formation, des présentations de produits, des témoignages de clients [et ainsi de suite] simplement avec une entrée de texte», écrit Microsoft dans un message sur son blog. «Vous pouvez utiliser l’avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots et plus encore. Les avatars peuvent parler dans plusieurs langues. Et, dans le cadre de scénarios de chatbot, ils peuvent utiliser des modèles d’IA tels que GPT-3.5 d’OpenAI pour répondre à des questions hors script de la part des clients. Maintenant, il y a de nombreuses façons dont un tel outil pourrait être abusé – ce que Microsoft réalise à juste titre. (Une technologie d’avatar générant des avatars similaire de la startup AI Synthesia a été mal utilisée pour produire de la propagande au Venezuela et des rapports de fausses nouvelles promus par des comptes sociaux pro-Chine.) La plupart des abonnés Azure ne pourront accéder qu’aux avatars préconstruits – et non aux avatars personnalisés – au lancement; les avatars personnalisés sont actuellement une fonctionnalité «d’accès limité» disponible uniquement sur inscription et «uniquement dans certains cas d’utilisation», indique Microsoft.

Share the Post: