Microsoft lance un outil de création de deepfakes lors de l’événement Ignite 2023.

L’un des produits les plus inattendus lancés lors de l’événement Microsoft Ignite 2023 est un outil qui peut créer un avatar photoréaliste d’une personne et l’animer en faisant dire à cet avatar des choses que la personne n’a pas nécessairement dites. Appelé Azure AI Speech text-to-speech avatar, cette nouvelle fonctionnalité, disponible en prévisualisation publique dès aujourd’hui, permet aux utilisateurs de générer des vidéos d’un avatar parlant en téléchargeant des images d’une personne qu’ils souhaitent que l’avatar ressemble et en écrivant un script. L’outil de Microsoft entraîne un modèle pour gérer l’animation, tandis qu’un modèle de synthèse vocale séparé – préconstruit ou entraîné sur la voix de la personne – «lit» le script à haute voix. «Avec l’avatar de text-to-speech, les utilisateurs peuvent plus efficacement créer des vidéos … pour créer des vidéos de formation, des présentations de produits, des témoignages de clients [et ainsi de suite] simplement avec une entrée de texte», écrit Microsoft dans un billet de blog. «Vous pouvez utiliser l’avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots et plus encore.» Les avatars peuvent parler dans plusieurs langues. Et, pour les scénarios de chatbot, ils peuvent utiliser des modèles IA tels que GPT-3.5 d’OpenAI pour répondre aux questions hors script des clients. Maintenant, il y a de nombreuses façons dont une telle arme pourrait être abusée – ce que Microsoft réalise à juste titre. (Une technologie d’avatar génératrice similaire de l’start-up IA Synthesia a été utilisée pour produire de la propagande au Venezuela et des faux reportages promus par des comptes de médias sociaux pro-Chine.) La plupart des abonnés Azure ne pourront accéder qu’aux avatars préconstruits – et non aux avatars personnalisés – au lancement; les avatars personnalisés sont actuellement une fonctionnalité «d’accès limité» disponible uniquement sur inscription et «uniquement dans certains cas d’utilisation», indique Microsoft.

Share the Post: