Microsoft lance un créateur de deepfakes lors de l’événement Ignite 2023

Un des produits plus inattendus lancés lors de l’événement Microsoft Ignite 2023 est une application capable de créer un avatar photoréaliste d’une personne et d’animer cet avatar pour qu’il dise des choses que la personne n’a pas nécessairement dites. Appelé Azure AI Speech text-to-speech avatar, la nouvelle fonction, disponible en préversion publique à partir d’aujourd’hui, permet aux utilisateurs de générer des vidéos d’un avatar parlant en téléchargeant des images d’une personne qu’ils souhaitent ressembler à l’avatar et en rédigeant un script. L’outil de Microsoft forme un modèle pour piloter l’animation, tandis qu’un modèle de texte-à-parole distinct – préconstruit ou formé sur la voix de la personne – « lit » le script à haute voix. « Avec l’avatar text-to-speech, les utilisateurs peuvent plus efficacement créer des vidéos … pour créer des vidéos de formation, des présentations de produits, des témoignages de clients, etc. simplement avec une entrée de texte », écrit Microsoft dans un message sur le blog. « Vous pouvez utiliser l’avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots et plus encore ». Les avatars peuvent parler plusieurs langues. Et, dans les scénarios de chatbot, ils peuvent exploiter des modèles d’IA tels que GPT-3.5 d’OpenAI pour répondre aux questions hors script des clients. Maintenant, il existe de nombreuses façons dont une telle application pourrait être abusée. (Une technologie d’avatar génératrice similaire de la startup AI Synthesia a été mal utilisée pour produire de la propagande au Venezuela et des faux reportages promus par des comptes de médias sociaux pro-Chine.) La plupart des abonnés Azure ne pourront accéder qu’aux avatars préconstruits, et non aux avatars personnalisés, au lancement ; les avatars personnalisés sont actuellement une fonctionnalité « d’accès limité » disponible uniquement sur inscription et « uniquement dans certains cas d’utilisation », indique Microsoft.

Share the Post: