Notre modèle le plus rapide à ce jour Notre nouveau modèle le plus rapide génère une parole à ≈400ms de latence et est plus de deux fois plus rapide que nos modèles V1. Il ne compromet pas non plus la qualité qui reste comparable au V2 multilingue. Pour les utilisateurs de services VoIP, nous prenons également en charge la sortie mulaw 8khz avec une accélération encore plus importante. Consultez notre documentation API pour en savoir plus. Nous travaillons également à ajouter le support multilingue à Turbo v2. Si vous avez besoin d’aide pour l’intégration ou si vous souhaitez en savoir plus sur la mise à l’échelle et le support, n’hésitez pas à contacter notre équipe commerciale.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du