Notre modèle le plus rapide à ce jour notre nouveau modèle le plus rapide génère une parole à ≈400ms de latence et est plus de deux fois plus rapide que nos modèles V1. Il n’y a également aucun compromis sur la qualité, qui reste équivalente au modèle multilingue V2. Pour les utilisateurs de services VoIP, nous prenons désormais en charge une sortie mulaw 8khz avec une accélération encore plus importante. Consultez notre documentation API pour en savoir plus. Nous travaillons également à ajouter une prise en charge multilingue à Turbo v2. Si vous avez besoin d’aide pour l’intégration ou si vous souhaitez en savoir plus sur l’échelle et le support, n’hésitez pas à contacter notre équipe commerciale.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du