‘Les capacités des modèles linguistiques massifs (MLM) tels que Gemma sont diverses et puissantes. Ils peuvent efficacement effectuer une gamme de tâches allant de la traduction de différentes langues, à la génération d’une grande diversité de compositions de texte, en passant par la réponse à des requêtes de manière extensive. Néanmoins, l’intégration de ces MLM en production, en particulier là où le streaming est impliqué, peut souvent s’avérer un défi substantiel. Dans cet article, nous naviguons à travers l’utilisation de deux utilitaires de pointe, vLLM et Dataflow, pour le déploiement à grande échelle efficace des MLM avec une petite quantité de code nécessaire. Initialement, nous détaillons les procédures sur comment vLLM utilise le groupage continu pour fournir des services MLM plus efficaces. Par la suite, nous explorons comment les fonctionnalités d’administration de modèle de Dataflow simplifient le déploiement de vLLM et d’autres principales plateformes de modélisation. vLLM est une bibliothèque publiquement accessible spécifiquement conçue pour l’inférence MLM à haut rendement et à faible latence. Elle affine le service MLM grâce à l’application de plusieurs techniques de niche, y compris le groupage continu.’
‘NVIDIA Avance l’Apprentissage Robotique et le Développement Humanoid avec de Nouveaux Outils d’IA et de Simulation’
Cette semaine à la Conférence sur l’apprentissage des robots (CoRL) à Munich, en Allemagne, NVIDIA a divulgué une pléthore de