NVIDIA surpuissance Hopper, la plateforme informatique d’apprentissage automatique mondialement leader

SC23-NVIDIA a annoncé aujourd’hui que le plate-forme de calcul AI la plus avancée au monde était désormais dotée d’un NVIDIA HGX ™ H200 surpuissant. Basé sur l’architecture NVIDIA Hopper ™, la plate-forme présente la carte graphique NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer des quantités massives de données pour les charges de travail d’IA générative et de calcul haute performance. Le NVIDIA H200 est la première carte graphique à offrir HBM3e – une mémoire plus rapide et plus grande pour alimenter l’accélération de l’IA générative et des modèles linguistiques volumineux, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Avec HBM3e, le NVIDIA H200 offre 141 Go de mémoire à 4,8 téraoctets par seconde, presque le double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, le NVIDIA A100. Les systèmes alimentés par H200 de fabricants de serveurs et de fournisseurs de services en nuage de premier plan sont attendus pour être mis en service au cours du deuxième trimestre 2024. «Pour créer de l’intelligence avec des applications d’IA générative et HPC, de vastes quantités de données doivent être traitées de manière efficace à grande vitesse en utilisant une grande mémoire de carte graphique rapide», a déclaré Ian Buck, vice-président du hyperscale et de l’HPC chez NVIDIA. «Avec NVIDIA H200, la plate-forme de supercalculateur d’IA en bout-à-bout la plus avancée de l’industrie vient de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Une innovation perpétuelle, des bonds de performances perpétuels
L’architecture NVIDIA Hopper offre une amélioration de performances sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce à des améliorations logicielles continues avec H100, notamment la récente sortie de puissantes bibliothèques open source comme NVIDIA TensorRT ™-LLM.

Share the Post: