NVIDIA Supercharge Hopper, la plate-forme de calcul d’IA la plus avancée au monde

Aujourd’hui, NVIDIA a annoncé qu’elle a suralimenté la plateforme de calcul AI la plus avancée au monde avec l’introduction de la NVIDIA HGX™ H200. Basée sur l’architecture NVIDIA Hopper™, cette plateforme met en vedette le GPU NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer d’énormes quantités de données pour les charges de travail d’apprentissage automatique génératif et de calcul hautes performances. Le NVIDIA H200 est le premier GPU à offrir la mémoire HBM3e – plus rapide et plus grande pour alimenter l’accélération de l’apprentissage automatique génératif et des grandes modèles de langage, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Grâce à la HBM3e, le NVIDIA H200 offre 141 Go de mémoire à 4,8 térabits par seconde, presque le double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, le NVIDIA A100. Les systèmes alimentés par H200 de fabricants de serveurs et de fournisseurs de services de cloud leaders du monde entier devraient commencer à être expédiés au deuxième trimestre 2024. «Pour créer de l’intelligence avec des applications d’apprentissage automatique génératif et HPC, de vastes quantités de données doivent être traitées de manière efficace à grande vitesse en utilisant une grande mémoire GPU rapide», a déclaré Ian Buck, vice-président du hyperscale et HPC chez NVIDIA. «Avec NVIDIA H200, la plateforme de supercalcul AI complète la plus avancée au monde vient juste de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Innovation perpétuelle, sauts de performance perpétuels

L’architecture NVIDIA Hopper offre une amélioration de performances sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce à des améliorations logicielles en cours avec H100, y compris la récente sortie de puissantes bibliothèques open source comme NVIDIA TensorRT ™-LLM.

Share the Post: