NVIDIA améliore la puissance d’Hopper, la plateforme de calcul AI la plus avancée au monde.

SC23—NVIDIA a annoncé aujourd’hui qu’elle a suralimenté la plateforme de calcul AI la plus avancée au monde avec l’introduction de NVIDIA HGX™ H200. Basée sur l’architecture NVIDIA Hopper™, la plateforme dispose de la carte graphique NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer des quantités massives de données pour les charges de travail IA générative et de calcul haute performance. NVIDIA H200 est la première carte graphique à offrir HBM3e – une mémoire plus rapide et plus grande pour alimenter l’accélération de l’IA générative et des grands modèles linguistiques, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Avec HBM3e, NVIDIA H200 offre 141 Go de mémoire à 4,8 térabits par seconde, presque le double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, NVIDIA A100. Les systèmes alimentés par H200 issus des principaux fabricants de serveurs et fournisseurs de services cloud du monde sont attendus pour être mis en service au cours du deuxième trimestre 2024. «Pour créer de l’intelligence avec de l’IA générative et des applications HPC, de vastes quantités de données doivent être traitées de manière efficace à grande vitesse en utilisant une grande mémoire GPU rapide», a déclaré Ian Buck, vice-président du hyperscale et du HPC chez NVIDIA. «Avec NVIDIA H200, la plateforme de supercalcul AI la plus complète du secteur vient juste de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Une innovation perpétuelle, des sauts de performances perpétuels
L’architecture NVIDIA Hopper offre une amélioration de performance sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce aux améliorations logicielles en cours avec H100, notamment la récente sortie de puissantes bibliothèques open source comme NVIDIA TensorRT™-LLM.

Share the Post: