NVIDIA Supercharge Hopper, le plate-forme de calcul AI la plus avancée au monde

SC23-NVIDIA a annoncé aujourd’hui que le plus puissant des plateformes de calcul en intelligence artificielle avait été amélioré avec l’introduction de NVIDIA HGX H200. Basé sur l’architecture NVIDIA Hopper, la plateforme offre une carte NVIDIA H200 Tensor Core avec une mémoire avancée pour traiter les grandes quantités de données nécessaires aux applications d’IA générative et de calcul haute performance. NVIDIA H200 est la première carte GPU à offrir HBM3e – une mémoire plus rapide et plus grande pour alimenter l’accélération de l’IA générative et des modèles de langage complexes, tout en faisant progresser les calculs scientifiques nécessaires aux charges de travail HPC. Grâce à HBM3e, NVIDIA H200 offre 141 Go de mémoire à 4,8 térabits par seconde, soit presque le double de la capacité et 2,4 fois plus de bande passante que son prédécesseur, NVIDIA A100. Les systèmes alimentés par H200 devraient commencer à être livrés par les principaux fabricants de serveurs et fournisseurs de services en nuage au cours du deuxième trimestre 2024. «Pour créer de l’intelligence avec des applications d’IA générative et HPC, de vastes quantités de données doivent être traitées de manière efficace et à haute vitesse en utilisant une grande mémoire GPU rapide», a déclaré Ian Buck, vice-président du hyperscale et de l’HPC chez NVIDIA. «Avec NVIDIA H200, la plateforme de supercalcul en intelligence artificielle leader du marché vient juste de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Une innovation et des performances perpétuelles
L’architecture NVIDIA Hopper offre une amélioration des performances sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce aux améliorations logicielles continuelles apportées à H100, y compris la récente sortie de puissantes bibliothèques open-source comme NVIDIA TensorRT-LLM.

Share the Post: