« NVIDIA accélère Hopper, la plate-forme de calcul AI la plus avancée au monde »

NVIDIA a annoncé aujourd’hui que le plate-forme de calcul AI la plus avancée au monde était dotée d’un nouveau souffle avec l’introduction de la NVIDIA HGX™ H200. Basée sur l’architecture NVIDIA Hopper™, la plate-forme présente la carte graphique NVIDIA H200 Tensor Core avec une mémoire avancée pour traiter des quantités massives de données pour des charges de travail d’IA générative et de calcul hautes performances. La NVIDIA H200 est la première carte graphique à offrir la HBM3e – une mémoire plus rapide et plus grande pour alimenter l’accélération de l’IA générative et des modèles de langage larges, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Avec la HBM3e, la NVIDIA H200 offre 141 Go de mémoire à 4,8 térabits par seconde, près de double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, la NVIDIA A100. Les systèmes alimentés par la H200 de fabricants de serveurs et de fournisseurs de services en nuage de premier plan sont attendus pour être mis en vente au cours du deuxième trimestre 2024. «Pour créer de l’intelligence avec des applications d’IA générative et HPC, de vastes quantités de données doivent être traitées de manière efficace à haute vitesse en utilisant une mémoire GPU grande et rapide», a déclaré Ian Buck, vice-président du hyperscale et du HPC chez NVIDIA. «Avec la NVIDIA H200, la plate-forme de supercalcul AI la plus complète du marché vient juste de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Perpétuelle innovation, perpétuels sauts de performances
L’architecture NVIDIA Hopper offre une progression de performances sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce aux améliorations logicielles en cours avec la H100, y compris la récente sortie de puissantes bibliothèques open source comme NVIDIA TensorRT™-LLM.

Share the Post: