NVIDIA Supercharge Hopper, la plate-forme de calcul AI de premier plan au monde

NVIDIA a annoncé aujourd’hui que la plateforme de calcul AI la plus performante au monde était désormais dotée d’un nouvel élément : la NVIDIA HGX™ H200. Basée sur l’architecture NVIDIA Hopper™, cette plateforme présente la carte graphique NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer les vastes volumes de données nécessaires aux applications d’IA générative et de calcul hautes performances. La NVIDIA H200 est la première carte graphique à offrir la mémoire HBM3e, plus rapide et plus grande, pour alimenter l’accélération de l’IA générative et des grandes architectures de langage, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Grâce à la mémoire HBM3e, la NVIDIA H200 offre 141 Go de mémoire à 4,8 térabits par seconde, soit près du double de la capacité et 2,4 fois plus de bande passante que son prédécesseur, la NVIDIA A100. Les systèmes alimentés par la H200, issus des principaux fabricants de serveurs et fournisseurs de services en cloud, devraient commencer à être livrés au deuxième trimestre 2024. « Pour créer de l’intelligence avec l’IA générative et les applications HPC, il faut pouvoir traiter efficacement de vastes volumes de données à grande vitesse, en utilisant une grande mémoire GPU rapide », a déclaré Ian Buck, vice-président des serveurs hyperscale et HPC chez NVIDIA. « Grâce à la NVIDIA H200, la plateforme de supercalculation AI la plus aboutie au monde vient de gagner en vitesse pour aider à résoudre certains des défis les plus importants auxquels le monde est confronté. » Une innovation et des performances en constante progression
L’architecture NVIDIA Hopper permet d’obtenir une amélioration des performances sans précédent par rapport à son prédécesseur, et elle continue à établir de nouveaux standards grâce aux améliorations logicielles apportées en continu à la carte H100, notamment avec la récente sortie de puissantes bibliothèques open source telles que NVIDIA TensorRT™-LLM.

Share the Post: