NVIDIA Supercharge Hopper, le leader mondial des plateformes de calculs en intelligence artificielle.

SC23-NVIDIA a annoncé aujourd’hui qu’il a suralimenté la plateforme de calcul AI la plus avancée au monde avec l’introduction de NVIDIA HGX ™ H200. Basé sur l’architecture NVIDIA Hopper ™, la plateforme présente la carte graphique NVIDIA H200 Tensor Core avec une mémoire avancée pour gérer les grandes quantités de données pour les charges de travail d’IA générative et de calcul hautes performances. La NVIDIA H200 est la première carte graphique à offrir HBM3e – une mémoire plus rapide et plus grande pour alimenter l’accélération de l’IA générative et des modèles de langage larges, tout en faisant progresser le calcul scientifique pour les charges de travail HPC. Avec HBM3e, la NVIDIA H200 offre 141 Go de mémoire à 4,8 téraoctets par seconde, pratiquement le double de la capacité et 2,4 fois plus de bande passante par rapport à son prédécesseur, la NVIDIA A100. Les systèmes alimentés par H200 de los principaux fabricants de serveurs et fournisseurs de services de nuage sont attendus pour commencer à être expédiés au deuxième trimestre de 2024. «Pour créer de l’intelligence avec l’IA générative et les applications HPC, d’importantes quantités de données doivent être traitées de manière efficace à grande vitesse en utilisant une grande mémoire de carte graphique rapide», a déclaré Ian Buck, vice-président du calcul hyperscale et HPC chez NVIDIA. «Avec NVIDIA H200, la plateforme de supercalcul AI la plus complète au monde vient juste de devenir plus rapide pour résoudre certains des défis les plus importants du monde.» Une innovation perpétuelle, des progrès constants
L’architecture NVIDIA Hopper offre une amélioration de performance sans précédent par rapport à son prédécesseur et continue de repousser les limites grâce aux améliorations logicielles en cours avec H100, y compris la récente sortie de puissantes bibliothèques open-source comme NVIDIA TensorRT ™-LLM.

Share the Post: