AMD frappe Nvidia sur leur propre terrain avec les APUs et GPUs de la série MI300

AMD pousse les emballages avancés et les puces à leur limite avec le lancement de ses acceleratrices Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté du calcul haute performance (HPC). Lorsque le train de l’hype de l’IA générative a quitté la gare à la fin de 2022, au moment du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques très précis en FP64. Mais il a manqué de punch face au H100 de Nvidia dans les charges de travail à moindre précision courantes en IA d’entraînement et d’inférence. Le MI250X était capable d’atteindre à peine 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou en BF16, ce qui le plaçait juste devant l’A100 de Nvidia – à condition d’ignorer la rareté, bien sûr. Face au H100 de Nvidia, cependant, le MI250X était en retard. En FP8, la carte graphique haut de gamme de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, elle était plus proche des quatre pétaflops de performances. Avec le lancement des APUs MI300A et des GPUs MI300X cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour le HPC, l’entraînement en IA et l’inférence. Et d’après les affirmations de AMD en matière de performances, il semble qu’il y soit parvenu. AMD affirme que ses GPUs MI300X n’égalent pas seulement la vitesse du H100 de Nvidia, mais la dépassent même, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1, soit le même que celui que nous voyons chez Nvidia.

Share the Post: