AMD frappe ensemble un sandwich de silicium avec les APUs MI300-series, les GPUs pour défier l’empire de l’IA de Nvidia

AMD pousse l’emballage avancé et les puces à leur limite avec le lancement de ses accélérateurs de série Instinct MI300, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté informatique hautes performances (HPC). Lorsque le train de l’hype de l’IA générative a quitté la gare en fin d’année 2022 à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques extrêmement précis en FP64. Mais il a été moins performant que l’H100 de Nvidia dans les charges de travail à précision inférieure courantes en entraînement et en inférence IA. Le MI250X était capable d’atteindre à peu près 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou BF16, ce qui le plaçait juste devant l’A100 de Nvidia – sauf si vous ignorez la rareté, bien sûr. À côté de l’H100, cependant, le MI250X était en retard. En FP8, la carte graphique haut de gamme de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, elle se rapprochait des quatre pétaflops de performances. Avec le lancement des APU et des GPU MI300A Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement en IA et l’inférence. Et si l’on en croit les affirmations de AMD sur les performances, il semble bien qu’il y soit parvenu. AMD affirme que ses GPU MI300X égalisent et surpassent la vitesse de l’H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1 – le même que nous voyons chez Nvidia.

Share the Post: