AMD frappe ensemble un sandwich au silicone avec des APU MI300-series, des GPUs pour défier l’empire de l’IA de Nvidia.

AMD pousse les limites du packaging avancé et des chiplets avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête visant à réduire l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté HPC (computation haute performance). Lorsque le train de l’IA générative a quitté la gare fin 2022 avec le lancement de ChatGPT, AMD n’avait pas de réponse compétitive. Son MI250X, qui alimente le supercalculateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques très précis en FP64. Mais il a été battu par le H100 de Nvidia dans les charges de travail à précision inférieure courantes en apprentissage et en inférence IA. Le MI250X était capable de atteindre 100 téraFLOPS environ en FP64, mais ne pouvait gérer que 383 téraFLOPS en FP16 ou en BF16, ce qui le mettait juste devant l’A100 de Nvidia – si l’on ignore la rareté, bien sûr. Cependant, à côté du H100, le MI250X était en retard. En FP8, la carte graphique haut de gamme de Nvidia pouvait atteindre 1 979 téraFLOPS en configuration SXM et avec rareté, elle était plus proche de 4 pétaFLOPS de performance. Avec le lancement des APUs MI300A et des cartes graphiques MI300X cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’apprentissage IA et l’inférence. Et si l’on en croit les affirmations de AMD sur les performances, il semble qu’il l’ait fait. AMD affirme que ses cartes graphiques MI300X non seulement égalent, mais dépassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 pétaFLOPS. On nous a dit que les composants MI300-series suivent un avantage 2:1 standard – le même que nous voyons chez Nvidia.

Share the Post: