AMD frappe ensemble un sandwich de silicium avec les APU MI300-series, les GPUs pour défier l’empire de l’IA de Nvidia

AMD pousse les limites du packaging avancé et des chiplets avec le lancement de ses processeurs Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté des calculs haute performance (HPC). Lorsque la hype train de l’IA générative a quitté la gare en fin d’année 2022 à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le supercalculateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques extrêmement précis en FP64. Mais il a été dépassé par l’H100 de Nvidia dans les charges de travail à moindre précision plus courantes dans l’entraînement et l’inférence en IA. Le MI250X était capable de atteindre à peine 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou BF16, ce qui le mettait juste devant l’A100 de Nvidia – en ignorant bien sûr l’éparsité. Cependant, à côté de l’H100, le MI250X était en retard. En FP8, le fleuron de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et avec l’éparsité, il était plus proche de quatre pétaflops de performance. Avec le lancement des APUs et des GPUs MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour le HPC, l’entraînement en IA et l’inférence. Et si l’on en croit les affirmations de AMD en matière de performance, il semble bien qu’il y soit parvenu. AMD affirme que ses GPUs MI300X égalent et dépassent la vitesse de l’H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants MI300-series suivaient un avantage 2:1 standard – le même que nous voyons chez Nvidia.

Share the Post: