AMD pousse les limites du packaging avancé et des puces avec le lancement de ses accélérateurs de série Instinct MI300, dans le cadre d’une quête visant à réduire l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté du calcul haute performance (HPC). Lorsque la hype train de l’IA générative a quitté la gare fin 2022 à la suite du lancement de ChatGPT, AMD manquait de réponse concurrentielle. Son MI250X, qui alimente le superordinateur Frontier classé numéro un, était excellent pour effectuer des calculs très précis en FP64. Mais il a été en dessous de la moyenne face au H100 de Nvidia dans les charges de travail à moindre précision courantes dans l’entraînement et l’inférence IA. Le MI250X était capable d’atteindre à peu près 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS de FP16 ou BF16, ce qui le place juste devant l’A100 de Nvidia – si l’on ignore la rareté bien sûr. Face au H100, cependant, le MI250X était en dessous. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et avec une rareté, il était plus proche de quatre petaFLOPS de performance. Avec le lancement des APU et GPU MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement IA et l’inférence. Et si l’on en croit les affirmations d’AMD sur les performances, il semble bien qu’il l’ait fait. AMD affirme que ses GPU MI300X correspondent et dépassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 petaFLOPS. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1 – le même que nous voyons chez Nvidia.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du