AMD pousse les limites du packaging avancé et des puces avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté HPC (computation haute performance). Lorsque la hype train de l’IA générative a quitté la gare en fin d’année 2022, lors du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le supercalculateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques extrêmement précis en FP64. Mais il a été dépassé par le H100 de Nvidia dans les charges de travail à moindre précision courantes en entraînement et en inférence IA. Le MI250X était capable d’atteindre juste en dessous de 100 téraFLOPS en FP64, mais ne pouvait gérer que 383 téraFLOPS en FP16 ou en BF16, ce qui le place juste devant l’A100 de Nvidia – si l’on ignore la rareté, bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le haut de gamme de Nvidia pouvait atteindre 1 979 téraFLOPS en format SXM et, avec la rareté, il se rapproche de quatre pétaflops de performance. Avec le lancement des APUs MI300-series et des GPUs MI300X cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour le HPC, l’entraînement en IA et l’inférence. Et si l’on en croit les affirmations de AMD en matière de performances, il semble qu’il y soit parvenu. Les GPUs MI300X d’AMD correspondent non seulement aux performances du H100 de Nvidia, mais les dépassent même, avec 2,6 pétaflops en FP8. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1 – le même que nous observons chez Nvidia.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du