AMD pousse l’emballage avancé et les puces à leur limite avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête pour réduire l’écart avec son rival Nvidia dans le domaine de l’IA et renforcer sa position dans la communauté HPC (computation haute performance). Lorsque le train de l’IA générative est parti en fin d’année 2022 avec le lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur Frontier classé numéro un, était excellent pour effectuer des calculs très précis en FP64. Mais il a été dépassé par le H100 de Nvidia dans les charges de travail à moindre précision courantes dans l’entraînement et l’inférence en IA. Le MI250X était capable d’atteindre un peu moins de 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou BF16, ce qui le mettait juste devant l’A100 de Nvidia – si on ignore la rareté, bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, il se rapproche des quatre pétaflops de performance. Avec le lancement des APU et GPU MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour le HPC, l’entraînement en IA et l’inférence. Et d’après les affirmations de performance d’AMD, il semble qu’il y soit parvenu. AMD affirme que ses GPU MI300X surpassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants de la série MI300 suivent un avantage standard de 2:1 – le même que nous voyons chez Nvidia.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du