AMD rassemble une pâte à modeler en silicium avec des APUs MI300-series, des GPUs pour défier l’empire de l’IA de Nvidia

AMD pousse les limites du packaging avancé et des puces avec le lancement de ses cartes d’accélération Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté HPC (computing haute performance). Lorsque le train de l’IA générative a quitté la gare en fin d’année 2022, à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur Frontier classé numéro un, était excellent pour effectuer des calculs mathématiques très précis en FP64. Mais il a été moins performant que le Nvidia H100 dans les charges de travail à précision inférieure, courantes dans l’entraînement et l’inférence en IA. Le MI250X était capable de atteindre à peu près 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou BF16, ce qui le place juste devant l’A100 de Nvidia – si l’on ignore la rareté des données, bien sûr. À côté du H100, cependant, le MI250X était en dessous de la moyenne. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté des données, son rendement était proche de quatre petaFLOPS. Avec le lancement des cartes APU et GPU MI300-series cette semaine, AMD vise à corriger ce déficit de performances avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement en IA et l’inférence. Et si l’on en croit les affirmations d’AMD sur les performances, il semblerait qu’il y soit parvenu. AMD affirme que ses cartes GPUs MI300X non seulement égalent, mais dépassent la vitesse du Nvidia H100, avec une performance FP8 de 2,6 petaFLOPS. On nous a dit que les cartes MI300-series suivent un avantage standard de 2:1 – le même que nous voyons chez Nvidia.

Share the Post: