AMD frappe ensemble un sandwich au silicium avec les APU MI300-series, les GPUs pour défier l’empire de l’IA de Nvidia

AMD pousse les limites du package avancé et des puces avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête pour réduire l’écart avec son rival Nvidia dans le domaine de l’IA et renforcer sa position dans la communauté de l’informatique haute performance (HPC). Lorsque la hype train de l’IA générative a quitté la gare fin 2022 à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le supercalculateur classé numéro un Frontier, était excellent pour effectuer des calculs extrêmement précis en FP64. Mais il a été dépassé par le H100 de Nvidia dans les workloads de moindre précision courants lors de l’entraînement et de l’inférence en IA. Le MI250X était capable d’atteindre un peu moins de 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou en BF16, ce qui le mettait juste devant l’A100 de Nvidia – si l’on ignore la rareté des données, bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS dans son format SXM et, avec la rareté des données, il était plus proche des quatre pétaflops de performance. Avec le lancement des APUs MI300-series et des GPUs MI300X cette semaine, AMD vise à remédier à ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement en IA et l’inférence. Et si l’on en croit les affirmations de AMD sur les performances, il semble avoir tenu ses promesses. AMD affirme que ses GPUs MI300X non seulement égalent, mais dépassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1 – le même que nous voyons chez Nvidia.

Share the Post: