AMD pousse les limites du packaging avancé et des puces avec le lancement de ses accélérateurs de série Instinct MI300, dans le cadre d’une quête visant à réduire l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté du calcul haute performance (HPC). Lorsque la hype train de l’IA générative a quitté la gare fin 2022 à la suite du lancement de ChatGPT, AMD manquait de réponse concurrentielle. Son MI250X, qui alimente le superordinateur Frontier classé numéro un, était excellent pour effectuer des calculs très précis en FP64. Mais il a été en dessous de la moyenne face au H100 de Nvidia dans les charges de travail à moindre précision courantes dans l’entraînement et l’inférence IA. Le MI250X était capable d’atteindre à peu près 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS de FP16 ou BF16, ce qui le place juste devant l’A100 de Nvidia – si l’on ignore la rareté bien sûr. Face au H100, cependant, le MI250X était en dessous. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et avec une rareté, il était plus proche de quatre petaFLOPS de performance. Avec le lancement des APU et GPU MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement IA et l’inférence. Et si l’on en croit les affirmations d’AMD sur les performances, il semble bien qu’il l’ait fait. AMD affirme que ses GPU MI300X correspondent et dépassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 petaFLOPS. On nous a dit que les composants de la série MI300 suivaient un avantage standard de 2:1 – le même que nous voyons chez Nvidia.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation