L’AMD pousse les emballages avancés et les chiplets à leurs limites avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté HPC (calcul haute performance). Lorsque la hype train de l’IA générative a quitté la gare en fin d’année 2022, à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le supercalculateur de rang un Frontier, était excellent pour effectuer des calculs mathématiques très précis FP64. Mais il a été dépassé par le H100 de Nvidia dans les charges de travail à précision inférieure courantes dans l’entraînement et l’inférence IA. Le MI250X était capable de atteindre à peine 100 teraFLOPS en FP64, mais ne pouvait en gérer que 383 en FP16 ou BF16, ce qui le mettait juste devant l’A100 de Nvidia – si l’on ignore la rareté bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, il était plus proche des quatre petaFLOPS de performances. Avec le lancement des APUs et des GPUs MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement IA et l’inférence. Et si l’on en croit les affirmations de performances d’AMD, il semble qu’il l’ait fait. AMD affirme que ses GPUs MI300X correspondent à la vitesse du H100 de Nvidia et dépassent même ses performances, avec 2,6 petaFLOPS en FP8. On nous a dit que les composants de la série MI300 suivaient un avantage 2:1 standard – le même que nous voyons chez Nvidia.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation