AMD pousse les limites du conditionnement avancé et des puces avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête visant à combler l’écart avec son rival Nvidia dans le domaine de l’IA et à renforcer sa position dans la communauté de l’informatique de haute performance (HPC). Lorsque le train de l’hype de l’IA générative a quitté la gare fin 2022, à la suite du lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur classé numéro un Frontier, était excellent pour effectuer des calculs mathématiques extrêmement précis. Mais il a été moins performant que le H100 de Nvidia dans les charges de travail à moindre précision courantes dans l’entraînement et l’inférence en IA. Le MI250X était capable d’atteindre un peu moins de 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou en BF16, ce qui le mettait juste devant l’A100 de Nvidia – si l’on ignore la rareté bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le modèle phare de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, il était plus proche de quatre pétaflops de performance. Avec le lancement des APU et GPU MI300-series Instinct cette semaine, AMD vise à remédier à ce déficit de performance avec des accélérateurs modulaires optimisés pour l’HPC, l’entraînement en IA et l’inférence. Et d’après les affirmations de performance d’AMD, il semble qu’il y soit parvenu. AMD affirme que ses GPU MI300X dépassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les pièces MI300-series suivent un avantage standard de 2:1 – le même que nous voyons chez Nvidia.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)