AMD pousse l’emballage avancé et les puces à leur limite avec le lancement de ses accélérateurs Instinct MI300-series, dans le cadre d’une quête pour réduire l’écart avec son rival Nvidia dans le domaine de l’IA et renforcer sa position dans la communauté HPC (computation haute performance). Lorsque le train de l’IA générative est parti en fin d’année 2022 avec le lancement de ChatGPT, AMD n’avait pas de réponse concurrentielle. Son MI250X, qui alimente le superordinateur Frontier classé numéro un, était excellent pour effectuer des calculs très précis en FP64. Mais il a été dépassé par le H100 de Nvidia dans les charges de travail à moindre précision courantes dans l’entraînement et l’inférence en IA. Le MI250X était capable d’atteindre un peu moins de 100 teraFLOPS en FP64, mais ne pouvait gérer que 383 teraFLOPS en FP16 ou BF16, ce qui le mettait juste devant l’A100 de Nvidia – si on ignore la rareté, bien sûr. À côté du H100, cependant, le MI250X était en retard. En FP8, le flagship de Nvidia pouvait atteindre 1 979 teraFLOPS en format SXM et, avec la rareté, il se rapproche des quatre pétaflops de performance. Avec le lancement des APU et GPU MI300-series Instinct cette semaine, AMD vise à corriger ce déficit de performance avec des accélérateurs modulaires optimisés pour le HPC, l’entraînement en IA et l’inférence. Et d’après les affirmations de performance d’AMD, il semble qu’il y soit parvenu. AMD affirme que ses GPU MI300X surpassent la vitesse du H100 de Nvidia, avec une performance FP8 de 2,6 pétaflops. On nous a dit que les composants de la série MI300 suivent un avantage standard de 2:1 – le même que nous voyons chez Nvidia.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)