AMD libère de nouveaux chips pour une formation en IA plus rapide

Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas la seule entreprise à vendre des puces d’IA. Il a annoncé la disponibilité de nouveaux accélérateurs et processeurs axés sur l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accéléré (APU) Instinct M1300A, qui, selon la société, sert à former et à exécuter des LLMs. La société a déclaré que le MI300X avait une capacité mémoire 1,5 fois plus importante que la version M1250X précédente. Les deux nouveaux produits ont une meilleure capacité mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent de augmenter en taille et en complexité, nécessitant une quantité massive de mémoire et de calcul», a déclaré le PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de GPU est le seul facteur le plus important de l’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X «est l’accélérateur le plus performant au monde». Elle a prétendu que le MI300X était comparable aux puces H100 de Nvidia lors de l’entraînement de LLM, mais qu’il se comportait mieux sur le côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.

Share the Post: