AMD lance de nouveaux chips pour accélérer l’entraînement de l’IA

Par Emilia David, une reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se rappellent que Nvidia n’est pas le seul vendeur de puces IA. Il a annoncé la disponibilité de nouveaux accélérateurs et de nouveaux processeurs axés sur l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a dévoilé l’accélérateur Instinct MI300X et le processeur de traitement accéléré (APU) Instinct M1300A, qui, selon la société, sert à entraîner et à exécuter des LLM. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois supérieure à celle du modèle M1250X précédent. Selon AMD, les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs. «Les LLM continuent à augmenter en taille et en complexité, nécessitant une quantité massive de mémoire et de calcul», a déclaré le PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de GPUs est le seul driver le plus important de l’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X était «l’accélérateur ayant les meilleures performances au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes d’entraînement LLM, mais qu’il se comportait mieux sur le côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.

Share the Post: