AMD lance de nouveaux chips pour une formation en intelligence artificielle plus rapide

Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas le seul à vendre des puces d’IA. Elle a annoncé la disponibilité de nouveaux accélérateurs et de processeurs axés sur l’exécution de grands modèles linguistiques ou LLMs. La puce a présenté l’accélérateur Instinct MI300X et le processeur de traitement accéléré Instinct M1300A, que la société a déclaré pouvoir former et exécuter LLMs. La société a déclaré que le MI300X avait une capacité mémoire 1,5 fois supérieure à celle du M1250X précédent. Les deux nouveaux produits ont une meilleure capacité mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLMs continuent à augmenter en taille et en complexité, nécessitant une immense quantité de mémoire et de calcul», a déclaré la PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de cartes graphiques est le principal facteur de l’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes de formation de LLMs, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que l’H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.

Share the Post: