AMD libère de nouveaux microprocesseurs pour accélérer l’apprentissage automatique

Selon Emilia David, reporter couvrant l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, la finance et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas la seule entreprise à vendre des puces d’IA. Elle a annoncé la disponibilité de nouveaux accélérateurs et de nouveaux processeurs conçus pour exécuter de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accéléré Instinct M1300A, que la société a déclaré être conçue pour former et exécuter des LLMs. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois supérieure à celle de la version précédente M1250X. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus écoénergétiques que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent à augmenter en taille et en complexité, nécessitant une quantité massive de mémoire et de calcul», a déclaré le PDG d’AMD, Lisa Su. Selon Su, lors d’une présentation, le MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes de formation de LLM, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.

Share the Post: