Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se rappellent que Nvidia n’est pas le seul vendeur de puces IA. Il a annoncé la disponibilité de nouveaux accélérateurs et processeurs destinés à l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accéléré Instinct M1300A, qui, selon la société, s’entraîne et exécute LLMs. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois supérieure à celle de la version M1250X précédente. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent à augmenter en taille et en complexité, nécessitant une énorme quantité de mémoire et de calcul», a déclaré Lisa Su, PDG d’AMD. Su a déclaré lors d’une présentation que MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que MI300X était comparable aux puces H100 de Nvidia en termes d’entraînement de LLM, mais qu’il fonctionnait mieux du côté de l’inférence – 1,4 fois mieux que H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du