Par Emilia David, reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, la finance et l’économie. AMD veut que les gens se rappellent que Nvidia n’est pas la seule entreprise à vendre des puces d’IA. Il a annoncé la disponibilité de nouveaux accélérateurs et processeurs conçus pour l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et le processeur de traitement accéléré Instinct M1300A (APU), qui, selon la société, s’entraîne et exécute des LLMs. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois plus importante que la version précédente M1250X. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent à augmenter en taille et en complexité, nécessitant une quantité massive de mémoire et de calcul», a déclaré le PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de GPU est le principal facteur de l’adoption de l’IA.» Su a déclaré lors d’une présentation que MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que MI300X était comparable aux puces Nvidia H100 pour l’entraînement de LLM, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du