Par Emilia David, une reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se rappellent que Nvidia n’est pas le seul vendeur de puces IA. Il a annoncé la disponibilité de nouveaux accélérateurs et de nouveaux processeurs axés sur l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accéléré (APU) Instinct M1300A, que la société a déclaré capable de former et d’exécuter des LLMs. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois plus élevée que la version précédente M1250X. Selon AMD, les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs. «Les LLMs continuent d’augmenter en taille et en complexité, nécessitant une énorme quantité de mémoire et de calcul», a déclaré le PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de GPUs est le principal facteur de l’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes d’entraînement de LLMs, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM à 70 milliards de paramètres.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)