Par Emilia David, reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se rappellent que Nvidia n’est pas le seul vendeur de puces d’IA. Il a annoncé la disponibilité de nouveaux accélérateurs et de nouveaux processeurs destinés à l’exécution de grands modèles de langage, ou LLM. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accéléré Instinct M1300A (APU), qui, selon la société, s’entraîne et exécute les LLM. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois supérieure à celle du M1250X précédent. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent à augmenter en taille et en complexité, nécessitant une masse de mémoire et de calculs», a déclaré Lisa Su, PDG d’AMD. «Et nous savons que la disponibilité de cartes graphiques est le principal conducteur de l’adoption de l’IA.» Su a déclaré lors d’une présentation que MI300X «est le plus performant des accélérateurs au monde». Elle a affirmé que MI300X était comparable aux puces H100 de Nvidia pour l’entraînement de LLM, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un modèle LLM de 70 milliards de paramètres.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)