Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas le seul à vendre des puces d’IA. Elle a annoncé la disponibilité de nouveaux accélérateurs et de processeurs axés sur l’exécution de grands modèles linguistiques ou LLMs. La puce a présenté l’accélérateur Instinct MI300X et le processeur de traitement accéléré Instinct M1300A, que la société a déclaré pouvoir former et exécuter LLMs. La société a déclaré que le MI300X avait une capacité mémoire 1,5 fois supérieure à celle du M1250X précédent. Les deux nouveaux produits ont une meilleure capacité mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLMs continuent à augmenter en taille et en complexité, nécessitant une immense quantité de mémoire et de calcul», a déclaré la PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de cartes graphiques est le principal facteur de l’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes de formation de LLMs, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que l’H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)