Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle traitait des liens entre la technologie, la finance et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas la seule entreprise à vendre des puces d’IA. Il a annoncé la disponibilité de nouveaux accélérateurs et processeurs conçus pour exécuter de grands modèles linguistiques, ou LLM. Le fabricant de puces a dévoilé l’accélérateur Instinct MI300X et l’unité de traitement accéléré Instinct M1300A (APU), que la société a indiqué fonctionner pour entraîner et exécuter des LLM. La société a déclaré que le MI300X a une capacité de mémoire 1,5 fois supérieure à celle de la version précédente, la M1250X. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. « Les LLM continuent d’augmenter en taille et en complexité, nécessitant d’énormes quantités de mémoire et de calcul », a déclaré la PDG d’AMD, Lisa Su. « Et nous savons que la disponibilité des GPU est le principal moteur de l’adoption de l’IA. » Su a déclaré lors d’une présentation que le MI300X « est l’accélérateur le plus performant au monde ». Elle affirme que le MI300X est comparable aux puces H100 de Nvidia pour l’entraînement des LLM, mais qu’il est plus performant du côté de l’inférence – 1,4 fois meilleur que le H100 lorsqu’il travaille avec le Llama 2 de Meta, un LLM de 70 milliards de paramètres.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)