Par Emilia David, une reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, la finance et l’économie. AMD veut que les gens se souviennent que Nvidia n’est pas le seul vendeur de puces d’IA. Il a annoncé la disponibilité de nouveaux accélérateurs et de nouveaux processeurs destinés à l’exécution de grands modèles de langage, ou LLMs. Le fabricant de puces a présenté l’accélérateur Instinct MI300X et l’unité de traitement accélérée Instinct M1300A, que la société a déclaré être destinée à l’entraînement et à l’exécution de LLMs. La société a déclaré que le MI300X avait une capacité de mémoire 1,5 fois plus importante que la version M1250X précédente. Les deux nouveaux produits ont une meilleure capacité de mémoire et sont plus économes en énergie que leurs prédécesseurs, a déclaré AMD. «Les LLM continuent d’augmenter en taille et en complexité, nécessitant une quantité massive de mémoire et de calcul», a déclaré la PDG d’AMD, Lisa Su. «Et nous savons que la disponibilité de GPUs est le seul conducteur d’adoption de l’IA.» Su a déclaré lors d’une présentation que le MI300X «est l’accélérateur le plus performant au monde». Elle a affirmé que le MI300X était comparable aux puces H100 de Nvidia en termes d’entraînement de LLM, mais qu’il se comportait mieux du côté de l’inférence – 1,4 fois mieux que le H100 lorsqu’il travaillait avec Llama 2 de Meta, un LLM de 70 milliards de paramètres.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation