« AMD a augmenté la VRAM sur ses accélérateurs Instinct à 256 Go de HBM3e avec le lancement de ses accélérateurs d’IA de prochaine génération MI325X lors de son événement Advancing AI à San Francisco jeudi dernier. Cette version s’appuie sur les accélérateurs MI300 précédemment annoncés par AMD l’année dernière, mais remplace ses modules HBM3 de 192 Go par 256 Go de HBM3e plus rapides et à plus grande capacité. Cette approche est similaire à bien des égards à la mise à jour H200 de Nvidia de l’année dernière, qui a conservé le même calcul mais a augmenté la capacité et la bande passante de la mémoire. Pour de nombreuses charges de travail en IA, plus rapide est la mémoire et plus vous en avez, meilleure sera la performance que vous obtiendrez. AMD a cherché à se différencier de Nvidia en ajoutant plus de HBM sur ses puces, ce qui en fait une option attrayante pour les fournisseurs de cloud comme Microsoft souhaitant déployer des modèles à l’échelle de trillions de paramètres, tels que le GPT4o d’OpenAI, sur moins de nœuds. Le dernier GPU Instinct d’AMD offre 256 Go de HBM3e, une bande passante mémoire de 6 To/s, et une puissance de calcul FP16 dense de 1,3 petaFLOPS – Cliquez pour agrandir. Cependant, les plus attentifs d’entre vous pourraient se demander : ce chip ne devait-il pas être livré avec plus de mémoire? Eh bien, si. Lorsque la puce a été teasée pour la première fois au Computex ce printemps, elle devait être livrée avec 288 Go de VRAM embarquée – 50% de plus que son prédécesseur, et le double de celui de son principal concurrent, les 141 Go du H200 de Nvidia. »
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des