Quand il s’agit des derniers puces AI d’AMD, suivez l’argent et la mémoire.

La dernière semaine, AMD a vanté les mérites de son dernier kit, y compris le MI300, que l’équipe de Su affirme être le plus rapide des modules de traitement AI sur le marché. Le marché des accélérateurs AI est estimé à atteindre 400 milliards de dollars d’ici 2027 et Nvidia et AMD sont les deux plus gros concurrents de la course. Avec un marché prévu de 400 milliards de dollars en ventes dans les quatre prochaines années, cela pourrait être un très lucratif duopoly sauf si quelqu’un d’autre bouleverse le marché. Ce qui va être difficile, car il ne s’agit pas seulement de construire un processeur plus rapide. La mémoire est beaucoup plus importante pour les charges de travail AI et l’emballage des unités est également un goulot d’étranglement majeur que les fournisseurs ont du mal à gérer. Comme c’est presque le cas pour toutes les courses de puces de 2024, les deux partenaires ont probablement déjà réservé leurs capacités. Le co-éditeur de The Next Platform, Timothy Prickett Morgan, et Tobias Mann de The Register étaient tous les deux sur place à San Jose pour les lancements et partagent leurs points de vue sur la nouvelle technologie et sur la façon dont le marché va se développer. Il est clair que le manque d’approvisionnement ne va pas s’améliorer dans les prochains mois et AMD et Nvidia sont-ils pressés de voir les choses changer? Avertissement: peut contenir du sarcasme. La modération est assurée par le rédacteur en chef des États-Unis de The Register, Iain Thomson, et l’émission, ainsi que son podcast accompagnant, est produite par notre rédacteur en chef adjoint et, par ailleurs, co-fondateur de The Next Platform, Nicole Hemsoth Prickett. Si vous souhaitez rattraper les éditions précédentes, vous trouverez ici un archive. ®

Share the Post: