Lorsqu’il s’agit des derniers puces AI d’AMD, suivez l’argent et la mémoire.

Au cours de la dernière semaine, AMD a vanté les mérites de ses derniers ordinateurs, y compris le MI300, que l’équipe de Su affirme être le plus rapide des modules de traitement en intelligence artificielle sur le marché. Le marché des accélérateurs d’IA est estimé à atteindre 400 milliards de dollars d’ici 2027 et Nvidia et AMD sont les deux plus grandes entreprises en lice. Avec une prévision de 400 milliards de dollars de ventes en jeu dans les quatre prochaines années, il pourrait s’agir d’un très lucratif duopole, à moins que quelqu’un d’autre ne secoue le marché. Ce qui va être difficile, car il ne s’agit pas seulement de construire un processeur plus rapide. La mémoire est beaucoup plus importante pour les charges de travail en IA et l’emballage des unités est également un goulot d’étranglement majeur que les fournisseurs ont du mal à gérer. Comme c’est presque le cas pour toutes les productions de puces de 2024, les deux partenaires ont probablement déjà réservé leurs capacités. Timothy Prickett Morgan, co-éditeur de The Next Platform, et Tobias Mann, de The Register, étaient tous les deux sur place à San Jose pour les lancements et ont partagé leurs points de vue sur la nouvelle technologie et sur la façon dont le marché va se développer. Il est évident que le manque d’offre ne va pas se résorber dans les prochains mois et AMD et Nvidia sont-ils pressés de voir les choses changer? Attention: peut contenir du sarcasme. La modération est assurée par Iain Thomson, éditeur américain de The Register, et l’émission, ainsi que son podcast, est produite par notre directeur adjoint en chef et, par ailleurs, co-fondateur de The Next Platform, Nicole Hemsoth Prickett. Si vous souhaitez rattraper les éditions précédentes, vous trouverez un archive ici. ®

Share the Post: