L’IA et les puces qui la font fonctionner sont si chaudes en ce moment. Non, je veux dire vraiment chaudes, physiquement chaudes. Si chaudes que Equinix a élaboré des plans pour étendre le support du refroidissement par liquide à travers 100 datacentres dans 45 métros afin d’étancher la soif de ses clients en matière de calcul accéléré. Si le refroidissement par liquide existe depuis des décennies, il a été largement déployé dans des environnements de calcul hautes performances alimentés par du matériel sur mesure de la part d’acteurs tels que HPE Cray, Evident/Atos et Lenovo. Avec l’arrivée de l’IA, les entreprises cherchent des endroits où garer de larges clusters d’accélérateurs thermiquement difficiles à refroidir. Des puces comme la H100 de Nvidia ou la nouvelle MI300X d’AMD sont capables de consommer entre 700 et 750 watts de puissance chacune sous charge. Ce n’est pas une seule accélératrice, mais jusqu’à huit de ces puces sont empaquetées dans une seule boîte, et plusieurs baies de serveurs peuvent être nécessaires pour prendre en charge les exigences en matière de modèles d’une entreprise. Equinix a déjà supporté le refroidissement par air-liquide grâce à des technologies telles que les échangeurs de chaleur en baie. Cela implique généralement un petit système en circuit fermé, comprenant une unité de distribution de fluide frigorigène, un réservoir et un échangeur de chaleur. La chaleur générée par les serveurs refroidis par liquide est capturée puis rejetée dans l’allée chaude.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)