L’IA et les puces qui la font fonctionner sont si chaudes en ce moment. Non, vraiment chaudes, physiquement chaudes. À tel point qu’Equinix a mis au point des plans pour étendre son support de refroidissement par liquide à 100 datacenters dans 45 métros pour répondre à la soif de ses clients en matière de calcul accéléré. Si le refroidissement par liquide existe depuis des décennies, il a été largement déployé dans les environnements de calcul hautes performances pris en charge par du matériel sur mesure de la part d’acteurs tels que HPE Cray, Evident/Atos et Lenovo. Avec l’essor de l’IA, les entreprises cherchent des endroits où garer de grands clusters d’accélérateurs thermiquement difficiles à refroidir. Des puces comme la H100 de Nvidia ou la nouvelle MI300X d’AMD peuvent consommer jusqu’à 700-750 watts chacune en charge. Ce n’est pas une seule accélératrice, mais jusqu’à huit de ces puces sont empaquetées dans une seule boîte, et plusieurs racks de systèmes peuvent être nécessaires pour prendre en charge les exigences en matière de modèles de l’entreprise. Equinix a précédemment pris en charge le refroidissement par air-liquide à travers des technologies telles que les échangeurs de chaleur en rack. Cela implique généralement un petit système fermé, incluant une unité de distribution de fluide, un réservoir et un échangeur de chaleur. La chaleur générée par les serveurs refroidis par liquide est capturée puis rejetée dans l’allée chaude.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)