L’IA et les puces qui la font fonctionner sont si chaudes en ce moment. Non, vraiment chaudes, physiquement chaudes. Si chaudes que Equinix a élaboré des plans pour étendre le refroidissement par liquide à 100 datacenters dans 45 métropoles afin d’étancher la soif des clients en matière de calcul accéléré. Si le refroidissement par liquide existe depuis des décennies, il a été largement déployé dans les environnements de calcul hautes performances alimentés par du matériel personnalisé de la part d’acteurs tels que HPE Cray, Evident/Atos et Lenovo. Avec l’essor de l’IA, les entreprises cherchent des endroits où garer de grandes grappes d’accélérateurs thermiquement exigeants. Des puces comme la Nvidia H100 ou la nouvelle AMD MI300X peuvent consommer jusqu’à 700 à 750 watts de puissance chacune en charge. Ce n’est pas une seule accélératrice, mais jusqu’à huit de ces puces sont empaquetées dans une seule boîte, et plusieurs racks de systèmes peuvent être nécessaires pour prendre en charge les exigences en matière de modèles d’entreprise. Equinix a précédemment pris en charge le refroidissement par air liquide à travers des technologies telles que les échangeurs de chaleur in-rack. Cela implique généralement un petit système fermé en boucle, comprenant une unité de distribution de fluide frigorigène, un réservoir et un échangeur de chaleur. La chaleur générée par les serveurs refroidis par liquide est capturée puis évacuée vers l’allée chaude.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)