Alors que les GPU et les accélérateurs d’IA dépassent désormais un kilowatt de consommation d’énergie, de nombreux constructeurs de systèmes se tournent vers le refroidissement liquide pour gérer la chaleur. Cependant, ces systèmes reposent toujours sur des réseaux complexes de tuyauteries, de collecteurs et d’unités de distribution de liquide de refroidissement (CDU) pour que tout fonctionne. Jeudi, LiquidStack, surtout connu pour sa technologie de refroidissement par immersion, a lancé une énorme CDU offrant plus d’un mégawatt de capacité de refroidissement, qu’elle prétend pouvoir brancher sur n’importe quelle plateforme existante en utilisant un refroidissement liquide direct au processeur. Les CDU sont responsables de pomper le liquide de refroidissement vers et depuis les systèmes connectés et les racks, échangeant la chaleur capturée via un échangeur de chaleur liquide-air, ou dans ce cas, liquide-liquide. Alors qu’un mégawatt de capacité peut sembler être une quantité de refroidissement obscène, en ce qui concerne le refroidissement des systèmes d’IA modernes, cela ne va pas aussi loin que vous pourriez le penser. Les systèmes de prochaine génération de sociétés comme Nvidia vont comprimer quelque part entre 5,4 kW et 5,7 kW de calcul dans un seul serveur RU et jusqu’à 120 kW dans un seul rack. Avec une capacité de refroidissement de 1,35 mégawatt, la première CDU de LiquidStack a assez de capacité pour refroidir un superpod Nvidia DGX GB200 entier avec ses 288 superchips Grace-Blackwell 2,700W et de la marge. Si vous êtes curieux au sujet de ce système, vous pouvez trouver notre analyse approfondie ici.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du