Alors que les GPU et les accélérateurs d’IA dépassent désormais les mille watts de consommation d’énergie, de nombreux constructeurs de systèmes se tournent vers le refroidissement liquide pour gérer la chaleur. Cependant, ces systèmes reposent toujours sur des réseaux complexes de tuyauterie, de collecteurs et d’unités de distribution de liquide de refroidissement (CDU) pour que tout fonctionne. Le jeudi, LiquidStack, surtout connu pour sa technologie de refroidissement par immersion, a lancé un monstre CDU avec une capacité de refroidissement de plus d’un mégawatt qu’il prétend pouvoir connecter à n’importe quelle plateforme existante en utilisant un refroidissement liquide directement au niveau de la puce. Les CDU sont responsables de pomper le liquide de refroidissement vers et depuis les systèmes connectés et les racks, échangeant la chaleur capturée via un échangeur de chaleur liquide-air ou, dans ce cas, liquide-liquide. Alors qu’un mégawatt de capacité de refroidissement pourrait sembler être une quantité exagérée, en ce qui concerne le refroidissement des systèmes informatiques modernes basés sur l’IA, cela ne va pas aussi loin que vous pourriez le penser. Les systèmes de nouvelle génération de sociétés comme Nvidia vont comprimer quelque part entre 5,4 kW et 5,7 kW de calcul dans un seul serveur RU et jusqu’à 120 kW dans un seul rack. Avec une capacité de refroidissement de 1,35 mégawatt, le premier CDU de LiquidStack a suffisamment de capacité pour refroidir un ensemble Nvidia DGX GB200 Superpod entier avec ses 288 Superchips Grace-Blackwell de 2 700 W avec une marge de manœuvre. Si vous êtes curieux à propos de ce système, vous pouvez trouver notre analyse détaillée ici.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du