Entretien Il n’est pas un secret que les GPUs utilisés pour former et exécuter des modèles AI génératifs sont de petites bêtes énergivores. Tellement voraces que, selon certaines estimations, les centres de données aux États-Unis pourraient utiliser jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. À la lumière de cette croissance explosive, certains ont averti que l’infrastructure de l’IA pourrait vider le réseau électrique. Chris Sharp, CTO chez Digital Realty, est bien conscient des défis associés à l’accueil de ces charges de travail. Par rapport aux serveurs qui exécutent des charges de travail traditionnelles, telles que les machines virtuelles, les conteneurs, le stockage et les bases de données, l’IA accélérée par du matériel est un animal différent. Aujourd’hui, une seule baie de serveurs GPU peut facilement consommer 40 kW ou plus. Les systèmes de nouvelle génération à l’échelle des baies de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, accommoder ces systèmes exigeants à grande échelle n’est pas facile et nécessite une façon différente de penser à l’alimentation et au refroidissement des centres de données, que vous pouvez en apprendre davantage dans cet entretien avec The Register ci-dessous.
Donnez vie à vos histoires avec Epidemic Sound
Dans le monde numérique d’aujourd’hui, le contenu visuel est roi. Mais qu’est-ce qui transforme une bonne vidéo en une expérience