Entretien Il n’est pas un secret que les GPU utilisés pour former et exécuter des modèles d’IA générative sont de petits monstres très énergivores. Tellement affamés que, selon certaines estimations, les datacenters aux États-Unis pourraient consommer jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. Face à cette croissance explosive, certains ont averti que l’infrastructure d’IA pourrait épuiser le réseau électrique. Chris Sharp, CTO chez Digital Realty, un fournisseur de colocation, est bien conscient des défis liés à l’accommodation de ces charges de travail. Comparé aux serveurs qui exécutent des charges de travail traditionnelles, telles que les machines virtuelles, les conteneurs, le stockage et les bases de données, l’IA accélérée par matériel est une bête différente. Aujourd’hui, une seule armoire de serveurs GPU peut facilement consommer 40 kW ou plus. Les systèmes de nouvelle génération à l’échelle du rack de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, adapter ces systèmes exigeants à grande échelle n’est pas facile et nécessite une approche différente de la gestion de l’alimentation et du refroidissement des datacenters, que vous pouvez découvrir davantage dans cet entretien avec The Register ci-dessous.
Donnez vie à vos histoires avec Epidemic Sound
Dans le monde numérique d’aujourd’hui, le contenu visuel est roi. Mais qu’est-ce qui transforme une bonne vidéo en une expérience