Entretien Il n’est pas un secret que les GPU utilisés pour entraîner et faire fonctionner des modèles IA génératifs sont de petites bêtes voraces en énergie. Tellement avides en fait qu’en fonction de certaines estimations, les centres de données aux États-Unis pourraient consommer jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. À la lumière de cette croissance explosive, certains ont mis en garde contre le fait que l’infrastructure de l’IA pourrait vider le réseau électrique. Chris Sharp, CTO du fournisseur de colocation Digital Realty, est bien conscient des défis liés à l’adaptation à ces charges de travail. Comparé aux serveurs qui exécutent des charges de travail traditionnelles, telles que des machines virtuelles, des conteneurs, du stockage et des bases de données, l’IA matérialisée par matériel accéléré est un animal différent. Un seul rack de serveurs GPU aujourd’hui peut facilement consommer 40 kW ou plus. Les prochains systèmes de niveau rack de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, accueillir ces systèmes exigeants à grande échelle n’est pas facile et nécessite une manière différente de penser à l’alimentation et au refroidissement du centre de données, que vous pouvez apprendre davantage dans cette interview avec The Register ci-dessous.
Donnez vie à vos histoires avec Epidemic Sound
Dans le monde numérique d’aujourd’hui, le contenu visuel est roi. Mais qu’est-ce qui transforme une bonne vidéo en une expérience