Entretien Il n’est pas un secret que les GPU utilisés pour entraîner et faire fonctionner des modèles IA génératifs sont de petites bêtes voraces en énergie. Tellement avides en fait qu’en fonction de certaines estimations, les centres de données aux États-Unis pourraient consommer jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. À la lumière de cette croissance explosive, certains ont mis en garde contre le fait que l’infrastructure de l’IA pourrait vider le réseau électrique. Chris Sharp, CTO du fournisseur de colocation Digital Realty, est bien conscient des défis liés à l’adaptation à ces charges de travail. Comparé aux serveurs qui exécutent des charges de travail traditionnelles, telles que des machines virtuelles, des conteneurs, du stockage et des bases de données, l’IA matérialisée par matériel accéléré est un animal différent. Un seul rack de serveurs GPU aujourd’hui peut facilement consommer 40 kW ou plus. Les prochains systèmes de niveau rack de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, accueillir ces systèmes exigeants à grande échelle n’est pas facile et nécessite une manière différente de penser à l’alimentation et au refroidissement du centre de données, que vous pouvez apprendre davantage dans cette interview avec The Register ci-dessous.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)