Interview Ce n’est un secret pour personne que les GPU utilisés pour former et exécuter des modèles d’IA générative sont de petites bêtes avides d’énergie. Tellement avides que, selon certaines estimations, les centres de données aux États-Unis pourraient consommer jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. À la lumière de cette croissance explosive, certains ont mis en garde contre le fait que l’infrastructure d’IA pourrait vider le réseau électrique. Chris Sharp, CTO du fournisseur de colocation Digital Realty, est bien conscient des défis liés à l’accommodation de ces charges de travail. En comparaison avec les serveurs qui exécutent des charges de travail traditionnelles, telles que les machines virtuelles, les conteneurs, le stockage et les bases de données, l’IA accélérée par le matériel est une bête différente. Une seule baie de serveurs GPU peut facilement consommer 40 kW ou plus aujourd’hui. Les systèmes à échelle de baie de nouvelle génération de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, accueillir ces systèmes exigeants à grande échelle n’est pas facile et nécessite une approche différente de la puissance et du refroidissement en centre de données, que vous pouvez découvrir davantage dans cette interview avec The Register ci-dessous.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)