Entretien Il n’est pas un secret que les GPU utilisés pour former et exécuter des modèles d’IA générative sont de petites bêtes avides d’énergie. Tant affamés qu’en fait, selon certaines estimations, les datacenters aux États-Unis pourraient utiliser jusqu’à neuf pour cent de la production d’électricité nationale d’ici la fin de la décennie. Face à cette croissance explosive, certains ont averti que l’infrastructure d’IA pourrait épuiser le réseau. Chris Sharp, directeur technique du fournisseur de colocation Digital Realty, est bien conscient des défis liés à l’accommodation de ces charges de travail. Par rapport aux serveurs qui exécutent des charges de travail traditionnelles, telles que les machines virtuelles, les conteneurs, le stockage et les bases de données, l’IA matérialisée par matériel accéléré est une bête différente. Un seul rack de serveurs GPU peut facilement consommer 40 kW ou plus aujourd’hui. Les systèmes de génération suivante à l’échelle du rack de Nvidia et d’autres nécessiteront au moins 100 kW. Selon Sharp, l’accommodation de ces systèmes exigeants à grande échelle n’est pas facile et nécessite une réflexion différente sur l’alimentation et le refroidissement des datacenters, que vous pouvez en apprendre davantage dans cet entretien avec The Register ci-dessous.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)