L’IA et les puces qui la font fonctionner sont tellement à la mode en ce moment. Non, vraiment, très à la mode, physiquement à la mode. Tellement à la mode que Equinix a mis au point des plans pour étendre le support du refroidissement par liquide dans 100 datacentres dans 45 métros pour satisfaire la soif de ses clients en termes de calcul accéléré. Si le refroidissement par liquide existe depuis des décennies, il a été largement déployé dans les environnements de calcul hautes performances alimentés par du matériel personnalisé de la part d’entreprises comme HPE Cray, Evident/Atos et Lenovo. Avec l’essor de l’IA, les entreprises cherchent des endroits où garer de grands groupes d’accélérateurs thermiquement difficiles à refroidir. Des puces comme la Nvidia H100 ou la toute nouvelle AMD MI300X sont capables de consommer 700 à 750 watts chacune en charge. Ce n’est pas une seule accélératrice non plus, jusqu’à huit de ces puces sont empaquetées dans une seule boîte, et plusieurs racks de systèmes peuvent être nécessaires pour prendre en charge les exigences en termes de modèles d’une entreprise. Equinix a précédemment pris en charge le refroidissement par air liquide grâce à des technologies comme les échangeurs de chaleur en rack. Cela implique généralement un petit système fermé, y compris une unité de distribution de fluide frigorigène, un réservoir et un échangeur de chaleur. La chaleur générée par les serveurs refroidis par liquide est capturée puis rejetée dans l’allée chaude.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)