Nvidia, lundi, a continué à consolider sa position en tant que pionnière dans l’industrie technologique avec l’introduction de plusieurs nouveaux outils et cadres améliorés par l’intelligence artificielle (IA). Cette gamme robuste, conçue pour stimuler les simulations de dynamique des fluides en temps réel, les prévisions météorologiques, la chimie computationnelle et le développement de médicaments, est une indication de l’engagement de Nvidia à exploiter ses GPU pour suralimenter les charges de travail informatiques haute performance (HPC) traditionnellement effectuées sur des CPU.
Il ne s’agit pas seulement de maîtriser la puissance de calcul ; le grand plan de Nvidia est d’utiliser l’IA pour atteindre une plus grande efficacité en termes de temps et de consommation d’énergie. Ces efficacités ne sont pas simplement incrementales, mais substantielles, selon Dion Harris, le responsable du marketing des produits datacenter de l’entreprise.
L’ampleur de ces efficacités est vraiment frappante lorsqu’elle est illustrée par des exemples concrets. Dans le domaine de la chimie computationnelle, par exemple, Nvidia partage qu’elle a réussi à calculer 16 millions de structures à une vitesse 100 fois plus rapide lorsqu’elle utilise ses conteneurs Alchemi alimentés par l’IA ou les Nvidia Inference Microservices (NIMs), par rapport à lorsque ces services dépendent de GPU sans accélération de l’IA.
Un examen plus approfondi des NIMs révèle pourquoi ils deviennent rapidement l’outil de choix de Nvidia pour emballer ses offres logicielles. Essentiellement, les NIMs sont des images de conteneur préchargées avec les bibliothèques, les cadres et les dépendances nécessaires pour accomplir des objectifs préétablis.
Ces récentes avancées de Nvidia font partie d’un tableau plus large, où l’IA est plus qu’un simple mot à la mode; c’est un outil de transformation qui remodelle notre approche de l’exécution de tâches intensives, améliore les performances et atteint des objectifs ambitieux. Au fur et à mesure que Nvidia continue d’innover, nous pouvons nous attendre à encore plus de percées dans l’utilisation des charges de travail HPC accélérées par l’IA.