Avec l’acquisition de Run:ai, Nvidia vise à gérer vos kubes d’IA.

Nvidia a annoncé mercredi l’acquisition du fournisseur d’orchestration Kubernetes centré sur l’IA, Run:ai, dans le but de renforcer l’efficacité des clusters de calcul basés sur GPU. Les détails de l’accord n’ont pas été divulgués, mais selon les informations, l’accord pourrait être estimé à environ 700 millions de dollars. La start-up basée à Tel Aviv aurait levé 118 millions de dollars lors de quatre tours de financement depuis sa création en 2018. La plate-forme de Run:ai offre une interface utilisateur centrale et un plan de contrôle pour travailler avec diverses variantes populaires de Kubernetes. Cela la rend un peu similaire à RedHat’s OpenShift ou SUSE’s Rancher, et elle dispose de nombreux outils similaires pour gérer des éléments tels que les espaces de noms, les profils d’utilisateurs et les allocations de ressources. La principale différence est que Run:ai est conçu pour s’intégrer à des outils et des cadres AI tiers, et pour gérer les environnements de conteneurs accélérés par GPU. Son portefeuille logiciel comprend des éléments tels que la planification de charges de travail et la partition d’accélérateurs, cette dernière permettant de répartir plusieurs charges de travail sur un seul GPU. Selon Nvidia, la plateforme de Run:ai prend déjà en charge ses plateformes de calcul DGX, y compris ses configurations Superpod, le système de gestion de clusters Base Command, la bibliothèque de conteneurs NGC, et une suite AI Enterprise.

Share the Post: