« Construire des tissus haute performance avec Ethernet »

Article sponsorisé La prochaine fois que vous demanderez à l’IA générative (GenAI) d’écrire un email joyeux anniversaire à votre client ou de rédiger un script bash, pensez à ce qui se passe en coulisses. Parce que les bits volent à une vitesse et un volume sans précédent dans les datacenters qui fournissent tout cela. Entraîner les grands modèles de langage (LLM) qui soutiennent GenAI implique un traitement parallèle à grande échelle pour digérer des montagnes de données. Cela nécessite ensuite un réseau à haute bande passante et faible latence pour le supporter. Comment un datacenter peut-il y faire face ? Dell a développé le concept de son usine d’IA pour soutenir ces charges de travail très demandées. Il s’agit d’une approche globale pour la construction de l’infrastructure de GenAI, couvrant le calcul, le stockage et le réseau. L’objectif est de créer un écosystème de produits – comprenant à la fois ceux de Dell et de ses partenaires tiers – que les clients peuvent assembler pour former une infrastructure puissante capable de gérer la formation et l’inférence des LLM. Il s’agit d’une partie intégrante du plan de l’entreprise de se positionner au cœur de l’infrastructure GenAI parmi deux types de catégories de clients, explique Saurabh Kapoor, Directeur de la gestion des produits et de la stratégie chez Dell. Le premier regroupe les grandes fermes de GPU ou les usines d’IA, y compris les fournisseurs de services cloud de deuxième niveau qui se transforment en prestataires d’IA en tant que service. « Ils développent de grands modèles de langage et exécutent des charges de travail qui forment et peaufinent l’IA », dit-il. Le deuxième type de clients est constitué de grandes entreprises qui « exploitent ces modèles entraînés pour alimenter des applications métier du monde réel et exécuter des inférences ».

Share the Post: