AWS a mis en place un nouveau plan pour gagner de l’argent – en permettant aux clients qui ont désespérément besoin de ressources GPU de payer pour les réserver à des dates et des heures spécifiées, payées à l’avance, et sans possibilité de modification de commande. Le nouveau modèle de consommation s’appelle Amazon Elastic Compute Cloud (EC2) Capacity Blocks for ML. Il permet aux clients d’accéder à des capacités de calcul GPU très recherchées afin de gérer de courtes charges de travail d’apprentissage automatique. La demande de capacités GPU pour former et inférer des modèles d’apprentissage automatique a dépassé l’offre disponible dans l’industrie, rendant les GPUs une ressource rare. Ce que AWS ne reconnaît pas, bien sûr, c’est que c’est parce que les hyperscalers sont en tête de file pour les GPUs, en absorbant l’offre, y compris AWS lui-même. Selon ce que l’on dit, Nvidia a déclaré que 22 % de ses revenus du deuxième trimestre de l’année civile étaient tirés d’un seul fournisseur de services en nuage. Les blocs de capacité EC2 sont initialement disponibles pour les instances de machine virtuelle Amazon EC2 P5, dont il n’existe actuellement qu’un seul type, le p5.48xlarge. Il dispose de 192 vCPU, de 2 To de mémoire système et de huit GPUs Nvidia H100, ce qui en fait une instance assez imposante.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)