‘Collaborateur de Contenu
La GPTchat d’OpenAI a été une révolution, dessinant la voie pour l’IA générative au cours des deux dernières années, en s’appuyant généralement sur les impressionnantes capacités des GPUs, avec Nvidia à la pointe de ces développements. Cependant, le règne des GPUs de Nvidia dans les grands modèles de langage (LLMs) et les tâches d’inférence de l’IA ne devrait pas éclipser les avancées réalisées par les puces graphiques de fabricants alternatifs.
Les puces de silicium axées sur l’IA ont également fait impression dans ce paysage dynamique, compte tenu des difficultés que rencontrent les GPUs en termes de coût et d’efficacité énergétique. Les GPUs de Nvidia fournissent une puissance brute, mais cela a un prix considérable. Les GPUs H100 Tensor Core pourraient coûter aux chercheurs 25 000 $ ou plus, et les GPUs Blackwell récemment lancés ont une étiquette de prix encore plus lourde.
Le défi économique est accru lorsque nous prenons en compte la consommation d’énergie de ces GPUs. Leur consommation d’énergie élevée limite la scalabilité et intensifie les préoccupations concernant les besoins énergétiques croissants de la technologie de l’IA. Les chercheurs de Goldman Sachs illustrent ce problème, démontrant que la requête OpenAI ChatGPT nécessite près de 10 fois l’électricité d’une recherche Google standard. Cette demande d’énergie ne fait qu’augmenter, en effet, ils prévoient qu’en 2030, l’utilisation de l’énergie des centres de données augmentera de 160%.
Cependant, nous devons également noter que les CPU ont réussi à rester pertinents, offrant plusieurs avantages en leur propre nom. Les CPU continuent de jouer un rôle clé dans l’inférence de l’IA, et contrairement aux GPUs, ils offrent plus de flexibilité. De plus, ils sont économiques et économes en énergie ; des traits qui en font un choix optimal lorsqu’il s’agit de faire fonctionner des modèles de langage plus petits (SMLs) qui portent des centaines de millions à moins de 10 milliards de paramètres. Contrairement aux LLMs énergivores avec des paramètres allant de milliards à trillions, les CPU se révèlent efficaces pour gérer les SMLs.
Ainsi, il est incontestable que des défis existent dans l’environnement de l’IA, en particulier en ce qui concerne les aspects du coût et de la consommation d’énergie, mais aussi, il est nécessaire de comprendre que c’est un domaine en évolution rapide. Les puces alternatives progressent et les CPU s’adaptent pour trouver leur place dans la charge de travail. Il se pourrait que l’avenir des charges de travail de l’IA ne soit pas un territoire à puce unique, mais plutôt un paysage multifacette.’