Le traitement par l’IA pourrait consommer autant d’électricité que l’Irlande.

L’intérêt récent pour l’IA grâce aux grands modèles de langage (LLM) et à l’IA générative pousse les applications à adopter cette technologie, ce qui suscite des inquiétudes quant à la consommation d’électricité des datacenters. Ces inquiétudes sont soulevées dans un article par Alex de Vries, chercheur à l’Université libre de Amsterdam. Dans cet article, De Vries souligne que les gens se sont concentrés sur la phase d’entraînement des modèles d’IA lorsqu’ils ont étudié la durabilité de l’IA, car cela est généralement considéré comme étant la plus gourmande en ressources et, par conséquent, la plus consommatrice d’énergie. Cependant, relativement peu d’attention est accordée à la phase de déduction, argue-t-il, et pourtant il y a des indications que l’inférence – l’exécution du modèle entraîné – pourrait contribuer de manière significative aux coûts de cycle de vie d’un modèle d’IA. Pour étayer cela, l’article affirme qu’il a fallu 3 617 serveurs pour prendre en charge ChatGPT, basés sur la plateforme Nvidia HGX A100 équipée au total de 28 936 GPUs, ce qui implique une demande d’énergie de 564 MWh par jour. Cela compare avec les 1 287 MWh estimés pour la phase d’entraînement du modèle GPT-3.

Share the Post: