L’intérêt récent pour l’IA grâce aux grands modèles de langage (LLM) et à l’IA générative pousse les applications à adopter cette technologie, ce qui suscite des inquiétudes quant à une hausse de la consommation d’électricité des centres de données. Ces inquiétudes sont soulevées dans un article de Alex de Vries, chercheur à l’université libre de Amsterdam. Dans cet article, De Vries note que les gens se sont concentrés sur la phase d’entraînement des modèles d’IA lors de la recherche sur la durabilité de l’IA, car cela est généralement considéré comme étant le plus gourmand en ressources et, par conséquent, le plus énergivore. Cependant, relativement peu d’attention est accordée à la phase de déduction, argue-t-il, pourtant il existe des indications que la déduction – l’utilisation du modèle entraîné – pourrait contribuer de manière significative aux coûts de cycle de vie d’un modèle d’IA. Pour étayer cela, l’article affirme qu’environ 3 617 serveurs basés sur la plateforme Nvidia HGX A100 équipée de 28 936 GPUs ont été nécessaires pour prendre en charge ChatGPT d’OpenAI, ce qui implique une demande d’énergie de 564 MWh par jour. Cela compare avec l’estimation de 1 287 MWh utilisés pour la phase d’entraînement du modèle GPT-3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)