L’intérêt récent pour l’IA grâce aux grands modèles de langage (LLM) et à l’IA générative pousse les utilisations de la technologie à une grande variété d’applications, ce qui entraîne des inquiétudes quant à la consommation d’électricité nécessaire au traitement de ces données. Ces inquiétudes sont soulevées dans un article par Alex de Vries, chercheur à l’Université libre de Amsterdam. Dans cet article, De Vries souligne que les gens ont concentré leurs recherches sur la phase d’entraînement des modèles d’IA lorsqu’ils étudient la durabilité de l’IA, car cela est généralement considéré comme étant le plus gourmand en ressources, et donc le plus énergivore. Cependant, relativement peu d’attention est accordée à la phase d’inférence, argue-t-il, pourtant il y a des indications que l’inférence – l’exécution du modèle entraîné – peut contribuer de manière significative aux coûts de cycle de vie d’un modèle d’IA. Pour étayer cela, l’article affirme que pour prendre en charge ChatGPT, OpenAI a nécessité 3 617 serveurs basés sur la plateforme Nvidia HGX A100 équipée de 28 936 GPU, ce qui implique une demande d’énergie de 564 MWh par jour. Cela compare avec l’estimation de 1 287 MWh utilisés pour la phase d’entraînement du modèle GPT-3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)