La récente poussée d’intérêt pour l’IA due aux modèles de langage de grande taille (LLM) et à l’IA générative est en train de pousser l’adoption de la technologie par une large variété d’applications, ce qui suscite des inquiétudes quant à la consommation d’électricité des centres de données. Ces inquiétudes sont soulevées dans un article de Alex de Vries, chercheur à l’Université libre de Amsterdam. Dans l’article, De Vries note que les gens se sont concentrés sur la phase d’entraînement des modèles d’IA lorsqu’ils ont étudié la durabilité de l’IA, car cela est généralement considéré comme étant le plus gourmand en ressources et, par conséquent, le plus énergivore. Cependant, relativement peu d’attention est accordée à la phase de déduction, argue-t-il, pourtant il existe des indications que l’inférence – l’exploitation du modèle entraîné – peut contribuer de manière significative aux coûts de cycle de vie d’un modèle d’IA. Pour étayer cela, l’article affirme qu’en soutenant ChatGPT, OpenAI a nécessité 3 617 serveurs basés sur la plate-forme Nvidia HGX A100 équipée de 28 936 GPUs, soit une demande en énergie de 564 MWh par jour. Cela compare avec les 1 287 MWh estimés nécessaires à la phase d’entraînement du modèle GPT-3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)