L’intelligence artificielle (IA), les voitures sans conducteur, la robotique et d’autres technologies émergentes ont déjà des conséquences climatiques désastreuses. Selon un article de recherche, l’entraînement d’un seul grand modèle de langage (LLM) génère les mêmes émissions de carbone que cinq voitures au cours de leur cycle de vie. Et ce n’est pas seulement la consommation d’énergie, mais cela entraîne une demande accrue de métaux rares, tandis que les gains de rentabilité dans la fabrication peuvent favoriser une augmentation de la consommation – ce qui n’est pas bon pour la pollution, les décharges et les émissions. Et ce n’est que le début. À l’heure actuelle, selon l’Agence internationale de l’énergie, les centres de données et les réseaux de transmission de données sont déjà responsables de 0,6 % des émissions totales de gaz à effet de serre dans le monde, bien que certains estiment ce chiffre plus proche de 2 %, soit le niveau des émissions de l’aviation mondiale. La règle empirique selon laquelle une recherche Google serait équivalente à faire bouillir une bouilloire a été justement démentie, bien que le renforcement de son moteur de recherche par l’IA n’en augmentera indubitablement pas la empreinte carbone – nous ne savons pas de combien, jusqu’à ce que ces données soient rendues disponibles. Et pour l’instant, ce n’est pas le cas. Rendre l’apprentissage automatique plus précis signifie généralement créer de plus grands modèles avec plus de paramètres qui traitent de plus grands jeux de données pour l’entraînement. «Comme les modèles d’IA sont, en moyenne, de plus en plus grands, leurs coûts énergétiques augmentent également», explique Sasha Luccioni, responsable du climat chez Hugging Face, un développeur d’IA. «Jusqu’à présent, tous les chiffres et toutes les recherches concernent principalement l’entraînement des modèles d’IA, mais nous avons en réalité très peu d’informations sur le coût énergétique de leur déploiement. Comme nous mettons de plus en plus de modèles d’IA dans de nombreux produits et services – think navigation, smartphones, voice assistants – le coût énergétique de cela est conséquent. » Les recherches suggèrent que l’entraînement de grands modèles d’apprentissage automatique ne représente que le dixième de la consommation d’énergie, le fonctionnement du modèle représentant le reste. Cela est vrai que ce soit pour analyser des jeux de données médicales ou générer une image amusante pour un mème. Et ce n’est là que le coût énergétique du calcul: la propre recherche de Luccioni révèle que, en prenant en compte d’autres coûts en carbone, tels que la fabrication de composants, le bilan carbone est doublé. Mais, note-t-elle, il est important de savoir que toutes les IA ne consomment pas nécessairement beaucoup d’énergie: cela dépend du type et de l’utilisation. «Un très petit nombre de modèles très grands – [comme] les modèles du type GPT et d’autres modèles de langage génératifs – dominent le débat sur l’IA, mais en réalité il existe une multitude de modèles beaucoup plus petits et plus efficaces qui sont utilisés par toute la communauté, y compris dans des applications climato-positives telles que le suivi de la déforestation ou la prédiction du climat», explique Luccioni. «Il est donc facile de penser que tous les modèles d’IA consomment énormément d’énergie, mais en réalité c’est seulement une petite partie (qui prend tout l’espace en ce moment).» En bref, juste parce que c’est de l’IA, cela ne veut pas dire que c’est une consommatrice d’énergie.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du