L’un des problèmes persistants liés à l’industrie de l’IA est la quantité d’énergie nécessaire pour faire fonctionner ses systèmes. La poursuite d’une quantité suffisante d’électricité pour alimenter les algorithmes haute performance derrière des applications comme Bard, Bing et ChatGPT suscite des inquiétudes même parmi les plus grands partisans de l’IA. Maintenant, une nouvelle étude montre que les ressources électriques nécessaires à la croissance de l’industrie de l’IA pourraient encore aggraver son impact environnemental. L’étude, écrite par Alex de Vries, candidat au doctorat à l’École d’affaires et d’économie de l’université VU d’Amsterdam, prétend que les besoins en énergie de l’industrie de l’IA pourraient bientôt égaler ceux d’un petit pays. «Compte tenu de la production attendue dans les prochaines années, en 2027, les nouveaux dispositifs d’IA seront responsables de la consommation d’électricité aussi importante que dans mon pays d’origine, les Pays-Bas», a déclaré De Vries à Insider cette semaine. «Cela correspond également à la consommation d’électricité de pays comme la Suède ou l’Argentine.» Alors que le taux de consommation d’électricité dans l’industrie du tech est resté relativement stable depuis des années, De Vries affirme que l’avènement des guerres de chatbots IA entre les grandes entreprises de tech comme Microsoft, Google et OpenAI a peut-être engendré une nouvelle ère. L’étude de De Vries examine spécifiquement la consommation d’électricité du secteur de l’IA en ce qui concerne quelque chose qu’on appelle «la phase d’inférence» de la production d’IA. Alors que la plupart des études sur l’impact environnemental se sont jusqu’à présent concentrées sur la quantité d’énergie nécessaire pour former de grands modèles de langage comme GPT-4, moins d’attention a été accordée à «l’inférence», qui est le processus par lequel les modèles de langage produisent de nouvelles informations en réponse à des invitations. Cette phase de consommation d’énergie peut être massive et, parfois, représenter la majorité de l’énergie dépensée pendant le cycle de vie de l’IA, écrit De Vries. En raison du gonflement potentiel des besoins en énergie de l’IA au cours des prochaines années, le chercheur affirme que les développeurs doivent «se concentrer non seulement sur l’optimisation de l’IA, mais aussi sur la nécessité critique d’utiliser l’IA en premier lieu.» L’étude de De Vries, comme un certain nombre d’autres importantes études sur l’impact environnemental publiées récemment, soulève la question: dans une ère de changement climatique et de détresse environnementale accélérante, la génération d’IA peut-elle vraiment être justifiée? Je veux dire, avons-nous vraiment besoin de ChatGPT, de la rédaction automatique de courriels et d’autocollants IA? Ou tuons-nous l’environnement pour rien en échange? Au mieux, ces plateformes offrent une plus grande commodité aux consommateurs et des économies de coûts pour les entreprises, mais, pour l’instant, c’est à peu près tout. Une grande partie de la mystification entourant l’IA a aidé à cacher le fait que les technologies génératrices d’IA ne sont pas, dans de nombreux cas, particulièrement révolutionnaires et, dans certains cas, ne sont même pas nouvelles. Bien sûr, il y a quelques applications scientifiques novatrices de l’IA qui, une fois affinées, pourraient avoir un impact important. Mais il serait difficile d’affirmer que ce sont les applications qui reçoivent la plus grande partie de l’attention ou des ressources. Pour la plupart, c’est des trucs comme ChatGPT qui attirent l’attention (et le capital-risque).
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)