‘Autrefois un sujet abstrait de science-fiction et de recherche académique, le concept d’intelligence artificielle est devenu le sujet de conversations à table au cours des deux dernières années. Ce changement a entraîné une prise de conscience généralisée des implications environnementales de cette technologie, centrées principalement sur les quantités massives d’énergie et d’eau nécessaires pour former et déployer ces modèles. Et c’est compréhensible pourquoi. Un rapport récent a révélé que la consommation d’eau des centres de données en Virginie du Nord, la capitale des fermes de serveurs du monde, avait augmenté des deux tiers au cours des cinq dernières années. « ChatGPT doit ‘boire’ une bouteille d’eau de 500 ml pour une simple conversation d’environ 20 à 50 questions et réponses, en fonction de l’endroit et du moment où ChatGPT est déployé », ont estimé les chercheurs dans un article publié en début d’année dernière. Pour aggraver les choses, cela était pour un modèle de classe GPT-3 mesurant environ 175 milliards de paramètres, un chiffre qui semble positivement minuscule par rapport aux normes actuelles. On estime que GPT-4 mesure entre 1,7 et 1,8 billions de paramètres, et, comme l’a expliqué Trevor Cai d’OpenAI dans sa keynote aux Hot Chips la semaine dernière, ces modèles ne feront que devenir plus grands.’
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des