« Nos décisions en matière de TI coûtent-elles à la planète ? »

Article commandité Ces deux dernières décennies ont vu une migration constante des applications et des charges de travail d’entreprise des emplacements sur site vers les plateformes de cloud public. Des organisations de toutes tailles et de tous secteurs ont été attirées par la promesse d’économies de coûts et d’efficacité, séduites par l’objectif de traiter les calculs comme une commodité facilement accessible, comme l’électricité ou l’eau. Selon la recherche de la société de services technologiques AAG, plus de 98 % des organisations utilisent désormais le cloud de différentes manières, que ce soit sous forme d’applications SaaS, IaaS ou PaaS ou le déploiement d’un réseau totalement natif du cloud. Compte tenu de cette statistique, il n’est peut-être pas surprenant d’apprendre que les dépenses mondiales en cloud public devraient atteindre un montant ahurissant de 1,35 billion de dollars par an d’ici 2027, selon le cabinet de recherche IDC. Rien d’étonnant à ce que le secteur des data centers ait du mal à anticiper tous ces mouvements et le stockage de données, surtout étant donné le coût croissant de l’électricité nécessaire pour alimenter leurs installations et les océans d’eau nécessaires pour les refroidir. Certains commencent maintenant à se demander si une course irréfléchie vers le cloud est nécessairement la meilleure réponse à chaque besoin de provisionnement informatique. Des points d’interrogation planent certainement sur la philosophie du « cloud first », l’orthodoxie qui prétend qu’il est toujours préférable de privilégier l’adoption des technologies cloud par rapport aux solutions traditionnelles sur site. De nombreux décideurs informatiques voient désormais l’intérêt de répartir les charges de travail entre le cloud public et leur propre infrastructure.

Share the Post: