« Est-ce que nos décisions en matière d’informatique coûtent la planète ? »

Élément sponsorisé Les deux dernières décennies ont été témoins d’une fuite régulière des applications et des charges de travail d’entreprise des emplacements sur site vers les plateformes de cloud public. Des organisations de toutes tailles et de tous secteurs ont été séduites par la promesse d’économies de coûts et d’efficacité, séduites par l’objectif de considérer le calcul comme une commodité facilement accessible de plus, comme l’électricité ou l’eau. Selon une étude de la société de services technologiques AAG, plus de 98 pour cent des organisations utilisent désormais le cloud d’une manière ou d’une autre, que ce soit sous forme d’applications SaaS, IaaS ou PaaS ou de déploiement d’un réseau entièrement natif du cloud. Étant donné cette statistique, il ne serait peut-être pas surprenant d’apprendre que les dépenses mondiales en cloud public devraient atteindre un montant impressionnant de 1,35 billion de dollars par an d’ici 2027, selon le cabinet de recherche IDC. Pas étonnant que le secteur des centres de données ait du mal à planifier tout ce mouvement et ce stockage de données, en particulier compte tenu du coût croissant de l’électricité nécessaire pour alimenter leurs installations et des océans d’eau nécessaires pour les refroidir. Certains commencent maintenant à remettre en question si une ruée aveugle vers le cloud est nécessairement la meilleure réponse à tous les besoins de provisionnement IT. Des interrogations planent certainement sur la philosophie du « cloud first », l’orthodoxie qui dit qu’il est toujours préférable de privilégier l’adoption des technologies cloud par rapport aux solutions traditionnelles sur site. Beaucoup de décideurs IT voient désormais la logique de répartir les charges de travail entre les clouds publics et leur propre infrastructure.

Share the Post: