Selon le rapport « Recalibrating global data center energy-use estimates« , publié dans la revue américaine Science, en 2018, l’ensemble des datacenters a consommé 205 térawattheures d’électricité, soit environ 2% de toute l’électricité consommée cette année-là dans le monde.
La même étude a évalué qu’en 2010 ils ont consommé 1% de toute l’électricité.
L’étude révèle qu’entre 2010 et 2018 la quantité d’énergie consommée par les datacenters dans le monde n’a augmenté que de 6%. Alors que dans le même temps le volume de calcul effectuée dans ces mêmes datacenters a plus que quintuplé.
Le principal de cette concerne les équipements informatiques, serveurs, stockage et réseaux, qui à eux seuls ont consommé 130 TWh en 2018, contre 92 TWh. Ce qui démontre là aussi que ces équipements sont plus efficaces aujourd’hui, avec une augmentation significative du volume de calcul pour chaque 1Wh utilisé.
L’augmentation de la consommation énergétique serait donc en partie muselée par les améliorations apportées à l’efficacité énergétique et par le déplacement de la puissance de calcul de datacenters anciens et inefficaces vers le cloud (AWS, Azure, Google Cloud).