Energie, pollution et internet

La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre « Energie, pollution et Internet », ce début d’article fait un résumé de la longue enquête du quotidien américain.

« Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne. » Et tout cela, nous montre le NYTimes, fait que ce fonctionnement structurel de l’industrie de l’information est à l’opposé de l’image écologique qu’on en a. La plupart des data center, de par la manière dont ils ont été conçus, consomment des quantités gigantesques d’énergie qu’ils gâchent de manière incroyable. Par exemple, certaines entreprises font tourner leur matériel au maximum de ses capacités jour et nuit, quelle que soit la demande. Du coup, certains data center peuvent gaspiller jusqu’à 90 % de l’électricité consommée. Pour se protéger d’une panne d’électricité, les data center s’en remettent à des groupes électrogènes qui fonctionnent au diesel, avec les émissions conséquentes. La pollution causée par les data center inquiète les autorités américaines, au point que dans la Silicon Valley, de nombreux centres de données sont répertoriés dans la liste des plus gros pollueurs au diesel.

Cloudcomputing
Image : L’informatique dans les nuages au National Energy Research Scientific Computing Center photographié par Roy Kaltschmidt pour le Lawrence Berkeley National Lab.

Si on élargit au monde, les infrastructures numériques consomment à peu près 30 milliards de watts, l’équivalent de la production de 30 centrales nucléaires. Et on estime que les data center situés sur le sol américain représentent entre un quart et un tiers de cette consommation. Un seul data center peut consommer plus d’énergie qu’une ville moyenne.

L’efficacité énergétique varie beaucoup d’une entreprise à l’autre. Mais selon une étude commandée par le journal, on estime qu’en moyenne, entre 6 et 12 % de l’énergie consommée est utilisée comme puissance de calcul. Le reste sert à garder les serveurs au ralenti, prêts à fonctionner à plein régime si survenait une activité qui pourrait ralentir ou anéantir leurs opérations.

L’inefficacité énergétique est en grande partie due à une relation de symbiose entre les utilisateurs, qui exigent une réponse instantanée à leur clic, et des entreprises qui prendraient un risque en ne répondant pas à cette attente. Des entreprises qui préfèrent donc violer les mesures de régulation de la qualité de l’air, comme Amazon, qui a été cité 24 fois en 3 ans en Virginie du Nord. Quelques entreprises utilisent des logiciels entièrement repensés et des systèmes de refroidissement ad hoc pour économiser de l’énergie, comme Google et Facebook qui ont repensé leur hardware. Beaucoup de solutions sont disponibles, mais la plupart des entreprises ne veulent pas prendre le risque d’un gros changement. Par ailleurs, tout cela est compliqué par le secret qui entoure ces infrastructures (paradoxe pour une industrie qui est largement édifié sur le fait de rendre accessibles les données personnelles des gens). Pour des raisons de sécurité, les entreprises ne révèlent pas la localisation de leurs data center, qui sont abrités dans des bâtiments anonymes et bien protégés. Et le secret s’étend à la consommation énergétique. Le gouvernement américain a récemment confessé être incapable de déterminer précisément la consommation énergétique des data centers.

Certains analystes préviennent que les quantités de données et la consommation énergétique continuant à croître, les entreprises qui ne changeront pas leurs pratiques pourraient exploser en vol, comme cela est déjà arrivé dans le secteur du numérique. « Ce n’est pas soutenable, explique un ancien dirigeant du secteur, ils vont dans le mur ».

Voici pour cette introduction très générale à cette série d’articles que publie le NYTimes, et que je vous invite à prendre le temps de lire, tant elle est éclairante sur une question qui émerge à peine, mais qui risque de devenir majeure dans les années à venir : le coût écologique des nouvelles technologies.

Xavier de la Porte

« Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 29 septembre 2012 était consacrée à l’internet society (Wikipédia), l’association qui promeut et coordonne le développement des réseaux informatique dans le monde, en compagnie de Frédéric Donck, directeur du bureau Europe de l’Internet Society ; ainsi qu’à la conférence TED en compagnie de Michel Lévy-Provençal, l’un des organisateurs de l’édition parisienne qui se tiendra le 6 octobre 2012.

À lire aussi sur internetactu.net

0 commentaires

  1. Ces centres de données sont des éléments géostratégiques essentiels. Il faudrait qu’ils soient installés où l’électricité est la moins onéreuse et le terrain moins favorable à l’urbanisme, pas où le gouvernement est le plus puissant.

  2. Très bien de pointer du doigt les datacenters avec des PUE de fou. Mais il me semble que la bonne attitude consiste à parler aussi de ceux qui sont en dessous de 1,1 (90% d’énergie utilisée pour le calcul/stockage), qui sont (au moins en projet) l’immense majorité du parc, que l’on parle de Google, Facebook ou autres géants.
    C’est par l’exemplarité que l’on fait évoluer les choses, pas juste en relevant les excès. 🙂
    À lire à ce sujet (pas le temps de le retrouver, Google News est votre ami et le papier date de cette semaine) la bonne vieille solution, utilisée depuis un siècle dans les trnsfos électriques de puissance : le bain d’huile ! -> PUE de 1,04. :p

  3. @Fafnir : la géolocalisation des data-centres (DC) près des sources d’énergie n’est qu’une partie de l’équation, il faut aussi une « grosse fibre » à proximité et que le « business model » du DC lui permette de s’exiler à la campagne. La plupart des DC sont dans des zones urbaines pour être au plus près des utilisateurs ou des entrées d’autoroutes de l’information.

    @LeLapin : il ne faut pas croire que tout ce qu’on voit sur le Net correspond à la réalité. Google et Facebook parlent beaucoup de leurs mirobolants PUE (je traduis cela en bon français par Performance d’Usage de l’Energie). La réalité de la majorité des acteurs du Net, c’est qu’ils ne connaissent même pas leur PUE car leurs clients s’en fichent, qu’ils paient et qu’il n’y a encore aucune réglementation pour ces installations (le PUE n’est pas encore normalisé, comment on le définit, comment on le mesure, mais cela ne devrait pas tarder). Un PUE de DC dans la vraie vie c’est autour de 2 voire jusqu’à 3,5 !!

    @Xavier : félicitations pour vos émissions et vos lectures de la semaine (je vous écoute en version podcast avec souvent 1 à 3 semaines de retard). J’avais lu l’article du NYT à sa publication et c’est un des meilleurs que j’ai lus en termes de vulgarisation sur ce sujet. J’espère qu’ils aborderont dans les suites également la question des terminaux pour se connecter au cloud, parce que malheureusement, c’est encore là qu’il y a le plus à gagner : tant qu’on se connectera à des services de cloud avec des gros PC clients lourds, ou des grandes TV connectées (pour surfer sur le web), on aggravera encore plus le problème : il y a actuellement entre 2 et 4 fois plus d’énergie consommée par utilisateur dans les terminaux que dans les serveurs, sans parler des impacts à la fabrication et la fin de vie de tous ces équipements.

    Cordialement

  4. La prochaine étape c’est quoi ? Appliquer une taxe carbone sur les plus gros sites ? A ce petit jeu là les Google, Bing et autres gros consommateurs de serveurs risquent de faire pression car même si les systèmes qu’ils mettent en place réduisent les consommations d’énergies, l’expansion du web influera toujours sur le physique et par conséquent sur toujours plus d’espaces serveurs à acheter/optimiser…