AccueilđŸ‡«đŸ‡·Chercher

Centre de données

Un centre de donnĂ©es (en anglais data center ou data centre), ou centre informatique[1] est un lieu (et un service) oĂč sont regroupĂ©s les Ă©quipements constituants d'un systĂšme d'information (ordinateurs centraux, serveurs, baies de stockage, Ă©quipements rĂ©seaux et de tĂ©lĂ©communications, etc.). Ce regroupement permet de faciliter la sĂ©curisation, la gestion (notamment l'exĂ©cution de calculs et le refroidissement) et la maintenance des Ă©quipements et des donnĂ©es stockĂ©es.

Centre de traitement de données.

Techniquement, un centre de données fournit des services informatiques en environnement contrÎlé (climatisation, poussiÚres, alimentation, etc.) et sécurisé (systÚme anti-incendie, contre le vol et l'intrusion, etc.), munis d'une alimentation d'urgence et redondante.

OpĂ©rationnellement, un centre de donnĂ©es peut ĂȘtre exploitĂ© par une entreprise de façon interne ou mis Ă  la disposition de plusieurs entreprises en tant que service externe. Lorsqu'un centre de donnĂ©es est utilisĂ© commercialement pour fournir une prestation de service Ă  des particuliers ou des entreprises, on parle de cloud (nuage) ou de dĂ©matĂ©rialisation[2], une solution interne (rapiditĂ©, sĂ©curitĂ© des donnĂ©es hĂ©bergĂ©es notamment) et cloud (robustesse, maintenance, location de services Ă  la demande) pouvant ĂȘtre hybridĂ©es.

Terminologie

Le terme « centre de donnĂ©es Â» est la traduction de l'anglais data center / data centre[3] - [4]. FrĂ©dĂ©ric Bordage, expert en informatique durable et en sobriĂ©tĂ© numĂ©rique, lui prĂ©fĂšre le terme « centre informatique Â»[5]. En effet, un centre informatique comporte non seulement des baies de stockage des donnĂ©es, mais aussi des serveurs, qui effectuent les traitements. D'autre part, sauf dans une logique de cloud computing intĂ©gral, les donnĂ©es sont rĂ©parties entre les centres informatiques et les terminaux des utilisateurs.

Description et histoire

Tablettes d'équipement de télécommunications.
Centre de données de l'Agence Reuters à Londres.

Un centre de données est un bùtiment sécurisé contre l'intrusion et les risques naturels et technologiques, abritant différents équipements électroniques, des ordinateurs, des systÚmes de stockage et des équipements de télécommunications. Le centre peut occuper une piÚce, un étage ou de grands immeubles.

On y retrouve des serveurs 1U (surnommĂ©s « boĂźtes Ă  pizza ») ou plus, « U » correspondant Ă  une unitĂ© de hauteur de 4,445 cm (1,75 pouce), empilĂ©s dans des baies, lesquelles sont arrangĂ©es pour former des rangĂ©es simples, ce qui permet de circuler facilement parmi les serveurs, tant Ă  l'avant qu'Ă  l'arriĂšre. Quelques appareils, ordinateurs centraux par exemple, sont de dimensions semblables Ă  ces baies. Ils sont souvent placĂ©s Ă  leurs cĂŽtĂ©s.

Avant la bulle Internet, des millions de mÚtres carrés destinés à abriter de tels centres furent construits dans l'espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s'est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maßtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans l'informatique durable et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés[6].

Vers 2008, les centres de donnĂ©es Hyperscale (centre de donnĂ©es d'au moins 250 000 serveurs, dont la climatisation est optimisĂ©e) ont Ă©tĂ© crĂ©Ă©s pour les besoins croissants d'Amazon et Google note Bill Carter du projet Open Compute (crĂ©Ă© en 2011 pour permettre Ă  Facebook d'Ă©conomiser l'Ă©nergie consommĂ©e par ses serveurs).

L'importance prise par les stockages de données associées à une activité et les mouvements d'acquisitions entre les entreprises peuvent pousser celles-ci à acquérir en interne des technologies ou à rechercher des prestataires spécialisés sur les centres de données, ayant la capacité d'assurer une interopérabilité entre des stockages de données disparates[7].

Fonctions

Un centre de données informatique (CDI, à ne pas confondre avec un centre de traitement informatique, CTI) regroupe des serveurs qui stockent des données au moyen de baies de stockage. La plupart des centres de données effectuent également des opérations sur ces données, de sorte qu'ils jouent également le rÎle de CTI.

Les données et bases de données sont souvent devenues cruciales pour le fonctionnement des entreprises et de la société en général. Un nombre croissant de données sont dites personnelles ou sensibles, raison pour laquelle de hauts niveaux de sécurité et de service sont demandés aux centres de données, pour assurer l'intégrité et le fonctionnement de leurs appareils et éviter les attaques par déni de service.

Composantes

Elles doivent pour chaque centre assurer la bonne connexion rĂ©seau (internet, intranet, etc.) et une haute disponibilitĂ© du systĂšme d'information. Pour cela, des applications logicielles gĂšrent les tĂąches essentielles de l'« activitĂ© mĂ©tier Â» des clients. Parmi ces applications, on retrouve des gestionnaires de bases de donnĂ©es, des serveurs de fichiers et des serveurs d'applications.

Composantes physiques

Centre de données modulaire mobile en conteneur.
  • Climatisation (prĂ©cise et stable)
  • ContrĂŽle de la poussiĂšre (filtration de l'air)
  • UnitĂ© de distribution de l'Ă©nergie
  • Bloc d'alimentation d'urgence, et une unitĂ© de secours (GĂ©nĂ©rateur, UPS)
  • SystĂšme perfectionnĂ© d'alerte d'incendie
  • Extinction automatique des incendies (par micro-gouttelettes ou gaz inerte)
  • Plancher surĂ©levĂ©
  • Conduites pour cĂąbles au-dessus et au-dessous du plancher
  • Surveillance par camĂ©ras en circuit fermĂ©
  • ContrĂŽle des accĂšs, ainsi que sĂ©curitĂ© physique
  • Surveillance 24/7 des serveurs dĂ©diĂ©s (ordinateurs)
  • Service de sĂ©curitĂ© continuellement prĂ©sent
  • CĂąbles de paires torsadĂ©es de cuivre en Ethernet (Fast ou Gigabit) pour liaisons inter-[jarretiĂšres/switches/routeurs/firewall]
  • Fibres optiques pour liaisons intersites ou inter-[jarretiĂšres/switches/routeurs/firewall]

Climatisation

La climatisation entretient une température homogÚne d'environ 20 degrés Celsius, essentielle car le fonctionnement des systÚmes informatiques génÚre beaucoup de chaleur, et deviennent défectueux au-delà d'un certain seuil de température[8].

Un centre de traitement moderne est conçu pour optimiser le refroidissement de tous les serveurs, et donc réduire le coût énergétique de l'installation, permettant d'aussi réduire le coût d'hébergement.

La climatisation est gĂ©nĂ©ralement testĂ©e dĂšs la rĂ©ception du centre, couramment avec des aĂ©rothermes gĂ©nĂ©rant de l'air chaud, ou avec des bancs de charge (rackables) pouvant ĂȘtre insĂ©rĂ©s dans les baies si celles-ci sont dĂ©jĂ  prĂ©sentes.

La climatisation et les systÚmes de refroidissement représentent de 40 à 50 % de la consommation énergétique des data-centers[9] - [10].

Principe du refroidissement des baies.
Organisation de la climatisation

Au minimum, de l'air chaud est aspiré et de l'air froid insufflé sans organisation particuliÚre, mais l'architecture du site est de plus en plus conçue pour éviter que l'air chaud et l'air froid se mélangent trop vite, afin d'économiser l'énergie. Des caches obturent les parties inutilisées des baies, pour ne pas perturber le flux d'air froid prévu.

Des couloirs chauds alternent avec des couloirs froids, un couloir sur deux insuffle l'air froid, par le cÎté avant des serveurs, via des baies grillagées, l'autre couloir aspire l'air chaud par l'arriÚre. Certains équipements réseau (ex: commutateurs réseau) peuvent avoir le refroidissement avant arriÚre ou arriÚre avant selon les besoins, ce qui simplifie le cùblage. Le rendement est meilleur, mais l'air chaud peut encore partiellement se mélanger, à l'air froid en bout de rangée de baie ou par-dessus les baies[11]

Utilisation d'un cube de confinement avec corridor chaud, ou froid, selon les choix des constructeurs. Le « cube » dans lesquelles sont placées les baies, comporte un plafond et des portes à double ou triple vitrage, réduisant considérablement les échanges de température, seul un cÎté des baies échange l'air, avec les serveurs orientés en fonction du choix corridor chaud ou corridor froid. C'est aujourd'hui la solution optimale[12].

L'immersion du systÚme dans un fluide réfrigérant (huile ou fluide minéral) est possible, encore expérimentale et réservée à des serveurs à haute intensité de flux de données et devant les traiter massivement[13].

SystĂšmes de production de l'air froid
Datadock, au port autonome de Strasbourg, est refroidi Ă  l'eau[14].

Le compresseur frigorifique est la base des systĂšmes de refroidissement, cependant, ils peuvent comporter des bains liquides permettant d'amĂ©liorer le rendement. Le free cooling (refroidissement Ă  air, Ă©ventuellement associĂ© Ă  une pompe Ă  chaleur) permet de limiter le recours Ă  des refroidisseurs et ainsi de rĂ©duire la facture Ă©nergĂ©tique. Le free cooling n'est intĂ©ressant que dans les implantations oĂč l'air extĂ©rieur est froid suffisamment longtemps durant l'annĂ©e. La climatisation peut ĂȘtre complĂ©tĂ©e par un refroidissement Ă  eau (hydrocooling), l'eau Ă©tant 4 000 fois plus efficace que l'air pour extraire et Ă©vacuer la chaleur, la chaleur Ă©vacuĂ©e pouvant Ă©ventuellement ĂȘtre rĂ©cupĂ©rĂ©es.

La chaleur, plutĂŽt qu'Ă©vacuĂ©e Ă  l'air libre, peut ĂȘtre valorisĂ©e dans des installations proches (voir section infra).

Composantes rĂ©seau 

Les composantes rĂ©seau sont notamment[15] :

Sécurité

Salle de calcul du CERN.

L'environnement physique des centres est sous stricte surveillance.

La surveillance du bon fonctionnement de la climatisation, elle-mĂȘme essentielle au bon fonctionnement du matĂ©riel Ă©lectronique.

L'alimentation de secours peut ĂȘtre fournie via un UPS et un gĂ©nĂ©rateur Ă©lectrique ou via un groupe tournant (no-break) couplĂ© Ă  un accumulateur cinĂ©tique.

Dans le but de prévenir une perte d'alimentation électrique, toutes les composantes électriques, y compris les systÚmes de secours, sont habituellement doublées. Les serveurs dits essentiels sont de plus alimentés par un systÚme qui fait appel à deux sources électriques indépendantes à l'intérieur du centre.

Les centres ont habituellement un plancher surĂ©levĂ© de 60 cm, fait de dalles amovibles. Cet espace permet la libre circulation de l'air, tout comme il facilite le cĂąblage d'alimentation et de donnĂ©es par des chemins de cĂąble diffĂ©rents. Cependant, des centres de donnĂ©es sont sans plancher technique (alimentation par le dessus des racks, afin de supporter plus facilement des Ă©lĂ©ments lourds de type mainframe (IBM z10, etc.).

Bouteille d'extinction FM-200 dans un centre de calcul.

Ils ont souvent des systÚmes complexes de prévention et d'extinction des incendies. Les centres modernes sont souvent équipés de deux systÚmes d'alarme. Le premier détecte les particules chaudes émises par les composantes surchauffées de l'équipement, particules qui provoquent souvent un feu. De cette façon, il est possible d'éliminer à sa source un foyer d'incendie (parfois, il suffit d'éteindre un ensemble à soudure pour éliminer le risque d'incendie). Un deuxiÚme systÚme sert à activer un ensemble d'activités si un début d'incendie se manifeste. Ces systÚmes sont également dédiés à une portion du centre de traitement de données. Couplés à d'excellentes portes anti-feu et autres appareils de confinement, il est possible de contrÎler le feu et de l'éteindre sans affecter le reste du bùtiment.

Les systÚmes conventionnels d'extinction du feu sont aussi nocifs que le feu pour les composants électroniques, c'est pourquoi des procédés alternatifs ont été développés. Certains utilisent l'azote, l'Argonite, le FM-200 ou le FK-5-1-12 (Novec 1230), alors que d'autres se rabattent sur l'émission de fines particules d'eau ultra-pure (cette eau n'est pas électriquement conductrice, ce qui n'endommage pas les composants électroniques).

La sécurité est également essentielle au fonctionnement de tels centres. L'accÚs physique en est restreint au personnel autorisé, des caméras vidéo permettent de suivre les personnes sur place, des gardes de sécurité veillent à l'intégrité du lieu quand le centre est grand ou contient des informations considérées comme essentielles ou sensibles.

Gestion thermique des centres de données

Les centres de traitement de donnĂ©es Ă©mettent beaucoup de chaleur. Ils doivent ĂȘtre continuellement rĂ©frigĂ©rĂ©s ou tempĂ©rĂ©s, par des systĂšmes eux-mĂȘmes consommateurs d'Ă©nergie. La consommation Ă©nergĂ©tique cumulĂ©e reprĂ©sente ainsi environ 1 % de la demande mondiale d'Ă©lectricitĂ© en 2018[13] - [16]

Dans un centre de traitement de donnĂ©es, les onduleurs et la climatisation absorbent la moitiĂ© de l'Ă©nergie consommĂ©e (dĂ©but du XXIe siĂšcle). Les serveurs modernes (2012) peuvent supporter jusqu'Ă  45 °C, mais demandent une tempĂ©rature de 20 Ă  35 °C[17]. Un centre de taille moyenne requiert environ 600 000 mĂštres cubes d'air brassĂ© par an[17].

L'efficience Ă©nergĂ©tique du serveur et du centre de donnĂ©es est l'objet d'amĂ©liorations, de leur conception Ă  leur utilisation, notamment par adaptation du besoin Ă  la puissance du serveur et par l'adoption du free cooling par eau ou air. MalgrĂ© les progrĂšs faits sur les composants, plus efficients, les serveurs tendent Ă  ĂȘtre de plus en plus compacts et denses (par surface).

De la fin des années 2000 à 2012, la part des serveurs virtuels est passée de 10 à 50 %. Ceux-ci peuvent aussi contribuer à optimiser la gestion des flux d'énergie[18].

Microsoft, justifiant que la majeure partie de la population vit prĂšs des cĂŽtes alors que les serveurs en sont Ă©loignĂ©s (ce qui allonge les dĂ©lais de latence dans les connexions), teste en un « centre de donnĂ©es immergĂ© » en mer (baptisĂ© Natick Project)[19]. Construit par Naval Group (ex-DCNS, français), il doit consommer 5 % de l'Ă©nergie qui serait nĂ©cessaire pour le mĂȘme service Ă  terre. Il doit ĂȘtre testĂ© un an, bien que la structure soit prĂ©vue pour ĂȘtre immergĂ©e cinq ans, un premier serveur Ă©tant de capacitĂ© Ă©quivalente Ă  quelques milliers de PC individuels, soit de quoi stocker prĂšs de cinq millions de films numĂ©risĂ©s[19]. Le systĂšme est immergĂ© dans un cylindre amarrĂ© sur le fond au large de l'archipel des Orcades (nord de l'Écosse). Il est tĂ©lĂ©opĂ©rĂ© et son alimentation provient d’énergies marines renouvelables[19].

Récupération de chaleur

L'importante chaleur extraite des serveurs est gĂ©nĂ©ralement rejetĂ©e Ă  l'air libre. L'Ă©nergie extraite peut ĂȘtre valorisĂ©e, mais sa tempĂ©rature relativement faible la limite Ă  un transport sur moins d'un kilomĂštre, alors que les serveurs sont souvent isolĂ©s en banlieue. Des projets variĂ©s sont nĂ©anmoins testĂ©s ou exploitĂ©s[17].

Dans les années 2010, des expériences visent à récupérer cette énergie et à la réutiliser pour des besoins énergétiques locaux ou de proximité (chauffage, réseau de chaleur, eau chaude sanitaire).

L'expĂ©rience la plus large d'Europe a Ă©tĂ© mise en place en France Ă  Marne-La-VallĂ©e (Seine-et-Marne), dans le parc d'activitĂ©s de Val d'Europe, s'Ă©talant aujourd'hui sur 40 ha. Le rĂ©seau de chauffage urbain de ce parc utilise la chaleur produite par le data center de la banque Natixis. À terme, ce data center compte fournir prĂšs de 26 millions de kilowattheures par an, permettant de chauffer 600 000 m2 de bĂątiments tout en Ă©vitant l'Ă©mission de 5 400 tonnes de CO2[20].

À Amsterdam, l’universitĂ© d'Amsterdam reçoit une eau gratuitement chauffĂ©e par le centre de donnĂ©es d'Equinix. À Roubaix, cinq centres d’OVHcloud, hĂ©bergeur français, sont refroidis par eau et contribuent Ă  chauffer des bĂątiments proches. À Clichy, Global Switch chauffe une serre tropicale. En Suisse, IBM chauffe la piscine d'Uitikon[21]. À Montluçon, une « chaudiĂšre numĂ©rique » complĂ©tĂ©e par une pompe Ă  chaleur fournit l'eau chaude de 48 logements[17]. À MontrĂ©al (Canada), un « silo de serveurs », grand comme un bĂątiment de ville, est passivement refroidi et voit sa chaleur rĂ©cupĂ©rĂ©e par une centrale en toiture et distribuĂ©e aux voisins ; il est testĂ© Ă  l'Ă©co-campus Hubert-Reeves dans le Technoparc de MontrĂ©al (en)[22].

RĂ©seau

Supervision du réseau dans une salle de contrÎle d'un centre de données.

Les communications à l'intérieur d'un centre se font maintenant presque exclusivement par Internet Protocol. Il contient donc des routeurs, des commutateurs et tout autre équipement qui permet d'assurer la communication entre les serveurs et le monde extérieur. La redondance est parfois obtenue en faisant usage de multiples équipements réseau de marques différentes.

Quelques serveurs servent à fournir aux utilisateurs de la société les services Internet et Intranet de base dont ils ont besoin : courriel, proxy, DNS, fichiers, etc.

Des équipements de sécurité réseau y sont aussi présents : pare-feu, VPN, systÚmes de détection d'intrusion, etc. ainsi que des systÚmes de monitoring du réseau et de certaines applications.

Applications

Les serveurs tendent Ă  ĂȘtre virtualisĂ©s. En France, un tiers des serveurs hĂ©bergĂ©s dans des centres de donnĂ©es serait virtualisĂ© et un cinquiĂšme Ă  haute densitĂ© en 2011. Ces taux devaient doubler d’ici 2013[23].

Le but principal d'un centre de traitement de donnĂ©es est d'exĂ©cuter des applications qui traitent des donnĂ©es essentielles au fonctionnement d'une sociĂ©tĂ©. Ces applications peuvent ĂȘtre conçues et dĂ©veloppĂ©es en interne par l'entreprise cliente ou par un fournisseur de progiciel de gestion d'entreprise. Il peut s'agir typiquement de ERP et CRM.

Souvent, ces applications sont réparties dans plusieurs ordinateurs, chacun exécutant une partie de la tùche. Les composantes les plus habituelles sont des systÚmes de gestion de base de données, des serveurs de fichiers, des serveurs d'applications et des middleware.

Gestion de la capacitĂ© d’un centre de donnĂ©es

 Le cycle de vie de la capacité d'un centre de données.
Le cycle de vie de la capacité d'un centre de données.

La capacitĂ© d’utilisation d’un centre de donnĂ©es peut ĂȘtre limitĂ©e par plusieurs paramĂštres. Sur le long terme, les principales limites que rencontreront les exploitants seront la surface utilisable, puis la puissance disponible.

Dans la premiĂšre phase de son cycle de vie un centre de donnĂ©es verra une croissance plus rapide de sa surface occupĂ©e que de l’énergie consommĂ©e.

Avec la densification constante des nouvelles technologies des matériels informatiques, le besoin en énergie va devenir prépondérant, équilibrant puis dépassant le besoin en superficie (deuxiÚme puis troisiÚme phase du cycle).

Le dĂ©veloppement et la multiplicitĂ© des appareils connectĂ©s, des besoins en stockage et traitements des donnĂ©es font que les besoins des centres de donnĂ©es croissent de plus en plus rapidement. Il est donc important de dĂ©finir une stratĂ©gie de dĂ©veloppement du centre de donnĂ©es avant d’ĂȘtre « dos au mur Â». Le cycle de dĂ©cision, conception, construction est de plusieurs annĂ©es. Il est donc important d’initier cette rĂ©flexion stratĂ©gique lorsque le centre de donnĂ©es atteint 50 % de son Ă©nergie consommĂ©e.

Le maximum d’occupation d’un centre de donnĂ©es doit se stabiliser autour des 85 % tant en Ă©nergie qu’en superficie occupĂ©e. En effet, les ressources ainsi mĂ©nagĂ©es serviront d’espace de manƓuvre pour gĂ©rer les remplacements de matĂ©riel et permettra ainsi la cohabitation temporaire des anciennes et nouvelles gĂ©nĂ©rations.

Si cette limite vient Ă  ĂȘtre dĂ©passĂ©e durablement, il ne devient plus possible de procĂ©der au remplacement des matĂ©riels, ce qui conduit inexorablement vers l’étouffement du systĂšme d’information.

Le centre de donnĂ©es est une ressource Ă  part entiĂšre du SystĂšme d’information (SI), avec ses propres contraintes de temps et de gestion (durĂ©e de vie 25 ans), il doit donc ĂȘtre pris en compte dans le cadre des plans Ă  moyens termes du SI (entre trois et cinq ans).

Localisation des centres de traitement de données

Centre de traitement de Google de The Dalles en Oregon.

Le critĂšre de proximitĂ© aux bassins d'usagers[24], d'importance pour les opĂ©rateurs, se double d’une garantie de sĂ©curitĂ© et de connectivitĂ© stable. Le coĂ»t d’installation est un autre facteur dĂ©cisif : les entreprises cherchent des zones d'accueil dont le prix du foncier et le coĂ»t de construction du bĂąti sont les plus bas possibles. Les politiques d’allĂ©gements fiscaux en leur faveur peuvent se rĂ©vĂ©ler Ă  ce titre un levier d’attractivitĂ© majeur, mĂȘme si la rĂ©glementation nationale a Ă©voluĂ© vers un cadre plus contraignant. Ainsi, depuis 2022 en France, « l’éligibilitĂ© Ă  l’abattement de la TICFE sera conditionnĂ©e Ă  l’adoption d’un systĂšme de management de l’énergie et Ă  l’adhĂ©sion Ă  un rĂ©fĂ©rentiel officiel de bonnes pratiques en matiĂšre d’énergie »[25].

En 2011, on dĂ©nombrait 2 087 centres de traitement de donnĂ©es dans le monde. Le Groupement des industries de l’équipement Ă©lectrique, du contrĂŽle-commande et des services associĂ©s (GimĂ©lec) estime Ă  130 le nombre de centres de traitement de donnĂ©es d'offreurs en France, dont 40 % en rĂ©gion parisienne[26]. Une dizaine d'annĂ©es plus tard, leur nombre serait montĂ© Ă  prĂšs de 260 entitĂ©s sur le sol français[27]. Dans ce pays, les centres de traitement sont dispersĂ©s sur l'ensemble du territoire ou concentrĂ©s dans des zones liĂ©es au rĂ©seau urbain dans les dĂ©partements de Paris, d'Île-de-France (essentiellement Hauts-de-Seine, Seine-Saint-Denis), le Nord et les Bouches-du-RhĂŽne ; l'ouest et la rĂ©gion RhĂŽne-Alpes sont Ă©galement des zones privilĂ©giĂ©es[28].

MĂ©l Hogan relĂšve quant Ă  lui 500 000 centres de donnĂ©es dans le monde en 2011, avançant mĂȘme le chiffre de trois millions comme Ă©tant une estimation plus rĂ©aliste (estimations par Emerson Network Power et par The Register respectivement)[29]. En 2019, le site danois datacentermap.com recense 4 798 centres de traitement de donnĂ©es dans 122 pays dans le monde[30], dont 1 756 aux États-Unis et 149 en France[31].

Vue satellite d'un centre de données d'Apple à Reno (Nevada).

Les services informatiques des grandes entreprises sont gĂ©nĂ©ralement implantĂ©s dans des centres de traitement de donnĂ©es, dĂ©diĂ©s ou mutualisĂ©s. Les plus gros centres dans le monde sont ceux des gĂ©ants de l'internet comme Google, qui utilise des infrastructures modulaires en conteneurs, qui peuvent hĂ©berger jusqu'Ă  1 160 serveurs[32] (voir Plateforme Google), ou Facebook qui a Ă©tendu son centre de traitement de Prineville dans l'Oregon[33]. Amazon a lui aussi implantĂ© son centre de traitement dans l'Oregon, compte tenu du faible coĂ»t de l'Ă©nergie dans cet État[34]. Apple a construit son plus gros centre Ă  Maiden en Caroline du Nord[35], pour soutenir sa stratĂ©gie de dĂ©veloppement de l'iCloud[36].

Enjeux énergétiques

En 2018 les cinq premiĂšres entreprises mondiales en capitalisation boursiĂšre sont Apple, Amazon, Alphabet, Microsoft et Facebook, qui dĂ©passent des gĂ©ants pĂ©trogaziers que sont Shell et ExxonMobil (en , l'entrĂ©e en bourse de Saudi Aramco change la donne, puisque la capitalisation de cette entreprise dĂ©passe 2 000 milliards de dollars[37]). Ces nouveaux gĂ©ants et les GAFAM en gĂ©nĂ©ral contribuent au rĂ©chauffement des milieux et au rĂ©chauffement climatique par l'Ă©nergie grise qu'ils consomment[13]. Cette tendance devrait s'amplifier du fait du dĂ©veloppement mondial d'Internet, de la vidĂ©o en ligne, de la tĂ©lĂ©phonie sans fil, des objets connectĂ©s, du big data et de la technologie blockchain. Un rapport de l'Agence internationale de l'Ă©nergie atomique de 2017 sur le numĂ©rique et l'Ă©nergie estime que la quantitĂ© de donnĂ©es Ă  stocker et manipuler par les centres de donnĂ©es devrait tripler entre 2014 et 2020, ce qui doit inciter Ă  les gĂ©rer avec la plus grande vigilance ; dans un premier temps, l'optimisation Ă©nergĂ©tique devrait permettre de limiter l'augmentation de la consommation Ă  3 % entre 2014 et 2020[13], mais ni l'informatique quantique, ni la bio-informatique ne semblent assez mĂ»res pour permettre un saut technologique.

En 2018, 200 tĂ©rawatts-heures (TWh) ont Ă©tĂ© nĂ©cessaires au fonctionnement des centres de donnĂ©es, soit 1 % de la demande mondiale d'Ă©lectricitĂ©[13], Ă©quivalents Ă  la production d'environ la moitiĂ© des rĂ©acteurs nuclĂ©aires de France (379,1 TWh[38] en 2017. L'augmentation de leur efficacitĂ© nullifiera encore jusqu'en 2028 l’augmentation de la consommation induite par un accroissement du trafic, selon Dale Sartor (responsable du Centre d'expertise sur l'efficacitĂ© Ă©nergĂ©tique dans les centres de donnĂ©es du laboratoire national Lawrence-Berkeley, du DOE), mais la demande en Ă©lectricitĂ© devrait ensuite de nouveau augmenter rapidement[13]. En 2020, la consommation mondiale atteint 650 tĂ©rawatts-heures, soit entre 1 % et 3 % de la production Ă©lectrique mondiale[17].

Deux enjeux sont donc de réduire la consommation informatique mondiale d'énergie et de valoriser sa chaleur de récupération (voir section Gestion thermique des centres de données).

Le seul refroidissement du matĂ©riel informatique contribue directement Ă  0,3 % aux Ă©missions totales de carbone, alors que la totalitĂ© de l'informatique Ă©met 2 % de toutes les Ă©missions mondiales, Ă©nergie grise non comprise[13]. L'empreinte carbone de l'informatique devrait encore beaucoup augmenter, de mĂȘme que son empreinte eau (en 2014, les data centers amĂ©ricains ont consommĂ© 100 milliards de litres d'eau dans les tours de refroidissement). La consommation Ă©lectrique de l'informatique dans le monde dĂ©passera probablement 20 % du total mondial avant 2030, dont le tiers pour les seuls centres de donnĂ©es[13]. La prospective reste dĂ©licate dans le domaine informatique, oĂč l'innovation est rapide, mais si la cryptomonnaie (comme Bitcoin ou Ethereum) et la blockchain ou l'IA se dĂ©veloppent sans se dĂ©carboner[39] et sans Ă©conomiser l'Ă©nergie, notamment dans un contexte de gaspillage d'Ă©nergies et d'obsolescence programmĂ©e, la demande en Ă©nergie et en Ă©lectricitĂ© sera encore trĂšs supĂ©rieure[13].

Anders Andrae, expert en TIC durables chez Huawei Technologies Ă  Kista en SuĂšde, estime que sans effort important, la consommation Ă©lectrique des centres de donnĂ©es pourrait ĂȘtre multipliĂ©e par 15 entre 2015 et 2030, pour atteindre 8 % de la demande mondiale en Ă©lectricitĂ©[40], mais ce chiffre est controversĂ©[13].

Une hypothĂšse inverse est qu'une partie des donnĂ©es sera stockĂ©e et exploitĂ©e sur les millions d'ordinateurs selon le principe d'un centre de donnĂ©es distribuĂ©e[41] (voir infra), mĂȘme si des centres de donnĂ©es sĂ©curisĂ©s resteront a priori nĂ©cessaires pour les donnĂ©es sensibles, Ă©conomique, militaires, de renseignement, de santĂ© et personnelles notamment.

Le bas coût de l'énergie dans les années 2000-2010, permis par le gaz de schiste et la crise de 2008, ainsi que l'absence de taxe carbone ou de taxe générale sur les activités polluantes des centres de données, n'ont pas encouragé les économies d'énergie, mais des progrÚs sont faits[13].

De nombreux serveurs rĂ©alisent aussi des taches inutiles ; ainsi Jonathan Koomey a-t-il constatĂ© en 2018 que presque un quart d'un Ă©chantillon de 16 000 petits serveurs installĂ©s dans des placards, gaines et sous-sols d'entreprises effectuaient en « zombies » des tĂąches obsolĂštes que des techniciens ou logiciels avaient oubliĂ© de dĂ©sactiver. Selon une Ă©tude du Berkeley National Laboratory, transfĂ©rer l'activitĂ© de 80 % des serveurs de petits centres de donnĂ©es amĂ©ricains vers des centres de trĂšs grande envergure plus performants entraĂźnerait une Ă©conomie de 25 % de leur consommation d’énergie[42].

Le Bitcoin, nĂ© en 2008, consommait dĂ©jĂ  Ă  lui seul 20 TWh d’électricitĂ© par an dans le monde en 2018, l'Ă©quivalent d'un peu moins de 10 % de la consommation des centres de donnĂ©es, selon Alex de Vries (consultant en donnĂ©es chez PwC)[43], mais il pourrait ne pas se dĂ©velopper autant que ce qu'espĂšrent ses promoteurs, ou migrer vers des types de blockchains humaines[44] ou moins Ă©nergivores, ou pourrait finalement ne pas rĂ©pondre aux besoins de confiance dans les transactions[45]. L'utilisation gĂ©nĂ©ralisĂ©e de la blockchain par les bourses serait plus prĂ©occupant.

Enjeux environnementaux

Le développement massif des centres de données au début du xxie siÚcle (notamment pour le compte de sociétés de services comme Google, Amazon ou OVH en France) a rapidement soulevé des enjeux environnementaux, notamment liés :

Les impacts environnementaux se concentrent d'une part lors de la fabrication : des bùtiments, des équipements liés aux bùtiments (groupes froid, groupes électrogÚnes, onduleurs, etc.) et des équipements informatiques et télécoms qu'ils contiennent ; d'autre part à l'utilisation du centre de données. La fabrication concentre les pollutions et l'épuisement des stocks de ressources non renouvelables. L'utilisation se traduit essentiellement par des émissions de gaz à effet de serre (liées à la production de l'énergie consommée par le centre de données) et des émissions des déchets d'équipements électriques et électroniques (DEEE).

L'empreinte Ă©cologique globale des centres de donnĂ©es grandit rapidement, mais elle aurait pu ĂȘtre rĂ©duite par une optimisation et un partage des ressources (de 25 % environ en 2010)[46] et pourrait encore l'ĂȘtre (voir ci-dessous).

Émissions indirectes de gaz à effet de serre

Selon les études, les centres de données seraient responsables de 1 %[47] à 2 %[48] des émissions mondiales de gaz à effet de serre en 2020, soit un impact comparable à celui du transport aérien[48]. Les centres informatiques représenteraient prÚs de 15 % de l'impact environnemental du numérique à l'échelle mondiale, tandis que les équipements utilisateurs en concentrent les deux tiers, et le réseau la part restante[49]. En 2018, les centres de données étaient responsables de 0,3 % des émissions mondiales[13].

Selon l'association française The Shift Project, le numĂ©rique dans son ensemble Ă©tait responsable de 3,7 % des Ă©missions de CO2 mondiales en 2018, contre 2,5 % en 2013[50]. La consommation Ă©lectrique des centres de donnĂ©es de l'Union europĂ©enne est estimĂ©e[51] Ă  104 Twh en 2020[52] - [53].

Amélioration du bilan carbone

Une partie de la chaleur qu'ils émettent est parfois récupérée et exploitée par les serveurs et les systÚmes de stockage, notamment pour des raisons économiques (coproduction) et commerciales (image de marque).

Deux leviers pour amĂ©liorer le bilan carbone sont les Ă©conomies d'Ă©nergie d'une part et l'Ă©coconception avec valorisation de la chaleur produite d'autre part. Des mesures compensatoires (compensation carbone) sont aussi envisagĂ©es ou utilisĂ©es par certains acteurs. En 2011, le centre GrenoblIX est devenu le premier centre de donnĂ©es « Ă©cologique Â» en France.

Consommation d'électricité

MalgrĂ© des gains d'efficience Ă©nergĂ©tique des processeurs et en matiĂšre d'optimisation des rĂ©seaux[54] et d'efficacitĂ© Ă©nergĂ©tique des matĂ©riels informatiques[55], en raison de l'explosion des besoins, les gros centres de traitement de donnĂ©es sont des systĂšmes physiques et cybernĂ©tiques (Cyber-Physical System[56] - [57]) qui consomment des quantitĂ©s importantes et croissantes d'Ă©lectricitĂ©[58]. Un centre de donnĂ©es de 10 000 m2 consommerait autant qu'une ville de 50 000 habitants[59] et un grand centre de donnĂ©es consomme 100 MW soit 1/10e de la production d’une centrale thermique[60]

« À l'Ă©chelle europĂ©enne, la Commission estimait en 2008 que les centres de donnĂ©es consommaient 56 TWh[61], dont la moitiĂ© pour refroidir les bĂątiments[21] ».

Une des principales métriques utilisées pour évaluer l'efficacité énergétique d'un centre de données est l'indicateur d'efficacité énergétique ou PUE (pour Power Usage Effectiveness en anglais). Cet indicateur évalue la surconsommation électrique due à tous les équipements non informatiques du datacenter. Un datacenter idéal aurait un indicateur d'efficacité énergétique de 1, c'est-à-dire la totalité de la consommation électrique du datacenter serait consommée par les équipements informatiques.

La crise de l'Ă©nergie de 2022 rĂ©duit les bĂ©nĂ©fices des opĂ©rateurs de centres de donnĂ©es, les coĂ»ts Ă©nergĂ©tiques passant de 50 â‚Ź/MWh dĂ©but 2021 Ă  200 â‚Ź/MWh dĂ©but 2022 et Ă©tant attendus Ă  500 â‚Ź/MWh en 2023[62].

Alternative distribuée

Pour rĂ©pondre Ă  ces trois enjeux et aprĂšs que l'expĂ©rience SETI@home a montrĂ© l'intĂ©rĂȘt du calcul distribuĂ© (en utilisant dans ce cas des ordinateurs personnels connectĂ©s Ă  l’Internet), certains opĂ©rateurs comme AMD ont envisagĂ© de dĂ©centraliser leurs centres de traitement de donnĂ©es en un rĂ©seau distribuĂ© tel que proposĂ© par[57] d'unitĂ©s (petits centres de traitement de donnĂ©es bĂ©nĂ©ficiant chacun d'une Ă©olienne, maillĂ©s entre eux par des fibres optiques[63]).

Des installateurs et propriétaires de centres de traitement de données et des producteurs d'énergie[64] pourraient à l'avenir associer leurs investissements dans un réseau électrique intelligent, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose dans son concept de troisiÚme révolution industrielle.

Le cloud computing pourrait alors Ă©voluer vers un modĂšle totalement dĂ©centralisĂ©, nĂ©cessitant une « gestion dynamique du refroidissement »[65] - [66] (refroidir lĂ  oĂč il faut et quand il faut, et passivement tant que possible[66]), ainsi qu'une conception diffĂ©rente de la sĂ©curitĂ© des serveurs et de leurs donnĂ©es, de la gestion distribuĂ©e des donnĂ©es, de la gestion de l'Ă©nergie[67] et de la capacitĂ© des rĂ©seaux de centres de traitement de donnĂ©es Ă  s'autoadapter aux fluctuations des besoins, mais aussi de l'Ă©nergie disponible[68]. Leurs rĂ©ponses doivent ĂȘtre plus Ă©lastiques[69], sans augmentation globale des consommations d'Ă©nergie, dans le cadre d'un green cloud[70] qui reste Ă  inventer.

Au dĂ©but des annĂ©es 2000, une solution complĂ©mentaire des prĂ©cĂ©dentes apparait, qui pourraient ĂȘtre rĂ©servĂ©e aux donnĂ©es Ă  fortement sĂ©curiser. Elle consiste Ă  dĂ©velopper des rĂ©seaux de serveurs en grande partie virtuels (ou plus prĂ©cisĂ©ment partagĂ©s et distribuĂ©s, utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant quand leur propriĂ©taire ne les utilisent pas ou les sous-utilisent[71], ce qui demande aussi de repenser la sĂ©curitĂ© informatique). Pour cela, des systĂšmes d'allocation sĂ©curisĂ©e des ressources et de rĂ©partition des tĂąches (Ă©ventuellement diffĂ©rĂ©es quand elles ne sont pas urgentes) doivent encore ĂȘtre testĂ©s et validĂ©s Ă  grande Ă©chelle. Dans tous les cas la recherche et dĂ©veloppement est Ă  dĂ©velopper[72].

Radiateurs numériques : C'est un pseudo radiateur électrique (il irradie la chaleur fatale informatique sous forme de chaleur utile. Les cartes mÚres et leurs processeurs remplacent tout ou partie de l'élément chauffant à effet joule[73].

En 2013, une expérience propose de délocaliser des serveurs chez des particuliers en lieu et place de radiateurs[74].

Le , dans le cadre du Projet Natick, Microsoft et Naval Group ont immergĂ© leur premier datacenter au large des Orcades en Écosse fonctionnant complĂštement en autonomie avec des Ă©nergies renouvelables.

Indicateurs environnementaux

Les indicateurs proposés par le Green Grid sont les suivants[75] :

  • le green energy coefficient (GEC) quantifie la part d’énergie renouvelable consommĂ©e par un centre informatique. Il se calcule en divisant la quantitĂ© d’électricitĂ© consommĂ©e (kWh) issue de sources primaires renouvelables par la consommation totale du centre de donnĂ©es ;
  • l’energy reuse factor (ERF) mesure la quantitĂ© d’énergie utilisĂ©e en dehors du centre de donnĂ©es. Cet indicateur est calculĂ© en divisant la quantitĂ© d’énergie rĂ©utilisĂ©e (kWh) par la quantitĂ© totale d’énergie consommĂ©e par le centre informatique (kWh). L’énergie rĂ©utilisĂ©e peut prendre diffĂ©rentes formes : chaleur, Ă©lectricitĂ©, etc. ;
  • le carbon usage effectiveness (CUE) permet d’extrapoler un volume d’émissions de gaz Ă  effet de serre (GES) Ă  partir de la consommation Ă©lectrique du centre de donnĂ©es. On le calcule en divisant le total des Ă©missions d’équivalent CO2 (kgCO2eq) par le total de la quantitĂ© d’énergie consommĂ©e (kWh) par le centre informatique.

L'organisme Uptime Institute a défini une certification des centres de traitement de données en quatre catégories, appelées « Tier ».

Perspectives de régulation

Diverses prĂ©conisations sont formulĂ©es pour prĂ©server l’écosystĂšme social urbain ou rural en jeu. Si certains Ă©lus locaux en appellent Ă  des moratoires communaux ou nationaux — Ă  l'image des Pays-Bas en 2019[76] —, le corps citoyen et militant[77] prĂ©conise Ă  court terme un travail de pĂ©dagogie auprĂšs des populations d’accueil pour pallier le manque de transparence. À Marseille, dont l'effet d'Ăźlot de chaleur urbain est renforcĂ© par la prĂ©sence de nombreux centres de donnĂ©es Ă  proximitĂ© des nƓuds de raccordement Ă©lectrique et numĂ©rique[78] - [27], SĂ©bastien Barles, conseiller mĂ©tropolitain Ă  Aix-Marseille-Provence, plaide par exemple pour la crĂ©ation de commissions locales d'information[79], comme cela a pu ĂȘtre mis en place au sujet du nuclĂ©aire.

Des dispositions lĂ©gislatives spĂ©cifiques sont Ă©galement Ă©voquĂ©es pour l'attribution et l'exploitation du foncier occupĂ©, notamment selon une logique de compensation. L’occupation ou l’octroi des sols pourrait ainsi ĂȘtre conditionnĂ©e Ă  un ratio d’emplois crĂ©Ă©s ou Ă  une contribution financiĂšre Ă  la transition Ă©cologique au bĂ©nĂ©fice du territoire concernĂ©[80].

Notes et références

  1. cf la section terminologie
  2. Livre Blanc « Datacenters, une chance pour la France Â», sur globalsecuritymag.fr.
  3. Commission d’enrichissement de la langue française, « centre de donnĂ©es », sur FranceTerme, ministĂšre de la Culture (consultĂ© le ).
  4. « centre de traitement de données », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
  5. Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, 2019, p. 56.
  6. Thierry Lévy-Abégnoli, Climatisation et serveurs : vers des salles informatiques plus vertes, ZDNet France, le .
  7. « Infrastructure : vers la consolidation et la convergence », ZDNet,‎ (lire en ligne).
  8. Les progrĂšs des Ă©quipements informatiques, Christophe Auffray, ZDNet France, le .
  9. « Énergie consommĂ©e par les data centers », sur planetoscope.com (consultĂ© le ).
  10. « La climatisation, bĂȘte noire des datacenters », sur Actu-Environnement (consultĂ© le ).
  11. Christophe Auffray, Des couloirs chauds et froids, ZDNet France, le .
  12. Christophe Auffray, Des corridors froids pour accroßtre le rendement énergétique, ZDNet France, le .
  13. (en) N. Jones, « How to stop data centres from gobbling up the world’s electricity : The energy-efficiency drive at the information factories that serve us Facebook, Google and Bitcoin », Nature, no 561,‎ , p. 163-166 (DOI 10.1038/d41586-018-06610-y).
  14. datadock.eu Caractéristiques techniques - Refroidissement.
  15. (en) Mauricio Arregoces et Maurizio Portolani, Data Center Fundamentals, (ISBN 9781587050237), p. 150.
  16. Voir la section « Enjeux énergétiques ».
  17. BenoĂźt Berthelot, « La lourde facture environnemental des data center », Capital,‎ (lire en ligne, consultĂ© le ).
  18. Baptiste Roux, Dit Riche, Centres de donnĂ©es nouveaux ou existants : l’importance de l’urbanisation Green-IT, Cleantech Republic, .
  19. Et si on immergeait les data centers dans les océans ?, batiactu.com, .
  20. « Se chauffer grĂące Ă  l'Ă©nergie des serveurs informatiques », Le Monde,‎ (lire en ligne, consultĂ© le ).
  21. « Se chauffer grùce à l'énergie des serveurs informatiques », Le Monde,
  22. François Huot, Centre de données : Deux approches différentes , mais révolutionnaires [PDF], sur Directioninformatique.com (archive), .
  23. Markess International, Datacenters & Clouds PrivĂ©s d’Entreprise, Approches – Perspectives 2013 [PDF]
  24. belghaoutilina, « Les enjeux derriÚre la localisation des data centers », Comment voit-on la ville ?, sur HypothÚses.org, (consulté le ).
  25. Anastasia Gachet, « Data centers : la réduction de la TICFE conditionnée à partir du », sur APL, (consulté le ).
  26. « Carte des datacenters de Paris », sur france-datacenter.fr (consulté le ).
  27. « Dans la peau de l'info. Ce qu'il faut savoir sur les data centers, et pourquoi Marseille veut freiner leur installation », sur Franceinfo, (consulté le ).
  28. Cartographie des centres de donnĂ©es en France Ă  l’ùre du cloud computing, sur markess.fr
  29. (en) Mél Hogan, « Data flows and water woes: The Utah Data Center », Big Data and Society, .
  30. (en) Data Center Map, « Colocation data centers », sur datacentermap (consulté le ).
  31. (en) Data Center Map, « Colocation France », sur datacentermap (consulté le ).
  32. (en) Inside A Google Data Center | Data Center Knowledge
  33. (en) Facebook Datacenter Category at Data Center Knowledge.
  34. (en) Amazon Building Large Data Center in Oregon, Data Center Knowledge.
  35. (en) « The Apple Data Center FAQ. », sur Data Center Knowledge, (consulté le ).
  36. (en) Timothy Prickett Morgan, « A peek inside Apple's iCloud data center », sur theregister.co.uk, (consulté le ).
  37. « Aramco atteint une valorisation de 2 000 milliards de dollars », La LibertĂ©, .
  38. « Le nuclĂ©aire en chiffres », sur ÉlectricitĂ© de France, (consultĂ© le ).
  39. (en) J. Truby, « Decarbonizing Bitcoin: Law and policy choices for reducing the energy consumption of Blockchain technologies and digital currencies », Energy research & social science, 2018 (résumé).
  40. (en) A.S. Andrae et T. Edler, « On global electricity usage of communication technology : trends to 2030 », Challenges, volume 6, numéro 1, 2015, p. 117-157.
  41. (en) Attias V & Bramas Q, Tangle analysis for IOTA cryptocurrency [PDF], 2018.
  42. (en) A. Shehabi et al., United States Data Center Energy Usage Report (LBNL), 2016.
  43. (en) A. de Vries, « Bitcoin's Growing Energy Problem » [PDF], Joule, no 2, volume 5, 2018, p. 801-805.
  44. (en) Kopp H, Kargl F, Bösch C & Peter A, « uMine: a Blockchain based on Human Miners », 2018.
  45. (en) M. Campbell‐Verduyn et M. Goguen, « Blockchains, trust and action nets: extending the pathologies of financial globalization », Global Networks, vol. 19, no 3,‎ , p. 308-328 (DOI 10.1111/glob.12214, prĂ©sentation en ligne).
  46. (en) Saurabh Kumar Garg, Chee Shin Yeo, Arun Anandasivam, Rajkumar Buyya, « Environment-conscious scheduling of HPC applications on distributed Cloud-oriented datacenters », Journal of Parallel and Distributed Computing, vol. 71, no 6,‎ , p. 732–749 (lire en ligne [PDF]).
  47. « Les data centers, un gouffre Ă©nergĂ©tique ? », sur RĂ©seau Étudiant pour une SociĂ©tĂ© Écologique et Solidaire, .
  48. Joarson, « Data center : l’impact des infrastructures sur l’environnement et les solutions possibles », sur LeBigData.fr, (consultĂ© le ).
  49. Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, 2019, p. 57.
  50. Hugues FerrebƓuf (dir.), Lean ICT - Pour une sobriĂ©tĂ© numĂ©rique, The Shift Project, , 88 p. (prĂ©sentation en ligne, lire en ligne [PDF]), p. 59.
  51. (en) Howard Geller, « ACEEE 1996 Summer Study on Energy Efficiency in Buildings: profiting from energy efficiency », Energy Policy, vol. 25, no 5,‎ , p. 541–542 (ISSN 0301-4215, DOI 10.1016/s0301-4215(97)89666-8).
  52. (en) EU Code of Conduct on Data Centre Energy Efficiency : Participant Guidelines and Registration Form, Ispra, European Energy Efficiency Platform, Commission européenne, , 21 p..
  53. Commission européenne, Joint Research Centre, Trends in data centre energy consumption under the European code of conduct for data centre energy efficiency., Publications Office, (DOI 10.2760/358256).
  54. (en) S. Nedevschi, L. Popa1, G. Iannaccone, S. Ratnasamy, D. Wetherall, « Reducing Network Energy Consumption via Sleeping and Rate- Adaptation », in Proceedings of the 5th USENIX Symposium on Networked Systems Design & Implementations (NSDI’08), San Francisco, CA, April 2008.
  55. (en) M. Elnozahy, M. Kistler, R. Rajamony, « Energy-Efficient Server Clusters », Power-Aware Computer Systems, 2003, p. 179-197.
  56. National Science Foundation. Cyber-physical systems. Technical report, NSF Workshop on Cyber-Physical Systems, 2006. NSF Workshop on Cyber-Physical Systems.
  57. (en) L Rao, X Liu, Le Xie, Wenyu Liu, Minimizing electricity cost: Optimization of distributed internet data centers in a multi-electricity-market environment [PDF], INFOCOM, 2010 Proceedings, 2010, 9 pages.
  58. (en) G. Chen, W. He, J. Liu, S. Nath, L. Rigas, L. Xiao, F. Zhao. « Energy- Aware Server Provisioning and Load Dispatching for Connection- Intensive Internet Services », in Proceedgins of the 5th USENIX Symposium on Networked Systems Design & Implementation (NSDI’08), San Francisco, CA, April 2008.
  59. Quand l'informatique sert aussi Ă  se chauffer, Bati Actu,
  60. « Numérique : le grand gùchis énergétique », sur CNRS Le journal (consulté le ).
  61. La citation originale, « 56 milliards de kilowatts », est manifestement erronée et a été corrigée suivant la source sur laquelle elle se fonde : Code of Conduct on Data Centres Energy Efficiency [PDF].
  62. Ridha Loukil, « La crise énergétique met les opérateurs de datacenters sous pression », sur L'Usine nouvelle, (consulté le ).
  63. « Installer une fibre optique coĂ»te entre 5 000 euros et 15 000 euros par kilomĂštre, contre 475 000 euros pour une ligne Ă©lectrique », source : (en) Steve Kester Greening the Cloud: AMD promotes promising research on Renewable-Powered Data Centers.
  64. (en) L. Parolini, B. Sinopoli et B. Krogh, Reducing Data Center Energy Consumption via Coordinated Cooling and Load Management, Hot-Power ’08: Workshop on Power Aware Computing and Systems, ACM, 2008.
  65. (en) Cullen E. Bash, Chandrakant D. Patel, Ratnesh K. Sharma, Dynamic thermal management of air cooled data centers ; IEEE, 2006
  66. (en) Chandrakant D. Patel, Cullen E. Bash, Ratnesh Sharma, Smart Cooling of Data Centers, p. 129-137, ASME 2003 International Electronic Packaging Technical Conference and Exhibition (InterPACK2003), 6-11 juillet 2003, Maui, Hawaii, volume 2 (ISBN 0-7918-3690-8).
  67. (en) R. Raghavendra, P. Ranganathan, V. Talwar, Z. Wang, and X. Zhu, No power struggles: coordinated multi-level power management for the data center, in ASPLOS XIII: Proceedings of the 13th international conference on Architectural support for programming languages and operating systems. New York, NY, USA: ACM, 2008, p. 48C59.
  68. (en) J. Heo, D. Henriksson, X. Liu, T. Abdelzaher, « Integrating Adaptive Components: An Emerging Challenge in Performance-Adaptive Systems and a Server Farm Case-Study », in Proceedings of the 28th IEEE Real- Time Systems Symposium (RTSS’07), Tucson, Arizona, 2007.
  69. (en) J. Liu, F. Zhao, X. Liu, W. He, « Challenges Towards Elastic Power Management in Internet Data Centers », icdcsw, p. 65-72, 2009 29th IEEE International Conference on Distributed Computing Systems Workshops, 2009.
  70. (en) L. Liu, H. Wang, X. Liu, X. Jin, W.B. He, Q.B. Wang, and Y. Chen, « GreenCloud: a new architecture for green data center », Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session, Barcelona, Spain: ACM, 2009, p. 29-38.
  71. (en) Graupner, S., Kotov, V. ; Trinks, H., Resource-sharing and service deployment in virtual data centers (Conference Publications) IEE, Systems Workshops, ; (ISBN 0-7695-1588-6).
  72. (en) Cullen E. Bash, Chandrakant D. Patel & Ratnesh K. Sharmaa, Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs ; volume 9, numĂ©ro 2, 2003 DOI 10.1080/10789669.2003.10391061, p. 137-152 (rĂ©sumĂ©).
  73. Annexe relative Ă  l'arrĂȘtĂ© du relatif Ă  l’agrĂ©ment des modalitĂ©s de prise en compte des systĂšmes Qrad de chauffage par recyclage de la chaleur fatale informatique dans la rĂ©glementation thermique 2012, ministĂšre de la Transition Ă©cologique et solidaire, ministĂšre de la CohĂ©sion des territoires et des relations avec les collectivitĂ©s territoriales, 2019, numĂ©ro NOR : TERL1909697A.
  74. Anne Drif, « Quand les ordinateurs deviennent radiateurs », Les Échos, .
  75. Data center : trois nouveaux indicateurs environnementaux, greenit.fr, 27 novembre 2012.
  76. Yves Gr et montagne, « Le gouvernement néerlandais prolonge le moratoire et veut bloquer les implantations de datacenters hyperscale », sur DCmag (consulté le ).
  77. « À Marseille, la dĂ©mesure des data centers », sur Reporterre (consultĂ© le )
  78. médialab Sciences Po, « Les implications écologiques des data centers à Marseille », sur médialab Sciences Po (consulté le ).
  79. « À Marseille, la dĂ©mesure des data centers », sur Reporterre (consultĂ© le ).
  80. « Qu'apportent les data centers à Marseille ? », sur 20 Minutes (France), (consulté le ).

Voir aussi

Articles connexes

Bibliographie

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.