Accueil🇫🇷Chercher

Projet Natick

Le projet Natick est une expérience réalisée par la compagnie Microsoft et Naval Group. Elle consiste à tester des centres de données sous-marins alimentés par des énergies marines et refroidis via l'eau de mer. Le , un premier centre de données a été déployé en mer pour une centaine de jours[1] - [2]. La demande pour l’informatique centralisée est présente et elle connaît une croissance exponentielle. Microsoft gère une centaine de centres de données à travers le monde. La compagnie a dépensé plus de 15 milliards de dollars sur un système de centre de données qui fournit maintenant plus de 200 services en ligne d’où l’intérêt d’explorer de nouvelles avenues[2].

Le logo de Microsoft

Le Microsoft et Naval Group immergent leur premier serveur sous-marin au large des Orcades en Ecosse[3]. Le choix stratégique de ces îles a été fait car elles accueillent un projet en phase de test d'un centre en énergie renouvelable.

Le début de Natick

Chez Microsoft, ils ont une ThinkWeek (semaine de pensée). Cette semaine vient encourager les employés à partager leurs idées pour faire avancer la société[2]. Sean James, qui est un ancien de la marine américaine, a coécrit un article, en , portant sur un centre de données sous-marin alimenté par l’énergie provenant de la mer. À la suite de la parution de l’article, certains chercheurs étaient intéressés par le sujet et le projet s’est concrétisé.

En a eu lieu la première réunion de l’équipe à Redmond dans l’état de Washington. L’équipe de recherche est composée d’Eric Peterson, Spencer Fower, Norm Whitaker, Ben Cutler et Jeff Kramer[4]. C’est a cet endroit qu’ils ont établi leur bureau. Un an plus tard a eu lieu de déploiement du premier centre de données en mer.

Phase 1

L’expérience

L’équipe de chercheurs a construit et testĂ© un centre de donnĂ©es sous-marin nommĂ© Leona Philpot (personnage dans la sĂ©rie de jeux vidĂ©o Halo)[1] - [2]. Le , Leona Philpot a Ă©tĂ© dĂ©ployĂ© dans la mer sur la cĂ´te de la Californie centrale proche de San Luis Obispo. Il se trouvait plus de 30 mètres sous la surface de l’eau[2]. L’expĂ©rience a eu une durĂ©e totale de 105 jours. Par la suite, le centre de donnĂ©es a Ă©tĂ© rapatriĂ© sur la terre ferme pour que les chercheurs puissent analyser les donnĂ©es[1].

Le dĂ©fi de ce projet est de construire un système fiable. Les pannes matĂ©rielles et les fuites sont des inquiĂ©tudes pour les chercheurs, car il est difficile de dĂ©ployer rapidement quelqu’un pour rĂ©parer le centre de donnĂ©es qui est 30 mètres sous l’eau[2]. Les chercheurs sont actuellement Ă  l’étape de l’analyse des donnĂ©es. Ils ont Ă©tĂ© bien connectĂ©s au centre de donnĂ©es tout au long du processus[5]. La connexion est restĂ©e Ă©tablie mĂŞme après un petit col de vague de tsunami[5].

Les chercheurs envisagent de créer un centre de données quatre fois plus gros et 20 fois plus puissant de Leona Philpot pour la prochaine expérience[1] - [5]. Ils souhaitent également étendre le temps d’expérimentation[2]. Quelques lieux pour le déploiement sont envisagés. Les côtes de la Floride ou le nord de l’Europe sont des possibilités[2].

La construction

Exemple de casier de serveurs

Leona Philpot avait un poids de 38 000 livres (17 tonnes). Pour sa construction et pour son allure, les ingĂ©nieurs ont dĂ©cidĂ© de s’inspirer des sous-marins. Ils ont construit une cuve ronde, car la nature s’attaque aux angles vifs et aux arĂŞtes[5]. La cuve ronde possĂ©dant peu d’arĂŞtes et d’angles risque moins d'ĂŞtre endommagĂ©e. Les chercheurs ont mĂŞme notĂ© que la vie marine s’est rapidement adaptĂ©e Ă  la prĂ©sence de la cuve[4] et elle avait mĂŞme commencĂ© Ă  habiter le système[5]. La forme cylindrique de la cuve lui permet aussi de mieux rĂ©sister Ă  la pression et Ă©viter de se dĂ©former et d’endommager le matĂ©riel[5].

Le centre de donnĂ©es comporte des serveurs, un système de refroidissement et d’échange de chaleur ainsi que des capteurs. Les serveurs sont placĂ©s dans un casier. Eric Peterson spĂ©cifie que son Ă©quipe et lui ont utilisĂ© des serveurs standard qu’ils ont adaptĂ©s pour l’environnement marin[1] - [4]. Ă€ l’extĂ©rieur du casier on retrouve le système de refroidissement qui est essentiel pour Ă©viter que les serveurs surchauffent. Les contrĂ´les Ă©lectroniques se trouvent Ă©galement en dehors du casier. Le tout est recouvert d’une cuve scellĂ©e. Cette cuve avait une dimension de 10 pieds par 7 pieds (3x2m). On retrouve Ă  l’extĂ©rieur de la cuve l’échangeur de chaleur[1] . La chaleur est Ă©vacuĂ©e par l’échangeur de chaleur et se trouve refroidie par l’eau de l’ocĂ©an[1].

Leona Philpot était équipée de 100 capteurs différents pour mesurer la température, la pression, l’humidité, le mouvement, la quantité d’énergie utilisée par le système, la vitesse du courant, etc., dans le but de mieux comprendre l’environnement dans lequel se trouve le centre de données[2] - [5].

Les chercheurs envisagent de laisser les centres de données en place cinq ans[2]. Cinq ans, c’est la durée de vie prévue pour les serveurs contenus dans les centres de données. Ils considèrent qu’au bout de ses cinq années, les centres de données seraient récupérés, rechargés avec de nouveaux serveurs et redéployés[4]. Ils supposent qu’un centre de données aurait une durée de vie de vingt ans[2] - [4].

Les chercheurs repensent à l’alignement physique des centres de données. Pour l’instant, ils ont placé les serveurs dans des casiers comme cela se fait dans les centres de données terrestres. Cette disposition facilite la maintenance par l’humain. Dans l’océan, la maintenance ne sera plus requise et la disposition peut être repensée[2].

Phase 2

DĂ©ployĂ© au dĂ©but du mois de , au sein de l'European Marine Energy Centre (EMEC), au large des Orcades. Ce nouveau datacenter de 12,2 m par 3,2 m, est composĂ© de douze racks, contenant au total 864 serveurs. Il a Ă©tĂ© conçu et fabriquĂ© par Naval Group. Ce datacenter a Ă©tĂ© fabriquĂ©, assemblĂ© et testĂ© Ă  Brest.

Ce datacenter conteneur est dĂ©posĂ© Ă  35 mètres de profondeur, pour une durĂ©e initialement prĂ©vue Ă  1 an (la durĂ©e de vie programmĂ©e du conteneur Ă©tant de 20 ans).

Il est conçu pour des profondeurs jusqu'à 100 mètres.

Finalement, le conteneur sera remonté le , mettant ainsi fin à la Phase 2.

Les premières analyses sont très encourageantes puisque le taux de défaillance est inférieur à celui d'un datacenter classique. Durant les deux années d'expérimentation, seulement 8 serveurs ont connu des pannes, ce que Microsoft explique par l'absence de présence humaine et d'oxygène (remplacé par l'azote)[6].

Phase 3

Suite à l'émersion, Microsoft entame la troisième phase du projet, centrée sur l'étude du cycle de vie des serveurs[6].

Objectifs

Les centres de données entreposent d’énormes quantités d’informations que les utilisateurs d’ordinateurs, de cellulaire, de tablette font appel tous les jours. Ces informations sont contenues dans ce qu’on appelle le nuage informatique. Le nuage informatique est emmagasiné dans des centres de données[1] . Peter Lee, vice-président de Microsoft Research, fait remarquer qu’utiliser un cellulaire fait travailler une centaine d’ordinateurs. Si l’on multiplie la centaine d’ordinateurs sollicités pour un usager par le milliard d’utilisateurs, les centres de données dégagent beaucoup de chaleurs[2]. Un des objectifs est de réduire le coût relié au refroidissement des centres de données[1] - [2] - [4] - [5]. La climatisation des centres de données est l’un des problèmes les plus dispendieux de l’industrie[2]. La température de l’eau de la mer pourrait aider à refroidir le système.

Les centres de données sous-marins permettent de répondre rapidement à la demande du marché. Lors de catastrophes naturelles ou d’événements spéciaux comme une coupe du monde, il serait facile d’installer des services à proximité[4]. Les chercheurs de Microsoft croient qu’il serait possible de produire en masse des centres de données sous-marins. De ce fait, cela pourrait prendre seulement 90 jours pour construire un nouveau centre de données[2]. Le milieu marin étant similaire partout sur la Terre permet de construire qu’un seul modèle. Ce n’est pas comme les centres de données terrestres qui doivent être adaptées à l’environnement, la température, le terrain, etc., et que les facteurs varient de façon considérable d’un pays à l’autre[5].

Un autre objectif serait de localiser les centres de données plus proches de la population[1] - [2]. Le fait d’avoir les centres de données à proximité permettrait d’augmenter le service du web. Les centres de données terrestres sont souvent construits loin des grands centres urbains et hors des sentiers battus ce qui crée une grande distance entre les données et les utilisateurs[2]. Avoir les données proches de la population permettrait de réduire le retard et la latence (le temps qu’il faut pour les données pour voyager entre sa source et sa destination[4]). Par exemple, le téléchargement et les jeux vidéo seraient plus rapides[5].

L’impact sur l’environnement

Les chercheurs veulent construire des centres de données durables. Ces centres de données sont pleinement recyclés. Ils sont faits à partir de matériaux recyclés. Les centres de données vont être recyclés à la fin de leur vie[4]. Les chercheurs travaillent à alimenter les centres de données à l’aide d’énergie verte et avec zéro émission. Lors du premier test, Leona Philpot était alimenté par le réseau électrique existant[4]. Cette situation explique que l’expérience se soit réalisée proche des côtes californiennes et non plus loin en mer[5].

Des Ă©oliennes de mer

Le milieu marin donne aux chercheurs une nouvelle possibilité pour l’alimentation du centre de données : l’énergie hydraulique[5] ou l’énergie du mouvement de la mer. Éventuellement, l’électricité qui alimente les centres de données pourrait provenir des vagues renouvelables ou de l’énergie marémotrice[1]. Les vagues, le courant, l'éolien en mer, les marées, etc. sont des sources de courant électrique envisageable par les chercheurs[2] - [4]. La demande d’énergie est exponentielle. L’autosuffisance électrique permettrait de réduire d’autres coûts[2].

Le PUE (Power Usage Effectiveness) qui est le coefficient de l'efficacité de l'utilisation de l'énergie (puissance totale divisée par la puissance du serveur) est de 1.07 pour ce projet. Le coefficient idéal et parfait est de 1.0.

Références

  1. Eng, J. (2016). Project Natick : Microsoft Tests Putting Data Centers Under the Sea. NBC NEWS, Document téléaccessible à l’adresse <http://www.nbcnews.com/tech/innovation/project-natick-microsoft-tests-putting-data-centers-under-sea-n508946>.
  2. Markoff, J. (2016). Microsoft Plumbs Ocean’s Depths to Test Underwater Data Center, The New York Times, Document téléaccessible à l’adresse <https://www.nytimes.com/2016/02/01/technology/microsoft-plumbs-oceans-depths-to-test-underwater-data-center.html?_r=1>.
  3. « Microsoft et Naval Group inaugurent leur premier serveur sous-marin - Les Echos », sur www.lesechos.fr (consulté le )
  4. Microsoft (2016). Project Natick. Site téléaccessible <http://www.projectnatick.com/>. Consulté le 29 février 2016.
  5. Microsoft (2016). Microsoft research project puts cloud in ocean for the first time. Site téléaccessible à l’adresse <http://news.microsoft.com/features/microsoft-research-project-puts-cloud-in-ocean-for-the-first-time/>. Consulté le 29 février 2016.
  6. « Le datacenter immergé de Microsoft remonte à la surface - Le Monde Informatique », sur LeMondeInformatique (consulté le )
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.