Une réalisation qui fait la part belle à la récupération et au transfert de chaleur à l’échelle d’une infrastructure énergétique commune : le Centre de données massives de l’Université Laval.
En avril 2018, l’Université Laval donne le coup d’envoi de la construction d’un pavillon monolitique de 1 224 mètres carrés où seront colligées, traitées et valorisées des données massives en soutien aux activités de recherche de l’institution d’enseignement québécoise et de ses partenaires publics et parapublics. Aujourd’hui en voie d’achèvement, ce projet représente un investissement évalué à un peu plus de 21 millions de dollars.
Ce bâtiment hors de l’ordinaire, parce qu’il s’agit bien de cela, c’est le Centre de données massives (CDM). Et il se profile sans contredit comme un modèle d’efficacité énergétique.
Il faut savoir que ce nouvel équipement sera non seulement autosuffisant en chauffage durant la saison froide, mais que l’excédent de chaleur dégagé par les équipements informatiques sera aussi récupéré pour chauffer d’autres immeubles sur le campus universitaire. Sans compter qu’il permettra d’assurer l’alimentation d’urgence de trois pavillons.
Design équilibré
On s’en doute, une telle installation dégage énormément de chaleur, de sorte qu’elle doit nécessairement être refroidie pour éviter toute panne. Toutefois, si l’ingénierie thermique joue un rôle clé dans la conception, le design architectural du CDM n’a pas été négligé pour autant. Ainsi, pour faire de ce bâtiment un exemple de rendement énergétique, les concepteurs de DAD Architecture/Design se sont d’abord attaqués à la réduction des gains thermiques en profitant du dénivelé du terrain pour l’enfouir en partie dans le sol.
Ils ont également pris le pari de le concevoir en deux volumes. Le volume principal, qui forme la base (« l’énergie ») du CDM, sera relié par un tunnel au campus. Regroupant les locaux techniques, mécaniques et électriques, ce volume de 850 m2 sera sobrement habillé de maçonnerie noire. Quant au second volume, il surmontera le premier et abritera la salle des serveurs (le « cerveau »). D’une superficie de 350 m2, il sera revêtu d’aluminium perforé gris foncé qui conférera à l’ensemble un caractère industriel.
Fait à noter, une seule fenêtre éclairera les lieux. « Personne n’y travaillera, toutes les activités seront pilotées à distance, souligne René Lacroix, vice-recteur adjoint à l’administration de l’Université Laval. En plus, c’est un environnement très bruyant, avec une ventilation en continu, et il y fait très chaud. On y va donc par nécessité. Il s’agit aussi d’une question de sécurité : un centre de données est un lieu névralgique, où se trouvent stockées des quantités énormes d’informations. Mieux vaut ne pas trop dévoiler sa mission. »
Mécanique adaptée
Si le CDM sera un bâtiment plutôt standard, avec une structure d’acier sur dalle de béton et une enveloppe conventionnelle, il en va autrement sur le plan électromécanique. Sa consommation électrique sera en effet très importante. Le « cerveau » contiendra jusqu’à 48 baies de stockage de 48 serveurs chacune qui, à pleine capacité, consommeront jusqu’à 600 kilowatts (kW). À cela s’ajouteront 200 kW pour la puissance mécanique nécessaire au refroidissement des serveurs, et 50 kW pour les charges de base.
« Les machines consomment de l’énergie et cette énergie est transformée en chaleur, mentionne René Lacroix. Il fallait donc trouver des solutions pour refroidir les équipements et éviter les pannes. » Pour assurer la fiabilité des installations, les serveurs ont d’abord été configurés selon le procédé dit de virtualisation. Cette configuration permet de mutualiser les capacités des serveurs et, de ce fait, de réduire la puissance requise.
Il fallait également maintenir une température optimale et prévenir les surchauffes. C’est pourquoi les professionnels de SNC-Lavalin ont spécifié un système de ventilation composé de six ventilateurs axiaux à entraînement direct et à débit variable fonctionnant à basse vitesse. La vitesse est modulée pour maintenir un différentiel de pression statique fixe entre les allées froides (devant les serveurs) et les allées chaudes (derrière les serveurs). Ce contrôle a pour effet de réduire la consommation d’énergie des ventilateurs en réglant le débit d’air en fonction des besoins de refroidissement.
Efficacité démontrée
Restait à évacuer la chaleur produite par les équipements. Pour ce faire, elle sera aspirée par l’échangeur d’air et injectée dans le réseau central d’eau réfrigérée du campus, où elle sera reprise pour chauffer d’autres pavillons en hiver. Ceux-ci sont équipés de pompes thermiques eau/eau qui génèrent de l’eau de chauffage à 45 degrés Celsius, tout en produisant de l’eau réfrigérée. L’air refroidi est ensuite retourné au CVD. Ce réseau en boucle continu aura une efficacité globale annuelle de 0,576 kW/tonne.
À cela s’ajouteront trois refroidisseurs à vis d’une capacité de 100 tonnes chacun, couplés à trois refroidisseurs de liquide installés à l’extérieur du bâtiment. « La capacité des systèmes de refroidissement, installés en redondance, est supérieure aux besoins informatiques, note Guillaume Moutier, directeur du Bureau d’architecture de l’Université Laval. La capacité excédentaire pourra être utilisée pour desservir des besoins en eau réfrigérée sur le campus lors de pannes électriques. Parce qu’en cas de panne, tout doit fonctionner quand même. »
Enfin, pour ce qui est des besoins de chauffage du CVD, ils seront essentiellement comblés par les dégagements de chaleur des divers procédés, à savoir les serveurs, les transformateurs et les chauffe-blocs des génératrices.
Pour éviter toute défaillance des systèmes, le Centre de données massives regroupera cinq génératrices. Deux d’entre elles alimenteront un nouveau réseau de distribution électrique d’urgence souterrain à 4,16 kV. Ce réseau comblera les besoins électriques des équipements de secours et de procédés de quatre autres pavillons de l’Université Laval, dont celui du supercalculateur. Les trois autres fourniront l’électricité nécessaire pour faire fonctionner les UPS (Uninterruptible Power Supply), les serveurs ainsi que les équipements de ventilation et de refroidissement du centre de données lors de pannes électriques.