Ventilátory už nestačí. Chod superpočítačů chrání lépe hadice s vodou

Superpočítače jsou vděčné téma. Obří výkon, který jde daleko za hranice toho, co si člověk dovede představit, a k tomu všechny ty výsledky, které dnes lidé dokážou využít – jejich práce je základem moderní předpovědi počasí i současných vakcín proti koronaviru. Jenže jejich práce vyžaduje také ohromné množství elektrické energie. A to nejen té potřebné pro vlastní chod, ale další pro chlazení celého systému, což bývala dřív oblast, která způsobovala velké energetické ztráty. Technologie pro chlazení superpočítačů jsou ale naštěstí čím dál efektivnější

Když je řeč o chlazení, mluví se nejčastěji o dvou variantách: vzduchovém a vodním. V prvním případě rackové skříně se servery nasávají vzduch ze serverovny, vyfukují ho zpět teplejší, a tak se nějaké zařízení musí postarat o to, aby se z něj zase stal vzduch studený a nezvyšovala se celková teplota prostředí serverovny. „To je cesta, která je energeticky daleko méně efektivní, protože v serverech jako takových musí být mnoho ventilátorů, které potřebují elektřinu, aby profoukly server zepředu dozadu. K tomu musíte mít v serverovně spoustu klimatizačních jednotek s dalšími ventilátory, aby teplý vzduch přeměnily na studený. Navíc musí existovat takzvaný chiller (zdroj chladu), který většinou pomocí kompresoru chlad vytváří,“ líčí Luboš Kolář, specialita Hewlett Packard Enterprise na superpočítačovou infrastrukturu.

Výhod vodního chlazení si mohou užívat i fanoušci klasických PC

Vypočítává tak jednu energetickou položku za druhou a přibližuje, jak náročné na spotřebu tyhle systémy můžou být. Neustále běží spousta ventilátorů, které je potřeba krmit, a vyprodukované teplo pak ještě složitě v serverovně pochytávat. Když dojde na opravdové počty, točí se z toho hlava – u datových center se v tomto kontextu používá parametr PUE, který vyjadřuje efektivitu využívání energie pro samotný superpočítač vůči celkové spotřebované energii. Parametr je tím pádem vždycky větší než 1 a u starších systémů chlazených vzduchem dosahuje hodnoty 1,7 až 2. To znamená, že na 1 MW energie pro fungování samotného superpočítače připadá 700 kW až 1 MW další energie pro obslužné provozy. A to je zkrátka moc. Proto se postupně prosazuje chlazení vodní. Ty nejefektivnější používané u HPC (High Performance Computing) systémů se dostanou až na hodnotu 1,1. Díky čemu?

Ve zkratce řečeno díky tomu, že jdou blíž k původci tepla. „Chladicí zdroj je umístěný přímo na zdroji tepla, na hlavě procesoru, kolem kterého proudí teplá voda – on totiž nemusí být chlazen jako celý sál na 20 stupňů, ale stačí, aby měl například 50 stupňů. Funguje to tak, že do datového centra dostáváme „vodu“ o například 30 až 32 stupních a vedeme ji přímo až na součástky superpočítače (odtud název direct liquid cooling = DLC, neboli přímé kapalinové chlazení). Její teplota se stykem se zdrojem tepla zvedne a zpět dostáváme třeba 35 až 45 stupňů, podle aktuálního vytížení superpočítače. Chlazení se pak musí postarat o pád teploty zpět na 30-32 stupňů, což je nic proti tomu, kdyby mělo ochlazovat třeba na 10 nebo 15 stupňů, jak by se to dělo u starších systémů využívajících vzduch,“ líčí Kolář.

Pro dosažení vysoké efektivity se používá takzvané volné chlazení, které nepotřebuje ani ten zmiňovaný kompresor. Představit si ho lze jako soustavu trubek na střeše, kterými protéká ona chlazená voda. A protože venkovní prostředí je po většinu roku daleko studenější, není problém požadavek na 30stupňovou teplotu naplnit. To je mimochodem případ jak nejvýkonnějšího evropského superpočítače, který HPE dodává do Finska, tak superpočítačů využívaných v Česku, ve Škoda Auto nebo Národním superpočítačovém centru IT4Innovations v Ostravě.

„S novými superpočítači by vzduchové chlazení vyžadovalo až pětinásobek prostoru, a to zkrátka není možné.“

Luboš Kolář, specialista na superpočítače (HPE)

Při porovnání vzduchového a vodního chlazení se u toho druhého objevují i další plusy. Jednotlivé součástky mají daleko větší trvanlivost, když jsou ochlazované kvalitně lokálně. Vzduchem chlazené centrum taky zabírá až pětkrát víc prostoru a jeho provozovatel musí zaplatit mnohem vyšší náklady za propojovací architekturu, drahé optické spoje.

Tlak na instalaci sofistikovanějšího chlazení není jen environmentální. Jak výrobci přichází s čím dál výkonnějšími stroji, nezbývá jim než instalovat výkonnější chlazení, protože se starším typem už by nemuseli obstát. „Novější technologie jsou energeticky čím dál náročnější, na jednotku prostoru se instaluje mnohem víc výkonu. Ještě pět let zpátky měly procesy 100-150 wattů, v současnosti mají 250 až 300 wattů a akcelerátory až 500 wattů a bude to jenom růst. Vzniká nám tak až pětinásobek zbytkového tepla a se staršími systémy by bylo potřeba mít i pětinásobek prostoru a to zkrátka není možné,“ má jasno Kolář, jinak muž stojící v čele týmu, který vybudoval a nadále technicky podporuje nejvýkonnější českou HPC infrastrukturu v ostravském Národním superpočítačovém centru IT4Innovations. I u superpočítačů tak platí to, co všude jinde – technologii zdokonaluje nejen snaha dosahovat lepších výsledků, ale i nutnost získávat je za rozumnějších nákladů, se započítáním těch pořizovacích i těch provozních.

 

🔗 Superpočítač = obrovská spotřeba elektřiny. Jak to je ve skutečnosti? Publikujeme i navazující díl dvoudílné série, kterou jsme připravili ve spolupráci s expertem na superpočítače Lubošem Kolářem (HPE).

Luboš Kolář, expert na superpočítače