Budoucnost není o výpočetním výkonu, ale o přesunech dat

Proč vlastně potřebujeme superpočítače? K čemu?

Trendy

Proč dává smysl překonávat hranice rychlosti a výkonnosti počítačů ve chvíli, kdy už se dnes bavíme o petaflopech a brzy dokonce o exaflopech výkonu? Už teď se pohybuje počet operací za vteřinu v tak vysokých řádech, že si to málokdo vůbec dokáže představit. Proč tedy potřebujeme superpočítače?

Důvody jsou zejména dva. Prvním z nich je věda, v níž nám superpočítače umožňují otevírat nové prostory lidského poznání. V medicíně pomáhají léčit Alzheimerovu chorobu, odkrývají záhady lidského genomu, pomáhají určovat správný koktejl léků na míru každému konkrétnímu pacientovi. V klimatologii předpovídají rizika hurikánů, vln tsunami, zemětřesení, ale také zpřesňují klasické předpovědi počasí. V automobilovém průmyslu se díky high performance computingu zkoumá bezpečnost jednotlivých prototypů aut pomocí počítačových simulací. Do reálných crash testů pak můžou jít auta až v úplném závěru vývoje. A takto bychom mohli pokračovat obor od oboru.

Tím druhým důvodem je skutečnost, že vývoj superpočítačů je inkubátorem pro nové pokrokové technologie a čím rychleji se vyvíjí superpočítače, tím rychleji se pak dostanou nově vyvinuté technologie k běžným uživatelům – do běžných počítačů, notebooků, tabletů, mobilů, kanceláří i domácností. „Hewlett Packard Enterprise dělá všechno proto, aby exascalová hranice padla někdy v roce 2021. Investujeme přitom obrovské částky do vlastního výzkumu, ale zároveň se snažíme dělat přesně mířené strategické akvizice. Před několika lety jsme takto zaintegrovali společnost SGI, v minulém roce jsme dokončili akvizici absolutní jedničky v supercomputingu – značky Cray. Výsledkem je, že dnes velká část světových superpočítačů má jednu jedinou jmenovku. HPE,“ vysvětloval na pražské konferenci HPE Discover More 2019 jeden z největších českých odborníků na téma high performance computing, Luboš Kolář.

Něco se musí změnit

Hlavním tématem současného vývoje superpočítačů je heterogenita (rozdílnost) požadavků jednotlivých aplikací a explodující množství dat. Chceme-li podporovat tradiční vědu a inženýrské aplikace, zpracovávat big data, propojovat svět IoT, podporovat rozhodování v reálném čase, nadále zvyšovat přesnost výpočtů a zároveň umožnit skutečný nástup metod umělé inteligence, ocitáme se ve světě, v němž už standardní evoluce našich nástrojů nestačí.

„Pokud bychom využili standardních dvouprocesorových serverů k vytvoření teoretického výkonu 1 exaflopu, budeme jich potřebovat asi 300 tisíc a na jejich provoz kolem 250 megawatt elektrické energie. Také by bylo zapotřebí 20 tisíc racků, jenž by zabraly několik hektarů plochy. Stovky milionů dolarů by bylo nutné investovat do samotného propojení jednotlivých částí vysokorychlostní sítí, která by opět zvýšila energetické nároky. Proto příští generace „high performance computingu“, už z principu, musí vypadat jinak. A intenzivně na tom pracujeme,“ říká Luboš Kolář.

Jak? „Změna musí být konceptuální. Zaměřujeme se přitom v principu na tři základní oblasti – systém musí být dostatečně kompaktní, protože při takto vysokém výkonu a komplexnosti hraje roli i fyzická vzdálenost, kterou musí data „urazit“. Klíčová je tedy propustnost a latence komunikační datové sítě. Budoucnost této oblasti leží ve fotonice – k přenosu dat tedy využíváme světlo a ne elektrickou energii. Optické kabely toto umí již dlouhá léta, ovšem fotonika by se měla dostat i na úroveň komponenty, konkrétně tedy do procesorů.“

Druhou oblastí je efektivnější a úspornější provoz zdokonalováním systémů napájení a chlazení. „Zde již využíváme a dále vylepšujeme koncept chlazení „teplou vodu“. Pokud jsme schopni skrze výměníky na střeše datacentra (Free cooling*) udržet komponenty sice na vyšší teplotě, která však neovlivňuje jejich výkon, je zbytečné používat energeticky náročné kompresorové chlazení, které je k dispozici pouze jako záloha.

*Free cooling využívá k chlazení venkovní vzduch. Pro představu, celoroční průměr teplot v ČR je 5 – 9 stupňů, tudíž většinu roku je dostatečně „chladno“, aby jednoduché výměníky s větráky dostatečně ochladili chladící kapalinu. Kompresorové chlazení je samozřejmě výkonnější, ale energeticky mnohonásobně náročnější, resp. dražší. Proto se využívá pouze v nejteplejších dnech nebo při vysokém výkonu.

Poslední oblastí je pak optimalizace softwaru a aplikací. Naším úkolem je zejména zdokonalovat nástroje pro vývoj aplikací, optimalizace knihoven, integrace a podpora různých nových typů akcelerátorů nebo efektivních nástrojů pro správu a monitoring budoucích masivně hybridních superpočítačových systémů. Vše je přitom „orchestrováno“ tak, aby byla každá výpočetní zátěž nasměrována  do místa v rámci infrastruktury superpočítače, kde jsou k dispozici potřebná data a nejvhodnější typ výpočetních jednotek.

Americká vláda do této chvíle objednala první tři exascalové počítače. Všechny bude stavět Hewlett Packard Enterprise. První bude v roce 2021 a v roce 2022 pak přijde na řadu další. Chceme ale být víc než jen dodavatelem systémů. Naší ambicí je být průvodcem světem superpočítačů pro všechny instituce a společnosti, pro které dávají smysl. Máme technologie, zkušenosti podložené referencemi a silný tým. A to i v rámci České republiky, kde stojíme za projekty jako je superpočítač Salomon v centru IT4Innovations při VŠB-TU v Ostravě nebo nejvýkonnější komerční superpočítač v novém, nedávno otevřeném, datacentru Škoda Auto v Mladé Boleslavi,“ uzavíral svoji prezentaci v rámci konference Discover More v Praze Luboš Kolář.

 


Sledujte nás

Stojí za přečtení

banner