Superpočítač

Superpočítač je v informatice označení pro velmi výkonný počítač, v poslední době nejčastěji ve formě počítačového clusteru, tedy spojení mnoha běžných počítačů dohromady, a to obvykle speciální vysokorychlostní sítí. Nejrychlejším superpočítačem světa byl v červnu 2016 čínský superpočítač Sunway TaihuLight čínského původu, který dosahuje rychlosti přibližně 93 petaflops.[1][2], od listopadu 2018 jím byl superpočítač Summit s rychlostí 200 petaflops[3] z laboratoří amerického ministerstva energetiky Oak Ridge National Laboratory (ORNL) a od června 2020 je nejrychlejším superpočítačem světa japonský Fugaku s rychlostí 415 petaflops. V březnu 2020 se stal nejvýkonnějším gridovým clusterem projekt Folding@home.[4]

Superpočítač „Columbia“

Od roku 1993 jsou superpočítače řazené do žebříčku TOP500 OS, podle výsledku v benchmarku LINPACK, který počítá operace s velkými maticemi. Žebříček se obnovuje dvakrát do roka[5].

Charakteristika

Podíl operačních systémů na 500 nejvýkonnějších superpočítačích k roku 2009.

Hranice pro označení superpočítač není přesně daná. V některých pramenech se hovoří o minimálně desetinásobně vyšším výkonu oproti běžně dostupným počítačům, avšak za superpočítače jsou s jistou mírou nadsázky označována i méně výkonná, avšak zajímavá řešení (například superpočítač z Raspberry Pi).[6] Výkon superpočítačů je měřen v jednotkách FLOPS (FLoating Point Operations Per Second), přičemž se využívají jejich SI násobky, např. „TFLOPS“ (1012 FLOPS, napíšeme jeden teraflops).

Jak je možné vidět na obrázku, největší podíl v oblasti operačních systémů mají unixové systémy, speciálně pak Linux, což je způsobeno otevřeností těchto systémů.

Superpočítače jsou používány pro výpočetně náročné úlohy a „velké“ úlohy, např. výzkum genomu, fyzikální modelování (např. modelování jaderných výbuchů, předpovídání počasí), kryptoanalýzu apod. Pro některé úlohy se vytvářejí specializované superpočítače (viz níže).

Superpočítače se dnes využívají téměř ve všech vědních oblastech. Používají se na tvorbu a testování modelů sledovaných nebo zkoumaných jevů.

Architektura moderních superpočítačů

Architektura superpočítačů je v současné době založena na propojení velkého množství běžných počítačů prostřednictvím vysokorychlostní počítačové sítě (viz počítačový cluster). Tento způsob používá např. firma Google pro katalogizaci stránek z celého internetu. Cluster z běžných počítačů je nesrovnatelně levnější než jeden specializovaný superpočítač obdobného výkonu. Prvních deset nejvýkonnějších superpočítačů v žebříčku TOP500 má stejnou základní architekturu. Každý z nich je clusterem MIMD (Multiple Instruction stream, Multiple Data stream) multiprocesorových sestav, přičemž každý z procesorů je architektury SIMD (Single Instruction/Multiple Data). Superpočítače se radikálně liší počtem multiprocesorových jednotek na cluster, počtem procesorů na jednu jednotku a počtem současně vykonavatelných instrukcí na jeden SIMD procesor.

  • Počítačový cluster je soubor počítačů propojených vysokorychlostní sítí, přičemž na každém z nich běží samostatné úlohy operačního systému.
  • Multiprocesorový počítač je počítač, na kterém běží jeden samostatný operační systém a používá víc než jeden CPU, přičemž počet uživatelských aplikací je jiný než počet procesorů. Procesory sdílejí úlohy pomocí technologií SMP (Symmetric multiprocessing) a NUMA (Non-Uniform Memory Access).
  • SIMD procesor spouští stejné instrukce na více než jednom souboru dat v tomtéž čase. Jsou to tzv. vektorové procesory. Jejich výhodou je větší efektivita a s tím spojená nižší spotřeba při stejném výkonu.

Některé superpočítače používají i výkonné grafické karty, přesněji jejich GPU (GPGPU).

Distribuovaný výpočet

Mezi superpočítače lze zařadit i spojení velkého množství běžných osobních počítačů pomocí internetu. Striktně vzato to není superpočítač, ale distribuovaný výpočet, a může počítat (některé) podobné druhy a velikosti úloh jako superpočítače a přitom má smysl srovnávat jeho výkon se superpočítači. To je výhodné u výpočtů, které lze snadno paralelizovat a jež nevyžadují rychlou komunikaci mezi jednotlivými uzly. Jedním z nejznámějších projektů tohoto druhu je SETI@home zabývající se analýzou signálů z radioteleskopu a dosahující výkonu přibližně 250 teraflops (biliónů operací za sekundu).[7] Tento způsob celosvětového využívání volného procesorového času počítačů prostřednictvím internetu se nazývá grinding. Obecná platforma pro distribuované výpočty, která počítá různé i rozumné věci, je BOINC.

V souvislosti s pandemií covidu-19 došlo k obrovskému nárůstu uživatelů do té doby méně významného Folding@home, který s více než 1 EFLOPS překonal kombinovaný výkon 100 nejvýkonnějších superpočítačů.[4]

Superpočítače se speciálním určením

Mnoho superpočítačů nebylo postaveno proto, aby uspokojovaly potřeby vědecké komunity, ale kvůli řešení konkrétní úlohy. Například:

  • Deep Blue – vytvořen pro hraní šachů, jako první stroj porazil v této hře člověka (Garryho Kasparova)
  • GRAPE – vytvořen pro úlohy astrofyziky a molekulární dynamiky
  • Deep Crack – vytvořen k prolomení šifry DES

Historie

První superpočítače byly vytvořené v šedesátých letech Seymourem Crayem. Veřejnosti byly zpřístupněné prostřednictvím jeho firmy Cray Research. V osmdesátých a začátkem devadesátých let vstupovaly na trh se superpočítači mnohé malé firmy. Ty však byly začátkem devadesátých let vytlačeny velkými „tradičními společnostmi“ jako IBM a HP.

Nazývat nějaký výpočetní stroj superpočítačem můžeme jen při současné specifikaci doby, ve které byl navržen a sestrojen. Důvodem relativnosti tohoto přívlastku je rychlý vývoj v této oblasti, protože stačí několik let a běžné počítače se výkonem plně vyrovnají několik let starému superpočítači. V prvním Crayově stroji byly jednoduché a rychlé skalární procesory, přibližně 10krát rychlejší než běžně používané v komerční sféře. V sedmdesátých letech se na trh dostávají levné stroje postavené na vektorových procesorech od malých výrobců s novou vlastní architekturou. Začíná se prosazovat paralelizace, čtyř až šestnácti výpočetních jader. Začátkem devadesátých let začala vlna enormní paralelizace. To vedlo k superpočítačům postaveným na serverových procesorech architektur PowerPC, Itanium a x86-64. Zpočátku byly množstvím rovnocenných procesorů uspořádaných do navzájem propojených struktur. Dnes nastává éra hybridních řešení, ve kterých se využívají různé druhy procesorů na různé části výpočetního procesu. Jejím „zakladatelem“ se stává IBM se systémem založeným na procesorech Cell a Opteron pro Los Alamos National Laboratory.[zdroj?]

Hardware a software

Výpočetní síla superpočítačů s sebou přináší extrémní složitost po hardwarové i softwarové stránce.

Napájení a chlazení
Napájení a chlazení je nejviditelnějším problémem. Superpočítače jsou sestavované z velkého množství paralelně zapojených procesorů se spotřebou podobnou, jako mají běžně dostupné počítače na trhu. Vzhledem k velikosti celého systému je jejich spotřeba enormní, což klade velké nároky na interní elektrické rozvody, které musí být chlazené. V některých případech jsou využívány supravodivé materiály v kombinaci s chlazením na teplotu blízkou absolutní nule. Chlazení samotných procesorů je také náročná úloha. Dnes nejrozšířenější metodou je využití kapalinového okruhu. Někdy se využívá dusíkové nebo héliové chlazení.
Velký objem přenášených dat
Velký objem přenášených dat je dalším problémem. Sítě musí mít obrovskou datovou propustnost a zároveň musí být dostatečně rychlé. Jejich rychlost je však limitovaná rychlostí šíření elektromagnetického impulzu. Ať už se jedná o optickou nebo metalickou síť, rychlost přenosu dat je limitovaná rychlostí světla. I operační paměť musí být přiměřeně velká, rychlá a blízká.
Vysoké frekvence
Vysoké frekvence v řádech GHz jsou dalším problémem. Při vysokých elektrických frekvencích impuls ztrácí schopnost šířit se i po velmi krátkých vodičích. Je to způsobeno tím, že každý vodič se stává téměř dokonalou anténou, pokud je jeho délka rovna alespoň polovině vlnové délky el. signálu v tomto vodiči. Proto je nutné všechny spoje realizovat pomocí vedení nebo vlnovodů, což však klade velké nároky na konstrukci a použití materiálů.

Technologie ze světa superpočítačů

Software

Softwarové nástroje potřebné pro paralelní a distribuované procesy vyžadují speciální technologie. Například standardní API jako MPI, PVM nebo open source řešení klastru jako Beowulf, WareWulf, openMosix. Tyto nástroje umožní vytvoření superpočítače, resp. klastru, z několika propojených pracovních stanic. Technologie ZeroConf (Rendezvous/Bonjour) se využívají k vytvoření jednoúčelových clusterů pro specializovaný software jako například Apple's Shake (úprava a tvorba obrazu). V této oblasti[kdo?] je open source software na stejné úrovni jako komerční.

Programování

Paralelní architektura si přímo vynucuje použití speciálních metod a nástrojů, aby bylo možné maximálně využít dostupný výkon. Často se používají speciální překladače pro jazyk Fortran, které generují rychlejší kódy než kompilátory jazyků C a C++. Programovací jazyk Fortran je přímo určený na vědeckotechnické výpočty. Pro rozvinutí paralelismu se používají prostředí jako PVM, MPI nebo OpenMP.

České superpočítače

Národní superpočítačové centrum IT4Innovations

IT4Innovations národní superpočítačové centrum při VŠB – Technické univerzitě Ostrava je předním výzkumným, vývojovým a inovačním centrem v oblasti vysoce výkonného počítání (HPC), datových analýz (HPDA) a umělé inteligence (AI), provozující nejvýkonnější superpočítačové systémy v České republice. Centrum společně s institucemi CESNET a CERIT-SC tvoří strategickou výzkumnou infrastrukturu České republiky e-INFRA CZ. Tato infrastruktura je uvedena v Cestovní mapě velkých výzkumných infrastruktur České republiky pro výzkum, experimentální vývoj a inovace, kterou sestavuje Ministerstvo školství, mládeže a tělovýchovy. Centrum poskytuje nejmodernější superpočítačové technologie a služby jak českým, tak i zahraničním výzkumným týmům z akademické i soukromé sféry za účelem zvýšení konkurenceschopnosti a inovativnosti české vědy a průmyslu. Zabývá se rovněž excelentním výzkumem - stěžejními tématy jsou zpracování a analýza rozsáhlých dat, strojové učení, vývoj paralelních škálovatelných algoritmů, řešení náročných inženýrských úloh, pokročilá vizualizace, virtuální realita, modelování pro nanotechnologie a vývoj nových materiálů.

Superpočítače v IT4Innovations
Pořadí Název Uvedení do provozu Ukončení provozu Výkon Popis
1. Anselm léto 2013 začátek 2021 94 TFlop/s první superpočítač instalovaný v centru
2. Salomon léto 2015 plán 2021 2 PFlop/s -
3. NVIDIA DGX-2 jaro 2019 - 130 TFlop/s (pro AI až 2 PFlop/s) specializovaný systém pro výpočty umělé inteligence
4. Barbora podzim 2019 - 849 TFlop/s -
5. Karolina 2021 - okolo 15,2 PFlop/s instalován v rámci společného evropského podniku EuroHPC byl v roce 2021 - nový petascalový výpočetní systém

Přidělování výpočetní kapacity

Výpočetní kapacita centra je určena pro řešení úloh ve výzkumu a vývoji především pro akademická pracoviště a další výzkumné instituce v České republice. Část kapacity je pak dedikována pro rozvoj spolupráce mezi akademickou sférou a průmyslovými partnery, či pro samostatné využití průmyslovými podniky. Veřejná grantová soutěž je vypisována 3x ročně (únor, červen, říjen) pro zaměstnance výzkumných, vědeckých a vzdělávacích organizací z ČR a pro projekty financované z veřejných zdrojů ČR. V rámci této soutěže bylo v letech 2013—2020 podpořeno 902 projektů v celkovém objemu 1,027 miliard jádrohodin, přičemž požadavky výzkumníků v tomto období přesáhly 1,404 miliard jádrohodin (jádrohodina = jedno procesorové jádro na hodinu).

Projekty

Centrum řeší, či se podílí na řadě domácích i zahraničních projektů. K nejvýznamnějším patří:

Amálka

Amálka je český paralelní superpočítač umístěný v Ústavu fyziky atmosféry Akademie věd ČR (ÚFA AV ČR).[8] Jeho úkolem je provádění náročných výpočtů, numerických experimentů a vizualizací v rámci kosmického výzkumu. Využití tohoto superpočítače se přitom neomezuje pouze na české projekty, ale spolupracuje se i na výzkumné činnosti pro Evropskou kosmickou agenturu a NASA. Používaným operačním systémem je Linux Slackware.

Současný výpočetní výkon Amálky je 6,38 TFLOPS (6. generace), což znamená, že superpočítač zvládne zpracovat 6,38 bilionu operací v plovoucí řádové čárce za sekundu. „Co Amálka zvládne vypočítat za jednu sekundu, by na běžném stolním počítači v roce 2007 trvalo odhadem devět hodin. Průměrná úloha, kterou Amálka řeší, jí odhadem trvá šest dní“.[8]

Na Amálce byly například analyzovány výsledky pozorování sond Cassini nebo MESSENGER.[9]

Vývoj Amálky

Generace Rok Výkon Počet počítačů Počet procesorů Počet jader Další parametry
1 1998 jednotky MFLOPS 8 8 8
2 2000 desítky GFLOPS 16 16 16
3 2003 téměř 1 TFLOPS 96 188 188
4 2006 2,6 TFLOPS 138 272 360 180 GB RAM, 20 TB HDD, 40 kW
5 2007 4,07 TFLOPS 326 572
6[10] 2009 6,38 TFLOPS 356 800

Současné složení

Typ procesoru Počet procesorů Počet jader Od generace
Intel Pentium III Xeon 700 16 16 2
Intel Xeon 2,80 GHz 172 172 3
Intel Xeon 5140 84 168 4
Intel Xeon E5345 54 216 5
Intel Xeon L5520 64 256 6

Dorje

Dorje[11] ([:dordže:] – z tibetštiny, rituální žezlo, v překladu Diamantový klín, doslovně Pán kamene) je v současné době třetí nejvýkonnější český superpočítač, který je umístěn ve Fyzikálním ústavu Akademie věd. Jeho výpočetní výkon dosahuje 4,2 TeraFlops.

MetaCentrum

Související informace naleznete také v článku Metacentrum.

MetaCentrum sdružuje superpočítače a výpočetní clustery tří superpočítačových center a několika dalších organizací. Ke konci března 2009 sdružovalo počítače:

MetaCentrum není homogenním clusterem jako Amálka, je tvořeno propojením více clusterů páteřní 100 Gb/s e-infrastrukturou CESNET. Nicméně dohromady MetaCentrum sdružuje k 30. 3. 2009 stroje s celkem 1365 jádry procesorů.

Reference

  1. OLŠAN, Jan. Nový nejrychlejší superpočítač. Sunway TaihuLight pohání „čínské Celly“ ShenWei. www.cnews.cz [online]. 2016-06-21 [cit. 2016-06-25]. Dostupné online. (česky)
  2. June 2016 [online]. www.top500.org [cit. 2016-06-25]. Dostupné online. (anglický)
  3. OSEL.CZ. www.osel.cz [online]. [cit. 2019-05-10]. Dostupné online.
  4. Distribuovaný systém Folding@Home je nyní nejvýkonnějším superpočítačem na světě. diit.cz [online]. [cit. 2020-03-30]. Dostupné online. (česky)
  5. Archivovaná kopie. top500.org [online]. [cit. 2015-07-13]. Dostupné v archivu pořízeném z originálu dne 2015-07-13.
  6. http://www.zive.cz/bleskovky/britove-postavili-superpocitac-z-raspberry-pi-a-lega/sc-4-a-165422/default.aspx Živě.cz: Britové postavili superpočítač z Raspberry Pi a Lega
  7. Archivovaná kopie. www.boincstats.com [online]. [cit. 02-04-2006]. Dostupné v archivu pořízeném dne 15-12-2009.
  8. http://hpc.sprinx.cz/files/Tiskova_Zprava_Amalka_2007.pdf%5B%5D – neplatný odkaz !
  9. PACNER, Karel. Češi v kosmu. Praha: Academia, 2011. 191 s. ISBN 978-80-200-2033-8. Kapitola 10. Nové astronomické projekty, s. 113–114.
  10. http://www.mediakom.cz/intel/2009_11_11-Amalka/ Archivováno 25. 11. 2009 na Wayback Machine – 6. generace – nefungující odkaz !
  11. http://www-hep2.fzu.cz/twiki/bin/view/VS/VsDorje Archivováno 20. 12. 2010 na Wayback Machine – Dorje

Externí odkazy

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.