Superračunalnik
Súperračunálnik je najhitrejša, najmočnejša vrsta računalnika, sposobna svoje osnovne ukaze izvršiti v pikosekundah (10-12 s), namesto v nanosekundah (10-9 s) kot večina drugih računalnikov.
Za doseganje teh izrednih hitrosti superračunalniki hkrati uporabljajo več procesorjev, poslužujejo pa se tudi različnih drugih tehnik, na primer ohlajanja procesorjev na zelo nizke temperature, kar omogoča hitro delovanje vezij brez težav s pregrevanjem. Superračunalniki se na primer uporabljajo pri napovedovanju vremena, dinamiki tekočin, aerodinamiki, termodinamiki (prenos toplote), umetni inteligenci, simulacijah v biologiji, kvantni kromodinamiki, ... Znani proizvajalci superračunalnikov so: CDC, Cray Research, Fujitsu, Hitachi, IBM, Intel, NEC, Thinking Machines.
Zgodovina
[uredi | uredi kodo]Zgodovina superračunalnikov seže v 1960-ta leta, ko je Seymour Cray z inovativnimi zasnovami in paralelizmom izdelal niz računalnikov v družbi Control Data Corporation (CDC). Ti računalniki so dosegali izredno računsko moč.[2] Računalnik CDC 6600, izdelan leta 1964, v splošnem velja za prvi superračunalnik.[3][4] CDC je bil trikrat hitrejši od svojega predhodnika IBM 7030 Stretch. Z zmogljivostjo približno 1 MFLOPS je bil med letoma 1964 in 1969 najhitrejši, ko ga je prehitel CDC 7600.
Cray je leta 1972 zapustil CDC in ustanovil svoje podjetje.[5] Štiri leta kasneje je leta 1976 ponudil 80 MHz Cray-1, ki je postal eden najuspešnejših superačunalnikov.[6][7] Cray-2, narejen leta 1985, je bil 8 procesorski kapljevinsko hlajeni računalnik, hladilno tekočino Fluorinert pa je med njegovim delovanjem črpala črpalka. Deloval je z zmogljivostjo 1,9 GFLOPS in bil najhitrejši do leta 1990.[8]
V 1980-ih so imeli superračunalniki le nekaj procesorjev, v 1990-ih pa so se začeli pojavljati stroji z več tisoč procesorji, tako v ZDA kot na Japonskem, in so postavili nove rekorde računske zmogljivosti. Fujitsujev superračunalnik Numerical Wind Tunnel je uporabljal 166 vektorskih procesorjev in je imel leta 1994 največjo zmogljivost 1,7 GFLOPS na procesor.[9][10] Hitachi SR2201 je leta 1996 dosegel rekord 600 GFLOPS in imel 2048 procesorjev povezanih prek hitre trirazsežne mreže.[11][12][13] Intel Paragon je imel 1000 do 4000 procesorjev Intel i860 v različnih konfiguracijah in je bil leta 1993 najhitrejši. Paragon je imel zgradbo MIMD, v kateri so bili procesorji povezani s hitro dvorazsežno mrežo, kar je omogočalo, da se procesi izvajajo v odvojenih točkah in komunicirajo prek sistema MPI.[14]
Strojna oprema in arhitekture
[uredi | uredi kodo]Pristopi k superračunalniškim arhitekturam so se dramatično spremenili odkar so bili v 60-ih letih vplejani prvi sistemi. Zgodnje superračunaliniške arhitekture, ki so bile vpeljane s strani Seymour-ja Cray-a so temeljile na kompaktnih inovativnih pristopih ter lokalnemu paralelizmu za doseganje višjih zmogljivosti. Čez čas je potreba po povečanih računskih zmogljivostih pripreljala do dobe masivno paralelnih sistemov.
Medtem ko so superračunalniki v 70-ih uporabljali le nekaj procesorjev, so se v 90-ih začeli pojavljati sistemi z več tisoč procesorji. Proti koncu 20-ega stoletja pa so bili že ustaljeni masivno paralelni sistemi z več deset tisoč nespecializiranih (ang: off-the-shelf) procesorjev. Superračunalniki 21-ega stoletja lahko uporabljajo že več kot 100.000 procesorjev (nekateri tudi koprocesorje), ki so povezani z izjemno hitrimi povezavami.
Skozi desetletja, upravljanje z gosto toplotnega toka ostaja ključno vprašanje za večino centraliriziranih superračunalnikov. Veliko ustvarjene toplote, ki jo proizvede sistem ima lahko tudi druge vplive npr. krajšanje življenjske dobe sistemskih komponent. Bilo je že veliko različnih pristopov k reševanju tega problema od črpanja Fluorinerta skozi sistem do hibridnih hladilnih sistemov kot so »kapljevina-zrak« ali zračno hlajenje z klima]tskimi napravami.
Poraba energije in upravljanje s toploto
[uredi | uredi kodo]Tipičen superračunalnik porabi velike količine električne energije, katere je večina spremenjene v toploto, ki jo je potrebno hladiti. Zgled, Tianhe-1A porabi 4,04 Megawatta električne energije. Cena napajanja in hlajenja sistema je zato zelo visoka, npr. 4 MW pri 0,7 €/kWh je 280 €/h kar znaša približno 2,5 milijona evrov na leto.
Upravljanje toplote je velik problem v kompleksnih elektronskih napravah, in vpliva na zmogljive računalniške sisteme na različne načine. Velika količina toplote ki jo ustvarja CPE in vprašanje odvajanja te toplote v superračunalništvu, presega te v tradicionalnih računalniških hladilnih tehnologijah. Nagrade, ki jih prejemajo superračunalniki za zeleno računalništvo odražajo to vprašanje.
Sestavljanje na tisoče procesorjev skupaj neizogibno ustvarja znatne količine toplote s katero je potrebno nekaj narediti. Cray 2 je bil vodno hlajen in uporabljal tako imenovan »hladilni slap« s Fluorinertom, ki je pod tlakom tekel skozi module. Vendar pristop potapljanja v hladilno tekočino ni bil praktičen za sisteme, ki so sestavljeni iz več omar in (ang: off-the-shelf) procesorjev. Zato so za System x v sodelovanjz s podjetjem Liebert razvili posebn hladilni sistem, ki je kombinacija klimatske naprave in vodnega hlajenja.
Energetska učinkovitost računalniških sistemov se običajno meri v FLOPS/Watt. Leta 2008 je IBMjev Roadrunner deloval pri 376 MFLOPS/Watt. Novembra 2010 je Blue Gene/Q dosegel 1684 MFLOPS/Watt. Junija 2011 sta najvišje dve mesti na lestivici »Green 500« zasedla Blue Gene računalnika v New Yorku z 2097 MFLOPS/W, tretje mesto je pa zasedel DEGIMA cluster v Nagasakiju z 1375 MFLOPS/W.
Programska oprema in upravljanje
[uredi | uredi kodo]Operacijski sistemi
[uredi | uredi kodo]Od konca 20-ega stoletja so superračunalniški operacijski sistemi doživeli precej sprememb. Medtem ko so bili prvi operacijski sistemi namensko narejeni z namenom doseganja čim boljših zmogljivosti so se trendi premaknili v prid generičnim operacijskim sistemom kot je na primer Linux.
Programska orodja in message passing
[uredi | uredi kodo]Superračunalniške paralelne arhitekture pogosto zahtevajo uporabo posebnih programerskih prijemov, da se lahko izkoristi vsa računska moč, ki je na voljo. Porgramska orodja za paralelno procesiranje torej uporabljajo standardizirana razvojna okolja kot na primer MPI in PVM, VTL ter druge odprtokodne rešitve kot je na primer Beowulf.
Najpogosteje se uporabljajo okolja kot so PVM in MPI za redko povezane sestave in Open MPI za gosto povezane sestave z deljenim pomnilnikom. Veliko truda je potrebnega za optimiziranje algoritmov na med seboj povezanih strojih, namen tega je da se minimizra število neuporabljenih CPE-jev. GPGPUji imajo stotine jeder na eni plošči. Za upravljanje s takimi arhitekturami se uporabljajo programski jeziki kot so CUDA in OpenCL.
Porazdeljeno superračunalništvo
[uredi | uredi kodo]Oportunistični pristopi
[uredi | uredi kodo]Oportunistično superračunalništvo je oblika mrežnega računalništva (ang. grid computing), kjer »super virtualni računalnik« povezuje veliko prostovoljno povezanih računaniških naprav, ki morajo računati kompleksne računske probleme. Mrežno računalništvo (ang. grid comupting) je bilo uporabljeno za reševanje številnih problemov, ki zahtevajo paralelno reševanje z močjo superračunalnika. Vendar pa osnovna omrežja (ang. basic grid) in računalništvo v oblaku, ki se zanašajo na prostovoljno ali globalno računalništvo ne zmorejo tradicionalnih superračunalniških nalog, kot so simulacije dinamike tekočin.
Najhitrejši sistem Mrežnega računalništva je računalniški projekt Folding@home. Marca 2012 je imel F@h 8,1 petaflopov x86 procesorske moči, od tega 5,8 petaflopa so prispevale stranke iz različnih grafičnih procesorjev, 1,7 petaflopa iz playstation 3 konzol, in ostalo iz različnih sistemov CPE.
BOINC platforma gosti številne porazdeljene računalniške projekte. Od maja 2011, je BOINC zabeležil več kot 5,5petaflopov procesorske moči s pomočjo več kot 480.000 aktivnih računalnikov v omrežju. Najbolj aktiven projekt (merjen po računski moči) je MilkyWay@home, ki uporablja 700 teraflopov preko več kot 33000 aktivnih računalnikov.
Od maja 2011, GIMPS (Great Internet Mersenne Prime Search ali veliko internetno iskanje Mersennovega števila), ki računa Mersennovo število trenutno dosega približno 60 teraflopov preko več kot 25.000 registriranih računalnikov. Internet PrimeNet Server podpira pristop mrežnega računanja Mersennovega števila, enega prvih in najbolj uspešnih mrežnih računalniških projektov, od leta 1997.
Kvazi-oportunistični pristopi
[uredi | uredi kodo]Kvazi oportunistično superračunalništvo je oblika porazdeljenega računalništva, kjer »super virtualni računalnik« sestavljen iz velikega števila geografsko razpršenih računalnikov povezanih v omrežje, opravlja računske naloge, ki zahtevajo ogromno procesorske moči. Namen kvazi-oportunističnega visoko zmogljivega računalništva je zagotavljati višjo kakovost storitve kot oportunistično omrežje z boljšim nadzorom nad dodeljevanjem nalog razpršenim virom in uporabo podatkov o razpožljivosti in zanesljivosti posameznih sistemov znotraj superračunalniškega omrežja.
Merjenje zmogljivosti
[uredi | uredi kodo]V splošnem se zmogljivost sestavov uporablja merska enota 'FLOPS' (FLoating Point Operations Per Second) kar pomeni merilo v številu izvrženih računskih operacij s plavajočo vejico v sekundi in ne 'MIPS' ki merijo ukaze na sekundo in se uporabljajo kot enota za zmogljivost splošno namenskih računalnikov. Dejansko številka ne pokaže dejanske zmogljivosti računalnika, je pa Linpack postal standard kot zadovoljivo merilo za približek računske zmogljivosti sestava.
Top 500
[uredi | uredi kodo]Od leta 1993 se vodi tudi seznam najhitrejših superračunalnikov na svetu na podlagi merila Linpack. Upravljavci seznama ne zagotavljajo da je seznam nepristranski ali dokončen. Je pa seznam Top500 slošno uporabljen, kot ažuren seznam 'najhitrejših' supperačunalnikov ob danem času. Seznam se posodablja dvakrat letno in sicer v juniju in novembru na konferencah ISC v Evropi in SC v ZDA.
leto | superračunalnik | najvišja hitrost (Rmax) |
lega |
---|---|---|---|
2008 | IBM Roadrunner | 1.026 PFLOPS | Los Alamos, ZDA |
1.105 PFLOPS | |||
2009 | Cray Jaguar | 1.759 PFLOPS | Oak Ridge, ZDA |
2010 | Tianhe-IA | 2.566 PFLOPS | Tianjin, Kitajska |
2011 | Fujitsu K computer | 10.51 PFLOPS | Kobe, Japonska |
2012 | IBM Sequoia | 17.17 PFLOPS | Livermore, ZDA |
2012 | Cray Titan | 17.59 PFLOPS | Oak Ridge, ZDA |
2013 | NUDT Tianhe-2 | 33.86 PFLOPS | Guangzhou, Kitajska |
2017 | Sunway TaihuLight | 93.00 PFLOPS | Wuxi, Kitajska |
Uporaba superračunalnikov
[uredi | uredi kodo]Najpogostejši uporabniki superračunalnikov so znanstvene in akademske ustanove, uporablja pa se tudi v poslovne namene. Nekaj velikih multinacionalnih bank in korporacija uporablja manjše superračunalnike. Uporaba vključuje, posebne učinke v filmih, zbiranje in obdelavo vremenskih podatkov, obdelavo geoloških podatkov, podatkov o genetskih zapisih, aerodinamiko, simulacije ter v vojaške namene. Uporabniki so filmska industrija, vremenske organizacije, vesoljske agencije, vladne organizacije, znanstveni laboratoriji, raziskovalne skupine, vojaški in obrambni sistemi ter velike korporacije.
Faze uporabe superračunalnika je mogoče povzeti v naslednji tabeli:
desetletje | uporaba in sodelujoči računalniki |
---|---|
1970 | vremenske napovedi, aerodinamične raziskave (Cray-1) |
1980 | verjetnosnta analiza, modeliranje zaščite pred sevanjem,(CDC Cyber) |
1990 | razbijanje kode s poskušanjem (EFF DES cracker) |
2000 | 3d simulacije jedrskih poskusov, zaradi sporazuma pogodbe o neširjenju jedrskega orožja (ASCI Q) |
2010 | simulacija molekularne dinamike (Tianhe-1A) |
Superračunalniki v Sloveniji
[uredi | uredi kodo]Prvi superračunalnik v Sloveniji, CONVEX C220, je bil postavljen leta 1990 na Inštitutu Jožef Štefan. Imel je dve jedri, vsak z maksimalno učinkovitostjo 50 MFLOPs.
superračunalnik | najvišja hitrost (Rmax) |
zavod/podjetje |
---|---|---|
Vega | 6,9 PFLOPS | Atos[15][16] |
Arctur-2 | 340 TFLOPS | Arctur[17] |
SGI ICE-X | ~20 TFLOPS | ARSO |
HPCFS-U | 7,9+16,3 TFLOPS | Fakulteta za strojništvo v Ljubljani |
Rudolf | 13 TFLOPS | Fakulteta za informacijske študije v Novem mestu |
BladeCenter HS21 | 36,752 GFLOPS | Kolektor Turboinštitut[18] |
HPC CORE@UM | 5 TFLOPS | Fakulteta za strojništvo, Univerza v Mariboru |
Inštitut Jožef Štefan ima največ HPC naprav v Sloveniji, ki pa niso povezane v enoten HPC sistem, razpršene so po ločenih raziskovalnih oddelkih (Teoretična fizika F-1 , eksperimetnalna fizika osnovnih delcev F-9 in Odsek za reaktorsko tehniko R-4[19]). Trenutno največji superračunalnik v zasebni lasti je Arctur 2, ki je lociran na sedežu družbe Arctur v Novi Gorici in se uporablja za različne simulacije za potrebe industrije. Proizvajalec Arctur-2 je kitajska korporacija SUGON, največji proizvajalec superračunalnikov v Aziji.[navedi vir]
Vega
[uredi | uredi kodo]Slovenski superračunalnik Vega je bil uradno predstavljen 20. aprila 2021 in je del evropskega skupnega podjetja za visoko zmogljivo računalništvo (EuroHPC JU). Nahaja se na Inštitutu Inštituta za informacijske znanosti Maribor (IZUM) v Mariboru. To je prvi od osmih načrtovanih superračunalnikov (EuroHPC JU). Sistem je dopolnilo lokalno podjetje Atos. Superračunalnik Vega je skupaj financiral EuroHPC JU s sredstvi EU in Inštituta za informacijske znanosti Maribor (IZUM). Vrednost skupne naložbe znaša 17,2 milijona evrov. Vega ima stabilno zmogljivost 6,9 PFLOPS in največjo zmogljivost 10,1 PFLOPS.[15][16]
Raziskovalni in razvojni trendi
[uredi | uredi kodo]Glede na trenutno hitrost napredka, strokovnjaki ocenjujejo, da bodo superračunalniki dosegli 1 exaflop (1018x1030 FLOPS) do leta 2018. Kitajska je naznanila načrte da bodo imeli superračunalnik ki bo dosegal hitrosti 1 exaflopa do leta 2018. Uporabljal naj bi intel MIC mnogojedrno procesorsko arhitekturo, ki je intelov odgovor na sisteme z grafičnimi procesorji, SGI namerava doseči 500-kratno povečanje učinkovitosti do leta 2018, da bi dosegli en exaflop. Vzorci MIC čipov z 32 jedri, ki združujejo vektorske procesne enote s standardnim CPEjem so že dostopne. Indijska vlada ima tudi ambicije postaviti superračunalnik z močjo enega eksaflopa do leta 2017.
Erik P. DeBenedictis iz Sandia National Laboratories je podal teorijo, da potrebujemo superračunalnik z močjo enega zetaflopa (1018x1036 FLOPS) za natančen vremenski model, kateri bi bil natančen za obdobje dveh tednov. Takšen sistem bi lahko zgradili okrog leta 2030.
Sklici
[uredi | uredi kodo]- ↑ »IBM Blue gene announcement« (v angleščini). 03.ibm.com. 26. junij 2007. Pridobljeno 9. junija 2012.
- ↑ Chen idr. (2009), str. 70-72.
- ↑ Impagliazzo; Lee (2004), str. 172.
- ↑ Sisson; Zacher (2006), str. 1489.
- ↑ Hannan (2008), str. 84-84.
- ↑ Hill; Jouppi; Sohi (1999), str. 41-48.
- ↑ Reilly (2003), str. 65.
- ↑ Tokhi; Hossain; Shaheh (2003), str. 201-202.
- ↑ »TOP500 Annual Report 1994« (v angleščini). Pridobljeno 4. septembra 2011.
- ↑ Hirose; Fukuda (1997).
- ↑ Fujii idr. (1997), str. 233-241.
- ↑ Iwasaki (1998), str. 246-254.
- ↑ van der Steen (1997).
- ↑ Reed (2003), str. 182.
- ↑ 15,0 15,1 »Discover EuroHPC«. European High Performance Computing Joint Undertaking. Pridobljeno 1. maja 2021.
- ↑ 16,0 16,1 »Supercomputer Vega launched in Slovenia«. Slovenia Times (v ameriški angleščini). 21. april 2021. Arhivirano iz prvotnega spletišča dne 1. maja 2021. Pridobljeno 1. maja 2021.
- ↑ »IT rešitve in storitve superračunalnik«. Arhivirano iz prvotnega spletišča dne 26. julija 2014.
- ↑ »Kolektor Turboinštitut«. Arhivirano iz prvotnega spletišča dne 23. septembra 2015. Pridobljeno 20. septembra 2015.
- ↑ IJS, Sandi Cimerman, R-4,. »Gruče«. r4.ijs.si. Pridobljeno 8. oktobra 2016.
{{navedi splet}}
: Vzdrževanje CS1: dodatno ločilo (povezava)
Viri
[uredi | uredi kodo]- Chen, Sao-Jie; Lin, Guang-Huei; Hsiung, Pao-Ann; Hu, Yu-Hen (2009), Hardware software co-design of a multimedia SOC platform, Springer, COBISS 22829863, ISBN 978-1-4020-9622-8
- Fujii, H.; Yasuda, Y.; Akashi, H.; Inagami, Y.; Koga, M.; Ishihara, O.; Kashiyama, M.; Wada, H.; Sumimoto, T. (april 1997). »Architecture and performance of the Hitachi SR2201 massively parallel processor system«. Proceedings of 11th International Parallel Processing Symposium.
{{navedi conference}}
: Vzdrževanje CS1: samodejni prevod datuma (povezava) - Hannan, Caryn (2008), Wisconsin Biographical Dictionary, North American Book Dist LLC, ISBN 978-1-8785926-3-7
- Hill, Mark Donald; Jouppi, Norman Paul; Sohi, Gurindar (1999), Readings in computer architecture, Academic press, COBISS 6866710, ISBN 978-1-55860-539-8
- Hirose, N.; Fukuda, M. (1997). »Numerical Wind Tunnel (NWT) and CFD Research at National Aerospace Laboratory«. High Performance Computing on the Information Superhighway. Proceedings of HPC-Asia '97. IEEE Computer Society. doi:10.1109/HPC.1997.592130.
- Impagliazzo, John; Lee, John A. N. (2004), History of computing in education, Kluwer Academic Publishers, COBISS 1785109, ISBN 1-4020-8135-9
- Iwasaki, Y. (Januar 1998), »The CP-PACS project«, Nuclear Physics B - Proceedings Supplements, 60 (1–2)
- Reed, Daniel A. (2003), Scalable input/output: achieving system balance, MIT Press, ISBN 9780262681421
- Reilly, Edwin D. (2003), Milestones in computer science and information technology, ISBN 1-57356-521-0
- Sisson, Richard; Zacher, Christian K. (2006), The American Midwest: an interpretive encyclopedia, ISBN 0-253-34886-2
- van der Steen, A. J. (Januar 1997), »Overview of recent supercomputers«, Publication of the NCF, Stichting Nationale Computer Faciliteiten
- Tokhi, M. Osman; Hossain, Mohammad Alamgir; Shaheh, M. Hasan (2003), Parallel computing for real-time signal processing and control, London, New York: Springer, ISBN 978-1-85233-599-1