» »

Nova lestvica superračunalnikov kaže kitajski vzpon

Nova lestvica superračunalnikov kaže kitajski vzpon

Slo-Tech - Tudi na najnovejši lestvici najzmogljivejših superračunalnikov ostaja na prvem mestu kitajski superračunalnik. Kitajski Sunway TaihuLight z zmogljivostjo 93 petaflops ostaja na prvem mestu, dolgoletni vodilni Tianhe-2 pa je še drugič zapovrstjo na drugem mestu s 34 petaflops. Med prvo deseterico najdemo dva novinca: na petem mestu je Cori (Crax XC40 s 14 petaflops na Berkleyju), na šestem pa Oakforest-PACS (Fujitsu Primergy CX1640 M1 na Japonskem s 13,6 petaflops).

ZDA in Kitajska sta praktično izenačeni, saj imata obe državi na seznamu 500 najhitrejših superračunalnikov po 171 svojih. Lani jih je imela Kitajska 108, ZDA pa 200, kar jasno priča o trendu. Daleč zadaj je tretjeuvrščena Nemčija z 31 računalniki, sledijo pa Japonska s 27, Francija z 20 in Velika Britanija s 13. Vse te države so imele lani več računalnikov na seznamu kot letos; vse na račun kitajskega razvoja. Računska moč prvih 500 superračunalnikov je letos 60 odstotkov višja kot lani in znaša 672 petaflops. Od tega ima ZDA 33,9 odstotka, Kitajska pa 33,3 odstotka. Pričakujemo lahko torej, da bo že na prihodnji lestvici kitajska nesporna superračunalniška velesila.

Piz Daint je superračunalnik na osem mestu, ki pa je drugi najučinkovitejši superračunalnik na seznamu. Njegova poraba energije je 7,45 gigaflops/vat, kar je približno osemkrat manj od povprečja. Najzmogljivejši je sicer DGX-1 s 3,3 petaflops, ki iztisne 9,46 gigaflops na vat.

Za uvrstitev na seznam je sicer treba 349,3 teraflops, kar je 70 odstotkov več kot lani. Velika večina računalnikov (462 od 500) na seznamu uporablja Intelovo opremo (92 odstotkov). Preostanek odpade na IBM Power (22) in AMD (7). Povezljivost je urejena prek InfiniBana (187) oziroma gigabitnega etherneta (206), širi pa se tudi 10-gigabitni ethernet (178).

17 komentarjev

cekr ::

A je kakšen podatek, koliko so ti mlinčki sploh izkoriščeni?
Ali je samo boj, kdo ima več.... ?
Sinclair ZX Spectrum [Zilog Z80A - 3.5 MHz, 48kB, dvojni kasetofon,
TV-OUT, radirke, Sinclair-Basic], Sinclair ZX-81 [Z80A, 3.25MHZ, 1kB]

Truga ::

Ljudje se prakticno tepejo za cikle. :P

Zgodovina sprememb…

  • spremenilo: Truga ()

zee ::

Tovrstni racunalniki so tipicno skoraj 100% zasedeni. Petaflopni stroj, ki ga imamo v Singapurju, je tako zaseden, da je potrebno cakati kar nekaj casa na zagon racuna.
zee
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.

Tody ::

Ampak ljudstvo pomoje nima pojma (vključno z mano) kaj te mašine delajo. Valda ne računajo samo vremena in jederskih napdov...

pegasus ::

Nekaj linkov iz področij, kjer sem svetil zraven:
https://www.fortissimo-project.eu/succe...
http://www.eu-cloudflow.eu/experiments/...
Plus še kup fascinantnih zadev, ki niso javno oznanjene ...

Ljudstvo tudi večinoma nima pojma, kako izgleda razvojni proces v industriji, tako da si zares težko predstavlja vlogo, pomen in dodano vrednost teh strojev. Za ilustracijo - za razvoj concorda so porabili 15+ let raznih fizičnih letečih prototipov, današnji prvi A380 pa je že kar končna verzija. Razlika je v infromatizaciji razvojnega procesa, v veliki meri podprtega z ravno takimi stroji.

Če bi kdo rad se osebno s tem spoznal pobliže, naj pogleda sem.

Zgodovina sprememb…

  • spremenil: pegasus ()

djabi ::

A to poganja Crysis v virtualki? ;)

b4d ::

* typo: InfiniBanda

Zanimivo se mi je zdelo tudi, da se je sirjenje koprocesorjev (Phi, Nvidia,...) pocasi ustalilo.
b4d.sablun.org

Zgodovina sprememb…

  • spremenil: b4d ()

pegasus ::

Žal je tako, da softverski svet veliko počasneje prehaja na novosti, ki jih uspe izbruhati hardverski svet. Tako se večino kvalitetnega dela še vedno opravi na navadnih cpu jedrih ... enostavno zato, ker so jih ljudje navajeni. Drug razlog je, da so ti "offload" koprocesorji nataknjeni v hirearhijo posameznega nodea nekam daleč na pcie vodilo, kar otežuje njihovo uporabnost, saj si morajo ves čas podajati podatke med glavnim pomnilnikom in lastnim pomnilnikom. Redki so algoritmi, ki uspejo v celoti teči npr. na GPUju in taki so najbolj učinkoviti.
To se rešuje na več načinov. Recimo intel ponuja "gpu-like" procesorje xeon phi, AMD ponuja "shared memory" HSA pristop, kjer si cpu in gpu jedra delijo isti ram, nvidia pa ponuja široka "nvlink" vodila. Nekaj teh vodil se sedaj standardizira pod "openCAPI" brandom ... vedno bolj pa dvomim, da se bo razvila ena standardna univerzalna rešitev. Optimizacija namreč sili v specializacijo ... torej vsakemu svoje. Kar pa spet pomeni, da moraš zelo dobro razumet, kaj delaš ...

marS ::

....še Češka ima enega na 67.mestu.... mi pa res nimamo najdaljšega :)) ...
...no more heroes...
https://ilbis.com/

pegasus ::

Ne rabimo. Je bolj smiselno imeti najbolj učinkovitega ;)

filip007 ::

S tem, da Kitajci uporabljajo lastne rešitve.
http://hexus.net/tech/news/systems/9384...
Palačinka z Ajvarjem in stopljenim sirom v mikrovalovki.

pegasus ::

Fun ... na letošnjem student cluster competition jim bodo nenapovedano odklopili štrom. Better get that checkpointing up & running >:D

next3steps ::

djabi je izjavil:

A to poganja Crysis v virtualki? ;)

Ne, noben od teh.

čuhalev ::

Predlaga kdo kakšen dober tečaj, knjigo ... uporabe superračunalnikov, predvsem programiranje teh in kakšna implementacija ILU, SSOR oziroma kar se že gor poganja.

Zgodovina sprememb…

  • spremenil: čuhalev ()

pegasus ::

Prace ima zastonj tečaje po celi evropi, poleti tudi v Ljubljani. Vsak obdeluje specifične teme, malo se razglej.

Materiala je sicer po netu raztresenega še in še. Zanimajo te predvsem ključne besede OpenMP, MPI, vectorization. Kot primer praktične uporabe tega znanja se mi zelo dopade highperformance linux blog od avtorjev tempesta firewalla. Optimizirane implementacije specifičnih algoritmov najdeš v math knjižnicah kot so OpenBLAS, Intel MKL in sorodnih (tudi za specifične gpuje).

Zgodovina sprememb…

  • spremenil: pegasus ()

pegasus ::

Objavljeni so že rezultati testa HPCG, ki je zasnovan tako, da je veliko bližje današnjim realnim aplikacijam. Tu se hitro vidi, da je ogromen homogen sistem še vedno mnogo bolj učinkovit kot nekaj z gpuji ali starimi phiji (na karticah), kljub temu da je že kar v letih, relativno gledano ;) Velja opozoriti na mesti #30 in #32, ki jih zasedata stara NECova vektorska stroja SX-ACE z več kot 10% izkoristkom hw zmogljivosti. Ko sem pred časom gledal specifikacije teh strojev, mi je bilo hitro jasno zakaj - zadeva ima 16 ddr3 memory kanalov na core, kar pomeni 64GB/s na core. Primerjajte to z modernim intlom, ki zmore teoretičnih 76GB/s *na socket*.

zee ::

Pri nas so nabavli 128 masin z GPU-ji (Tesla K40c) in jih sparili z relativno hitrimi Intli. Ti so tako hitri, da se racunanje (vsaj molekulska dinamika) na GPU-jih sploh ne splaca.
zee
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Nova lestvica superračunalnikov brez večjih sprememb, Kitajska se vzpenja

Oddelek: Novice / Procesorji
153917 (2376) Poldi112
»

Na novi lestvici superračunalnikov ZDA na 1. in 3. mestu

Oddelek: Novice / Znanost in tehnologija
255625 (3978) pegasus
»

Kitajska vodi na lestvici superračunalnikov

Oddelek: Novice / Znanost in tehnologija
174829 (3814) 7982884e
»

ZDA izpadle iz prve trojke na Top 500

Oddelek: Novice / Znanost in tehnologija
104476 (2786) MrStein
»

Prva deseterica superračunalnikov brez sprememb

Oddelek: Novice / Procesorji
93870 (2896) SuperVeloce

Več podobnih tem