Slashdot - Raziskovalci iz Univerze v Antwerpnu so bili pri svojem razvoju topografske opreme soočeni z večnim izivom pomankanja procesorske moči, vendar so namesto običajnega pristopa (izgradnje pravega in tudi primerno dragega superračunalnika) ubrali povsem svež pristop.
Svoj superračunalnik so se odločili zgraditi iz štirih NVidiinih grafičnih kartic GeForce 9800 GX2 in zahvaljujoč Nvidiini tehnologiji CUDA so pri svojem delu dosegli rezultate, ki so presegali zmogljivosti univerzitetnega superračunalnika CalcUA, ki ga je univerza kupila marca 2005 za 3,5 milijona evrov.
Da zahteva takšna procesorska moč tudi spodobno hlajenje je samoumevno - ob neobremenjenem sistemu se GPU-ji grejejo z zavidljivih 55 stopinj celzijami, ob popolnoma obremenjenem in nenavitem sistemu dosežejo temperature 86 stopinj celzija, če pa GPU-je navijejo za 20 odstotkov, dosežejo temperaturo 100 stopinj. Sistem morajo raziskovalci poganjati z odstranjeno levo stranico saj bi se v nasprotnem primeru pregrel.
Zgoraj si lahko ogledate osnovno predstavitev enega izmed raziskovalcev, za podrobnejše informacije pa priporočamo ogled spletne strani projekta in ogled preostalih video posnetkov, ki so jih pripravili raziskovalci.
sprašujem se koliko q6600 bi moral imeti , da bi bili toliko zmogljivi kot je sedaj ena 9800gx2 (ali lahko superpi zaženem , da stestira gpuja na grafični)
pizda ste pametni, ja, njihov racunalnik je hitrejsi kot univerzitetni superracunalnik. ampak da je superracunalnik star vec kot 3 leta ste pa vsi pozabil...
pizda ste pametni, ja, njihov racunalnik je hitrejsi kot univerzitetni superracunalnik. ampak da je superracunalnik star vec kot 3 leta ste pa vsi pozabil...
To v bistvu pomeni, da se vedno splača počakati še 3 leta pri takih nakupih
sprašujem se koliko q6600 bi moral imeti , da bi bili toliko zmogljivi kot je sedaj ena 9800gx2 (ali lahko superpi zaženem , da stestira gpuja na grafični)
pizda ste pametni, ja, njihov racunalnik je hitrejsi kot univerzitetni superracunalnik. ampak da je superracunalnik star vec kot 3 leta ste pa vsi pozabil...
Si ti pozabil "3.5 milijona evrov", slučajno? 256 x dual Opteron @ 2.4 Ghz z 4-8GB RAM, 2x uber serverja in 6TB shrambe pa res spraviš v svojo sobo, ane?
Da, takšno primerjanje je bedarija. Kot da bi nekdo rekel, da premakne nogo hitreje kot tist tip, ki je zdej postavil rekord na 100 metrov. Morda jo res, na sto metrov bo pa še zmeraj zaostal.
darklord, prehiteva v točno eni aplikaciji, kjer je pomembna samo procesorska moč. To je na en meter. Naj vse programe, ki se še poganjajo na tistem superračunalniku sprobajo na tem zvarku, to bi blo pa sto metrov. Drugač lahko narediš čip, ki dela točno en stvar in tak čip za ceno par dolarjev to dela bolje kot vsak superračunalnik. Ampak to ne pomeni dost.
Ja to je res. Ni pa res da je ta računalnik na splošno bolj (ali vsaj približno tako) "zmogljiv" kot tist superračunalnik. No, vsaj če ni ta drugi res zanič :) V zadnjih treh letih se ni zgodilo nič tako revolucionarnega, da bi to pomenilo, da je tehnologija tako napredovala in da mamo zdaj računalnike za par jurjev enako zmogljive kot takrat za 3 mio. Pa sej ni stvar superračunalnikov v tem. Če stane 3 mio $, je to ogromno PCjev, v sami računski moči pa očitno ni vreden niti 10 PCjev. Tist, ki je dal za tisto ostalo 3 mio več kot bi dal za kup Intelov, že ve zakaj je dal. Po moje :)
For specific applications that can be massively parallelized GPUs are much faster than CPUs, for the tomography work the NVIDIA-based FASTRA system outperform a real supercomputer that's much more expensive, takes up more room and uses a lot more power. The Vision Lab is now planning to build a cluster of such systems, which will allow for real-time reconstruction of large 3D volumes.
Well, v takem primeru totalno pohodi ono čudo za 3 mio €. In definitivno je vsaj del prihodnosti na področju superračunalnikov uporaba GPU-jev, ki so v nekaterih primerih pač svinjsko hitri. Čisto lepa specializacija.
Man is condemned to be free; because once thrown into the world,
he is responsible for everything he does.
[J.P.Sartre]
Kako ste smešni! Za vektorske (GPU) operacije je seveda GPU hitrejši kot CPU. Kako hitro bi ti tekle igre brez hardverskega pospeševanja ob isti ravni kvalitete renderiranja?
Primerjava €3.5m vs. €4k ni na mestu, saj z GPU ne moreš narediti veliko stvari, ki jih lahko samo s CPU. Za specifične operacije, sure, GPU je hitrejša stvar. Ampak samo v primeru, da lahko napišeš tako kodo, ki bo delovala na današnjih GPU.
Pristop tudi ni "povsem svež", saj sem o tem bral že nekaj let nazaj. Samo takrat je uporabnost takšnih aplikacij zmanjševala zelo nizka hitrost prenosa podatkov preko AGP vodila iz video rama v sistemski RAM. Z uvedbo PCI Express je bila ta težava odpravljena.
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...
Kako ste smešni! Za vektorske (GPU) operacije je seveda GPU hitrejši kot CPU. Kako hitro bi ti tekle igre brez hardverskega pospeševanja ob isti ravni kvalitete renderiranja?
Primerjava €3.5m vs. €4k ni na mestu, saj z GPU ne moreš narediti veliko stvari, ....
Mal si zgešu bistvo. Dejstvo je, da se za take stvari zdej uporablja superračunalnike, čeprav splošnonamenske, z grafikuljami pa so to rekonstrukcijo opravili ekvivalentno. Seveda z veliko manj cvenka, ne bojo pa lavfal gor splošnonamensko programje ker to tut ni bil njihov cilj.
Za to če bojo grafične prevzele levji kolač dela superračunalnikom(z večinoma procesorsko zmogljivostjo) pa se seveda, da pregovarjat, jaz mislim da ne se bodo pa izkazale na specifičnih področjih.
Uglavnm zelo dobr so si tole zastavl pa projekt tudi izpelal.
Čisto tako... Zakaj bi bili GPU-ji (oziroma gruča GPU-jev) slabi pri kakršnih koli problemih, ki za svoje učinkovito reševanje, potrebujejo gručo/superračunalnik?
Senitel> Zakaj bi bili GPU-ji (oziroma gruča GPU-jev) slabi pri kakršnih koli problemih, ki za svoje učinkovito reševanje, potrebujejo gručo/superračunalnik?
Vprašanje je precej nesmiselno.
Te GPUje komot stlačiš v sistem za 3.5 miljonov in dobiš pač bistveno hitrejši sistem, ki pa še vedno ima dovolj pomnilnika za vhodne in izhodne podatke (ki ga tale reč pravzaprav nima), recimo.
Masivno paralelizirani GPUji so prima ker imajo bistveno širše pomnilniško vodilo, žal pa to ni bistvena prednost v večjih superračunalnikih, ki so praviloma itak NUMA in ne morejo tako hitro dostopati do vseh podatkov, ki jih potrebujejo.
Saj ti nihče ne preprečuje da v kište poleg parih GPU-jev ne stlačiš še kolikor GB rama pač podpira host sistem (in naprej vejiš isto kot pri običajnih clustrih). Širše pomnilniško vodilo GPU-jev sploh ni bistvena prednost (ampak pomaga). Bistvena prednost je masa flopsov, ki jih lahko GPU-ji obdelajo paralelno.
Točno tako kot si rekel, edino sedaj počasi lahko narediš vse aplikacije, da delajo na gpu, ampak je tukaj par stvari, katere moreš vzeti v znanje. 1 stvar katera je najvažnejša gpu nima niti malo šans da prevzame mesto superračunalnika v vseh aplikacijah. 2 stvar katera pa je gpu lahko dela samo na tistem programu kateri ni ramsko zahteven, ker ta kombinacija kateri so imeli ti, je bilo vse skup rama 4gb, kar za kakšno delo z zahtevo veliko rama gpu odpade, edino kar ostane je mešanje cpu in gpu uporabljati.
Senitel> Saj ti nihče ne preprečuje da v kište poleg parih GPU-jev ne stlačiš še kolikor GB rama pač podpira host sistem
Ampak s tem močno večaš latenco.
Fino bi bilo, če bi lahko dobil grafične kartice z 32GB rama, recimo, ker bi potem komot sestavil nadmočen cluster iz mašin s 4 grafičnimi karticami... Pa še po DVI bi se lahko pogovarjale z drugimi nodi :)
jtype: Latence so še vedno bistveno manjše kot pri običajnih clustrih, ko se podatke menja preko mreže... Obenem pa pozabljaš da so ravno GPU-ji zelo dobri pri skrivanju latenc (tudi podatkov iz lokalnega rama ne boš dobil v enem ciklu, kar je menda jasno). Pa zakaj hudiča bi DVI vleku zraven? DVI je point to point, enosmerno 7,62Gbps. 10Gbps ethernet je v vseh pogledih hitrejši. Obstajajo pa tudi SLI/CF povezave na samih karticah, ki so še hitrejše...
CrniE: Seveda ne, tu je še Intel, ki bo to področje počasi začel jemati resno (njihova današnja integrirana skropucala niso vredna oznake GPU) in pa S3.
Meni se ta novica ne zdi tako grozna (iz stališča plačila superračunalnika). Tudi moj intel tukaj pod mizo je hitrejši kot IBM omara v datacentru kake banke, ki je stala par sto tisoč €.
Meni se ta novica ne zdi tako grozna (iz stališča plačila superračunalnika). Tudi moj intel tukaj pod mizo je hitrejši kot IBM omara v datacentru kake banke, ki je stala par sto tisoč €.
Ampak procesorji, ki se uporabljajo v omenjem (ta dragem) superračunalniku, so tudi v današnjem pogledu čisto spodobni - lahko v desktop računalnik tlačiš kolikor hočeš najmočnejših procesorjev, pa bodo še vedno daleč počasnejši od CalcUA.
To, da je tisti računalnik star 3 leta, tukaj ne igra takšne vloge, kot se na prvi pogled zdi ("eh, stvar je stara gajba, še moj mobitel je hitrejši")
Če smo pošteni, tudi ti clustri so namenjeni posebnim računskim zadevam, kljub splošnonamenskim računalnikom iz katerim so sestavljeni. Fora je samo v tem da pri splošnonamenskih računalnikih poleg CPUja za delovanje rabiš vsaj še chipset in trdi disk (poleg seveda napajanja in škatle). Razen tega je v splošnonamenskih CPUjih precej prostora namenjeno čisto drugim zadevam kot pa samo golo računanje.
V GPUjih je večina prostora porabljena za veliko malih CPUjev, ki so na eni silicijevi plati, zato odpade cel kup dodatnih čipov. lahko bi celo rekli da je ta superračunalnik bolj zelen (brei ekološki).
Ampak mislim da se bo ta novi princip začel bolj in bolj uporabljat, saj je treba ne glede na hardver, programsko opremo napisat za vsak problem posebej. Potem pa hardver tako al tako ni pomemben. Gre se samo za to kaj programerji bolj poznajo.
Saj so že povedali, pa bom ponovil - v specifičnih primerih je pač GPU (ki je namenski procesor) pač precej hitrejši od CPU-ja (ki je malo manj namenski, kot že ime samo pove). Zato pa lahko komot par grafičnih procesorjev premaga (v nekem specifičnem primeru) gručo splošnih procesorjev. Ne velja pa to vedno in povsod. Če bi, pol ne vem, zakaj ne uporabimo takoj Nvidia GPU-jev v vlogi CPU-ja v računalu. In tako bo tud ostalo - GPU-ji bojo rulali v eni tržni niši, CPU-ji pa kje drugje.
Man is condemned to be free; because once thrown into the world,
he is responsible for everything he does.
[J.P.Sartre]
Kaj točno so stvari, za katere je ta GPU specializiran? Čisto nekaj konkretnih operacij me zanima, pa ne igričarskih. Ker tudi oni niso poganjali iger.
Potem ko to izvem, bi pa rad še ene par konkretnih operacij, ki jih tale GPU ne more opravljati.
Za konec - zakaj se ne bi izdelala podobno specializirana enota, ki bi delala s temi drugimi operacijami? Kje je catch?
Kaj točno so stvari, za katere je ta GPU specializiran?
Sej piše - tomografija. Izdelovanje 3D slik iz večih rentgenskih posnetkov. Obdelovanje grafike laično rečeno, kar pač GPU-ji obvladajo.
The research group ASTRA, part of the Vision Lab of the University of Antwerp, focuses on the development of new computational methods for tomography. Tomography is a technique used in medical scanners to create three-dimensional images of the internal organs of patients, based on a large number of X-ray photos that are acquired over a range of angles. ASTRA develops new reconstruction techniques that lead to better reconstruction quality than classical methods.
Man is condemned to be free; because once thrown into the world,
he is responsible for everything he does.
[J.P.Sartre]
Kaj točno so stvari, za katere je ta GPU specializiran? Čisto nekaj konkretnih operacij me zanima, pa ne igričarskih. Ker tudi oni niso poganjali iger.
Potem ko to izvem, bi pa rad še ene par konkretnih operacij, ki jih tale GPU ne more opravljati.
Za konec - zakaj se ne bi izdelala podobno specializirana enota, ki bi delala s temi drugimi operacijami? Kje je catch?
1.) število alu enot.
2.) prekldanje ne uniformirano porazdeljanih podatkov
Lahko pa narediš emulator, oziroma virtualiziraš, koliko ciklov bo porabil GPU za upravljanje premikanja miške je pa drugo ?. CPU jepač namenjen vsemu, GPU zna pa smao specifične operacije in je samo za te operacije optimiran, ti pa moraš narediti software, ki bo to znal uporabljati. Racimo če zna CPU delati +-/*, GPU pa samo +-, moraš s pomočjo +- uspeti sprogramirati /*, seveda ker pa je GPU optimiziran samo za +-, je temu primerno arhitektura ensotavnejša, toda zaradi tega lahko narediš n enot ki delajo samo +-, Pri CPU-ju pa to ni praktično.
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold
Senitel> jtype: Latence so še vedno bistveno manjše kot pri običajnih clustrih, ko se podatke menja preko mreže... Obenem pa pozabljaš da so ravno GPU-ji zelo dobri pri skrivanju latenc (tudi podatkov iz lokalnega rama ne boš dobil v enem ciklu, kar je menda jasno).
Latence so manjše kadar GPU vleče reči iz lastnega pomnilnika. Takoj ko se spraviš pacat po "glavnem" pomnilniku, se reč močno zakomplicira in upočasni, kadar gre povrh vsega še preko kakršnekoli mreže (kar mora jit, prej ali slej), je pa samo še slabše. Tudi OS mora biti sposoben pravega razvrščanja opravil, da tako (NUMA) arhitekturo lahko vsaj napol spodobno izkoristi.
Torej za večino operacij, ki jih trenutno izvaja CPU, ni mogoče narediti specializirane (stroškovno in fizično sprejemljive) enote? Meni se zdi, da bi se kar precej operacij, ki jih trenutno izvaja CPU, dalo prenesti na precej hitrejše specilizirane enote. Konec koncev to tudi dokazuje ta novica.