Forum » Programiranje » GPU namesto CPU
GPU namesto CPU
sverde21 ::
Ali je možno napisat program in uporabit GPU namesto CPU oz. oba skupaj, npr. za računanje števila PI?
<?php echo `w`; ?>
snow ::
Tole je samo za nvidio ali tudi za ati-jeve kartice? Kolikor vidim tam je treba met en Cg od nvidie...
Random mutation plus nonrandom cumulative natural selection - Richard Dawkins
Senitel ::
Na GPGPU so pač (linki) članki kako se te stvari počne. A imaš zadaj Cg je pa čist stvar implementacije...
sverde21 ::
a obstaja kak primer programa, ki bi pokazal zmoglivosti npr.:
-najprej izračun PI števila z CPU
-potem pa z GPU
-nato oba skupaj...
nekakšen benchmark... ?? Namreč rad bi vidu, prbližn kolk bolši je GPU od CPU pr takih stvareh .
-najprej izračun PI števila z CPU
-potem pa z GPU
-nato oba skupaj...
nekakšen benchmark... ?? Namreč rad bi vidu, prbližn kolk bolši je GPU od CPU pr takih stvareh .
<?php echo `w`; ?>
Zgodovina sprememb…
- spremenil: sverde21 ()
Senitel ::
Par stvari... GPU-ji trenutno računajo samo v "single precision floating point" (torej navaden float) ali še slabše (Radeoni X800 in starejši, ter GeForce-i ob half precision hintih). Ne znajo pa računat z integerji (še, DirectX 10 bo imel tudi celoštevilsko aritmetiko), kar se mi zdi da bo precejšen problem pri računanju PI-ja na n decimalk. Drugi problem, ki ga vidim pa je, da močno dvomim, da se da algoritem za PI dobro paralelizirat in bi bil tako primeren za izvajanje na GPU-ju.
Zakaj imam občutek, da ima tale debata bolj malo veze z dejanskim programiranjem?
Zakaj imam občutek, da ima tale debata bolj malo veze z dejanskim programiranjem?
sverde21 ::
Jah sei računanje PI števila sem dal samo za primer... ker je Super PI znan program za testiranje CPU ja
Ampak recimo da imam en algoritem brez floating pointa, kakšno hitrost bi dosegel glede na CPU?
BTW tud tist floating point ni tak problematičen, ker če je že potreba, lahko vse skup množiš z 10, 100 ali več, da se znebiš floating pointa
Ampak recimo da imam en algoritem brez floating pointa, kakšno hitrost bi dosegel glede na CPU?
BTW tud tist floating point ni tak problematičen, ker če je že potreba, lahko vse skup množiš z 10, 100 ali več, da se znebiš floating pointa
<?php echo `w`; ?>
Utk ::
Zakaj se bi znebil floatov, če je Senitel lepo napisal, da GPU računa samo s floati, zaenkrat. Obratno, integerje bi moral spremenit v floate. Ali kaj narobe razumem:)
sverde21 ::
Jah če jst prov razumem je "single precision floating point" računanje na eno decimalko natančno ...xxxxxxxxx.x Razumem napačno??
<?php echo `w`; ?>
Zgodovina sprememb…
- spremenil: sverde21 ()
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | float vs decimalOddelek: Programiranje | 6244 (4377) | Looooooka |
» | AMD napovedal 16-jedrnike (strani: 1 2 )Oddelek: Novice / Procesorji | 8537 (5777) | Bistri007 |
» | Superračunalnik za štiri tisoč evrov (strani: 1 2 )Oddelek: Novice / Znanost in tehnologija | 12623 (6807) | jype |
» | Foldingova ATIvoucijaOddelek: Novice / Grafične kartice | 3364 (2504) | Looooooka |
» | Znanstveno računanje na Playstation 2Oddelek: Novice / Konzole | 3569 (2816) | BigWhale |