» »

GPU namesto CPU

GPU namesto CPU

sverde21 ::

Ali je možno napisat program in uporabit GPU namesto CPU oz. oba skupaj, npr. za računanje števila PI:))? :\
<?php echo `w`; ?>

BluPhenix ::

Seveda, ljudje to tudi že delajo.

http://www.gpgpu.org/
Podpisa ni več, ker so me poskušali asimilirati.

sverde21 ::

ql :)) tnx
<?php echo `w`; ?>

snow ::

Tole je samo za nvidio ali tudi za ati-jeve kartice? Kolikor vidim tam je treba met en Cg od nvidie...
Random mutation plus nonrandom cumulative natural selection - Richard Dawkins

Senitel ::

Na GPGPU so pač (linki) članki kako se te stvari počne. A imaš zadaj Cg je pa čist stvar implementacije...

sverde21 ::

a obstaja kak primer programa, ki bi pokazal zmoglivosti npr.:
-najprej izračun PI števila z CPU
-potem pa z GPU
-nato oba skupaj...

nekakšen benchmark... :)) ?? Namreč rad bi vidu, prbližn kolk bolši je GPU od CPU pr takih stvareh :)) .
<?php echo `w`; ?>

Zgodovina sprememb…

  • spremenil: sverde21 ()

Senitel ::

Par stvari... GPU-ji trenutno računajo samo v "single precision floating point" (torej navaden float) ali še slabše (Radeoni X800 in starejši, ter GeForce-i ob half precision hintih). Ne znajo pa računat z integerji (še, DirectX 10 bo imel tudi celoštevilsko aritmetiko), kar se mi zdi da bo precejšen problem pri računanju PI-ja na n decimalk. Drugi problem, ki ga vidim pa je, da močno dvomim, da se da algoritem za PI dobro paralelizirat in bi bil tako primeren za izvajanje na GPU-ju.

Zakaj imam občutek, da ima tale debata bolj malo veze z dejanskim programiranjem?

sverde21 ::

Jah sei računanje PI števila sem dal samo za primer... ker je Super PI znan program za testiranje CPU ja :)

Ampak recimo da imam en algoritem brez floating pointa, kakšno hitrost bi dosegel glede na CPU?

BTW tud tist floating point ni tak problematičen, ker če je že potreba, lahko vse skup množiš z 10, 100 ali več, da se znebiš floating pointa :P
<?php echo `w`; ?>

MaCoFaCo ::

In če deliš tako "sfriziran" float z drugim "friziranim" floatom bo kul?

Utk ::

Zakaj se bi znebil floatov, če je Senitel lepo napisal, da GPU računa samo s floati, zaenkrat. Obratno, integerje bi moral spremenit v floate. Ali kaj narobe razumem:)

sverde21 ::

Jah če jst prov razumem je "single precision floating point" računanje na eno decimalko natančno ...xxxxxxxxx.x Razumem napačno??:\
<?php echo `w`; ?>

Zgodovina sprememb…

  • spremenil: sverde21 ()

OwcA ::

Otroška radovednost - gonilo napredka.

sverde21 ::

:8)
<?php echo `w`; ?>


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

float vs decimal

Oddelek: Programiranje
366244 (4377) Looooooka
»

AMD napovedal 16-jedrnike (strani: 1 2 )

Oddelek: Novice / Procesorji
798537 (5777) Bistri007
»

Superračunalnik za štiri tisoč evrov (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
6712623 (6807) jype
»

Foldingova ATIvoucija

Oddelek: Novice / Grafične kartice
173364 (2504) Looooooka
»

Znanstveno računanje na Playstation 2

Oddelek: Novice / Konzole
123569 (2816) BigWhale

Več podobnih tem