VR - Zone - O novih Radeonih na RV790 jedru smo že govorili in pred kratkim tudi povedali, da bodo izšli marca, kar pa se je izkazalo za rahlo zgrešeno napoved. Luč sveta naj bi tako AMDjev Radeon HD 4890 ugledal v sredini aprila, konec aprila pa bo sledila še navita, HD 4890 OC različica.
V primerjavi z Radeoni HD 4870 se bo novinec, poleg novega, RV790XT jedra (na HD 4870 počiva RV770 jedro), ponašal še z višjimi frekvencami. Glede na format izvorne novice je moč predvidevati, da sledeči podatki veljajo za standardno različico, na kateri bo jedro teklo pri 850 MHz, kar je 100 MHz več od RD770, napajalo pa se bo z 1,3 V. Pomnilnik ostaja podoben, GDDR5, a ima prav tako dvignjeno frekvenco, z 900 na 975 MHz. S to novico je tudi potrjeno, da novinec ostaja član HD 4800 družine, kot nepravilne pa so se izkazale napovedi, da bo poimenovan HD 4970. Omenjeno je še, da bo OC različica imela en gigabajt pomnilnika, od HD 4870 Radeona pa naj bi bila hitrejša 25-30 %. Ob izidu naj bi bila cena čez lužo 299 $.
Samo 512 MB pomnilnika za standardno različico?
Novice » Grafične kartice » Radeon HD 4890 prihaja aprila
filip007 ::
ATi gre po stopinjah Nvidie to se ne bo dobro končalo...že zdaj imajo probleme z dobavo kvalitetnih čipov...še sam sem bil žrtev slabega čipa na 4870...
Prenosnik, konzola, TV, PC upokojen.
Jst ::
So na vidiku te kartice kakšne arhitekturne spremembe? Rahla evolucija, mogoče?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Dr_M ::
Pride, z DX11
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
SmeskoSnezak ::
Kaki drugi čip? Naslednja generacija pride ven konc leta... DX11, torej! Te zdaj so le zato, da se "zafila lukna"... =)
@ Pusti soncu v srce... @
Dr_M ::
Sanji.
Samo visje frekvence je ne bodo pripeljale tja.
Samo visje frekvence je ne bodo pripeljale tja.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
Denis15 ::
ma kurac že dx9 je meni čisto dovolj ker mam slab pc pa je že kaka grafika zdaj pa dx11 ehhe
240EUR bo prišla nova samo?
240EUR bo prišla nova samo?
xD
Zgodovina sprememb…
- spremenil: Denis15 ()
Dr_M ::
Se prav, bo malo pred GTX260 216.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
carot ::
Ma so pocasni, jaz bi rad nekaj novejsega, vsaj dx11 in novejso generacijo valda, ne pa da se menja grafiko vsako leto.
PrimozR ::
Vseeno bi mi bila 4850 popolnoma vrh glave :D No, folk ki to dejansko izkoristi naj pa le kupi.
Denis15 ::
saj je nemogoče izkoristiti vsako komponento 100% vsaj tako mislim samo kam ta tehnologija gre naj raje prvo zakrpajo dx10 potem naj se menijo o dx11
xD
Sc0ut ::
Crysis bo že enkrat tekel gladko al še ne?
1231 v3, Z97 A, 16GB ram 1600mhz, 3070 RTX, HX850
RC14 ::
Ja, pohitritev bo relativno majhna, glede na to, da bo OC verzija komaj ~20 do 25% hitrejša od 4870, sicer ob "isti" arhitekturi ni za priričakovati čudežev, pa vseeno me je ta novica pustila hladnega,sem upal da bo ATI dal kaj hitrejšega ven.
Upam, da bo vsaj v 40nm tehnologiji narejena in da bo imela boljše hlajenje kot 4870. Drugih sprememb po mojem ni za pričakovati, razen seevda višjih clockov.
Lp
Upam, da bo vsaj v 40nm tehnologiji narejena in da bo imela boljše hlajenje kot 4870. Drugih sprememb po mojem ni za pričakovati, razen seevda višjih clockov.
Lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::
destroyer2k ::
carot
In od kot naj dobijo specifikacije dx11? Ker dx11 še trenutno ni dokončan glede specifikacije, tako da če pride do majnše spremembe lahko arhitektura jedra propade z nepodporo dx11.
In od kot naj dobijo specifikacije dx11? Ker dx11 še trenutno ni dokončan glede specifikacije, tako da če pride do majnše spremembe lahko arhitektura jedra propade z nepodporo dx11.
destroyer2k ::
Senitel
To je res, ampak ni če pa čisto glede specifikacije. Če se prav spominjam nekje okoli konc marca ali začetek aprila bodo dobili končne specifikacije za dx11 certifikat grafičnih kartic.
To je res, ampak ni če pa čisto glede specifikacije. Če se prav spominjam nekje okoli konc marca ali začetek aprila bodo dobili končne specifikacije za dx11 certifikat grafičnih kartic.
PrimozR ::
Folk, tole je evolucija, ne revolucija. Geez no, kot da bi bili vsi razočarani, da 45 nm serija Intel procev ni imela integriranega memory kontrolerja, temveč ima to šele nehalem. That's the freaking point!! 45 nm C2Dji so gradili na 65 nm, izboljšali napake, dodali nekaj funkcij (clock to clock je razlike mislim da 5-10 %, mogoče kaj več) and that's about it. Bang je naredil i7. Tukaj bo isto, tole je pač evolucija, šlatanje terena pred prehodom na drug proizvodni proces (če grejo res na 40 nm). Bang pa pride kasneje, itak z DX11 karticami. Zakaj bi zdajle metali stran resource za grafo, ki bo POPOLNOMA obsolete čez pol leta. Pač ne vem, začnejo s preliminarnimi dizjani DX11 grafe, staro sfinesirajo in pohitrijo in jo pustijo umreti v slavi.
Senitel ::
destroyer2k: Certifikacija že... Ampak to pomeni predvsem kaj vse mora DX11 driver preživet in kako se mora obnašat. Ne pa ali lahko hull shader dobi 32 ali 36 kontrolnih točk. DX11 je s stališča funkcionalnosti hardware-a končan. Če se sedajle MS odloči, da hoče v API-ju recimo vertex shader po teselaciji bosta tako ATI kot NV v hudih težavah, če hočeta spravit hardware ven še letos...
jlpktnst ::
Mene bolj zanima kako je z serijo 4k na prenosnikih? Nekako jih ne vidim ... pa možnosti nadgradnje :) Ugotovil sem namreč da imam separate grafično v prenosniku (samo vrejtno se ne bo dalo dvignit za generacijo?)
Looooooka ::
Ko bojo mel dx 11 kartice...bo treba pocakat 1 let da jim bo ratal driver, ki se ne usuva na vsakem 2 spilu skup spravt...ce jih recesija ne ubije do takrat.
M-XXXX ::
Dajte še bolj pretiravat s temi driverji... Imel ogromno kartic, zamenjal ogromno sistemov, ogromno plat in vsega pa do zdaj zelo malo problemov (da ne omenjam da preizkušam tako različne OS-je, kot beta gonilnike in celo alfa verzije)
Dr_M ::
Ze nekaj let imam 2 racunalnika doma, v enmu ATI graficna v drugemu Nvidia.
V igrah ni razlik, od obeh gonilniki so uredu, ampak pri ostalih stvareh je pa... Lahko samo recem, da je ATI master of disaster.
V igrah ni razlik, od obeh gonilniki so uredu, ampak pri ostalih stvareh je pa... Lahko samo recem, da je ATI master of disaster.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
MrStein ::
OFF-TOPIC:
Oba sta za en K.
(zanimivo, da je nVidia zaprla temo na njihovem forumu, kjer so kritizirali njihov kontrol panel)
Če me sorodniki vsak teden kličejo "naenkrat ni več slike na TV" pomeni, da je softver za drek.
Pa oprostite.
Oba sta za en K.
(zanimivo, da je nVidia zaprla temo na njihovem forumu, kjer so kritizirali njihov kontrol panel)
Če me sorodniki vsak teden kličejo "naenkrat ni več slike na TV" pomeni, da je softver za drek.
Pa oprostite.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
slawc ::
Imam občutek, da jih žene samo tisti fps več. Na porabo elektrike in s tem posledično tudi segrevanje so pa malce pozabili.
LP,
Slawc
PrimozR ::
Grejo na 40 nm s 55, le-to bo porabo znižalo. Če je napetost RAMa enaka pa se tudi ne bo poznalo tako veliko.
FireSnake ::
Slawc; bi se kar strinjal.
Sicer sem pa nekaj bral, da 40nm ne bo taka izboljsava, kot vsi pricakujemo.
Jaz upam, da to ne drzi...
Sicer sem pa nekaj bral, da 40nm ne bo taka izboljsava, kot vsi pricakujemo.
Jaz upam, da to ne drzi...
Poglej in se nasmej: vicmaher.si
slawc ::
Nič ne bo znižalo porabo ker (tocke si nekako sledijo):
- pridobili bodo prostor, katerega bodo spet nabasali do konca, namesto da bi optimizirali arhitekturo,
- z enako arhitekturo tudi na SW ni potrebno spremeniti nevem kaj, zato tudi pridobitek ne bo nevem kaj,
- povišali bodo frekvenco, ker bi radi prikazali nekaj boljšega,
- napetost bodo pa pustili kar isto, da bodo lahko dodatno izkoristili povišanje frekvence, da bo ja še bolje.
Novejše generacije procesorjev so v primerjavi z zmogljivostjo proti preteklim neverjetno hladni, varcni in bolj zmogljivi. Pri grafičnih so pa samo bolj zmogljivi. Pokurijo nenormalno več (IMHO danes napajalnik kupiš šele potem, ko se odločiš katero grafično boš imel), grejejo se pa tudi nenormalno več oz. grejejo se enako na račun gromozanskih hladilnikov, tako da grafična zasede dva slota in to pri maksimalni dolžini, še ven mora pihat in niti pomisliti ne smeš, da bi na tretji slot dal kakšno xy kartico.
- pridobili bodo prostor, katerega bodo spet nabasali do konca, namesto da bi optimizirali arhitekturo,
- z enako arhitekturo tudi na SW ni potrebno spremeniti nevem kaj, zato tudi pridobitek ne bo nevem kaj,
- povišali bodo frekvenco, ker bi radi prikazali nekaj boljšega,
- napetost bodo pa pustili kar isto, da bodo lahko dodatno izkoristili povišanje frekvence, da bo ja še bolje.
Novejše generacije procesorjev so v primerjavi z zmogljivostjo proti preteklim neverjetno hladni, varcni in bolj zmogljivi. Pri grafičnih so pa samo bolj zmogljivi. Pokurijo nenormalno več (IMHO danes napajalnik kupiš šele potem, ko se odločiš katero grafično boš imel), grejejo se pa tudi nenormalno več oz. grejejo se enako na račun gromozanskih hladilnikov, tako da grafična zasede dva slota in to pri maksimalni dolžini, še ven mora pihat in niti pomisliti ne smeš, da bi na tretji slot dal kakšno xy kartico.
LP,
Slawc
Senitel ::
CPU-ji in GPU-ji niso ravno najboljše primerljivi. Kdaj je bil nazadnje CPU clock for clock ~2 hitrejši od svojega predhodnika? Na CPU-jih se danes dela predvsem na raznoraznih optimizacijah, torej posamezna jedra se ne večajo bistveno, procesi pa se še naprej manjšajo.
GPU-ji so računske pošasti. Da bodo hitrejši potrebujejo več flopsov. To pomeni več "SP-jev"... Nazadnje (in v bistvu prvič), ko je GPU postal bistveno bolj učinkovit od predhodnika, je bil to G80. Približno enako flopsov kot GeForce 7 ampak unified in skalarna arhitektura sta poskrbela, da so bili ti flopsi bolje izkoriščeni. Ali so vsi SP-ji 100% zasedeni? Ne čisto, je pa blizu. Bodo še določene spremembe v DX11 generaciji, ki bodo to mejo še dvignile, ampak razlika ne bo taka kot pri GeForce 7 na GeForce 8.
Obenem imamo pa še dve povsem različni arhitekturi. Prva poskuša dane ALU-je kar se da efektivno zasesti, druga pa ima kolikor se pač da ALU-jev...
GPU-ji so računske pošasti. Da bodo hitrejši potrebujejo več flopsov. To pomeni več "SP-jev"... Nazadnje (in v bistvu prvič), ko je GPU postal bistveno bolj učinkovit od predhodnika, je bil to G80. Približno enako flopsov kot GeForce 7 ampak unified in skalarna arhitektura sta poskrbela, da so bili ti flopsi bolje izkoriščeni. Ali so vsi SP-ji 100% zasedeni? Ne čisto, je pa blizu. Bodo še določene spremembe v DX11 generaciji, ki bodo to mejo še dvignile, ampak razlika ne bo taka kot pri GeForce 7 na GeForce 8.
Obenem imamo pa še dve povsem različni arhitekturi. Prva poskuša dane ALU-je kar se da efektivno zasesti, druga pa ima kolikor se pač da ALU-jev...
slawc ::
Seveda niso, ampak si začel razlagati ravno point mojega sporočila. Očitno GPU še ni dosegel tiste meje, ko bo treba nekaj res temeljito spremeniti. Do takrat pa nanometri dol, MHZ in W pa gor. OK, tweak od modela do modela je pa vedno prisoten, če ne drugega odpravljajo buge, ki so onemogočali kakšen feature.
LP,
Slawc
Senitel ::
Moj point je: Če imaš (pametno) idejo kako naj bi to temeljito spremenil, povej dobiš službo takoj tako v NV kot v ATI, kjer ti je pač ljubše.
Jst ::
Me res fajn zanima, če se bo temeljni pristop kaj spremenil, ko Intel izda Larabee...
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
slawc ::
Ah no, saj ne gre za to, da bi jim solil pamet. Samo povem, da je škoda, ker ne naredijo že pravega koraka naprej. Kar se pa službe tiče pa počnem ravno to, spreminjam/optimiziram arhitekturo DSP čipa. Torej praviš, da imam možnosti?
LP,
Slawc
Senitel ::
Larrabee je definitivno svež pristop. Bo bolj programabilen kot recimo naslednja generacija DX11 GPU-jev od NV in ATI. Glede hitrosti bodo pa še imel precej problemov, Richard Huddy recimo pričakuje da bodo oni (ATI) imeli okrog 4x performančno prednost pred Larrabee v najslabšem primeru 2x. Edino pri raytracingu je vprašanje, če bodo DX11 GPU-ji lahko držali korak. Ampak tud Intel priznava, da bo raytracing še vedno bistveno počasnejši od klasične rasterizacije.
Jst ::
Tim Swanney, soustvarjalec UT.Engine, se pa Larabeeja veseli in misli, da bo rasterizacija postopoma opuščena. Pravtako misli, da bo Intel moral *tudi* pri načinu sedanje uporabe grafičnih kartic držati korak z nvidijo in atijem.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Senitel ::
Če sem malo zloben Sweeney že ene 10 let napoveduje kako so GPU-jem šteti dnvei. V bistvu ima prav, GPU-ji v stilu GeForce 256 so mrtvi že danes. Ampak Direct3D bo ostal, dvomim da prav veliko developerjev kriči "jupi, kdor napiše najhitrejšo kodo (po možnosti v asm) za izris trikotnika mu ostali častijo gajbo piva."
Rasterizacija je poceni (glede mm^2 na jedru), če kdo misli da bi lahko vrgli vn logiko za rasterizacijo in namesto tega dali not še en TPC (24 SP-jev v GT200) in imeli win-win situacijo se moti. Raytracing bo vedno počasnejši od rasterizacije (še Pixar ne uporablja vedno samo raytracinga), že na današnjih GPU-jih nimaš kakšnih hudih omejitev glede tega. Razen tega, da pač nimaš DirectRaytrace, da je Direct3D logika pisana na kožo raytracingu tolk kot formula 1 slovenskim cestam (torej je zadevo najlažje napisat iz 0 v CUDA/OpenCL/D3D11 compute), da je vprašanje kako dovolj hitro kreirat drevesa (Če sem malo zloben Sweeney že ene 10 let napoveduje kako so GPU-jem šteti dnvei. V bistvu ima prav, GPU-ji v stilu GeForce 256 so mrtvi že danes. Ampak Direct3D bo ostal, dvomim da prav veliko developerjev kriči "jupi, kdor napiše najhitrejšo kodo (po možnosti v asm) za izris trikotnika mu ostali častijo gajbo piva."
Rasterizacija je poceni (glede mm^2 na jedru), če kdo misli da bi lahko vrgli vn logiko za rasterizacijo in namesto tega dali not še en TPC (24 SP-jev v GT200) in imeli win-win situacijo se moti. Raytracing bo vedno počasnejši od rasterizacije (še Pixar ne uporablja vedno samo raytracinga), že na današnjih GPU-jih nimaš kakšnih hudih omejitev glede tega. Razen tega, da pač nimaš DirectRaytrace, da je Direct3D logika pisana na kožo raytracingu tolk kot formula 1 slovenskim cestam, da je vprašanje če lahko dovolj hitro generiraš kd drevo (note to self klik),...
Rasterizacija je poceni (glede mm^2 na jedru), če kdo misli da bi lahko vrgli vn logiko za rasterizacijo in namesto tega dali not še en TPC (24 SP-jev v GT200) in imeli win-win situacijo se moti. Raytracing bo vedno počasnejši od rasterizacije (še Pixar ne uporablja vedno samo raytracinga), že na današnjih GPU-jih nimaš kakšnih hudih omejitev glede tega. Razen tega, da pač nimaš DirectRaytrace, da je Direct3D logika pisana na kožo raytracingu tolk kot formula 1 slovenskim cestam (torej je zadevo najlažje napisat iz 0 v CUDA/OpenCL/D3D11 compute), da je vprašanje kako dovolj hitro kreirat drevesa (Če sem malo zloben Sweeney že ene 10 let napoveduje kako so GPU-jem šteti dnvei. V bistvu ima prav, GPU-ji v stilu GeForce 256 so mrtvi že danes. Ampak Direct3D bo ostal, dvomim da prav veliko developerjev kriči "jupi, kdor napiše najhitrejšo kodo (po možnosti v asm) za izris trikotnika mu ostali častijo gajbo piva."
Rasterizacija je poceni (glede mm^2 na jedru), če kdo misli da bi lahko vrgli vn logiko za rasterizacijo in namesto tega dali not še en TPC (24 SP-jev v GT200) in imeli win-win situacijo se moti. Raytracing bo vedno počasnejši od rasterizacije (še Pixar ne uporablja vedno samo raytracinga), že na današnjih GPU-jih nimaš kakšnih hudih omejitev glede tega. Razen tega, da pač nimaš DirectRaytrace, da je Direct3D logika pisana na kožo raytracingu tolk kot formula 1 slovenskim cestam, da je vprašanje če lahko dovolj hitro generiraš kd drevo (note to self klik),...
Zgodovina sprememb…
- spremenil: Senitel ()
Jst ::
Tim je pravilno napovedal Voodoo in razmah rasterizacije.
Timmy ustvarja eno najboljših mašin, ut.engine, prilagodljivo, dela na wide variety of hardware. S tem mislim tako PCjeve grafične, kot Xbox360.
Pa še meni osebno je ut.engine razumljiv, oziroma .ini fajle si vsako igro, ki je narejena z njim, prilagodim tako, da če je potrebno, tudi žrtvujem kakšen bombomček, samo, da mi dela 60+. Kar se tiče FPS iger, vsaj.
Timmy ustvarja eno najboljših mašin, ut.engine, prilagodljivo, dela na wide variety of hardware. S tem mislim tako PCjeve grafične, kot Xbox360.
Pa še meni osebno je ut.engine razumljiv, oziroma .ini fajle si vsako igro, ki je narejena z njim, prilagodim tako, da če je potrebno, tudi žrtvujem kakšen bombomček, samo, da mi dela 60+. Kar se tiče FPS iger, vsaj.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Senitel ::
Vprašanje je, kakšne prednosti ti ponuja Larrabee v primerjavi s CUDA/OpenCL?
Da rasterizacija ni dovolj je vsem kristalno jasno. SSAO in relief mapping npr. že danes delajo raytracing. Kar ljudem (splošni populaciji) ni in nikakor noče bit kristalno jasno je, da raytracing ni samo sledenje žarka od kamere do prvega trikotnika in da sledenje žarka od kamere do prvega trikotnika nima nobene prednosti pred rasterizacijo tega istega trikotnika. Večina GPU-ja danes so shaderji, ki nimajo veze z rasterizacijo.
Razumet moraš, da Larrabee sam po sebi ne nudi nobene alternative rasterizaciji. Larrabee je čip, ki je v bistvu bolj GPU kot CPU, ampak razen teksturiranja nima nobene druge specializirane logike namenjene grafiki. Isto tudi GT200 v compute načinu nima pojma kaj je to rasterizacija.
Rasterizacija je bolj stvar API-ja kot samega GPU-ja. Recimo Direct3D in OpenGL nista v osnovi primerna za to, da bi kak driver zadaj delal raytracing. Tudi Larrabee Direct3D driver bo zato delal rasterizacijo (isto kot NV/ATI driverji, samo da imajo ti še nekaj hardwareske podpore).
V D3D11 compute shaderjih/CUDA/OpenCL gredo vsi ti grafični konstrukti direkt skozi okno. Lahko sprogramiraš "molecular hologramic quantum projection", če hočeš in tako dosežeš skakajoče možicle po ekranu...
Že danes te nihče ne sili da uporabljaš D3D/rasterizacijo. Carmack veselo renderira sparse voxel octree (SVO) in to dela na GPU-jih.
Na koncu bodo tako ali tako vsi programirali v OpenCL ali D3D11 compute, kar bo cool tako na Larrabee kot GT200, RV770 in naslednji generaciji GPU-jev od NV in ATI.
Da rasterizacija ni dovolj je vsem kristalno jasno. SSAO in relief mapping npr. že danes delajo raytracing. Kar ljudem (splošni populaciji) ni in nikakor noče bit kristalno jasno je, da raytracing ni samo sledenje žarka od kamere do prvega trikotnika in da sledenje žarka od kamere do prvega trikotnika nima nobene prednosti pred rasterizacijo tega istega trikotnika. Večina GPU-ja danes so shaderji, ki nimajo veze z rasterizacijo.
Razumet moraš, da Larrabee sam po sebi ne nudi nobene alternative rasterizaciji. Larrabee je čip, ki je v bistvu bolj GPU kot CPU, ampak razen teksturiranja nima nobene druge specializirane logike namenjene grafiki. Isto tudi GT200 v compute načinu nima pojma kaj je to rasterizacija.
Rasterizacija je bolj stvar API-ja kot samega GPU-ja. Recimo Direct3D in OpenGL nista v osnovi primerna za to, da bi kak driver zadaj delal raytracing. Tudi Larrabee Direct3D driver bo zato delal rasterizacijo (isto kot NV/ATI driverji, samo da imajo ti še nekaj hardwareske podpore).
V D3D11 compute shaderjih/CUDA/OpenCL gredo vsi ti grafični konstrukti direkt skozi okno. Lahko sprogramiraš "molecular hologramic quantum projection", če hočeš in tako dosežeš skakajoče možicle po ekranu...
Že danes te nihče ne sili da uporabljaš D3D/rasterizacijo. Carmack veselo renderira sparse voxel octree (SVO) in to dela na GPU-jih.
Na koncu bodo tako ali tako vsi programirali v OpenCL ali D3D11 compute, kar bo cool tako na Larrabee kot GT200, RV770 in naslednji generaciji GPU-jev od NV in ATI.
MrStein ::
off topic
Vsebino sporočila imaš podvojeno. Kak si to naredil ? Je to napaka ST ?
Vsebino sporočila imaš podvojeno. Kak si to naredil ? Je to napaka ST ?
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
filip007 ::
Sparse Voxel Octree je potem računska funkcija...ja pa se da to kombinirati s texksturami.
Ja izgleda da so poštudirali da Geometriske "šejderje lažje uporabiti v računanju kot pa jih bombadirati s texturami...
Sem prav razumel...
Sem prekmalu nabavil 4850 1Gb, grem stavit do bo imela 4890 manj "šajder" pipeline.
Ja izgleda da so poštudirali da Geometriske "šejderje lažje uporabiti v računanju kot pa jih bombadirati s texturami...
Sem prav razumel...
Sem prekmalu nabavil 4850 1Gb, grem stavit do bo imela 4890 manj "šajder" pipeline.
Prenosnik, konzola, TV, PC upokojen.
Senitel ::
SVO je pač kup voxlov ala "3D pixli", sparse pa zato, ker imajo lahko (velike) luknje v podatkih. Voxel ima pa sam po sebi lahko gor kakršen koli podatek (teksturo).
In ne, to nima nikakršne veze z geometry shaderji! Te stvari se delajo čisto samo v "compute" načinu (torej CUDA/CAL/OpenCL).
In ne, to nima nikakršne veze z geometry shaderji! Te stvari se delajo čisto samo v "compute" načinu (torej CUDA/CAL/OpenCL).
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Špekulacije o Radeon HD 5900Oddelek: Novice / Grafične kartice | 3742 (2440) | Jst |
» | Gaming PC (strani: 1 2 3 )Oddelek: Kaj kupiti | 8279 (5621) | fr4nc |
» | Nova grafična ali nov računalnik?Oddelek: Kaj kupiti | 3147 (1286) | galu |
» | ATI Radeon 4890 (strani: 1 2 )Oddelek: Strojna oprema | 7396 (4538) | IVo |
» | AMD izdal Radeon HD 4890Oddelek: Novice / Grafične kartice | 4261 (2843) | M-XXXX |