» »

Renderiranje filmov v realnem času?

Renderiranje filmov v realnem času?

kuglvinkl ::

Ravno te dni sem ugotavljal, kako bi zaposlil CPU (SETI gumpec!). Ok, zaženem Brce 4, v desetih minutah naredim animacijo, ki bi fascinirala nekoga, ki se kišt boji. Statična scena, puščava z nebeško modrim nebom, skozi katero se prav lepo v svoji glomaznosti vali vesoljska križarka. Frameov 96 (par sekund..). Zato je D900 potreboval malo manj kot dve uri.

Čeprav ima Bryce izjemno počasen render engine v primerjavi z drugim podobnim softwareom (zvedel iz revije Klik), se jasno postavlja vprašanje o smotrnosti takega početja. Namreč, že pred nekaj časa se je govorilo, da folk dela »filme« z enginom od Quake2.

Je zdaj investicija v render farme odveč? Lahko pričakujemo filme (brez navednic) na engineu od Doom 3 ali kasnejšem? Bolje, se zelo v kratkem obeta zamenjava paradigme?
Your focus determines your reallity

Senitel ::

Ja zadeva se je najprej odvijala v smer softwareskih rendererjev saj je veljalo prepričanje, da bojo CPU-ji v 10-15 letih dovolj hitri, da bi lahko pozabili na grafične pospeševalce. Zadeva pa se je z GeForce-em 3 obrnila saj so grafični pospeševalci postali programabilni. DirectX 9 generacija (pixel in vertex shaderji 2.0) bodo revolucija in hardware bo po mojem mnenju že brez težav zmogel grafiko ala Toy Story, Final Fantasy itd. pri kar precej spodobni resuluciji in FSAA-ju.
Doom 3 je šele začetek (zadeva je ciljana na GeForce 3 (DX8)), prihajajoč hardware pa bo zmogel izrisati več boljših pixlov. Ko bo Carmack (drugi itak očitno spijo) začel ciljat na DX9 generacijo >:D...

kuglvinkl ::

Zanimivo, ja, da se samo Id s tem tako fanatično ukvarja. Kaj je tako malo ljudi s takim znanjem? Ker tak posel se po mojem mnenju brez dvoma splača, čeprav je vložek ogromen in se ne obrne v dveh letih. Očitno bo treba Carmacka klonirati, ker če bo 2003 izdal zadnji patch za Doom 3, bomo prvi ultra špil na DX9 videli okrog 2006...

Sicer pa, si predstavljate, da bi bil film dolg vsega nekaj mega v obliki (Ok poenostavljeno rečeno) .txt s parametri glede objektov, luči, tekstur, ... Zraven pridamo že zvok v kakšni izboljšani verziji MP3 in volia. Video on demand brez hitrih povezav (v RS vredno razmiselka).

Your focus determines your reallity

TESKAn ::

NI problem v tem, da bi bil Carmack edini, ki zna - problem je v tem, da drugi mislijo v stilu 'sej pol folka nima najnovejših kartic - kaj bi potem delal eno megaigro?' in potem naredijo deer hunterja, ki ga lahko poganjaš na kavnem mlinčku...pač ekonomija in $$$ za vsem.
Uf! Uf! Je rekel Vinetou in se skril za skalo,
ki jo je prav v ta namen nosil s seboj.

kuglvinkl ::

Ok, se strinjam, to je ena plat ekonomije, klasično ziheraštvo, ki do ogromnih vsot $ nikakor ne pripeljejo. To je samo stagnacija (pustimo ob strani, da se da (načeloma) tudi s slabšo karto delat čudeže, če se aplikacija optimizira (seveda se ne, je predrago)).

Pa vendar, break out (heh, tudi nVidia gljub svoji premoči potrebuje to potrebuje, vzrok je enostaven, imenuje se zadovoljen nasmeh delničarjev) se dela s top high end kartami in igrami, ki jo zmorejo (vsaj delno) izkoristit. Hej, morda je rešitev, da pride do izrazito tesnejše povezave med trdo in mehko stranjo. Deloma se to že kaže, npr. tako ATi kot nVidia izdajata demote, ki naj bi prikazali vse zmožnosti karte, Carmack sodeluje pri razvoju driverjev za ATI...

Kljub temu, da predstavljajo igre ogromen trg, očitno to ni dovolj. Če oz. ko bo na sceno stopil še ves ostali entertaiment (TV, filimi, ...) bo verjetno prišlo do konkretnejših premikov v smeri zmanjševanja zaostanka softwarea.

Menim, da bo folk tudi zaradi (če držijo vse napovedi itd itd o revolucionarnosti igre) Doom 3 kupoval nove, pregrešno drage! mašine, kot jih je za enko (na nekem Infosu, če me spomin ne vara, sem samo zijal, kako stvar šiba na 486 DX2 66MHz, folk je bil dobesedno penast). Prodajo produkta omogoči samo njegova novost, kakovost (Ok to se zadnje čase pozablja), hitrost, izgled, .., zakaj pa mislite, da je intelektualna (industrijska) lastnina tako zavarovana?

Upam, da ostalim nisem preveč zamoril z ekonomijo.Kar postajte direktno v zvezi z naslovom.
Your focus determines your reallity

Senitel ::

Carmack je pač že veteran kar se tiče 3D engine-ov. Tim Sweeney pa neglede na Unreal in Unreal Tournament še ni prišel tako visoko kot je Carmack (Unreal 2 oziroma engine, ki ga bo poganjal je še vedno pisan za DX7 generacijo).
Druga stvar je sam Direct3D, ker je v njem dosti bolj težko nardit kaj v stilu Doom 3 (Microsoft je z pixel shaderji 1.x zelo zelo zgrešil). V bistvu dvomim, da bi se dalo nardit Doom 3 na v Direct3D 8. GeForce 3 pod OpenGL-om nudi ti. dependant reade (kar pomeni, da dobiš neko koordinato jo v "pixel shaderju" popraviš kolikor ti paše in greš s to popravljeno koordinato iskat eno drugo teksturo) v DX8 pa rabiš za podobno zadevo pixel shaderje 1.4, ki pa jih podpira samo Radeon 8500 :\. Praktično edina razlika med Radeon 8500 in GeForce 3 v OpenGL-u je to, da ima Radeon 2 teksturi več :|. In niti pod razno mi ni jasno, kaj je blo MS-ju sploh treba izdajat še pixel shaderje 1.4 (tko je zdej 5 verzij pixel shaderjev prve generacije, ki so si podobne kot jajce jajcu), ker so pixel shaderji 2.0 itak bistveno drugačni (edini razlog je zgleda v tem, da se lahko ATI zdaj hvali).
Naslednji razlog je v tem, da bo neka nova skupina izredno težko dobila založnika, če se bo založbi zdelo, da je špil "prezahteven".
Pa sej konec koncov se stvari premikajo na bolje če pogledaš recimo X-Isle ali pa CodeCreatures (klik pa si posnem dol benchmark - 38MB)...
Trenutno pa itak še praktično vsi špili gonjo 5 let staro grafično tehnologijo na top of the line grafičnih karticah. In vsa razlika med današnjimi karticami in tistimi izpred 5-ih let je ta, da so današnje pač za XY fps hitrejše (dej če folk še vedno uživa v "kvalitetni" grafiki na Voodoo 3 :\ ).

root987 ::

glih dons sm na www.nvidia.com brav da je nek tip na athlono xp 2100+ 256mc ddr pomnilnika in geforcom 4 v realnem caso rendiro final fantasy the movie pri 24 slikicah na sekundo. menda je blo vse tekoce razn maliga ramika med sliko in zvokom. poglejte si.
"Myths which are believed in tend to become true."
--- George Orwell

kuglvinkl ::

Stalin: ravno zaradi tega teče ta debata.

Senitel: ja, prav žalostno, da najnovejše karte uporabljajo tako star software. Iz tega žal sledi, da se tudi DX9 karte ne bo splačalo kupiti, ker:
- ne bo aplikacij, ki bi to izkoriščale;
- tudi same karte ne bodo še sposobne v primerni hitrosti izvajat aplikacije, če in ko bodo. Zakaj hudiča ne uleti RAMBUS na grafično sceno?

Meaning, DX8,9 je zdaj zaenkrat samo marketing, ki prodaja karte. Verjamem pa, da veliko ljudi (small ones...)kupi DX8 karto, ker so frustrirani zaradi Nature testa v 3DMarku.

CodeCreatures sem si že mislil sneti, pa imam 256 MB RAMa premalo, pa tuid v testih vidim, da je X-Isle čedalje bolj popularen.

Drugače pa, nekdo, ki ima dovolj novecv pod palcem mora zavohat zadevo. Stvar bo po porodnih krčih brez dvoma stekla. In ja, Loto v ponedeljek bo v primerjavi s tem dobiček, ki ga bo ta frima zaslužila en dan dopoldne.
Your focus determines your reallity

Senitel ::

Ja sam so pa DX8 kartice precej hitrejše od DX7 in prav tako se bo zgodilo z DX9. Poglej si naprimer Parhelio. Načeloma nebo hitrejša od nobenega GeForce-a 4, samo bo pa šla praktično brez performance hita na 16x FAA...

_Mortal_ ::

Stalin: MANY PEOPLE POINTED out to us that a recent demo we saw was not quite the same as final rendering used in movie and all we can say to them is that they are perfectly right.
Even though the Geforce 4 is quite an impressive part, the rendering that this card offers is still quite some way away from the image quality that we saw in the original Final Fantasy movie.

Movies like Shrek and Final Fantasy, that are more than just cartoons use very complex scenes with loads of polygons, vertices, and very high resolution textures don’t need to be rendered in real time.

Shrek was rendered by 200 machines connected in one big rendering cluster and in the evenings when employees toddled off down the pub, there were 300 machines used to render all those complex scenes seen in original movie.

Even though cards like Geforce 4 TI 4600 are really powerful they still cannot match 300 machine clusters that render some scenes for quite some time while in real time graphic you expect to have at least 24 FPS to have fluent motion.

You can draw the conclusion that even while we were really thrilled to see Final Fantasy demo running in real time, its quality was still lagging from original rendered movie.

We learned that the demo version used 40 000 vertices for lady called AKI while the other scientist called SID was build from 49 000 vertices.

The rest of the scene used about 70 000 more vertices leaving this scene to a final 159 000 vertices when you put all this data together.

As we already said demo was running fluently and it was good enough to amaze me just like I was shocked when I saw nature test at 3Dmark 2001 back in March 2001 running on Geforce 3.

I must inform you that this demo uses just 10 per cent of original polygon count used in the original movie. The other fact is that the original movie was rendered at much higher resolution than 32 bit precision that you usually see in "real time" graphics or games. This leaves just 256 variations of the same colour pre primary channel while if you use 128 bit precision you could got much more. 128 bit color is about to become standard in hardware introduced as soon as this year. With 32 bit precision per colour you will be able to get as much as 16,7 million of variations of same color in RGB plus Alpha channel used for some effects.

Even so this is a very fancy looking demo, at lest for a real time its still not match for original movie. I would really be thrilled to see games of this complexity running on hardware soon.

I hope this clarifies things and here are the images that you get from Geforce 4 and the original one from the movie. ľ

pa šelink
Is reading in the bathroom considered as multi-tasking?

Senitel ::

Prva stvar je to, da so Rendermanovi shaderji še vedno bistveno bolj kompleksni od pixel shaderjev 1.x (vključno z 1.4). Zaradi tega jih je treba skrajšat. Za ta demo se še vedno uporablja precej multi pass, ki potegne za seboj še obremenitev vertex shader enote (ker mora iste trikotnike transofmirat večkrat). V Shrek-u so recimo glavni junaki sestavljeni iz 800k trikotnikov, kar JE v dosegu današnjega hardware-e, PRI POGOJU da scene ne renderiraš trikrat ali štirikrat.
Druga stvar je barvna globina. Na monitorju še lep čas ne boš videl 128 bpp interno pa itak že vse kartice renderirajo na več kot 32 bpp. Problem je samo v tem, da morajo sliko renderirat trikrat...
Sicer je pa Carmack spisal en zelo dober komentar na to temo: klik.

Multi chip and multi card solutions are also coming, meaning that you will be able to fit more frame rendering power in a single tower case than Pixar's entire rendering farm. Next year.

LunKi ::

Jo a je od x-isle benchmark, ker ta špil sm enkrat neki chekiru in zgledu je pred pol leta famozno! Kako je zdj to ne vem? Pa kje je ?

CaqKa ::

za to sranje rabiš tote neke pixel shaderje.. al kak se že reče...


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

DX10 Benchmarks - Call Of Juarez

Oddelek: Navijanje
244085 (2808) Tilen
»

DX 9 vs. DX 10 (strani: 1 2 )

Oddelek: Igre
926490 (5528) kobilica
»

gf4 ti4200 =radeon???

Oddelek: Kaj kupiti
171179 (893) suntrace1
»

ATi v Half-Life 2 pomete z nVidio (strani: 1 2 )

Oddelek: Novice / Grafične kartice
837618 (7618) norvalk
»

Radeon 9700 je zunaj (strani: 1 2 3 )

Oddelek: Strojna oprema
1296733 (4000) ||_^_||

Več podobnih tem