Forum » Strojna oprema » Nvidia-Kepler (6xx series)
Nvidia-Kepler (6xx series)
Temo vidijo: vsi
![](https://static.slo-tech.com/stili/avatar_gray.gif)
freesty ::
Ja lahko pa bi jo prodajal kot novo pa tak nebi niti vedel, da si dobil second hand kartico.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
mihco ::
![](https://static.slo-tech.com/stili/avatar_gray.gif)
fr4nc ::
Ja lahko pa bi jo prodajal kot novo pa tak nebi niti vedel, da si dobil second hand kartico.
Ja to mene ne moti... dokler je 2 leti garancije je 2 leti garancije - tu ni debate.
Torej je "kao" 1 leto rabljena kartica vredna 290€
![8-O](https://static.slo-tech.com/smeski/icon_eek.gif)
Me razumete kaj hočem povedat?
Lp
"Rad pomagam, če je le možno" by Fr4nc; blog(2): http://cpuwars.wordpress.com/
"I just love to share the truth!!" by Fr4nc; http://intelvsamd.wordpress.com/
"I just love to share the truth!!" by Fr4nc; http://intelvsamd.wordpress.com/
![](https://static.slo-tech.com/stili/avatar_gray.gif)
freesty ::
@mihco
Ja mas prav. Sam, ce je garancija, pa ce artikel izgleda enako kot nov. Potem tak ni problema?
@franc
Bedna je ja. Ubistu bi lahko ze samo zaradi 1 leta manj garancije dali ceno pod 290€ ne pa, da je še povrhu second hand.
Ja mas prav. Sam, ce je garancija, pa ce artikel izgleda enako kot nov. Potem tak ni problema?
@franc
Bedna je ja. Ubistu bi lahko ze samo zaradi 1 leta manj garancije dali ceno pod 290€ ne pa, da je še povrhu second hand.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
sebek1 ::
>Sej ne da skor ne moreš izbrat slabšega primera za showcase glajenja robov...
Rejzor: Ne razumem kaj misliš povedati. Nikoli nisem trdil, da je TXAA super. Jaz sem hotel samo pokazati, kako zgleda Spec Ops brez in z TXAA2. Moral se boš strinjati, da blura ni, da TXAA2 malenkost opravlja svojo nalogo, ni pa nek hud algoritem. Malo se pozna, da je lepša slika. MALO.
Če hočeš videti še kaj drugega, povej. SpecOps je dx9 igra, tako, da lahko uporabim MSAA4x 8x + TXAA. Lahko uporabim Supersampling, SS + TXAA. Ampak že pri MSAA4x + TXAA2 se FPSji prepolovijo, ravno na mejo igralnosti - 50-60FPS.
Lahko pa ti, ki imaš Radeona, postaš screenshot kakšnega post-process AA...
To maš TSSAA ti pomoje nastavljeno, kolko jaz vem zaenkrat edina igra, ki podpira je TXAA je Secret world in razlika je ogromna. Pa kvaliteta AA se ocenjujejo v premikajoči sliki ne na screenshotih, kjer TXAA res umiri sliko prav tako alfa teksture dreves in aliasing shaderjev. Recimo MLAA/FXAA na slikah izgleda super, v gibanju pa ne naredita skoraj nič. TXAA sam pa temelji na MSAA, tako, da je way to go za prihodnost, ker bodo razvijalci končno spet začeli MSAA vključevat v igre in boš lahko enhancal s SGSSAA, ki je pa najbojše kar je.
http://www.geforce.com/whats-new/articl... Tu je video, glej v full screen, TXAA skoraj čist umiri flicker/crawling anten, robov, dreves. Res, da malo blura, vendar nič kaj več kot MLAA in FXAA, implentacija pa bo sigurno še izboljšana. Če mene vprašaš, fantastičen algoritem, full screen AA za ceno 4x MSAA, vsaj pri igrah, ki so prezahtevne za SGSSAA.
Zgodovina sprememb…
- spremenilo: sebek1 ()
![](https://static.slo-tech.com/stili/bel_non_grata.png)
RejZoR ::
Zdej pa že nakladaš no. MLAA naredi veliko neglede na to al je statična scena ali gibajoča, verjemi, ga skoz uporabljam že od HD5850 kartice naprej... Stvar je samo v tem kakšen kontrast je med površinami in robovi.
Angry Sheep Blog @ www.rejzor.com
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
Se mi zdi, da je bil povdarek bolj na tem, da stvari bolje zgledajo v gibanju. Če imaš statično sliko, ti jo lahko nek AA algoritem zelo lepo polepša. Ko se začne premikanje pa oči hudo hitro pogruntajo vzorce.
Dobri AA algoritmi izkoriščajo tudi časovno komponento, da dobijo dodatne free sample, ker oči iz posamezne slike ne zgruntajo vzorca.
Dobri AA algoritmi izkoriščajo tudi časovno komponento, da dobijo dodatne free sample, ker oči iz posamezne slike ne zgruntajo vzorca.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Orbit89 ::
Toda zaradi nizke motion resolucije pri 60Hz zaslonih, je prednost TXAA slabo opazna proti high quality FXAA. Šele z 120Hz zasloni in plazmami se ta "SG AA" res pozna.
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Oz kaj boš rekel, da je samo in izklučno za cuda aplikacije in znanost, samo te bojo zmožne izkoriščati te funkciji? Nevem no, bolj buče kot ne.
Seveda! Za "Dynamic Parallelism" oziroma funkcionalnost, da gpu kernel požene nove gpu kernele, DirectX nima nobene podpore.
Pri HyperQ gre spet v principu za MPI stack, ki ga nima noben domač uporabnik. That said tudi GK104 in GK107 sta virtualizirana. Sicer ne tako zelo kot bo GK110, ampak čisto dovolj, da ima lahko NV v prodaji VGX boarde.
Je v driver levelu in deluje tako kot je treba, directx/openGL nima nobene veze, prav tako razne znanostne applikacije..
AciD TriP
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Isto kot gigathread engine, je HW level samo driver še zmeraj "kontrolira pretok oz komunikacijo/zasedenost jeder.
Edit: ubistvu bomo pa zelo kmalu izvedeli, kakšna bo Geforce varijanta na GK110, bo z vsemi bonbončki ali ne, jaz si upam rečt da bo.
Sicer sem pa včeraj pogledal 660TI review in NV predstavnik ni hotel komentirati GK110, vedar je dal vedeti da bo izšel..
Edit: ubistvu bomo pa zelo kmalu izvedeli, kakšna bo Geforce varijanta na GK110, bo z vsemi bonbončki ali ne, jaz si upam rečt da bo.
Sicer sem pa včeraj pogledal 660TI review in NV predstavnik ni hotel komentirati GK110, vedar je dal vedeti da bo izšel..
AciD TriP
Zgodovina sprememb…
- spremenilo: TechBeats ()
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
To da je isti princip kot gigathread engine - hw level in ne rabi neke specifične aplikacije, da to izkorišča.
In poglej kle, niti ene besedice ni omenjene, da sta odvisni od aplikacije.
http://www.anandtech.com/show/5840/gtc-...
In poglej kle, niti ene besedice ni omenjene, da sta odvisni od aplikacije.
http://www.anandtech.com/show/5840/gtc-...
AciD TriP
Zgodovina sprememb…
- spremenilo: TechBeats ()
![](https://static.slo-tech.com/stili/avatar_gray.gif)
McLuzo ::
AMD drops prices on high-end cards again:
1GB 7850 down $40 to $190
2GB 7850 down $40 to $210
2GB 7870 down $50 to $250
3GB 7950 down $30 to $320
1GB 7850 down $40 to $190
2GB 7850 down $40 to $210
2GB 7870 down $50 to $250
3GB 7950 down $30 to $320
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
To da je isti princip kot gigathread engine - hw level in ne rabi neke specifične aplikacije, da to izkorišča.
In poglej kle, niti ene besedice ni omenjene, da sta odvisni od aplikacije.
http://www.anandtech.com/show/5840/gtc-...
Ok greva še korak nazaj. Tesla arhitektura je bila sposobna potegnit samo en CUDA kernel sočasno. Fermi jih je bil sposoben potegnit 16. Kako se je to odražalo v DirectX svetu in igrah?
P.S.: Grafika vs. compute je na GPU-jih precej bolj tricky kot se ti zdi.
Zgodovina sprememb…
- spremenil: Senitel ()
![](https://static.slo-tech.com/stili/avatar_gray.gif)
klinker ::
AMD drops prices on high-end cards again:
1GB 7850 down $40 to $190
2GB 7850 down $40 to $210
2GB 7870 down $50 to $250
3GB 7950 down $30 to $320
Hude cene...no...koncno normalne bi jst reku. Zdaj pa je nvidia na vrsti
![:)](https://static.slo-tech.com/smeski/icon_smile.gif)
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Jst ::
sebek1: TO je verjetno best case scenario. Moje izkušnje z zadnjimi NOT-BETA driverji so drugačne. Pa še posebej sem napisal, da se gre za igro SpecOps, za katero je čisto možno, da nvidijin algoritem ne deluje najbolje.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Isotropic ::
P.S.: Grafika vs. compute je na GPU-jih precej bolj tricky kot se ti zdi.
daj pojasni tole bolj prosim. znano mi je glede l1 in l2 cache, da je za teksture prakticno neuporaben, za compute pa prakticno zivljenskega pomena...
spec ops je carska igrica ja. mi je delala celo na 8800gts
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Ok greva še korak nazaj. Tesla arhitektura je bila sposobna potegnit samo en CUDA kernel sočasno. Fermi jih je bil sposoben potegnit 16. Kako se je to odražalo v DirectX svetu in igrah?
P.S.: Grafika vs. compute je na GPU-jih precej bolj tricky kot se ti zdi.
Hočeš reči Fermi Tesla ahitektura, Tesla je še zmeraj Fermi z manjšimi tweaki, razen K20 in K10.
http://www.pgroup.com/lit/articles/insi...
The code is actually executed in groups of 32 threads, what NVIDIA calls a warp. On a Tesla, the 8 cores in a group are quad-pumped to execute one instruction for an entire warp, 32 threads, in four clock cycles. Each Tesla core has integer and single-precision floating point functional units; a shared special function unit in each multiprocessor handles transcendentals and double-precision operations at 1/8 the compute bandwidth.
A Fermi multiprocessor double-pumps each group of 16 cores to execute one instruction for each of two warps in two clock cycles, for integer or single-precision floating point. For double-precision instructions, a Fermi multiprocessor combines the two groups of cores to look like a single 16-core double-precision multiprocessor; this means the peak double-precision throughput is 1/2 of the single-precision throughput.
Nevem kje vidiš ti 16.. Tesla v ima 8 x4 , Fermi 16 x2, na koncu je nekako isto.
With Fermi NVIDIA’s hardware only supported 1 hardware work queue, whereas GK110 will support 32 work queues.
With Fermi only the CPU could dispatch a new kernel, which incurs a certain amount of overhead by having to communicate back and forth with the CPU. By giving kernels the ability to dispatch their own child kernels, GK110 can both save time by not having to go back to the GPU, and in the process free up the CPU to work on other tasks.
Ps. gigathread engine ima pozitivni učinek pa naj bo pri directx oz direct compute, in prav tako bosta imela HyperQ in Dynamic Parallelism.
http://icrontic.com/article/nvidia_ferm...
in kaj je GigaThread, Gigathread reorganizes program kernels for more efficient computing., torej ima podobno funkcijo kot HyperQ oz. je kot neke vrste razširitev/dopolnitev Gigathread, vendar bolj sofisticirano.
AciD TriP
Zgodovina sprememb…
- spremenilo: TechBeats ()
![](https://static.slo-tech.com/stili/avatar_gray.gif)
stock ::
AMD drops prices on high-end cards again:
1GB 7850 down $40 to $190
2GB 7850 down $40 to $210
2GB 7870 down $50 to $250
3GB 7950 down $30 to $320
Hude cene...no...koncno normalne bi jst reku. Zdaj pa je nvidia na vrsti![]()
Tole bolj zgleda, kot da bodo cene nazaj na tistih pred podražitvami oz. ob izidu kartic, kar pomeni da kdor je kupil februarja 7850 je letos definitivno zmagal. Po drugi strani pa zamik nižanja cen pomeni samo višanje cen top end produktov. Kar pomeni da bodo kartice v prihodnje dražje. Sicer smo že skoraj tam še malo pa bo že kartica za 300€ komaj poganjala igre iz enakega obdobja. Medtem ko so včasih kartice za 300€ še 3 leta furale vse na max.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Jst ::
>Medtem ko so včasih kartice za 300€ še 3 leta furale vse na max.
Pri 20FPS.
Pri 20FPS.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
P.S.: Grafika vs. compute je na GPU-jih precej bolj tricky kot se ti zdi.
daj pojasni tole bolj prosim. znano mi je glede l1 in l2 cache, da je za teksture prakticno neuporaben, za compute pa prakticno zivljenskega pomena...
Tudi za grafiko je L1 in L2 življenskega pomena.
Amapak za zečetek dajmo rečmo to, da grafika (recimo Direct3D) in compute (recimo DirectCompute) ne moreta živet sočasno na GPU-ju.
Ok greva še korak nazaj. Tesla arhitektura je bila sposobna potegnit samo en CUDA kernel sočasno. Fermi jih je bil sposoben potegnit 16. Kako se je to odražalo v DirectX svetu in igrah?
P.S.: Grafika vs. compute je na GPU-jih precej bolj tricky kot se ti zdi.
Hočeš reči Fermi Tesla ahitektura, Tesla je še zmeraj Fermi z manjšimi tweaki, razen K20 in K10.
http://www.pgroup.com/lit/articles/insi...
Tesla je brand tako kot GeForce. Po drugi strani je Tesla tudi arhitektura tako kot Fermi ali Kepler (ali Curie, če gremo nazaj).
Brez veze linkaš stvari, ki nimajo nikakršne veze s tem o čemer govorim. Again:
Kako specifično tole pomaga v grafiki:
Some of the jobs are smaller than the GPU's width, so a portion of the chip sits idle as the rest processes each kernel. Fermi avoids this inefficiency by executing up to 16 different kernels concurrently, including multiple kernels on the same SM.
Ps. gigathread engine ima pozitivni učinek pa naj bo pri directx oz direct compute, in prav tako bosta imela HyperQ in Dynamic Parallelism.
http://icrontic.com/article/nvidia_ferm...
in kaj je GigaThread, Gigathread reorganizes program kernels for more efficient computing., torej ima podobno funkcijo kot HyperQ oz. je kot neke vrste razširitev/dopolnitev Gigathread, vendar bolj sofisticirano.
Pri "GigaThread (tm)" ne gre za fundamentalno novo pogruntavščino. Pač Fermi lahko drži več threadov v obdelavi kot Tesla in ker je krajši pipeline preklaplja hitreje med konteksti. Tako kot bo recimo podvojeno število SP-jev blagodejno vplivalo na performance bo tudi zmožnost obdelave večih threadov sočasno blagodejno vplivala na performance.
"Dynamic Parallelism" je drugačna žival. Kakšen učinek ima tesselation na DirectX 9 igre?
![](https://static.slo-tech.com/stili/bel_rudis.png)
FlyingBee ::
Senitel, odgovarjaš z vprašanji, tako da mi ni nič več jasno
glede na to, da se že govori o 8xxx pri AMD, kako kaj pri nvidii? Upam, da ne stavijo vse na gpuzillo GK110 ... nekako naslednje generacije še vsaj do pomladi 2013 ni za pričakovati ali pač fake generacija z izboljšanimi GK104-ami ... verjetno čakajo P od 89xx in bodo potem reagirali
glede na to, da se že govori o 8xxx pri AMD, kako kaj pri nvidii? Upam, da ne stavijo vse na gpuzillo GK110 ... nekako naslednje generacije še vsaj do pomladi 2013 ni za pričakovati ali pač fake generacija z izboljšanimi GK104-ami ... verjetno čakajo P od 89xx in bodo potem reagirali
![](https://static.slo-tech.com/stili/bel_non_grata.png)
Dr_M ::
Nova generacija bo nova arhitektura, vmes so pa refreshi. Nevem kje si ti nasel fake novo generacijo.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
Senitel, odgovarjaš z vprašanji, tako da mi ni nič več jasno
Mal je problem razlagat programerske zadeve ljudem, ki niso programiranja videli niti od daleč. Ergo, najprej je treba ugotovit, kje se zablode sploh začnejo.
glede na to, da se že govori o 8xxx pri AMD, kako kaj pri nvidii? Upam, da ne stavijo vse na gpuzillo GK110 ... nekako naslednje generacije še vsaj do pomladi 2013 ni za pričakovati ali pač fake generacija z izboljšanimi GK104-ami ... verjetno čakajo P od 89xx in bodo potem reagirali
Kaj pričakuješ od nove generacije? TSMC 20nm ne bo še zrel za na police kar lepo v 2013. GK110 je refresh arhitekture, večji register pool, večji cache-i, nekaj novih feature-jev, več SP-jev, večji bandwidth,... Čip velikostnega ranga GF100/GF110.
O Radeon HD 8xxx se ne ve pa še čisto nič konkretnega.
![](https://static.slo-tech.com/stili/bel_non_grata.png)
Dr_M ::
Trzna imena nima kaj dosti veze s tem.
Predstavlji si to, kot facelift pri avtomobilu.
Tako poteka ze zadnjih 15 let.
Ce das veliko na marketing, potem je oznaka zelo pomembna in vsako novo serijo proglasis za novo generacijo, za ostale je vazna samo tehnologija in koncni izdelek, ne glede na to kaj pise gor.
Predstavlji si to, kot facelift pri avtomobilu.
Tako poteka ze zadnjih 15 let.
Ce das veliko na marketing, potem je oznaka zelo pomembna in vsako novo serijo proglasis za novo generacijo, za ostale je vazna samo tehnologija in koncni izdelek, ne glede na to kaj pise gor.
![](https://static.slo-tech.com/stili/bel_rudis.png)
FlyingBee ::
ja, očitno me je tik tok Intela razvadil in gledam tako tudi na ostale čiptarje, ker je lažje za razumet in sledit pa še edino pravilno se mi zdi, vsaj povprečen uporabnik ve za kaj se gre
![](https://static.slo-tech.com/stili/bel_non_grata.png)
Dr_M ::
E vids, ravno intelov tik tok je lepo definiru to.
Nova generacija -> refresh -> nova generacija -> refresh....
Edina razlika je ta, da pri intelu refresh pomeni drug proizvodnjo prpces.
Nova generacija -> refresh -> nova generacija -> refresh....
Edina razlika je ta, da pri intelu refresh pomeni drug proizvodnjo prpces.
Zgodovina sprememb…
- spremenil: Dr_M ()
![](https://static.slo-tech.com/stili/bel_non_grata.png)
RejZoR ::
In kaj je treba definirat tle?
RADEON kartice...
HD1000 nova serija
HD2000 refresh
HD3000 nova serija
HD4000 refresh
HD5000 nova serija
HD6000 refresh
HD7000 nova serija
HD8000 refresh (yet to be released)
Pri NVIDIA karticah sem sicer mal manj na tekočem v zadnjem času ampak imajo povsem isti vzorec. Vedno je nova serija in mal kasneje refresh. In to se skoz ponavlja.
RADEON kartice...
HD1000 nova serija
HD2000 refresh
HD3000 nova serija
HD4000 refresh
HD5000 nova serija
HD6000 refresh
HD7000 nova serija
HD8000 refresh (yet to be released)
Pri NVIDIA karticah sem sicer mal manj na tekočem v zadnjem času ampak imajo povsem isti vzorec. Vedno je nova serija in mal kasneje refresh. In to se skoz ponavlja.
Angry Sheep Blog @ www.rejzor.com
![](https://static.slo-tech.com/stili/bel_non_grata.png)
RejZoR ::
HD1000 ne obstaja, HD2000 in 3000 pa kolikor jas vem je kao ista generacija
Joj x1000 serija no, ampak je isti drek kot če rečeš HD1000 ker esentialno je to to.
Angry Sheep Blog @ www.rejzor.com
![](https://static.slo-tech.com/stili/bel_rudis.png)
FlyingBee ::
glede primerjave P: http://www.techpowerup.com/reviews/ASUS...
glede dobavljivosti v SLO: pokliči v http://dinokomp.si/ ali funtech, mlacom, ...
glede dobavljivosti v SLO: pokliči v http://dinokomp.si/ ali funtech, mlacom, ...
![](https://static.slo-tech.com/stili/avatar_gray.gif)
RC14 ::
Sicer smo že skoraj tam še malo pa bo že kartica za 300€ komaj poganjala igre iz enakega obdobja. Medtem ko so včasih kartice za 300€ še 3 leta furale vse na max
HD4870 je bil lep primer. zelo zmogljiva grafa za ~200 eur, pa je poganjala vse.
To js že skoz pravim,da so zaradi tega kartice predrage. Če bi kupil kartico za 300 eur in bi potem bila takšna kartica sposobna poganjat na današnji standardni resoluciji (1080) vse trenutne igre in future igre vsaj dve leti na max detajlih, potem se ne bi nobeden pritoževal, tudi jaz se ne bi.
Situacija je pa takšna, da kupiš kartico za 300-350 EUR in potem ni sposobna konkretno poganjat določenih trenutnih iger na max detajlih , oz še slabše,iger, ki so izšle že pred pol leta, kaj šele bodoče igre. In nekateri se s tem lepo zadovoljijo in so presrečni, ko jim kartica lih za glih poganja nek top špil, ki je izšel že recimo pred pol leta.
Noben pa se ne vpraša, kako mu bo poganjala njegova kartica nek future špil.
Ma ja, očitno ni problema za nekatere, če pač ne bo poganjala določenega špila, hopla, po novo grafo v trgovino. Zaradi takšnih, pa nvidia in AMD lepo nabijajo cene svojih produktov, ker se še vedno očitno grafe prav lepo prodajajo.
lp
HD4870 je bil lep primer. zelo zmogljiva grafa za ~200 eur, pa je poganjala vse.
To js že skoz pravim,da so zaradi tega kartice predrage. Če bi kupil kartico za 300 eur in bi potem bila takšna kartica sposobna poganjat na današnji standardni resoluciji (1080) vse trenutne igre in future igre vsaj dve leti na max detajlih, potem se ne bi nobeden pritoževal, tudi jaz se ne bi.
Situacija je pa takšna, da kupiš kartico za 300-350 EUR in potem ni sposobna konkretno poganjat določenih trenutnih iger na max detajlih , oz še slabše,iger, ki so izšle že pred pol leta, kaj šele bodoče igre. In nekateri se s tem lepo zadovoljijo in so presrečni, ko jim kartica lih za glih poganja nek top špil, ki je izšel že recimo pred pol leta.
Noben pa se ne vpraša, kako mu bo poganjala njegova kartica nek future špil.
Ma ja, očitno ni problema za nekatere, če pač ne bo poganjala določenega špila, hopla, po novo grafo v trgovino. Zaradi takšnih, pa nvidia in AMD lepo nabijajo cene svojih produktov, ker se še vedno očitno grafe prav lepo prodajajo.
lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::
Zgodovina sprememb…
- spremenil: RC14 ()
![](https://static.slo-tech.com/stili/bel_rudis.png)
FlyingBee ::
žalostno je predvsem, da grafika zaradi konzol ne napreduje tako, da bi rabili vsako leto novo grafično, mogoče jo rabimo, če je priljubljena igra slabo portana s konzol, kar je še večja škoda
radeon 6870 ali geforce 560 za do 200 EUR je super grafična, ki že par let poganja vse na high, razen nad fullHD in mogoče kakšna slaba optimizacija pri AA ali kakšne izjeme pač
radeon 6870 ali geforce 560 za do 200 EUR je super grafična, ki že par let poganja vse na high, razen nad fullHD in mogoče kakšna slaba optimizacija pri AA ali kakšne izjeme pač
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Tesla je brand tako kot GeForce. Po drugi strani je Tesla tudi arhitektura tako kot Fermi ali Kepler (ali Curie, če gremo nazaj).
Brez veze linkaš stvari, ki nimajo nikakršne veze s tem o čemer govorim. Again:
Kako specifično tole pomaga v grafiki:
Some of the jobs are smaller than the GPU's width, so a portion of the chip sits idle as the rest processes each kernel. Fermi avoids this inefficiency by executing up to 16 different kernels concurrently, including multiple kernels on the same SM.
Ps. gigathread engine ima pozitivni učinek pa naj bo pri directx oz direct compute, in prav tako bosta imela HyperQ in Dynamic Parallelism.
http://icrontic.com/article/nvidia_ferm...
in kaj je GigaThread, Gigathread reorganizes program kernels for more efficient computing., torej ima podobno funkcijo kot HyperQ oz. je kot neke vrste razširitev/dopolnitev Gigathread, vendar bolj sofisticirano.
Pri "GigaThread (tm)" ne gre za fundamentalno novo pogruntavščino. Pač Fermi lahko drži več threadov v obdelavi kot Tesla in ker je krajši pipeline preklaplja hitreje med konteksti. Tako kot bo recimo podvojeno število SP-jev blagodejno vplivalo na performance bo tudi zmožnost obdelave večih threadov sočasno blagodejno vplivala na performance.
"Dynamic Parallelism" je drugačna žival. Kakšen učinek ima tesselation na DirectX 9 igre?
Ne bluzi no pa neki vzemat stvari izven konteksta,.. Pač neveš kar se tiče Dynamic Parallelism in HyperQ, neki sanjaš kao da ne bo oz je samo Tesla specifično, to je to. Jaz sem pa rekel da ne, in da bo Geforce varjanta imela isto.
In gigathread sem omenil samo zato, ker si ti začel neki govort, da sta HQ in DP samo za Tesla, čeprav je gigathread v vseh treh Quadro, Geforce in Tesla.
End of story.
AciD TriP
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
Ne da je samo za Tesla karte. Samo za compute je. CUDA/OpenCL ja, Direct3D (shaderji) in DirectCompute ne.
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
In kaj zdaj?
Pač pomagalo bo tako ali tako in to je bila moja edina poanta.. In nisem nikoli trdil, da bo za directx in nevem kaj. Rekel sem samo, da sta ti dve funkciji zelo dobrodošli, namreč da bo manj komuniciranja z cpu, boljša izkoriščenost gpuja, to je bilo pa to.
Potem si pa ti začel, ja pa to nima veze pa to, pa to, pa to.. bla bla, a boš rekel da ni bilo tako? :D
Pač pomagalo bo tako ali tako in to je bila moja edina poanta.. In nisem nikoli trdil, da bo za directx in nevem kaj. Rekel sem samo, da sta ti dve funkciji zelo dobrodošli, namreč da bo manj komuniciranja z cpu, boljša izkoriščenost gpuja, to je bilo pa to.
Potem si pa ti začel, ja pa to nima veze pa to, pa to, pa to.. bla bla, a boš rekel da ni bilo tako? :D
AciD TriP
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
Nima veze za igre. Nima veze za obstoječe CUDA/OpenCL aplikacije. Vezo ima samo za nove CUDA 5 programe.
Dobrodošli sta seveda obe funkciji. Ti pa iz njiju delaš nekaj kar bo imelo instant učinek, tako kot ga ima GigaThread ali pa podvojitev SP-jev.
Dobrodošli sta seveda obe funkciji. Ti pa iz njiju delaš nekaj kar bo imelo instant učinek, tako kot ga ima GigaThread ali pa podvojitev SP-jev.
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Jst ::
Prej sem qurcal nvidijin TXAA in dal tudi screenshote, na katerih se vidi, da zadeva ni kaj uspešna.
Potem mi je en uporabnik povedal, da se to opazi pri premikajoči sliki.
Danes sem pol ure igral Spec Ops in opazoval.
TXAA1: Flickeringa res ni (oziroma ga je manj), ampak robovi niso lepo ravni, kot pri recimo MSAA8x.
TXAA2: Ta pa požre kar ene 25% FPSjev, flickerniga pri premikanju ni skoraj nič, robovi so pa res bolj zglajeni (niso pa 100%), downside je pa blur. Recimo pri Spec Ops, katero sem kupil, od kar uporabljam 670, je karakter lepo viden, tudi okoli karakterja (glava, telo, roke, noge, puška) je vse lepo zglajeno, ampak scena, ki jo gledaš, recimo v puščavi, kjer je letalo padlo dol in vidiš dosti dlje, kot v ostalih scenah, je pa blur viden in moteč.
... to be continued...
Potem mi je en uporabnik povedal, da se to opazi pri premikajoči sliki.
Danes sem pol ure igral Spec Ops in opazoval.
TXAA1: Flickeringa res ni (oziroma ga je manj), ampak robovi niso lepo ravni, kot pri recimo MSAA8x.
TXAA2: Ta pa požre kar ene 25% FPSjev, flickerniga pri premikanju ni skoraj nič, robovi so pa res bolj zglajeni (niso pa 100%), downside je pa blur. Recimo pri Spec Ops, katero sem kupil, od kar uporabljam 670, je karakter lepo viden, tudi okoli karakterja (glava, telo, roke, noge, puška) je vse lepo zglajeno, ampak scena, ki jo gledaš, recimo v puščavi, kjer je letalo padlo dol in vidiš dosti dlje, kot v ostalih scenah, je pa blur viden in moteč.
... to be continued...
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Nima veze za igre. Nima veze za obstoječe CUDA/OpenCL aplikacije. Vezo ima samo za nove CUDA 5 programe.
Dobrodošli sta seveda obe funkciji. Ti pa iz njiju delaš nekaj kar bo imelo instant učinek, tako kot ga ima GigaThread ali pa podvojitev SP-jev.
In kaj lahko uporabljajo tudi igre, jp cuda. JustCause2, Rage, razni physx špili, openCL - compute fizika..
In, če je samo cuda5? Špili, ki uporabljajo cuda še zmeraj delajo tako kot je treba, recimo JustCause2 je še malo hitrejši na cuda5 vs cuda 4.3.
Uglavnem, nima veze. Upam, da bomo kmalu videli ta pravi Kepler zmazek :D
AciD TriP
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Jst ::
Efekti so kar dobro narejeni v SpecOps. Fizika sicer ni ne vem kaj, ampak ko te zasije sonce, ali bomba eksplodira na pesku zraven tebe, nič ne vidiš.
Sicer Spec Ops The Line grafično ni ne vem kaj. Všeč mi je to, da ima Unreal Engine.
1. Vsaka igra, ki ima UE, mi je hendlanje z miško NAJBOLJ všeč med vsemi graphics engines. Ko premakneš miš, se TAKOJ premakne tudi na zaslonu. (Ajde, Crysis 2 ima tudi do določene mere to dobro poštimano. Pri novejših CODih pa moraš imeti dober FPS, pa je tudi obnašanje miši tudi dobro.) Če tega ni oziroma je rahel zamik med premikom miši in premika na zaslonu, jaz preprosto ne morem igrati in se mi igra zameri. Ne morem se navaditi, pa če se še tako trudim. To je za zvrst First (ali Third) Person Shooterje.
2. UE vedno vsepovsod (z različnim hardware-om) dela s FPSji, ki ne skačejo v nebo potem pa v fajtu padejo, da gledaš diapozitive.
3. Nekaj iger zelo dobro izkorišča UE, tako da je tudi grafika super.
4. Ampak meni grafika ni tako pomembna. Pri Spec Ops The Line grafika ni dobra (ni pa katastrofalno slaba), ampak bi lahko bila grafika iz leta 2000, pa bi ji dal oceno 9 zaradi tako dobre zgodbe. (10 si itak nobena igra ne zasluži.)
---
Spock: Ampak jaz nisem mislil takšen blur zaradi okolja, ampak se vidi, da je zaradi algoritma. Tudi v kakšni stavbi, kjer je večja soba (in visok strop) se vidi, da so objekti namensko zablurani zaradi algoritma. Najboljši tradeoff se mi pri SpecOps igri zdi MSAA4x + TXSAA1.
Sicer Spec Ops The Line grafično ni ne vem kaj. Všeč mi je to, da ima Unreal Engine.
1. Vsaka igra, ki ima UE, mi je hendlanje z miško NAJBOLJ všeč med vsemi graphics engines. Ko premakneš miš, se TAKOJ premakne tudi na zaslonu. (Ajde, Crysis 2 ima tudi do določene mere to dobro poštimano. Pri novejših CODih pa moraš imeti dober FPS, pa je tudi obnašanje miši tudi dobro.) Če tega ni oziroma je rahel zamik med premikom miši in premika na zaslonu, jaz preprosto ne morem igrati in se mi igra zameri. Ne morem se navaditi, pa če se še tako trudim. To je za zvrst First (ali Third) Person Shooterje.
2. UE vedno vsepovsod (z različnim hardware-om) dela s FPSji, ki ne skačejo v nebo potem pa v fajtu padejo, da gledaš diapozitive.
3. Nekaj iger zelo dobro izkorišča UE, tako da je tudi grafika super.
4. Ampak meni grafika ni tako pomembna. Pri Spec Ops The Line grafika ni dobra (ni pa katastrofalno slaba), ampak bi lahko bila grafika iz leta 2000, pa bi ji dal oceno 9 zaradi tako dobre zgodbe. (10 si itak nobena igra ne zasluži.)
---
Spock: Ampak jaz nisem mislil takšen blur zaradi okolja, ampak se vidi, da je zaradi algoritma. Tudi v kakšni stavbi, kjer je večja soba (in visok strop) se vidi, da so objekti namensko zablurani zaradi algoritma. Najboljši tradeoff se mi pri SpecOps igri zdi MSAA4x + TXSAA1.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Zgodovina sprememb…
- spremenil: Jst ()
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Ja TXAA v gibanju "naredi" boljšo sliko kot FXAA, pri screenshotih je pa bolj tema. Vsaj tako je rekel ta TXAA kreator Timothy Lottes..
Če koga zanima kaj več, lahko sami vprašate T.Lottesa
http://forums.anandtech.com/showthread....
Če koga zanima kaj več, lahko sami vprašate T.Lottesa
http://forums.anandtech.com/showthread....
AciD TriP
![](https://static.slo-tech.com/stili/avatar_gray.gif)
Senitel ::
In, če je samo cuda5? Špili, ki uporabljajo cuda še zmeraj delajo tako kot je treba, recimo JustCause2 je še malo hitrejši na cuda5 vs cuda 4.3.
Jup... Pa še hitrejši na CUDA 7, ki je zunaj že tri mesce.
![>:D](https://static.slo-tech.com/smeski/icon_twisted.gif)
Moj osnoven point še vedno ostaja: to ne prinese nobene instantne prednosti in to ni uporabno v DX svetu.
![](https://static.slo-tech.com/stili/bel_non_grata.png)
TechBeats ::
Aja? :P
Ok, kot pravijo v ang. fair enough ;)
Malo offtopic, a si ti spisal un članek Kalorični zajterk in API limit pri direct primitve calls, etc?
Če ja, koliko ima konzola klicev predn postane bottleneck.. @16ms DirecX api tam 5-12k, openGL 20-25k, konzola 25-35k?
Ok, kot pravijo v ang. fair enough ;)
Malo offtopic, a si ti spisal un članek Kalorični zajterk in API limit pri direct primitve calls, etc?
Če ja, koliko ima konzola klicev predn postane bottleneck.. @16ms DirecX api tam 5-12k, openGL 20-25k, konzola 25-35k?
AciD TriP
Zgodovina sprememb…
- spremenilo: TechBeats ()
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | AMD Radeon HD 7900 (strani: 1 2 3 4 … 47 48 49 50 )Oddelek: Strojna oprema | 340219 (220172) | rdecaluc |
» | Nvidia Geforce GTX 7xx (strani: 1 2 3 4 … 11 12 13 14 )Oddelek: Strojna oprema | 128172 (103184) | Pro_moted |
» | AMD-jeve kartice spet cenejše (strani: 1 2 3 )Oddelek: Novice / Grafične kartice | 26927 (23021) | Shkorc |
» | Nvidia predstavila prvega keplerja: GTX 680Oddelek: Novice / Grafične kartice | 15447 (12554) | Isotropic |