» »

Nvidia-Kepler (6xx series)

Temo vidijo: vsi
strani: 1 ... 6 7 8 9 10 ... 62

FlyingBee ::

BALAST, tvoje razmišljanje bi bilo pravilno le v primeru, da bi bilo vse kar ti napišeš po defaultu pravilno

zanimivo je, da so št. cuda procesorjev potrojili ali v primeru 685 kar x4,5 v primerjavu z 580

_koki_ ::

Kaj jim nuca če so početverili število SP, če so jih tako oskubili, da komaj prehiti GTX 580, ki jih ima 3-4.5x manj...
Definitivno pa ima GTX 680 le 35W "lufta" za navijanje in s ceno 550$ nimajo kaj iskat, če bojo testerji priporočali ta klump napram 7970, je z njimi nekaj narobe in se je treba vprašat v verodostojnost takih testerjev!
Sigurno pa bo GTX 685 imela GPU clock pod 1Ghz, če mislijo porabo spravit na 250W, za moje pojme definitivno razočaranje, pa tolk so se kurčli kolk slaba je konkurenca, ki ima 30% dodatne zmogljivosti na zalogi po potrebi...

FlyingBee ::

koki, daj prosim pošlji link do informacije kaj in kako so jih oskubili,

saj bomo pri opisih videli naslednji teden, ampak da vidim že prej kje si ta info dobil

mihco ::

FlyingBee je izjavil:

koki, daj prosim pošlji link do informacije kaj in kako so jih oskubili,

saj bomo pri opisih videli naslednji teden, ampak da vidim že prej kje si ta info dobil

ni treba biti doktor znanosti pa je to vec kot ocitno...

Senitel ::

_koki_ je izjavil:

Kaj jim nuca če so početverili število SP, če so jih tako oskubili, da komaj prehiti GTX 580, ki jih ima 3-4.5x manj...

Ma ej dokler ne razlošiš zakaj Radeon 7970 ni vsaj 3x hitrejši od GTX 580 nimaš prava do glasanja glede SP-jev, ok?

BALAST je izjavil:

Haha a zdaj so že najavili gtx685 s 50% več stream enot in 50% več ROPs od gtx680.

Kaj najavili, saj se že 2 let govori o GK110 in tudi o tem, da bo GK104 prej zunaj.

BALAST je izjavil:

Pa poraba naj bi bila po večih neuradnih virih okoli 300W ne pa 190W za gtx680. :O

Na 2x 6pin + PCI Express konektorjih hell yeah!

Zgodovina sprememb…

  • spremenil: Senitel ()

Senitel ::

FlyingBee je izjavil:

zanimivo je, da so št. cuda procesorjev potrojili ali v primeru 685 kar x4,5 v primerjavu z 580

To je nekak nujno, če so spustil hotclock. Še vedno pa je performance glede tega x2 glede na Fermi-je (višji base clock + več shaderjev, če gledaš na GTX 580 kot na 1024SP čip pri 772MHz).

_koki_ ::

Ja to je nekak nujno, če greš kopirat konkurenco in sam ne znaš več razvit nič novega, sedaj ko je nvidia začela kopirat konkurenco se končno lahko naredi dejanska primerjava med karticama in številom SP...

FlyingBee ::

a ni pri keplerju spet sp clock 2x gpu clock?

če je verjeti podatkom, je pixel fillrate od 680 potemtakem, če upoštevamo glede na 580, da ima 680 0,67x ROP, SP-jev ima 3x več, base oziroma SP clock pa ima x1,3 = 0,67*3*1,3 = 2,6x večji

Zgodovina sprememb…

Isotropic ::

Senitel je izjavil:

FlyingBee je izjavil:

zanimivo je, da so št. cuda procesorjev potrojili ali v primeru 685 kar x4,5 v primerjavu z 580

To je nekak nujno, če so spustil hotclock. Še vedno pa je performance glede tega x2 glede na Fermi-je (višji base clock + več shaderjev, če gledaš na GTX 580 kot na 1024SP čip pri 772MHz).

512SP

Senitel ::

_koki_ je izjavil:

Ja to je nekak nujno, če greš kopirat konkurenco in sam ne znaš več razvit nič novega, sedaj ko je nvidia začela kopirat konkurenco se končno lahko naredi dejanska primerjava med karticama in številom SP...

In zakaj bo potem po govoricah 1536 SP GPU še vedno peljal scat 2048 SP GPU?

Isotropic je izjavil:

Senitel je izjavil:


To je nekak nujno, če so spustil hotclock. Še vedno pa je performance glede tega x2 glede na Fermi-je (višji base clock + več shaderjev, če gledaš na GTX 580 kot na 1024SP čip pri 772MHz).

512SP

Simplistična primerjava. 512 SP-jev na 1544MHz je za potrebe filozofiranja tu gor čisto lahko enako 1024 SP-jev na 772MHz.

FlyingBee ::

ja, če upoštevamo še št. ROP potem smo pri faktorju 2,6

a se je že kdaj zgodilo, da imamo že v naprej info, da bo še top enojederni prišel sigurno, od kar spremljam ne ... ta bo pa imel 48 ROP in 2306sp in smo že pri faktorju 5,85 - uf, noro

mihco ::

FlyingBee je izjavil:

ja, če upoštevamo še št. ROP potem smo pri faktorju 2,6

a se je že kdaj zgodilo, da imamo že v naprej info, da bo še top enojederni prišel sigurno, od kar spremljam ne ... ta bo pa imel 48 ROP in 2306sp in smo že pri faktorju 5,85 - uf, noro

tudi sedaj nimamo te informacije! Nvidia ima striktno politiko glede neizdanih oz celo nenajavljenih produktov....in sicer: "No comment!!!".

_koki_ ::

Senitel je izjavil:

_koki_ je izjavil:

Ja to je nekak nujno, če greš kopirat konkurenco in sam ne znaš več razvit nič novega, sedaj ko je nvidia začela kopirat konkurenco se končno lahko naredi dejanska primerjava med karticama in številom SP...

In zakaj bo potem po govoricah 1536 SP GPU še vedno peljal scat 2048 SP GPU?


Zaradi mnogo višjega GPU clocka in porabo skoraj identično konkurenci, poleg tega pa ne bo peljal scat ampak bo v "nvidiji-nih" igrah na istem nivoju ali počasnejša, da ne omenjam še OC headroom 7970, pol pa itak nima osnovnih pogojev, da bo sploh kdo kupu GTX 680 za 550$, zaradi tega niti cena konkurence ne bo šla nič dol...

Senitel ::

FlyingBee je izjavil:

ja, če upoštevamo še št. ROP potem smo pri faktorju 2,6

a se je že kdaj zgodilo, da imamo že v naprej info, da bo še top enojederni prišel sigurno, od kar spremljam ne ... ta bo pa imel 48 ROP in 2306sp in smo že pri faktorju 5,85 - uf, noro

Kaj ROP-e tlačiš not? Teh bo verjetno samo 32 ampak bodo šibal na višji frekvenci, ker je base clock tolk višji. Na koncu dneva bo glede tega eno in isto (znajo pa bit še kakšne spremembe v njihovi arhitekturi).
SP-jev je, če normaliziraš, 2x več (1024 SP na 772MHz na "GF110" vs 1536 na 1+GHz). Teksutirirnih enot bo IMHO 96 torej 50% več kot na GF110 in GF114.

Saj je že odkar se ve za GK104 jasno, da to ne bo top dog. Sem že nekje v enem topicu tle razlagal točno kaj katera od teh cifer in črk v kodnem imenu pomeni, pa ni bilo kaj dosti efekta.

_koki_ je izjavil:

Zaradi mnogo višjega GPU clocka in porabo skoraj identično konkurenci, poleg tega pa ne bo peljal scat ampak bo v "nvidiji-nih" igrah na istem nivoju ali počasnejša, da ne omenjam še OC headroom 7970, pol pa itak nima osnovnih pogojev, da bo sploh kdo kupu GTX 680 za 550$, zaradi tega niti cena konkurence ne bo šla nič dol...

Aha... 1006MHz oziroma 1058MHz je mnogo višje od 925MHz (14% več). In manj kot 225W, kolikor se obeta na GK104, vs 280W na 7970 je skoraj identična poraba (20% manj). Si moram nekam zapisat, da relativne primerjave pri fanatikih ne delajo.

FlyingBee ::

malo smešno je, da fanatika koki-ja in mene daješ v isto župo ... za pixel fillrate sem pisal in tukaj je treba ROP-e tudi upoštevati, seveda je treba tudi upoštevati, da predvsem v igrah teorija ni isto kot praksa (optimizacije, gonilniki, ... ) - dober primer lahko najdeš pri vsaki primerjavi/review-u grafičnih kartic


točno vem kaj tista 104-a pomeni, tokrat sem presenečen nad tem, da bo top dog, ki jo bomo čakali še po izidu 680-ke (komercialno ime seveda) enojederni čip, ki ga na žalost še ne bomo v trgovinah vidl kar nekaj časa ker je konkurenca prešibka ... tole me spomni na Intel in mi da za razmišljati, zakaj toliko "hitijo" z ivy bridge, ko pa je sandy še za 1 leto več kot v redu

Zgodovina sprememb…

Isotropic ::

sam cak, spremembe v arh. bodo kar orenk verjetno. ker sicer bi bila ta kartica z 2x vec SM 2x hitrejsa (od oka), tista s 3x pa 3x od 580. s tem, da je 7970 sam ene 30% al kuk ze... tko da mal dvomim v to

Zgodovina sprememb…

Dr_M ::

koki = x45?

Senitel ::

FlyingBee je izjavil:

malo smešno je, da fanatika koki-ja in mene daješ v isto župo ... za pixel fillrate sem pisal in tukaj je treba ROP-e tudi upoštevati, seveda je treba tudi upoštevati, da predvsem v igrah teorija ni isto kot praksa (optimizacije, gonilniki, ... ) - dober primer lahko najdeš pri vsaki primerjavi/review-u grafičnih kartic

Če, dam dva odgovora v en post še ne pomeni, da vaju dajem v isti koš. Pač mi je brezveze nabijat poste v tri krasne. Že tko jih je preveč. :)
Seveda, fillrate je tudi pomemben, ampak tega bo na GK104 ostalo nekako enako kot na GF110 (sicer ugibanje, še vedno lahko dajo not 64 ROP-ov ampak glede na bandwidth nima smisla).

FlyingBee je izjavil:

točno vem kaj tista 104-a pomeni, tokrat sem presenečen nad tem, da bo top dog, ki jo bomo čakali še po izidu 680-ke (komercialno ime seveda) enojederni čip, ki ga na žalost še ne bomo v trgovinah vidl kar nekaj časa ker je konkurenca prešibka ...

Kaj je potem čudnega? Lep čas tudi že ve, da NV tokrat prišla ven najprej z manjšimi čipi.

Isotropic je izjavil:

sam cak, spremembe v arh. bodo kar orenk verjetno. ker sicer bi bila ta kartica z 2x vec SM 2x hitrejsa (od oka), tista s 3x pa 3x od 580. s tem, da je 7970 sam ene 30% al kuk ze... tko da mal dvomim v to

Bottleneck je lahko kar koli in se lahko menja iz draw komande do draw komande. Če gledaš naprej bodo shaderji vedno daljši in posledično večji bottleneck, zato se to splača nesorazmerno bolj pohitrit. Oziroma lahko pogledaš z drugega zornega kota in ugotoviš, da bandwidtha praktično ne moreš povečevat, oziroma je to zelo drago.
Jasno bodo precejšnje spremembe v arhitekturi in v situacijah, kjer ima GTX 580 recimo probleme proti 7970, se bo GK104 odrezal čisto solidno (že razlagal nekoč nekje zakaj). Radeon-i futrajo shader core s 64 elementi, GeForce-i z 32 elementi, Kepler simplificira pipeline in ta razlika bo začela špilat večjo vlogo. Gostote trikotnikov se večajo in tistih, ki ne pokrijejo več 8x8 mreže bo vedno manj.

FlyingBee ::

Dr_M je izjavil:

koki = x45?


- kdo je x45?

- tudi jaz sem nekaj časa rabil, da sem skapiral kako poteka pri rač. komponentah, kjer sta samo 2 glavna konkurenta, ampak glede na to, da so se gpu wars med ati/nvidia začele pred 12 leti, bi bil že počasi čas, da tudi večina ljudi hitreje skapira to situacijo

- trenutno: AMD/ATi je dal previsoko ceno za top dog 7970, ker je to pač lahko naredil, ker nvidia zamuja, ampak da je stvar še slabša, slednja svoj gk104 komercialno poimenuje 680 (glede na imena zadnjih serij je jasno kaj 8 pomeni na 2. mestu) in pribije isto ceno kot 7970, je slabo za trg grafičnih, ko smo že lepo bili razvajeni z 350 eur za top dog 6970 in potem tudi primerno nizke cene ostalih grafičnih tako AMD-ja kot posledično nvidie

- kaj bo pri CPU ratalo niti pomisliti nočem, še posebej ko AMD dela tako kot dela, ampak to je že off topic

69charger ::

Kdor govori o nevem kakšni OC prednosti 7970ke lahko rečem samo da je bedak. Malce poglejte na recimo HWBot da je na prvem mestu 7970 ker je seveda novejše generacije,takoj za njo pa GTX580 ki ima že nekaj let za sabo.
Phenom II X4 - GTX650Ti Boost - ASUS M4N68T-M
www.slo-pi.com Slovenska Raspberry Pi skupnost

_koki_ ::

69charger je izjavil:

Kdor govori o nevem kakšni OC prednosti 7970ke lahko rečem samo da je bedak. Malce poglejte na recimo HWBot da je na prvem mestu 7970 ker je seveda novejše generacije,takoj za njo pa GTX580 ki ima že nekaj let za sabo.

Gledam in vidim en kup 7970 12k pik, potem 7950 dobrih 10k pik in nato GTX 580 s slabih 8.5k pik, res je rezultatsko "takoj" za 7970, rezultati so na zraku:
http://hwbot.org/benchmark/3dmark11_-_p...

69charger ::

S tem da 7950 košta 450€ in je najnovejša generacija(pa le tri so prilezle med top) medtem ko za GTX580 odšteješ malce čez 410€. Prosim ne takih bedarij ven metat,hvala.
Phenom II X4 - GTX650Ti Boost - ASUS M4N68T-M
www.slo-pi.com Slovenska Raspberry Pi skupnost

Janac ::

7950 kosta 420e najcenejsa v dinotu
Get educated or get ripped off!

69charger ::

V dinotu je najcenejša 7950 435€,niggas please...
Phenom II X4 - GTX650Ti Boost - ASUS M4N68T-M
www.slo-pi.com Slovenska Raspberry Pi skupnost

PIPI ::

Spock83 je izjavil:

že GTX580 ima 244W kar je too much. V praksi imam v sobi toplo (pozimi je to dobro, poleti pa ne.)

Če cel dan nabijaš igrice je to tvoj problem. Radeoni imajo v Idle ~10 W, v long-idle pa pod 3W porabe. Ogrevanja sobe nema spljoh! :P

TechBeats ::

Senitel je izjavil:

_koki_ je izjavil:

Kaj jim nuca če so početverili število SP, če so jih tako oskubili, da komaj prehiti GTX 580, ki jih ima 3-4.5x manj...

Ma ej dokler ne razlošiš zakaj Radeon 7970 ni vsaj 3x hitrejši od GTX 580 nimaš prava do glasanja glede SP-jev, ok?

BALAST je izjavil:

Haha a zdaj so že najavili gtx685 s 50% več stream enot in 50% več ROPs od gtx680.

Kaj najavili, saj se že 2 let govori o GK110 in tudi o tem, da bo GK104 prej zunaj.

BALAST je izjavil:

Pa poraba naj bi bila po večih neuradnih virih okoli 300W ne pa 190W za gtx680. :O

Na 2x 6pin + PCI Express konektorjih hell yeah!


Ja samo tistih 1536 jeder v GK104 je teoretično Fermi z 768jedri, in od tega ne moreš pričakovati čudežov doh :P

sploh pa ker ima 16manj ROP's, nekako isti memory bandwidth ~190gb/s in najverjetnje isto število compute units/ polymorph tessellator engines kot 580gtx, se pravi 16.

In to sorry ni vredno 550$ za next-gen gpu, si nor :D, itak je $=€ tko da NV lahko samo vozi s tako ceno.. Ja AMD jo je postavil, samo jo je lahko, ker je nvidia furala visoko ceno z 580gtx.. Ubistvu se je nvidia sama zajebala pa še nas skupaj..
Če bojo za to "680gtx" uporabili tam nekje do 380€ potem bo zmaga, AMD bo prisiljen zamnjšati ceno in celo izdati Tenerife predčasno, vsi bomo happy in vsaj neka konkretna konkurenca.. Drugače je pa to en velik nateg.

Ubistvu sta oba AMD 7970 in NV GK104 en velik nateg - vsaj kar se tiče vseh leakov do sedaj v primerjavi z 570/580gtx, ok ja GK110 in Tenerife je nekaj drugega in točno to bi moralo biti že sedaj vzunaj za ceno 400-500€, ne pa to prvo high-end 28nm stranje hehe, ubistvu je bolj mid-rage kot pa high-end.. Vsaj tako je bilo iz preteklosti prejšni high-end se sedaj primejra z mid-range next-gen..

Kar se pa tiče 3x580gtx, je pa fora samo tflopih in v tej kateogoriji je AMD skoraj 3x hitrejši (580gtx 1.6tflops, 7970 3.8tflops), prav tako GK104 (baje ~4.3tflops). Tisto z Samaritan Demo je bil en velik Marketinški hec, na 3x 580gtx so furali z 4xMSAA (1 za physx) kar je dosti bolj zahtevno kot pa FXAA na Keplerju.. zamoje pojme nič drugega kot ja en marketinški trik. In Kepler bo ev velik Physx 3 promo trik, samo upam da ne bo ista polomija kot Physx 2. Kompiler je drug, tako da to je že dober znak.
AciD TriP

Zgodovina sprememb…

  • spremenilo: TechBeats ()

Senitel ::

TechBeats je izjavil:

Ja samo tistih 1536 jeder v GK104 je teoretično Fermi z 768jedri, in od tega ne moreš pričakovati čudežov doh :P

sploh pa ker ima 16manj ROP's, nekako isti memory bandwidth ~190gb/s in najverjetnje isto število compute units/ polymorph tessellator engines kot 580gtx, se pravi 16.

Tam 250MHz večji base clock pa namenoma ignoriraš ane. Teh 250MHz ti prinese dodatno miljardo trikotnikov na sekundo v primerjavi z GTX 580...
In nekoč nekje tu okrog sem že razlagal, kako ima Fermi problem v teselaciji zaradi globokega pipeline-a, ki zaradi premalega števila primitivov ne more skrit vseh latenc. Kepler bo to popravil.

TechBeats je izjavil:

In to sorry ni vredno 550$ za next-gen gpu, si nor :D, itak je $=€ tko da NV lahko samo vozi s tako ceno.. Ja AMD jo je postavil, samo jo je lahko, ker je nvidia furala visoko ceno z 580gtx.. Ubistvu se je nvidia sama zajebala pa še nas skupaj..

GTX 580 je velik čip. AMD se je z manjšimi čipi spustil v cenovno vojno z NV, ki pa je ni dobil (poglej finančne rezultate za GeForce linijo in AMD graphics division). AMD je imel prednost na performance/W in performance/mm2. 7970 vs. GK104 ima NV prednost in, če se AMD spusti v cenovno vojno na žalost nikakor ne more zmagat.

TechBeats je izjavil:

...in celo izdati Tenerife predčasno

Nič v tem biznisu se ne izda predčasno. NIČ! Niti se z ničemer ne čaka. Design GPU-jev je precej drugačen kot design CPU-jev, ko predstavijo prototip in potem 2 leti še pilijo detajle.

TechBeats je izjavil:

Kar se pa tiče 3x580gtx, je pa fora samo tflopih in v tej kateogoriji je AMD skoraj 3x hitrejši (580gtx 1.6tflops, 7970 3.8tflops), prav tako GK104 (baje ~4.3tflops).

Baje. 1536 SP-jev, 1058MHz = 3,25T flops. Zlo uporabna cifra za mahat po zraku, ki pa sama po sebi ne pove kaj dosti. Še v compute svetu boš težko našel aplikacijo, ki bo 2x hitrejša na 7970 kot na GTX 580. Za 3x pa edino kakšna sintetika.

TechBeats je izjavil:

Tisto z Samaritan Demo je bil en velik Marketinški hec, na 3x 580gtx so furali z 4xMSAA (1 za physx) kar je dosti bolj zahtevno kot pa FXAA na Keplerju.. zamoje pojme nič drugega kot ja en marketinški trik.

Odloči se kaj ta demo sploh je. A je zadeva advanced future looking shader overkill ali ne? Ker, če je, potem flopsi dejansko štejejo, MSAA pa pride zraven praktično zastonj. Če pa ni, who the fuck cares then?

TechBeats je izjavil:

In Kepler bo ev velik Physx 3 promo trik, samo upam da ne bo ista polomija kot Physx 2. Kompiler je drug, tako da to je že dober znak.

Please just stop with the bullshit.

Spock83 ::

PIPI je izjavil:

Spock83 je izjavil:

že GTX580 ima 244W kar je too much. V praksi imam v sobi toplo (pozimi je to dobro, poleti pa ne.)

Če cel dan nabijaš igrice je to tvoj problem. Radeoni imajo v Idle ~10 W, v long-idle pa pod 3W porabe. Ogrevanja sobe nema spljoh! :P


Kupit hudo grafiko in je poganjat večino časa na idle. 8-O To kar AMD najboje zna. :D

(Hec)
http://sketchbook.si

Zgodovina sprememb…

  • spremenil: Spock83 ()

Jst ::

Tim Sweeney je zame car in UE je meni najljubši game engine. Performance na vseh UE based igrah je bil vedno dober, potem input miške vedno brez zamika, tako da je igralnost iger bila vedno super. Oziroma je.
Proton decay is a tax on existence.

TechBeats ::

lol :))Senitel nvidia fanatic sej je kul..


Dobro vem kaj ta demo je (next-gen grafika) in ne MSAA ni zastonj, drugače nebi promovirali FXAA. Tisti demo lepo paše v 120mb z 4xmsaa je to že pri 520mb+..
A z FXAA je neopazno in občutno hitrejše, ker drugače bi GK104 kolcal od bottlenecka.

In tisto o Pyhsx 3 sploh ni noben bull.. Ja odstranili so tisti x87 šrot, in kaj naj bi bilo kle bullshit? A kao da GK104 ne bo Pyhsx3 boom? Kakor jaz vem je Physx3 koda končno bolj učinkovita, in ubistvu je to kar bi morala biti že 2ka.. Oziroma kaj a po tvoje je vse kul, tudi 2ka? haha ja itak :D

In lejga zlomka kaj nvidia uporablja v teh demotih in tako močno zagovarja

1.Del
http://www.gametrailers.com/video/gdc-2...

2.Del
http://www.gametrailers.com/video/gdc-2...


Ampak ok, nima veze.. se mi tud ne da razpravljat neke velike debate..


Še dober teden pa bo vse jasno. ;)

NDA on GTX 680 and Kepler family will be lift on 22 March at 6pm PT/9pm UTC/GMT.
AciD TriP

Zgodovina sprememb…

  • spremenilo: TechBeats ()

PNG ::

Kolikor je meni znano Senitel dela pri Nvidiji. Brez zamere, samo jaz se spomnim da je enkrat pisal, da je pomagal cryteku pri razvoju crysis 1 (pač verjetno pomoč/rešitve na ključ za optimizacijo na grafikah), tako da bi osebno nekak apriori bolj njemu verjel kot tebi.

FlyingBee ::

a, zdaj mi je jasno, na xbitlabs.com sem kar nekaj let nazaj gledal teste s programom pixel fillrate slovenskega avtorja in od tega istega na slotechu članke

kdaj bo padel kakšen nov članek, zadnji mislim, da je o directx 11 ... mogoče, ko bo Kepler dejansko zunaj?

PIPI ::

Spock83 je izjavil:

PIPI je izjavil:

Spock83 je izjavil:

že GTX580 ima 244W kar je too much. V praksi imam v sobi toplo (pozimi je to dobro, poleti pa ne.)

Če cel dan nabijaš igrice je to tvoj problem. Radeoni imajo v Idle ~10 W, v long-idle pa pod 3W porabe. Ogrevanja sobe nema spljoh! :P


Kupit hudo grafiko in je poganjat večino časa na idle. 8-O To kar AMD najboje zna. :D

(Hec)

Kaj pa misliš da se v praksi dogaja z več kot 90% grafičnih kartic?

Senitel ::

Isto kot z 90% vseh Ferarijev. :)

TechBeats je izjavil:

Dobro vem kaj ta demo je (next-gen grafika) in ne MSAA ni zastonj, drugače nebi promovirali FXAA. Tisti demo lepo paše v 120mb z 4xmsaa je to že pri 520mb+..
A z FXAA je neopazno in občutno hitrejše, ker drugače bi GK104 kolcal od bottlenecka.

MSAA ne reši vseh problemov in večino časa je kar fajn imet MSAA in FXAA (oziroma nek postprocessing AA filter). Nisem rekel, da je MSAA kar globalno zastonj. Ampak, če gledaš nek future looking tech demo, si lahko ziher, da bo 90% časa zabil v shaderjih. Niso rabli 3x GTX 580, da so lahko vklopil 4xMSAA. Rabli so 3x GTX 580, da se je zadeva sploh premaknila na tistih ~30 fps, MSAA je prišel zraven free of charge.
In od kje si sedaj te MB-je potegnu?

TechBeats je izjavil:

In tisto o Pyhsx 3 sploh ni noben bull.. Ja odstranili so tisti x87 šrot, in kaj naj bi bilo kle bullshit? A kao da GK104 ne bo Pyhsx3 boom? Kakor jaz vem je Physx3 koda končno bolj učinkovita, in ubistvu je to kar bi morala biti že 2ka.. Oziroma kaj a po tvoje je vse kul, tudi 2ka? haha ja itak :D

In PhysX 3 pride naslednji teden ven? Uf ne imaš prav zunaj je že skoraj eno leto!

modicr ::

Acer Aspire Timeline Ultra M3 & Kepler 640M
http://asia.cnet.com/acers-ultrabook-pl...
"The laptop was on sale at the IT Show tech bazaar over the weekend and we snagged a shot of its GeForce GT 640M graphics, which appears to be Nvidia's next-generation mobile graphics chipset. The company is expected to launch its Kepler-powered GeForce GTX 680 desktop graphics card sometime this month. Given the timing, this mobile chip is based on the upcoming Kepler architecture and is not another rebadged version of the previous generation. We'll reveal more details about it in the future but you should know that it has 384 processor cores running at 625MHz."

http://asia.cnet.com/product/acer-aspir...
"When the new Apple iPad boasts a resolution of 2,048 x 1,536 on a 10.1-inch display, having a 1,366 x 768-pixel screen on this 15.6-inch Acer laptop is almost criminal."
(c) nisem patentiran

Spock83 ::

PIPI je izjavil:

Kaj pa misliš da se v praksi dogaja z več kot 90% grafičnih kartic?


Vem. Samo ne delaj take razlike med AMD in Nvidio. Verjetno je tudi čas, da ga spiham. Temp so dosegle tudi do 98°C
http://sketchbook.si

Isotropic ::

je tudi kaj upanja, da bo mel kepler deep sleep oz. idle zelo nizko porabo (power gating al kaj je ze)? bi bilo zelo fajno za tesla in uporabo v clusterjih...

Design GPU-jev je precej drugačen kot design CPU-jev, ko predstavijo prototip in potem 2 leti še pilijo detajle.

lahko malo bolj pojasnis? pilijo detajle verjetno mislis za cpu (tick-tock - manjsi proces in kozmeticne izboljsave)?
al mislis tisto, da je razvoj gpu hitrejsi, ker morajo iziti vsako leto recimo nove kartice?
al je kaj tretjega?

ce poznas kaksen dober clanek, bi bilo tut fajn.

Zgodovina sprememb…

Dami ::

Malo offtopic, če že o porabi govorimo. A lucid-virtu zadeva dejansko dela tako, da odklopi (poweroff) GPU ko se ga ne rabi in laufa samo IGP, ko pa poženeš nekaj kar ga, pa tečeta potem GPU+IGP?
Don't worry about me. The bleeding is just the begining of a healing process.

Isotropic ::

mislim da ja, oz ga poslje v sleep (C stanja)
mislim, da ne oba naenkrat oz. virtu prekopira ramdac (al framebuffer al kako se rece) v igp in potem prek tega prikazuje sliko.
poglej na njihovo stran (od virtuja)

TechBeats ::

Senitel je izjavil:

Isto kot z 90% vseh Ferarijev. :)

TechBeats je izjavil:

Dobro vem kaj ta demo je (next-gen grafika) in ne MSAA ni zastonj, drugače nebi promovirali FXAA. Tisti demo lepo paše v 120mb z 4xmsaa je to že pri 520mb+..
A z FXAA je neopazno in občutno hitrejše, ker drugače bi GK104 kolcal od bottlenecka.

MSAA ne reši vseh problemov in večino časa je kar fajn imet MSAA in FXAA (oziroma nek postprocessing AA filter). Nisem rekel, da je MSAA kar globalno zastonj. Ampak, če gledaš nek future looking tech demo, si lahko ziher, da bo 90% časa zabil v shaderjih. Niso rabli 3x GTX 580, da so lahko vklopil 4xMSAA. Rabli so 3x GTX 580, da se je zadeva sploh premaknila na tistih ~30 fps, MSAA je prišel zraven free of charge.
In od kje si sedaj te MB-je potegnu?

TechBeats je izjavil:

In tisto o Pyhsx 3 sploh ni noben bull.. Ja odstranili so tisti x87 šrot, in kaj naj bi bilo kle bullshit? A kao da GK104 ne bo Pyhsx3 boom? Kakor jaz vem je Physx3 koda končno bolj učinkovita, in ubistvu je to kar bi morala biti že 2ka.. Oziroma kaj a po tvoje je vse kul, tudi 2ka? haha ja itak :D

In PhysX 3 pride naslednji teden ven? Uf ne imaš prav zunaj je že skoraj eno leto!



Ok.

Ja sem tudi omenil, da je 1 580gtx zmanjkalo tflops ^^ zato sta v igri vsaj 2. No čeprav mislim da bo 1 tudi vredu, sploh ker so rabili vsaj 1leto da so uspeli zoptimizerati na GK104. Seveda ne bo furala vse na max ampak z kakšno nastavijvijo nižje ne bo problema.. Vsaj upam. :P

Trenutno imam msi570gtx TFIII/OC skioraj 1leto, in upam da bo zdržala še nekja časa na 900mhz ^^


Unme MB sem pa potegnil iz Nvidia Samaritan preview
http://www.geforce.com/News/articles/ep...


Ja physx 3 je že vzunaj 1 leto, samo se še ne uporablja za nas smrtnike, kvečem za developerje.. In šele sedaj je nvidia glasno začela promovirati Physx3 features z Keplerjem in to sem mel v mislih.


Hja bomo videli, kaj bo na koncu ratalo.. Samo po moje je GK104 bolj en flop kot ne, vsaj tako kaže v vseh leakih do sedaj.. No če ni vsej skupaj fejk in Nvidia še zmeraj skriva Keplerja do samega konca :P
AciD TriP

Zgodovina sprememb…

  • spremenilo: TechBeats ()

Senitel ::

Isotropic je izjavil:

je tudi kaj upanja, da bo mel kepler deep sleep oz. idle zelo nizko porabo (power gating al kaj je ze)? bi bilo zelo fajno za tesla in uporabo v clusterjih...

Lahko si privoščiš cluster, ki ni zaseden praktično 24/7, ne moreš si pa privoščit 10W na board razlike v porabi (toliko je razlika na 7970 med "idle" in "long idle")? Tukaj nekaj ne štima.

Isotropic je izjavil:

al mislis tisto, da je razvoj gpu hitrejsi, ker morajo iziti vsako leto recimo nove kartice?
al je kaj tretjega?

CPU-ji so relativno "simpl" in tako Intel kot AMD uporabljata dosti ročno dizajniranih celic. GPU-ji niso simpl. Ogromno tranzistorjev v CPU-jih se pokuri za L1/L2 cache, GPU-ji so pa praktično ena sama logika in če bi tu hotel kaj resnejšega naredit na roke, bi stvari zelo hitro postale neobvladljive. GPU-ji so vsaj v 95% zgrajeni iz komponent v standardnih knjižnicah za posamezen proces, CPU-ji pa so v veliki meri na roke optimizirani na kritičnih delih.
Nekaj malega na to temo.

TechBeats je izjavil:

Ja sem tudi omenil, da je 1 580gtx zmanjkalo tflops ^^ zato sta v igri vsaj 2. No čeprav mislim da bo 1 tudi vredu, sploh ker so rabili vsaj 1leto da so uspeli zoptimizerati na GK104. Seveda ne bo furala vse na max ampak z kakšno nastavijvijo nižje ne bo problema.. Vsaj upam. :P

Katera 1? 1 GTX 580? To je tech demo in ne špil. Naloga tech demota je da izgleda cool. Optimizacije? Nekak ne izgleda, da bi bilo kaj drugega kot FXAA novega.

TechBeats je izjavil:

Unme MB sem pa potegnil iz Nvidia Samaritan preview
http://www.geforce.com/News/articles/ep...

Potem si narobe razumel vse skup. Demo z 4x MSAA jasno porabi kar precej več rama, ampak to ni problem s stališča bandwidtha ampak problem s stališča vsega razpoložljivega rama na grafični. Tukaj ti 3x GTX 580 čisto nič ne pomaga, ker imaš še vedno samo 1,5GB rama na razpolago.

Isotropic ::

v glavi imam, da ena od boljsih nvidij pokuri >100w v idle, to sem bolj mislil... ne pa tistih 10w.
z deep sleep sem se pa mal zajebal ja, sem pozabil, kuk ma 7970 v idle pa sem sam to rekel.

PIPI ::

Senitel je izjavil:

Isto kot z 90% vseh Ferarijev. :)

QFT, 100% resnično. :D

TechBeats je izjavil:

lol :))Senitel nvidia fanatic sej je kul..

Kok je kul brat nevedneže na tem forumu :>

Spock83 je izjavil:

PIPI je izjavil:

Kaj pa misliš da se v praksi dogaja z več kot 90% grafičnih kartic?


Vem. Samo ne delaj take razlike med AMD in Nvidio. Verjetno je tudi čas, da ga spiham. Temp so dosegle tudi do 98°C

Kaj ima pa temperatura veze s porabo (hint: bolj malo). Je res, da razlike v bistvu niso tako velike med AMD-jevimi in nVidiinimi karticami, ampak to je problem nVidiinega marketinga, če ne mahajo naokrog s številkami o nizki porabi, kajne? :>

Zgodovina sprememb…

  • spremenil: PIPI ()

Isotropic ::

itak so graficne predvidene, da delajo v ciklih. to je (verjetno) tut en izmed razlogov, da so tesla downclockane in imajo pasivno napajanje
drugi je ta, da je poenostavljeno hlajenje (cluster racki imajo itak centralnega) in manj partov, ki lahko odpove.

Zgodovina sprememb…

TechBeats ::

@ Senitel
Without anti-aliasing, Samaritan’s lighting pass uses about 120MB of GPU memory. Enabling 4x MSAA consumes close to 500MB, or a third of what's available on the GTX 580. This increased memory pressure makes it more challenging to fit the demo’s highly detailed textures into the GPU’s available VRAM, and led to increased paging and GPU memory thrashing, which can sometimes decrease framerates.

In to je bil moj point,
8-)
AciD TriP

Zgodovina sprememb…

  • spremenilo: TechBeats ()

Senitel ::

Isotropic je izjavil:

v glavi imam, da ena od boljsih nvidij pokuri >100w v idle, to sem bolj mislil... ne pa tistih 10w.
z deep sleep sem se pa mal zajebal ja, sem pozabil, kuk ma 7970 v idle pa sem sam to rekel.

Razlika med GTX 580 in 7970 je 20W v idle...
Nekaj grafov.

PIPI je izjavil:

Kaj ima pa temperatura veze s porabo (hint: bolj malo). Je res, da razlike v bistvu niso tako velike med AMD-jevimi in nVidiinimi karticami, ampak to je problem nVidiinega marketinga, če ne mahajo naokrog s številkami o nizki porabi, kajne? :>

To dejansko ni čist res. Klik. Torej 1W več na 1 stopinjo več izmerjeno v praksi (seveda stvar ni direkt linearna).
To je razlog zakaj je GF110 bolj ekonomičen kot GF100: boljše hlajenje.

TechBeats je izjavil:

Without anti-aliasing, Samaritan’s lighting pass uses about 120MB of GPU memory. Enabling 4x MSAA consumes close to 500MB, or a third of what's available on the GTX 580. This increased memory pressure makes it more challenging to fit the demo’s highly detailed textures into the GPU’s available VRAM, and led to increased paging and GPU memory thrashing, which can sometimes decrease framerates.

In to je bil moj point,
8-)

In moj point je, da te 3-way SLI ne bo rešil v tem primeru. GK104 je v tem primeru itak na boljšem, ker bo prišel z 512MB več pomnilnika kot GTX 580.

PIPI ::

Senitel je izjavil:

Isotropic je izjavil:

v glavi imam, da ena od boljsih nvidij pokuri >100w v idle, to sem bolj mislil... ne pa tistih 10w.
z deep sleep sem se pa mal zajebal ja, sem pozabil, kuk ma 7970 v idle pa sem sam to rekel.

Razlika med GTX 580 in 7970 je 20W v idle...
Nekaj grafov.

Mnja, ni tako zelo hudo, čeprav v long idle je razlike že 30 W. Spet, ni tako veliko, ampak če pogledaš, da je pri nekje 10 W v idle GTX 580 20 W zadaj, to anenkrat poskoči na 3x višjo vrednost. Pri nekoliko bolj varčnem računalniku (npr. karkoli na LGA-1155) pa teh 20 W ni več slabih, ampak že dobrih 20 % razlike :)

Senitel je izjavil:

PIPI je izjavil:

Kaj ima pa temperatura veze s porabo (hint: bolj malo). Je res, da razlike v bistvu niso tako velike med AMD-jevimi in nVidiinimi karticami, ampak to je problem nVidiinega marketinga, če ne mahajo naokrog s številkami o nizki porabi, kajne? :>

To dejansko ni čist res. Klik. Torej 1W več na 1 stopinjo več izmerjeno v praksi (seveda stvar ni direkt linearna).
To je razlog zakaj je GF110 bolj ekonomičen kot GF100: boljše hlajenje.

A nisi mogel tega linka nalimat kdaj prej? A to velja za vse polprevodnike ali so npr. GPU-ji bolj izjema, kot pravilo?

TechBeats ::

@Senitel

Pa kdo govori da bo 3x580 gtx rešil kaj?

To je rekla samo nvidia; poglejte rabili smo 3x 580gtx sedaj samo 1x GK104.. In moj point je bil, ne ja a res, da rabi samo 1 kartico
1) ker uporablja FXAA
2) rabili so 1 leto da so zoptimizirali toliko da je ok z 1 GK104.

In potem sem rekel da so to bolj buče, in če bi polaufali z 4xmsaa GK104 nebi mel za burek. Če ti praviš da ne, ok..
Jaz pa pravim da še zmeraj nebi laufala ok z 4xmsaa, čeprav ima "4tflope".. Tisti 256bit mem bus jo bremza preveč, sploh pa ker ima manj ROPS in baje isto število Compute units.

Uglavnem ne bom več špekulitral, ker je brezveze.. Ne me narobe razumet, sem že prebral par tvojih dobrih izjav v preteklosti in odnesel nekaj zanimivih stvari, samo včasih ti pa malo nvidia ego stopi in teh brain potem smo tam :P


Lp.
AciD TriP

Zgodovina sprememb…

  • spremenilo: TechBeats ()

69charger ::

Pa res se sekirate zaradi tistih nekaj deset vatov več porabe. Daš še en ventilator pa disk v komp si pa skoraj na istem -.- Res mislite koliko prišparate z tem.
Phenom II X4 - GTX650Ti Boost - ASUS M4N68T-M
www.slo-pi.com Slovenska Raspberry Pi skupnost

PIPI ::

Zakaj ne bi prišparal nekje, kjer lahko? Ko je monitor ugasnjen ni popolnoma nobenega razloga, da grafa laufa na skoraj full power, kot je včasih. Diski se izklapljajo, ko ne dostopaš do njihovih podatkov. Z izklapljanjem GPU-jev v long idle pa lahko izklopiš tudi dodatni ventilator, ki, mimogrede, nekih 10 W porabi samo če je bolj zmogljivejše sorte, pa še to na full power. V Idle ga komot lahko goniš na 7 ali še manj V, poraba pa temu primerno pade.
strani: 1 ... 6 7 8 9 10 ... 62


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

AMD Radeon HD 7900 (strani: 1 2 3 447 48 49 50 )

Oddelek: Strojna oprema
2487137439 (17392) rdecaluc
»

Nvidia Geforce GTX 7xx (strani: 1 2 3 411 12 13 14 )

Oddelek: Strojna oprema
67544312 (19324) Pro_moted
»

GTX 660 ali Radeon HD 7870 XT

Oddelek: Kaj kupiti
481507 (655) kmetek
»

Nvidia predstavila prvega keplerja: GTX 680

Oddelek: Novice / Grafične kartice
455908 (3015) Isotropic

Več podobnih tem