» »

nVidia Maxwell

nVidia Maxwell

««
«
1 / 26
»»

FlyingBee ::

novost glede Maxwell serije GPU-jev nVidie, model 750ti za preizkus na obstoječi 28nm tehnologiji, kasneje bodo high-end modeli

- The next big feature is that Maxwell GPUs will embed a 64-bit ARM CPU core based on NVIDIA's "Project Denver." This CPU core will allow the GPU to reduce dependency on the system's main processor in certain GPGPU scenarios. Pole-vaulting the CPU's authority in certain scenarios could work to improve performance

- Maxwell will introduce a host of new features for NVIDIA, beginning with Unified Virtual Memory

http://www.techpowerup.com/196956/nvidi...

filip007 ::

Danes gre vse v varčnost, raket še ni za pričakovati.

http://wccftech.com/maxwell-nvidia-gtx-...
Prenosnik, konzola, TV, PC upokojen.

Bergyb ::

Maxwell je mobino usmerjen, kar pa še ne pomeni, da ne bo high-end grafičnih, ki bodo hitrejše od sedanjih. Samo, da ne bo tako kot ima Intel, kjer so novi čipi 13% hitrejši od starejših, ker delujejo pri višjih frekvencah :) no, pri grafičnih karticah je ponavad večji napredek.

Unified Virtual Memory pa žal ni hardwersko rešen, tako da bo ta deloval samo preko CUDA, bodo pa to gotovo izkoriščali določeni programi.

Bergyb ::

Cene so višje zaradi programske opreme, ki jo dobiš poleg (CUDA, PhysX, G-Sinc, mogoče še kaj), je pa res, da imajo top grafično predrago, samo nihče te ne sili, da jo kupiš. Tk da kaj je bol konkurenčna cena je bol vprašanje, kaj želiš imeti poleg grafične.

Glede minaja Bitcoin, GTX Titan je že imel popravljeno, samo kaj ko si za isti denar dobil več kot 2X večji mining performance z AMD grafično. Posledično tudi software ni optimiziran za Nvidio. Dvomim, da se bo tu kaj spremenilo, GTX Titan ima 14 SMX (Next Generation Streaming Multiprocessor), medtem ko ima AMD HD 7970 32 CU (Compute Unit), s katerimi lahko mina.

FlyingBee ::

grafične za mining že niso več uporabne

da gre v mobilnost je več kot očitno in številke prodaje prenosnikov in tablic kažejo trend

Senitel ::

Bergyb je izjavil:

Unified Virtual Memory pa žal ni hardwersko rešen, tako da bo ta deloval samo preko CUDA, bodo pa to gotovo izkoriščali določeni programi.

Kaj ne bo hardwaresko rešeno? UVM že dela tudi na Keplerjih. Maxwell bo imel to rešeno hardwaresko. Ni pa to kaj hudo uporabno v DirectX okolju (igre), ker ti DX 11.x preprečuje določeno direktno šarjenje po pomnilniku.

hojnikb ::

FlyingBee je izjavil:

grafične za mining že niso več uporabne

da gre v mobilnost je več kot očitno in številke prodaje prenosnikov in tablic kažejo trend

motiš se.
#brezpodpisa

Zgodovina sprememb…

  • predlagal izbris: FlyingBee ()

FlyingBee ::

hojnikb ::

dokler ne bo legit podatkov, je itk bedarija karkoli razglablat.
#brezpodpisa

FlyingBee ::

hojnikb je izjavil:

FlyingBee je izjavil:

grafične za mining že niso več uporabne

da gre v mobilnost je več kot očitno in številke prodaje prenosnikov in tablic kažejo trend

motiš se.


povsod berem, da se Bitcoin z grafičnimi več ne splača, razen če imaš zastonj elektriko oziroma če je vlkjučena v naročnino, ampak zna se zgodit da najemodajalc prekine kaj takega sčasoma kar je loterija

hojnikb ::

I've got news for you.
Obstajajo tudi coini, ki niso bitcoin in še bolj pomembno, takšni ki ne uporabljajo SHA-256.
Z scrypt based coini, pri katerih je GPU edina opcija, se splača minirat. S katerim coinom točno, je pa seveda odvisno od dneva :))

http://www.coinwarz.com/cryptocurrency
#brezpodpisa

Bergyb ::

Senitel je izjavil:

Bergyb je izjavil:

Unified Virtual Memory pa žal ni hardwersko rešen, tako da bo ta deloval samo preko CUDA, bodo pa to gotovo izkoriščali določeni programi.

Kaj ne bo hardwaresko rešeno? UVM že dela tudi na Keplerjih. Maxwell bo imel to rešeno hardwaresko. Ni pa to kaj hudo uporabno v DirectX okolju (igre), ker ti DX 11.x preprečuje določeno direktno šarjenje po pomnilniku.

Hvala za popravek, to pa je dobra novica -sem delal pred leti teste na GTS 450 s CUDA in je "prenos podatkov" na GPU in nazaj vzel preveč časa, tk da se za moj primer ni splačal, je CPU hitreje rešil stvar.

Sicer off-topic, samo ima AMD za grafične tudi kaj takega, če ne štejemo APUje?

FlyingBee ::

hojnikb je izjavil:

I've got news for you.
Obstajajo tudi coini, ki niso bitcoin in še bolj pomembno, takšni ki ne uporabljajo SHA-256.
Z scrypt based coini, pri katerih je GPU edina opcija, se splača minirat. S katerim coinom točno, je pa seveda odvisno od dneva :))

http://www.coinwarz.com/cryptocurrency

hja, če in če,... pa smo še zmeraj pri svizcu, ki zavije čokolado

v tej temi se gremo vrnit na maxwellčija, če ima kdo kakšno informacijo kar na dan z linkom

medtem ko čakamo na nove pa me zanima ali je kakšen kontra AMD grafam v vsem tem, tole s konzolam je konkurenci kar v med padla žlica, se pa zavedam, da igre niso več glavni vzvod za kupovanje grafičnih

hojnikb ::

medtem ko ti če in če, nekateri že služijo denarce na ta način :)
#brezpodpisa

Senitel ::

Bergyb je izjavil:

Hvala za popravek, to pa je dobra novica -sem delal pred leti teste na GTS 450 s CUDA in je "prenos podatkov" na GPU in nazaj vzel preveč časa, tk da se za moj primer ni splačal, je CPU hitreje rešil stvar.

Sicer off-topic, samo ima AMD za grafične tudi kaj takega, če ne štejemo APUje?

Saj prenosi se bodo še vedno dogajal. Ne moreš kar teleportirat podatkov iz CPU-ja na GPU in nazaj. :) Kar se v CUDA 6 trenutno naredi je, da ti registriraš pointer (CPU) in velikost odseka. GPU potem v svojem virtualnem naslovnem prostoru rezervira prostor za kopijo iz sistemskega pomnilnika. Ko se v CUDA kernelu odločiš uporabit ta kos pomnilnika, bo driver rekel opa in skopiral zadevo iz sistemskega rama v pomnilnik od GPU-ja.
Kar se bo na Maxwellu spremenilo je, da bo GPU prisluškoval na sistemskem vodilu in ko bo CPU spreminjal del tega ga bo GPU potiho prešvercal v svoj lokalni pomnilnik in obratno. Obenem bo možno, da kernel začne mlet preden je vse na GPU-ju. Ampak podatki se še vedno prenesejo.

Tudi APU-ji glede tega niso čisto nič drugačni. Problem so API-ji. Bindless dostop je trenutno domena samo OpenGL-a in CUDA (in Mantle). DX in OpenCL,... ni šans.
Tudi če imaš APU imaš en del pomnilnika do katerega dostopa CPU in drug kos pomnilnika, rezerviranega za OpenCL in boš moral naredit kopijo. Nekoč...

Nummy ::

Ne štekam več nvidie. Zakaj razvijajo svoje framework-e in jedra za GPUprocessing, če obstaja na trgu že openCL in ga uporablja velika večina obstoječih programov??? openCL 2.0 bo prav tako prinesel veliko večino stvari, ki jih prinese tole in mi ni jasno zakjaj rinejo z glavo skozi zid, ker potem imaš itak to grafo notri in skoraj nikoli ne uporabljaš nvidiine tehnologije, pač pa openCL. Nvidia že tako šlepa zadaj, ker ne podpira niti openCL 1.2 (AMD ga). Nej raje nehajo slack-at pa dajo normalno podporo za openCL in gledajo, da bodo čimprej dali ven grafe, ki bodo podpirale 2.0.

pegasus ::

Senitel je izjavil:

Tudi APU-ji glede tega niso čisto nič drugačni. Problem so API-ji. Bindless dostop je trenutno domena samo OpenGL-a in CUDA (in Mantle). DX in OpenCL,... ni šans.
Tudi če imaš APU imaš en del pomnilnika do katerega dostopa CPU in drug kos pomnilnika, rezerviranega za OpenCL in boš moral naredit kopijo. Nekoč...
Že cel teden :D Oglej si AMD Kaveri in HSA.

Bergyb: lahko kaj več poveš kaj si delal s cudo, da te je data transfer omejeval?

Senitel ::

pegasus je izjavil:

Že cel teden :D Oglej si AMD Kaveri in HSA.

True, but OpenCL 2.0 driver še manjka.

Bergyb ::

pegasus: Obdelava videa, da sem poslal 2 slike in je GPU izračunal razlike ali pa ugotavljal premike.
Prva možnost je, da to niso dovolj zahtevne operacije, da bi se splačalo (CPU je to prav tako računal v več nitih), druga pa, da ni bilo dovolj optimizirano, uporablal sem OpenCV ovojnice, katere so se iz tedna v tedn spreminjale zaradi odpravljanja napak.

Isotropic ::

http://wccftech.com/maxwell-gtx-750-non...
vau, tega pa ze dolgo casa ni bilo. glede na to, da imajo en team za efficient premikanje podatkov (in s tem manjsi w/flop), so se ocitno kar potrudili. po performansah naj bi bila sicer 20-25% hitrejsa od gtx650. 750ti naj bi bila pocasnejsa od 660, kar je malo razocaranje.

http://videocardz.com/49454/nvidia-gefo...

Zgodovina sprememb…

RC14 ::

Zame je to veliko razočaranje.
Za 200 USD oz nekak 200 EUR dobiš slabši performance od GTX 660. TO je korak nazaj in ne naprej. 660 grafa je zunaj ~ leto in pol in potem naredijo neko kartico v letu 2014 ki bo 10-15% počasnejša od GTX 660, halo?
Sj tudi 660 je bila ob izzidu malo več kot 200 eur, tk da to sploh ni napredek. Taka kartica ki bo izžla v letu 2014 za ~ 200 eur bi morala biti hitrejša od GTX 670/680. To bi bil napredek, da je nova midrange kartica po zmogljivosti v rangu starejše generacije high-end oz vsaj blizu po zmogljivosti.

Nategu.ejo nas po dolgem in počez.


lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::

Isotropic ::

mocno dvomim, da bo 220usd. na tomshardware en pise v komentarjih, da je v realnosti bolj 110usd.
itak se za tako ceno nebi prodajala, glede na to, da je 650ti ~100e in 650ti boost 130-140e. mal drazja bo od 650ti pa je.

bo pa zanimivo videti, na katerem procesu je. ce jim rata spravit tako moc v 75w na 28nm (650ti jih pokuri 110), kaj bo sele z mocnejsimi razlicicami na 20nm :O

RC14 ::

Če bi bila 110 usd potem je ok ja, ampak za 200 usd pa je to porazno.
Za ta denar bi mogla biti kartica nove generacije za 200 usd, v evropi 200eur vsaj enako hitra oz hitrejša od kakšne GTX770, če ne, nima smisla kupovat nove generacije.


Lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::

Dr_M ::

A to res kar tako vsaki govorici nasedete?
Nekdo si eno bedarijo izmisli in folk cist nori.
Res je, da pri nvidii hocejo veliko denarja za svoje grafe, ampak da bi si pa tako pljuval v lastno skledo, pa spet niso neumni.


Ne štekam več nvidie. Zakaj razvijajo svoje framework-e in jedra za GPUprocessing, če obstaja na trgu že openCL in ga uporablja velika večina obstoječih programov???


Zakaj bi kar takoj opustil, nekaj kar razvijajo ze skoraj 10 let in sli na nekaj, kar se ni dodelano niti dobro podprto (to leti na tisto veliko vecino programov, ki jih lahko prestejes na prste obeh rok).
Scasoma bodo presli na opencl, ampak trenutno so s CUDA se vedno v mocni prednosti.

Nummy ::

Dr_M je izjavil:

A to res kar tako vsaki govorici nasedete?
Nekdo si eno bedarijo izmisli in folk cist nori.
Res je, da pri nvidii hocejo veliko denarja za svoje grafe, ampak da bi si pa tako pljuval v lastno skledo, pa spet niso neumni.


Ne štekam več nvidie. Zakaj razvijajo svoje framework-e in jedra za GPUprocessing, če obstaja na trgu že openCL in ga uporablja velika večina obstoječih programov???


Zakaj bi kar takoj opustil, nekaj kar razvijajo ze skoraj 10 let in sli na nekaj, kar se ni dodelano niti dobro podprto (to leti na tisto veliko vecino programov, ki jih lahko prestejes na prste obeh rok).
Scasoma bodo presli na opencl, ampak trenutno so s CUDA se vedno v mocni prednosti.


Sorry, ampak programi, ki ji h sam uporabljam imajo večinoma podporo za openCL in ne CUDA-o. Krivda je na nvidiini strani, da ne forsirajo bolj svoje CUDA-e, če je tako "čudovita".

Dr_M ::

Se pravi, zato ker ti neki uporabljas, pomeni velika vecina?
Seems legit. :))
Mozno je, da ima konkurenca debelejso kuverto.

FlyingBee ::

75W TDP za isto 960 cuda cores kot 660, ki ima 140W na istem 28nm, vendar 128 bitno vodilo namesto 192
http://hothardware.com/News/Details-and...

Isotropic ::

660 ima 110w.

pegasus ::

Bergyb je izjavil:

pegasus: Obdelava videa, da sem poslal 2 slike in je GPU izračunal razlike ali pa ugotavljal premike.
Kul. Če gre verjeti amd marketingu, je ena od hot aplikacij HSAja ravno računalniški vid. Malo razišči in če lahko, probaj na kakem kaveriju ponovit vajo.

Isotropic ::

to bos lahko imel tudi na maxwell refresh v kombinaciji z denver core naslednje leto, tko da ni nekaj, kar bi bilo vezano na opencl.

D3m ::

Kaj je zdaj z Maxwell?
|HP EliteBook|R5 6650U|

FlyingBee ::

poglej novice v zgornjem linku, čas je za novo arhitekturo in ne za refresh

Isotropic ::

drgac sem videl, da naj pri tsmc nebi bilo procesa 20nm HP (high-perf), ampak samo SoC, tko da je mozno, da bo cela generacija na 28nm. upam sicer, da ne.
SoC proces ni ako zmogljiv, nizji clocki, porabi pa manj.



verjetno zaradi cene razvoja procesa.

RC14 ::

Js tud mislim, da bodo se kr naprej ostali z maxwellom na 28nm tehnologiji. Tudi AMD bo verjetno naredil isto potezo.
Žal.

lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::

Isotropic ::

First and foremost, TSMC plans to introduce volume products based on 20nm Planar design (CLN20SOC) over the course of 2013, switching to FinFET with the 2014 arrival of CLN16FF...

... All of these processes are high-performance, while the company is keeping its Low Power roadmap mostly hush hush. Truth to be told, we would not be surprised if, very soon, the Low Power and High Performance nodes simply merge, as High Performance nodes are becoming more and more power aware, and just are able to scale higher. At least, that was the general feeling between TSMC executives that we managed to listen to.


popravek.
me pa zanima, koliko casa bo amd ostal na sedanjih karticah, glede na to, koliko casa so vztrajali na 79xx.

FlyingBee ::

kot vedno ostane vprašanje katero tehnologijo sw bodo šli, prvi maxwelli bodo na 28, takoj ko bo čas pa na 20nm, AMD pa na 28nm nima več kaj pokazat v okviru tdp-ja 300w do 350w, tako da mora ali nova gcn 2.0 na 28 ali na 20 in gledw na konkurenco se jim ne mudi

Dr_M ::

Nov gcn je se tako dalec, da bo zlahka na 20nm. Do takrat bo pa maxwell zmlel vse kar amd ponuja. Aja ne, ne bo, ker je konkurenca bedna in se jim nikamor ne mudi.

FlyingBee ::

z novo arhitekturo na novem procesu so cene abnormalne, ena kartica, ki niti ni "top of the top" stane kot cel ps4 ... gcn 1.1 na 20nm z več shaderji je sicer samo še en refreash, bo pa cena "normalna", maxwell pa mora na 28nm začet, da bi bila cena "normalna", tako da vedno je nova arhitektura bolje kot manjši proces, vendar tako eden kot drug ne bo postregel z "precej" boljšim P/P

RC14 ::

Tok so napihovali z tem maxwellom, zdj pa vedno bolj ko gledal te novice, pa to sranje z GTX 750, pa še vedno 28nm proces, se mi zdi, da ne bo nič kaj prida. Rahla pohitritev in cena višja in to je to. Dvomim, da bodo šli na 20nm. Upam, da AMD da kaj prida ven, v kar pa tudi dvomim, ker če konkurenca ne da kej prida ven, tudi njim ni potrebno.

lp
:4770K@4.5GHz @ BeQuiet!Dark Rock Pro2; MSI Z87 GD65 Gaming; 16GB RAM:
::GTX 1060 6GB; SSD Samsung 840 EVO 250GB; SEAGATE 3TB+3TB+1TB; LG 27"IPS::
:::: XFX 850W Black Edition; X-Fi Titanium; Fractal Design ARC R2 ::::

FlyingBee ::

nova arhitektura na starem procesu je z vidika p/p dobrodošla, počakmo uradni izid in teste

Isotropic ::

jutri baje, zih pa vsaj enkrat ta teden pridejo nove kartice in titan ultra.
je pa neverjetno, koliko slabega ma charlie@semiaccurate povedat o njih. clovek bi rekel, da bodo vsak cas propadli.

Zgodovina sprememb…

D3m ::

Propadli ne.
|HP EliteBook|R5 6650U|

Isotropic ::

http://www.fudzilla.com/home/item/33957...
s temle LTE pa ze kar zamujajo. qcom ga ima ze dolgo casa.

Dr_M ::

Isotropic je izjavil:

jutri baje, zih pa vsaj enkrat ta teden pridejo nove kartice in titan ultra.
je pa neverjetno, koliko slabega ma charlie@semiaccurate povedat o njih. clovek bi rekel, da bodo vsak cas propadli.



Charlie se bere kot ena slaba komedija. Nic, kar bi lahko resno jemal.

D3m ::

Kaj je pa povedal Charlie? Oz. kakšna je bila pozitivna kritika?
|HP EliteBook|R5 6650U|

Zgodovina sprememb…

  • spremenil: D3m ()

Isotropic ::

negativna kritika, da ne morejo deliverat v bistvu. pa da so edini, ki majo tezave s procesom in ne vem kaj se.

D3m ::

Titan ultra bo v to ne dvomim :)).
A to govoriš o GK110 čipu ali K1?
|HP EliteBook|R5 6650U|

Isotropic ::

to je blo o keplerju, maxwellu se mi zdi
bom pogledal doma, je pa na splosno tak ton novic o nv

pa smesno mi je, k pisejo, da je r7-265 the one to avoid, na anandtechu ga pa kar hvalijo, ce se ne motim.

Zgodovina sprememb…

klkkkkkkkkkk ::

GTX 750 Ti Memory Bus 128Bit ....
http://www.guru3d.com/news_story/nvidia...

Tole so pa čist za brez veze notr dal... bol bi blo če bi dal samo prepakirali GTX 660 pa mal downclockal....
GA-990XA-UD3, FX 6300 4.6GHz, R9 270X, 8Gb Ram, 1TB, G-550W, Win7

Dr_M ::

Za low end je tole ok. Sam da s ceno ne zaj...
««
«
1 / 26
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Prednosti grafičnih kartic AMD vs NVIDIA (strani: 1 2 3 426 27 28 29 )

Oddelek: Strojna oprema
1425183571 (133462) D3m
»

AMD napovedal družino Polaris v 14-nm FinFET (strani: 1 2 )

Oddelek: Novice / Grafične kartice
5414495 (12382) m0LN4r
»

grafična kartica?katero kupiti (strani: 1 2 3 48 9 10 11 )

Oddelek: Kaj kupiti
50784313 (13989) PredatorX
»

Novi AMD-jevi čipi R9 3xx (strani: 1 2 3 4 )

Oddelek: Novice / Grafične kartice
16741615 (33302) m0LN4r

Več podobnih tem