X-Bit Labs - nVidia je končno dovolila objavitislike in lastnosti novega najzmogljivejšegagrafičnega čipa na planetu. Na tiskanini kartice GeForce GTX Titan se namreč skriva ogromni GK110, na arhitekturi Kepler osnovan grafični čip s kar 2688 senčilniki, 224 teksturnimi ter 48 ROP enotami, izdelanimi iz 7,1 milijarde tranzistorjev v 28 nm proizvodnem procesu. GK110 se sicer izdeluje že kar nekaj časa, saj so računske kartice Tesla, osnovane na GK110, naprodaj že od začetka novembra, skoraj 3 mesece torej. V grafični različici uporabljen GK110 je popolnoma odklenjen, torej enak Tesli K20X, tudi sicer pa so specifikacije precej podobne.
GeForce GTX Titan je poleg jedra GK110 opremljen s kar 6 GB delovnega pomnilnika v obliki 24 GDDR5 čipov, ki so z jedrom povezani prek 384-bitnega vodila. Pomnilnik teče pri 6 GHz, medtem ko jedro teče pri 837 MHz ter se lahko navije do 876 MHz. Glede na količino pomnilnika, frekvence, predvsem pa na velikost čipa (število tranzistorjev je podvojeno glede na GK104, površina z 294 proti 520 mm2 ne povsem), je poraba do 250 W pravzaprav kar nekoliko nizka. Kot prvi iz družine GeForce pride GTX Titan opremljen še s celotno zmogljivostjo za izračune z dvojno natančnostjo. nVidia je za razliko od AMD-ja do sedaj kartice GeForce na tem področju vedno okrnila, GTX 680 z računanjem pri dvojni natančnosti zmore vsega 1/24 zmogljivosti običajne, enojne natančnosti, medtem ko GTX Titan doseže pri dvojni natančnosti tretjino zmogljivosti enojne natančnosti.
Zaradi relativno nizke porabe je nVidii uspelo izdelati relativno tiho kartico. Na zunaj je nadvse podobna dvojedrni GTX 690, tudi pokrov hladilnika je izdelan iz aluminija, samo jedro pa hladi kombinacija jeder in izparilne komore, prek katerih zrak potiska relativno velik ventilator. Za dobavo 250 W energije poskrbita po en 6-pinski in en 8-pinski PCIe priključek, za izris slike pa par DVI ter po en HDMI in polni DisplayPort slikovni izhod.
Glede na nVidiine podatke je GTX Titan kar 30 do 40 % hitrejši od GTX 680 ter Radeon HD 7970, a ni najhitrejša grafična kartica na svetu, to vlogo še vedno drži GTX 690. Zaradi dveh priključkov za SLI je mogoče spariti tudi tri kartice, ki bodo hitrejše od para GTX 690 (parjenje kar štirih jeder GK104). Kartice bo v zelo omejenih količinah mogoče kupiti od 25. februarja, ko bomo verjetno videli tudi prve teste, a bo cena za takšno zmogljivost visoka. Priporočena cena naj bi se v ZDA gibala okrog tisočaka dolarjev, podobno ceno, tisoč evrov, pa lahko pričakujemo tudi v Evropi.
Uh, ah, sem že malo ven, odkar sem nujno rabil top mašino s top kartico za top špile (ene 10 let). Kaj in kako lahko tole zverino do konca izkoristi? 4k zaslon na Skyrimu?
Uh, ah, sem že malo ven, odkar sem nujno rabil top mašino s top kartico za top špile (ene 10 let). Kaj in kako lahko tole zverino do konca izkoristi? 4k zaslon na Skyrimu?
Za 10 let kar pozabi, razen če kupuješ igre na GOG.
Imam kolega, ki bo sigurno to zadevo kupil. Potem bo pa na njej poganjal samo "Benchmarking." Ne vem, če je v zadnjih 10ih letih kdaj sploh končal kakšen špil - ob tem, da je early adopter high-extreme-super-ultra end komponent... Se človek kar malo zamisli... Prav predstavljam si ga, kako se sedaj, ob branju te novice, slini in šteje evre v "denarnici". :)
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Jst sem tudi med "reveži", ki se jim takšna cenovna politika ne dopade. V zlatih časih HD4000 serije si dobil HD4870 novo ob izidu GPUja za 230€. To je bil takrat najhitrejši AMDjev single GPU. Takrat najhitrejši single GPU GeForce je bil tudi kar polovico ceneji kot naj bi bila vrednost tu predstavljenega čipa. Praktično za 600€ kar je bil res že višek denarja, se je kupovalo HD4870X2 ter GTX295, ki sta bila praktično vrh grafike.
Kaj dobiš danes torej, za 200€? Odgovor je preprost. Nič.
Joj no, 1000 € je preseravanje, ker se lahko preseravajo pa ker bo limited edition. Pa seriji 3000 ter 4000 nista bili pretirano konkurenčni (vsaj 3000 ne), zato so si pri AMD-ju reševali RIT. Prodajali so svoj 'high end', ki je bil po zmogljivosti in ceni bolj mid range. Cene zdaj so daleč od groznih. Ni več 5850 ob predstavitvi, ki je stala 200 €, ampak takrat je tako pač bilo.
Sicer je pa 200 € Radeon 7870, navit 7850, za 230 € je pa 660 Ti.
Hmmmm od kje pa to da je GTX 690 najhitrejsa graficna kartica na svetu?
Trditev je seveda napacna, ce AMD ni uradno izdal 7990 se ne pomeni da partnerji niso naredili svojih izvedenk, ki so hitrejse od te GTX 690. Govorim za His 7970 x2 pa izvedenke pod TUL co.
ECC za gamerje? Ne verjamem, da bo kateri reskiral hitrost ramov za to
Čudno da pa Radeoni imajo ECC na VRAM čipih 8ali pa kje drugje, vem samo da je povezano s spominom). Jih lahko navijaš skoraj do nezavesti pa bo vse delalo. Ampak performance pa lahko drastično pade čeprav bi moral bit višji. Zato ker se VRAM muči odpravljat napake in obrača naokoli ene in iste podatke. Kar je sicer fajn ampak za performance OC rabiš pri navijanju testirat še dejanski performance in ne samo zvišan clock. Ker ko prideš do točke, da clock višaš, performance pa ne gre gor oz celo pada, potem veš da si dosegel mejo.
No, cena je res huda, samo grafa pa je top shit. Poraba odlicna glede na velikost in performance chipa. Nvidia je pac pokazala ta prave misice, pa ceprav je to limited edition za 1000€
Kateri sektor boš izvedel tako, da zadevo s kako cuda/opencl aplikacijo obremeniš na 100% in pustiš laufat 24h. HPC kolegi so mi razložili, da gamerske kartice ob takem testu spustijo dušo v obliki belega dimčka, profesionalne pa lepo delajo kot da ni nič. Tip je dejansko moral luftat serverroom, ker je smrdel po zažgani elektroniki ;)
Ne, ker sta K104 jedri povezani med sabo z "internim SLI mostičkom" in je kartica že sama po sebi v SLI. Z dvema karticama dosežemo Quad SLI (4x K104 jedra), kar je tudi največ kar "teoretično" podpira trenurna strojna in programska oprema (predvsem driverji(če ne govorimo o namenskih)).
Obstajajo tudi delovne postaje, ki imajo tudi več kot 4 grafična jedra ampak imajo prilagojen OS in ostali software in so namenske uporabe.
Samo še pojasni kako nekdo brez možganov zlahka kupi grafo za jurja, pametnjakoviči pa ne?
Hehe dobra.
Sinek?
Če ne govorimo za pro delo..Je res toliko boljša da si zasluži 1k usd ali je bolj uu lej imam 1k usd grafo...Itq je pač to bolj izdelek z katerim se firma pohvali prodaja pa je bolj mlačna.
Kateri sektor boš izvedel tako, da zadevo s kako cuda/opencl aplikacijo obremeniš na 100% in pustiš laufat 24h. HPC kolegi so mi razložili, da gamerske kartice ob takem testu spustijo dušo v obliki belega dimčka, profesionalne pa lepo delajo kot da ni nič. Tip je dejansko moral luftat serverroom, ker je smrdel po zažgani elektroniki ;)
ah, daj no. Mogoče v server room, kjer so ponekod temperature že tako precej višje, kot v naših sobah, pa še to bi imela probleme kakšna s slabim/zaprašenim hladilnikom... Uporabljam openCL, nikoli problemov. Pa Folding opencl/cuda se fura marsikje, celo na prenosniku z 2 AMD grafičnima karticama. Če je hlajenje dobro, bodo VRM zdržali, core ima pa itak throttling pri visokih temperaturah.
Edit: Titan je namenjen domači uporabi, čeprav tech izhaja iz pro (ugasnjene funkcije). Obljubili pa so najbolše reference hlajenje daleč naokoli, tako da nekaj bo le imel kupec od tega.
No saj nisem rekel, da je ugodno?! Pač je tako, kot Intelovi procesorji na 2011 podnožju za domačo uporabo, nišna zadeva. Nekdo pri omejenih sredstvih si pri zdravi pameti tega ne bo nabavil, dokler mu delo ne prinaša denarja... koliko je pa zdrave pameti, je pa drugo
Ne, ker sta K104 jedri povezani med sabo z "internim SLI mostičkom" in je kartica že sama po sebi v SLI. Z dvema karticama dosežemo Quad SLI (4x K104 jedra), kar je tudi največ kar "teoretično" podpira trenurna strojna in programska oprema (predvsem driverji(če ne govorimo o namenskih)).
Obstajajo tudi delovne postaje, ki imajo tudi več kot 4 grafična jedra ampak imajo prilagojen OS in ostali software in so namenske uporabe.
To niti ni neka huda hardwareska ali softwareska omejitev ampak že dost praktična. Ta avtomatski scaling, čez 2, 3, 4 grafične lahko delujeo fino in fajn samo, če je v igri AFR. Torej da vsak GPU v konfiguraciji renderira eno slikco od začetka do konca. Problem tega je, da vsak GPU posamezno še vedno rabi čisto isto časa za dokončanje slike. Če en GPU teče pri 30fps se torej slika renderira 33ms, če imaš en GPU, 2 GPU-ja, ali pa 10 GPU-jev. Gre pa latenca drastično gor, torej čas med tistim, ko ti miš premakneš in se nekaj zgodi na zaslonu.
Naslednji hec je, da ene high end quad GPU konfiguracije v igrah ne bo sledil NOBEN CPU. Max FPS je tam kjer je, recimo na "150 FPS". Da imaš kakšno korist od take overkill GPU konfiguracije moraš potem dvigat detajle, ločljivosti, AA,... in tako lahko zelo enostavno spraviš 1 GPU v sub 15FPS range (66ms) ampak, ker imaš 4 je FPS še zmer čist vredu. Latenca je pa že 1/4 sekunde samo na grafičnem sistemu.
Če odbiješ WHQL omejitev, da grafične ne smejo renderirat več kot 4 slike vnaprej (in tako omogočiš SLI/CF z recimo 8 GPU-ji) boš hudičevo hitro v situacijah, ko boš imel še vedno 60FPS in tekočo sliko, bo pa trajal celo sekundo, da bo kakršen koli odziv na tvojo akcijo viden na zaslonu. Se pa da to vklopit dost enostavno.
Lahko pa imaš aplikacije, ki se zadevajo, da imajo opravka z večimi GPU-ji in delajo temu primerno (in niti ne rabijo vezave v SLI/CF).
ECC za gamerje? Ne verjamem, da bo kateri reskiral hitrost ramov za to
Čudno da pa Radeoni imajo ECC na VRAM čipih 8ali pa kje drugje, vem samo da je povezano s spominom). Jih lahko navijaš skoraj do nezavesti pa bo vse delalo. Ampak performance pa lahko drastično pade čeprav bi moral bit višji. Zato ker se VRAM muči odpravljat napake in obrača naokoli ene in iste podatke. Kar je sicer fajn ampak za performance OC rabiš pri navijanju testirat še dejanski performance in ne samo zvišan clock. Ker ko prideš do točke, da clock višaš, performance pa ne gre gor oz celo pada, potem veš da si dosegel mejo.
Don't be silly, ECC je v samih čipih že od časa DDR3 dalje.
SplitCookie> Prevoziš RDEČO ! jype> Ja? A to je kaj posebnega?
Ramon dekers> Ječa je lahko naravno okolje potem ko se adaptiraš.
jype> CPP ne spoštujem _NIKOLI_
Uh, ah, sem že malo ven, odkar sem nujno rabil top mašino s top kartico za top špile (ene 10 let). Kaj in kako lahko tole zverino do konca izkoristi? 4k zaslon na Skyrimu?
Far Cry 3 maxed out na 1080p in 120Hz Monitor pa ta kartica ni več dovolj.
Sj tisti, ka ma tuk denarja za grafo, bo mu tud za 2 nova xeona, če se ne motim?
Se motiš. Igre običajno še vseh jeder na enem CPU-ju ne izkoristijo do konca, da bi pa več CPU-jev je pa že kar iluzorno. In čemu pravzaprav? Da se bo špil osvežil 300x na sekundo namesto 150x? Kaj je point tega?