AnandTech - Čeprav o novem AMD-jevem čipu s kodnim imenom Hawaii, ki bo srce prihajajočega Radeona R9 290X, vemo malo, vseeno po pričevanju AMD-ja vemo, da bo kartica hitrejša od GeForce GTX 780 in GTX Titan. Slednje je sicer lahko nekoliko dvomljivo, a pri 3840 x 2160 pikah Radeon R9 290X v Bioshock Infinite res prehiti GeForce GTX 780. Pri nVidii zato pripravljajo odgovor, GeForce GTX 780 Ti. Novo kartico lahko pričakujemo sredi novembra, torej okrog dva tedna kasneje, kot bomo videli Radeon R9 290X. Razen dneva izida pri nVidii niso razkrili nobenih podatkov, povedali so le, da bo kartica nedvomno hitrejša od prihajajočega Radeona.
Vseeno imamo že obilico ugibanj. Tako GeForce GTX 780 kot GTX Titan uporabljata jedro GK110, ki vsebuje 2880 senčilnikov, a jih Titan uporablja 2688, GTX 780 pa vsega 2304 - to nanese 14 oz. 12 delujočih od petnajstih enot SMX, ki jih vključuje čip. Razlika je še v pomnilniku, ki ga ima Titan 6 GB, GTX 780 pa 3, a v obeh primerih le-ta deluje pri enaki frekvenci na enakem vodilu. Prostor za izboljšave je, če nVidia ne želi preseči Titana, mogoč torej na jedru. Logično bi bilo pričakovati 2496 senčilnikov, s čimer bi se GeForce GTX 780 Ti umestila neposredno med GTX 780 in GTX Titan. Večje število senčilnikov, vključno s polno delujočim jedrom GK110, je manj verjetno, a pustimo se presenetiti.
Novo kartico so pri nVidii napovedali na svoji konferenci v Montrealu, kjer so razkrili še nekaj novosti. Po vzoru AMD-ja tudi nVidia pripravlja pakete priloženih iger, The GeForce GTX Holiday Bundle. V prvem razredu se nahajajo grafične kartice GTX Titan, GTX 780 in GTX 770, priložena pa jim bo trojica iger, Assassin's Creed IV, Batman: Arkham Origins in Splinter Cell: Blacklist. Obenem bodo kupci teh kartic dobili še kupon za 100 dolarjev nižjo ceno ročne konzole Shield. V drugem razredu so GTX 760, 680, 670, 660 Ti in 660, ki prejmejo dve igri, Assassin's Creed IV in Splinter Cell: Blacklist, ter 50-dolarsko znižanje Shielda. Nižje cene ročne konzole Shield sicer veljajo le v Severni Ameriki, a nič ne da slutiti, da bomo v Evropi prikrajšani za brezplačne, s spleta prenosljive igre. Akcija bo potekala med 28. oktobrom in 26. novembrom.
Na bolj mehki strani lahko povemo še, da bodo pri nVidii vse tehnologije oddaljenega igranja združili pod imenom GameStream. To bo vključevalo igranje iger na Shiledu prek mreže, kjer bodo igre pravzaprav tekle na PC-ju z vgrajeno kartico GeForce, igranje iger, ki tečejo v nVidiinem oblaku Grid (igranje je mogoče na osebnih računalnikih in na Shieldu) ter novo možnost. Shield dobiva opcijo obnašanja konzole, torej se ga bo priklopilo na televizor, igre pa se bo prenašalo prek omrežja s prej omenjenega računalnika. Upravljanje z igro bo potekalo prek zunanjega igralnega ploščka, povezanega prek Bluetotoha. Ker bodo na televizorjih podpiralo ločljivost 1080p, bo potrebna gigabitna omrežena povezava zaradi višjih potreb po prepustnosti. Na AnandTechu predvidevajo, da bo za to poskrbljeno z USB pretvornikom, a USB 2.0, ki ga uporablja Shield, podpira le (teoretičnih) 480 Mbit/s. Za več detajlov bo očitno treba počakati.
Poročanje o novostih zaključimo s še enim strojnim projektom, G-Sync. Gre za malo kartico, ki jo bo mogoče naknadno priključiti na monitor (na obstoječe modele bo potrebno modanje), a bodo v prihodnosti (v prvem četrtletju 2014) za podporo poskrbeli partnerji, vsaj Asus, BenQ, Philips, in ViewSonic. Tehnologijo so pri nVidii zaenkrat demonstrirali z Asusovim VG248QE. G-Sync omogoča stalno prilagajanje osveževalne frekvence monitorja, v primeru demostratorskega Asusa vse do 144 Hz. Frekvenco izenači s številom sličic na sekundo, od 30 do 144 Hz oz. FPS, pod spodnjo mejo pa uporablja faktor 2, torej za vsak FPS dvakrat osveži sliko (to preprečuje pretirano utripanje monitorja). Efekti naj bi bili osupljivi, kljub relativno nizkemu številu sličic, 45 FPS, je sistem z G-Sync deloval gladko, medtem ko se je na sistemu s fiksno osveževalno frekvenco 60 Hz videlo trganje, utripanje in zatikanje. Za delovanje monitorja, opremljenega z G-Sync, bo potreben vsaj GeForce GTX 650 Boost, povezan prek DisplayPort, pri nVidii pa upajo, da bodo modul v prihodnosti nadobudnim modifikatorjem prodajali za največ 100 dolarjev.
G-Sync je dost brezvezen. Prvič rabiš imet tak monitor, grafično, ki podpira to in še tam ni garancije, da bo delovalo v vseh špilih.
AMD je po drugi strani pametno pognal zadevo z R9 serijo. Ajde, rebrand je mal lame, ampak ideja z AMD Mantle pa igra dvojno vlogo in je pomoje dost bolj pomembna od teh gimmick traparij NVIDIE.
Ker MS fragmentira D3D podporo glede na operacijske sisteme bo Mantle to poenotil. Zdej DirectX 11.2 ne moreš imet na WinVista oz Win7. Z Mantle boš lahko imel. Pa še zaradi same narave API-ja bo manj overheada in boljši performance. Kar je vbistvu dvojni Win za Radeon uporabnike.
Kar pa se tiče eliminacije trganja slike, mi pa ni jasno zakaj še nihče ni pristopil k reševanju tega problema na celotni ravni proizvajalcev GPU-jev. V-Sync je star kolikor pomnim obstoj iger. Vsi ga lahko uporabljajo ampak je tehnično gledano zastarela zadeva, ki ne deluje kot bi morala. Zakaj tega ne rešijo skupaj, namesto da posamezniki delajo taka namenska skropucala, ki jih lahko mogoče koristi 20% vseh uporabnikov.
Namesto vseh priloženih iger in popustov bi raje kar dejanski popust v istem znesku. Stalno prilagajo neke igre, ki jih vsak zagret igralec itak nabavi že prvi dan, ko so zunaj. Popusti za neke konzole so pa sploh mimo.
Pomojem je G-Sync game-agnostic, pač grafa gleda koliko FPS-jev meče ven in temu primerno spremeni refresh rate. Pod zahtevami je še dovolj nova verzija driverjev, torej je pomojem to to.
Pa če sem prav razumel se bo dalo zadevo nahekati v veliko večino (displayport) monitorjev. Čeprav na 60 Hz monitorju za to ni velikega pointa...
Namesto vseh priloženih iger in popustov bi raje kar dejanski popust v istem znesku. Stalno prilagajo neke igre, ki jih vsak zagret igralec itak nabavi že prvi dan, ko so zunaj. Popusti za neke konzole so pa sploh mimo.
Gre za napihovanje prodajnih številk. Da jim delnice malce zrastejo.
Kje piše da ni garantirano da bo delovalo? Sicer o tem ne moraš nič reči dokler ne bo nekih konkretnih testov. Dvomim da bi šli razvijat en kos opreme na blef.
AMD je po drugi strani pametno pognal zadevo z R9 serijo.
Haha, a si se malo poslalil? AMD ni naredil popolnoma NIC. Prodaja neke brezvezne stare "novosti", paperlaunchajo nek gpu, ki naj bi bil oh-in-sploh, dobavljiv nikjer, na koncu se pa izkaze, da tekmuje s konkretno kastriranim GK110. Tist njihov api bo neslavno propadel, kot je propadel glide. Nic nimajo, samo napihujejo se.
To bodo pač kupovali videofili, kot audiofili kupujejo ene zlate kable, češ da jim izboljšajo kakovost digitalnega zvoka.
Videofili? A niso to ljudje, ki gledajo filme in serije, ki delujejo s fiksnim framerateom? To bodo kupovali najbolj zahtevni gamerji, ki zdaj kupujejo 120 Hz monitorje, jih hekajo, da dobijo strobe efekt pri backlightu, da so zadeve 'še nekajkrat boljše prikazane' in kaj jaz vem kaj še vse :D
AMD je po drugi strani pametno pognal zadevo z R9 serijo.
Haha, a si se malo poslalil? AMD ni naredil popolnoma NIC. Prodaja neke brezvezne stare "novosti", paperlaunchajo nek gpu, ki naj bi bil oh-in-sploh, dobavljiv nikjer, na koncu se pa izkaze, da tekmuje s konkretno kastriranim GK110. Tist njihov api bo neslavno propadel, kot je propadel glide. Nic nimajo, samo napihujejo se.
To pa ti misliš da bo Mantle propadel kot Glide. Glide je zamrl ker je firma krepnila. Tle pa ga bojo podpirali največji engini, ne bo OS dependent in bo imel manjši overhead. Kakor vidim so to sami plusi.
Če je mantle skor bare metal API, kaj se bom potem zgodil, ko bo AMD izdal nov arch, ki bo čisto drugačen od GCN ?
Ker bo AMD, če je pameten tudi katerokoli novo arhitekturo, dizajniral z Mantle v mislih. To je nekako podobno temu, kot so trenutno skoraj vse arhitekture dizajnirane z DX11 v mislih, pa se med sabo zelo razlikujejo.
Če je mantle skor bare metal API, kaj se bom potem zgodil, ko bo AMD izdal nov arch, ki bo čisto drugačen od GCN ?
Mantle je GCN only ta moment. V prihodnosti ga bodo odprli. Na temo Mantla je bilo napisanih že kar nekaj prispevkov, vključno z novico in razlago, da Mantle pravzaprav ne deluje na Xbox One ter zakaj ne.
Je kdo kdaj analiziral, od kje zatikanje, trganje in podobno? Sam nikoli nisem posumil, da ima osveževalna frekvenca zaslona kaj veze pri tem (zato se mi zdi, da je g-sync "kr neki"). Stuttering pri igrah vedno pride, ker špil nekaj počne (nalaga teksture, CPU kaj računa za umetno inteligenco ipd.). To zatikanje bi rekel, da mora trajati vsaj nekje 50ms, prej 100ms, da ga opaziš. To pa je bistveno dlje od sinhronizacije 140FPS -> 60hz ali 25FPS->60hz (60hz = 16,7ms na slikico, se pravi, če zgrešiš eno celo slikico za sinhronizacijo, imaš kvečjem toliko zamika!).
Stuttering je vedno opazen, ko fps ni množilnik osveževanja zaslona. Zato tudi konzole uporabljajo 30 fps in 60 fps in ne recimo 40 fps pri monitorju, ki osvežuje s 60 hz. Sam igram s kontrolerjem na pcju in hdtvju in če nimam nastavljen vsync na 60 fps oziroma half refresh rate vsync takoj opazim, frame skipping, ki se pojavla. Ko enkrat veš, kaj moraš gledat opaziš takoj in je zelo moteče, ta tech reši ta problem.
Sploh za kak pro gaming je tole must have, saj si zaradi input laga, ki je prisoten ob vklopljenem vsyncu, vsynca ne moreš privoščiti, vendar imaš potem spet tearing in frame skipping, pri G-syncu pa ni ne tearinga, ni input laga in ni frame skipping, nvidiji samo propsi za tole, sam škoda, da je potreben dodaten hardware in točno določeni monitorji.
A ni buffering definicija input laga? As in ti shranjuješ frejme za kasnejši prikaz (pač si delaš 'zalogo'), input lag je pa čas med premikom miške in spremembo prikaza na zaslonu. Če imaš v bufferju 10 frejmov bo ta lag torej večji, kot če imaš v bufferju 2 frejma.
A ni buffering definicija input laga? As in ti shranjuješ frejme za kasnejši prikaz (pač si delaš 'zalogo'), input lag je pa čas med premikom miške in spremembo prikaza na zaslonu. Če imaš v bufferju 10 frejmov bo ta lag torej večji, kot če imaš v bufferju 2 frejma.
Stuttering je vedno opazen, ko fps ni množilnik osveževanja zaslona. Zato tudi konzole uporabljajo 30 fps in 60 fps in ne recimo 40 fps pri monitorju, ki osvežuje s 60 hz. Sam igram s kontrolerjem na pcju in hdtvju in če nimam nastavljen vsync na 60 fps oziroma half refresh rate vsync takoj opazim, frame skipping, ki se pojavla. Ko enkrat veš, kaj moraš gledat opaziš takoj in je zelo moteče, ta tech reši ta problem.
Sploh za kak pro gaming je tole must have, saj si zaradi input laga, ki je prisoten ob vklopljenem vsyncu, vsynca ne moreš privoščiti, vendar imaš potem spet tearing in frame skipping, pri G-syncu pa ni ne tearinga, ni input laga in ni frame skipping, nvidiji samo propsi za tole, sam škoda, da je potreben dodaten hardware in točno določeni monitorji.
To sploh ni res. Stuttering je ko framerate zelo hitro skače med nizkim in zelo visokim. Recimo, da stojiš na sceni in premakneš pogled. Med premikanjem pa framerate skače iz 50fps na 25fps pa nazaj na 75fps pa na 40fps pa na 150fps pa mogoče na 10fps in spet na 200fps. In to se pol med premikanjem občuti kot stuttering. Sploh opazno je to ko hodiš naprej in prav čutiš, da slika trza, ko se premikaš naprej.
Tud image tearing zelo variira, kar mi še ni uspelo pogruntat zakaj. V-Sync imam vglavnem izklopljen in je image tearing včasih obupen, da se horizontalno pojavljata dve liniji trganja slike na 1/3 in 2/3 ekrana. Pri enih špilih se pojavlja samo kakšna 2cm pod zgornjim robom itd. Pri kakšnih špilih pa je tolk neopazno, da se komaj kdaj opazi.
Prvo kot prvo je pri teh zadevah čisto brez veze govorit o FPS-jih, ampak se je bolj smiselno pogovarjat o milisekundah na frame. In vsakič ko grafična skoči iz 16,7ms na frame (ali gor ali dol) je problem.
Ne to ni (samo) micro stuttering. Vsa odstopanja od 16,7ms povzročajo takšne in drugačne probleme. Od vzorca pa je potem odvisna "nalepka" (micro stuttering,...).
Every frame is drawn perfectly in sync with the monitor. The monitor doesn't ever have to play catch up to the GPU (tearing), nor does the GPU ever have to play catch up to the monitor (stutter/lag).
AMD je po drugi strani pametno pognal zadevo z R9 serijo.
Haha, a si se malo poslalil? AMD ni naredil popolnoma NIC. Prodaja neke brezvezne stare "novosti", paperlaunchajo nek gpu, ki naj bi bil oh-in-sploh, dobavljiv nikjer, na koncu se pa izkaze, da tekmuje s konkretno kastriranim GK110. Tist njihov api bo neslavno propadel, kot je propadel glide. Nic nimajo, samo napihujejo se.
Tipičen primerek prispevka, ki ga niti do konca ne rabimo prebrat, saj ob tem nič ne zamudimo.
Pustimo času čas, jaz opravim. Ti pa že kar v prihodnost vidiš, da bo vse propadlo. Decembra pride špil, ki bo to podpiral - bomo potem videli, kako se zadeva obnese.
AMD je po drugi strani pametno pognal zadevo z R9 serijo.
Haha, a si se malo poslalil? AMD ni naredil popolnoma NIC. Prodaja neke brezvezne stare "novosti", paperlaunchajo nek gpu, ki naj bi bil oh-in-sploh, dobavljiv nikjer, na koncu se pa izkaze, da tekmuje s konkretno kastriranim GK110. Tist njihov api bo neslavno propadel, kot je propadel glide. Nic nimajo, samo napihujejo se.
kaj te bluziš ti
Mantle je bil narejen direktno zaradi programerjev ki hočejo mimo DX in OGL na PCjih.
Ljudje poročajo ZELO dobre izkušnje z g-sync. Na kameri se to ne vidi, ampak v živo, če imaš side by side monitor z g-sync in monitor brez, je razlika neverjetna. Pravijo, da je težko opisati z besedami, ampak vsi, katere sem bral, upajo, da bi to postal standard, seveda tudi za AMD in Intel.
Tehnologija se pozna tudi na 60Hz monitorjih, največji efekt ima pa na 144Hz monitorjih - logično.
Če bo v prihodnosti uporaben tudi za AMD, je pri nakupu novega monitorja g-sync no brainer.
Zanimivo, AMD ima v rokavu TrueAudio (in Mantle), kar je višji performans in boljši zvok, nvidia pa s g-sync ZELO pozitivno vpliva na boljšo izkušnjo pri igranju. V-Sync postane neuporaben, trganja slike več ni. Ryan Shrout pravi "Death Of The Refresh Rate"; na odru skupaj z Nvidia CEO Jen-Hsun Huang, so John Carmack, Tim Sweeney (Unreal) in Johan Andersson (FrostBite) vsi trdili kako g-sync prinaša prednosti na PC gaming. Vsi navdušeni, da ima potencial za developerje, da lahko zvišajo kvaliteto grafike, brez da bi skrbeli glede 60 FPS cap ves čas.
Torej, če trije mojstri, ki so razvili vsak svoj fenomenalen game engine, podpirajo idejo variable refresh rate, potem lahko upamo, da postane g-sync industry wide standard in ne samo ekskluziva za Nvidia grafične.
Čeprav iz Nvidijenega stališča, je za njih bolje da ostane njihova ekskluziva, ker ko enkrat kupiš monitor z podporo g-syncu, si dolgoročno bolj nagnjen h kupovanju Nvidie.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Azgard: v bistvu sem prvo površno prebral, kaj sploh je g-sync. Potem sem poslušal podcast (this week in computer hardware - twich), kjer je Ryan Shrout (pcper.com) govoril, kakšna razlika je, ko imaš dva enaka monitorja side by side, vendar enega z g-sync in enega brez in kako se to ne da posneti z (fixed framerate) kamero, ampak moraš videti v živo, kjer g-sync monitor daje izjemne rezultate. Nato me je začelo res zanimati in sem se malo poglobil v tole rešitev variable refresh rate, ter pogledal in prebral še nekaj (video) review/analysis. Vsepovsod, kjer so imeli g-sync v rokah, so ga hvalili. Zato tudi vsi omenjeni, ki so stali z Nvidia CEO in so že sami veliko dosegli v gaming svetu, če res ne bi verjeli, da je to zelo dobra rešitev, dvomim, da bi jih Nvidia lahko "kupila."
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Wishful thinking: ko bom čez nekaj let menjal monitor za 4K, upam, da bo to industry standard.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Ma tako kot zadeve napredujejo (Dell 24" 4k za 1300 €), bo pomojem že čez leto, dve mogoče dobiti popolnoma spodobne 4k monitorje za 500 € in manj. Se mi zdi, da je zaradi high-DPI telefonov folk RES navalil na high-res vse, laptopi pa tukaj samo pomagajo (na boljših 13" je 1080p že praktično standard, dobiš tudi 2560 x 1440 in 3200 x 1800).
Tale G-Sync bi bil zelo kul, če ga sprejmejo vsi kot standard (proizvajalci monitorjev, AMD). Ne glede kak pc kupiš bi imel smooth gameplay experience (samo kvaliteta grafike bi bila nižja na cenejših).
>Tale G-Sync bi bil zelo kul, če ga sprejmejo vsi kot standard (proizvajalci monitorjev, AMD).
Da, to tudi jaz upam.
---
>Ma tako kot zadeve napredujejo (Dell 24" 4k za 1300 €), bo pomojem že čez >leto, dve mogoče dobiti popolnoma spodobne 4k monitorje za 500 € in manj.
Dvomim, da bodo že naslednje leto 4K pod tisočaka. Mogoče tisti 30Hz.
Sicer pa, ko bo 4K pod tisočaka, upam, da bodo tudi kakšnih par inčev večji od 30. Tam ene 32,33" bi bilo zame idealno.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|