Forum » Strojna oprema » AMD Vega GPU
AMD Vega GPU
Temo vidijo: vsi

klinker ::
D3m0r4l1z3d je izjavil:
Kolk ste dolgocasni. K gtx 1080 ti porabi manj a ne.
Stock vsekakor.
No no, kolko manj pa zre?
Bistvo je, ce bo s 350w povozla konkurenco ali ne. Ce jo ne bo po 1 letu zamude, je drek, ce pa jo, pa naj zre tudi 400W in welcome Vega.

K0l1br1 ::
K na testu pije 350 w je pa vseeno. Blah, sodroga k sam bluzi brez kakrsnekoli primerjave in rl.
Na 100% cel sistem s GTX 1080 vleče točno 1.2A NA ZIDU.
Zgodovina sprememb…
- spremenilo: K0l1br1 ()

klinker ::

RejZoR ::
K na testu pije 350 w je pa vseeno. Blah, sodroga k sam bluzi brez kakrsnekoli primerjave in rl.
Na 100% cel sistem s GTX 1080 vleče točno 1.2A NA ZIDU.
1.2A ? S tem še Android tablice ne moreš napajat...
Angry Sheep Blog @ www.rejzor.com

pixelzgaming ::
K na testu pije 350 w je pa vseeno. Blah, sodroga k sam bluzi brez kakrsnekoli primerjave in rl.
Na 100% cel sistem s GTX 1080 vleče točno 1.2A NA ZIDU.
1.2A ? S tem še Android tablice ne moreš napajat...
1.2A @ 220V = 264W
PC: Ryzen 7 3700X | 32GB DDR4 | 500GB NVMe | 10TB HDD | RX 6800 XT | W10
Server: i5 6500 | 32GB DDR4 | 256GB SSD | 50TB HDD | Proxmox VE
Telefon: Samsung S23 Ultra | iPhone 16 Pro Avto: Megane MK4 GTLine
Server: i5 6500 | 32GB DDR4 | 256GB SSD | 50TB HDD | Proxmox VE
Telefon: Samsung S23 Ultra | iPhone 16 Pro Avto: Megane MK4 GTLine

FireSnake ::
1.2A ? S tem še Android tablice ne moreš napajat...
S kako močjo ti tablico napajaš, da ti preko 250W moči ne zadostuje?
Poglej in se nasmej: vicmaher.si
Zgodovina sprememb…
- spremenilo: FireSnake ()

tikitoki ::

K0l1br1 ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Zgodovina sprememb…
- spremenilo: K0l1br1 ()

FireSnake ::
Nisem vedu, da GPU dela pri 230V...
220 (govorimo o napetosti v vtičnici). Med GPUjem in vtičnico je pa še napajalnik.
So že povedali, da je omenil, da to "vleče" iz zida.
Lepo si si nastavil ogledalo

Poglej in se nasmej: vicmaher.si
Zgodovina sprememb…
- spremenilo: FireSnake ()

FireSnake ::
Naj bi bilo 220. Lahko pa izmerim, ko pridem domov (da ne bom na pamet).
Poglej in se nasmej: vicmaher.si
Zgodovina sprememb…
- spremenilo: FireSnake ()

tikitoki ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Kot prvo je napetost 220V. Kot drugo, nauci se uporabljati relevantne in bolj uporabne enote. Kot tretje, to, da celoten sistem na 100% z GTX 1080 ti vlece samo toliko je totalna izmisljotina, samo graficna kartica porabi do 350 W.
Sam dobro, kolibriji pac letajo od cveta do cveta, da ne umrejo od lakote in majo malo casa za izobrazvanje.

K0l1br1 ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Kot prvo je napetost 220V. Kot drugo, nauci se uporabljati relevantne in bolj uporabne enote. Kot tretje, to, da celoten sistem na 100% z GTX 1080 ti vlece samo toliko je totalna izmisljotina, samo graficna kartica porabi do 350 W.
Sam dobro, kolibriji pac letajo od cveta do cveta, da ne umrejo od lakote in majo malo casa za izobrazvanje.
Imam mulimeter vezan na zid (ali as zidno vtičnico). Meri stalno. Na multimetru piše 1.2 A. Če grafi zmanjšam moč na 80%, je na vtičnici okrog 1APri danem toku in dani napetosti sistem porablja moč, ki je do 350W ali pa do 1500W.
220V je v kakšni pravljični deželi.
Moja je 1080, brez TI.
Zgodovina sprememb…
- spremenilo: K0l1br1 ()

D3m ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Kot prvo je napetost 220V. Kot drugo, nauci se uporabljati relevantne in bolj uporabne enote. Kot tretje, to, da celoten sistem na 100% z GTX 1080 ti vlece samo toliko je totalna izmisljotina, samo graficna kartica porabi do 350 W.
Sam dobro, kolibriji pac letajo od cveta do cveta, da ne umrejo od lakote in majo malo casa za izobrazvanje.
230V.
|HP EliteBook|R5 6650U|

tikitoki ::

dolenc ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Kot prvo je napetost 220V. Kot drugo, nauci se uporabljati relevantne in bolj uporabne enote.
Kot prvo verjetno malj bolj razume štrom k ti, če si danes prvič za ampere slišal, kot drugo, že prvo je zadosti. In ravno temu je forum namenjen, izmenjavi izkušej, ne pa nekih ugibanj ljudi, ki so na 220v.

D3m0r4l1z3d ::
Tiki, 1080ti stock v gamingu porabi 300w? Ti si bolan.
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

tikitoki ::
D3m0r4l1z3d je izjavil:
Tiki, 1080ti stock v gamingu porabi 300w? Ti si bolan.
BOlj verjamem Tomshardware in se keri drugi skupini, k je testirala, k tebi. Pa kdo kupuje stock, ti bolnik?
Zgodovina sprememb…
- spremenilo: tikitoki ()

K0l1br1 ::
Sem šel merit napetost. Potem ko ne je fajn streslo (fit dela), je izmerilo 280V?! Napetosti najbrž ne meri prav, tok sem pa preveril na 2kW bojlerju.

tikitoki ::
podji nazaj v solo, bo treba fizko obnoviti.
V katerem delu? Morda trdiš, da mi škatla na zidu ne vleče 1.2A?
Morda bi se moral bolj strokovno izraziti, da mi na vtičnici, ki je preko žic povezana z elektrarno, toliko vleče, hišna napetost pa je 240V?
Nisem vedu, da GPU dela pri 230V...Pametuješ?
Kot prvo je napetost 220V. Kot drugo, nauci se uporabljati relevantne in bolj uporabne enote.
Kot prvo verjetno malj bolj razume štrom k ti, če si danes prvič za ampere slišal, kot drugo, že prvo je zadosti. In ravno temu je forum namenjen, izmenjavi izkušej, ne pa nekih ugibanj ljudi, ki so na 220v.
LOL, a je kdo sploh s teboj govoril? Ocitno si na glavo padel. LAhko pa gres k psihijatru, mogoce ti bo znal pomgati.
Ce si tolk glup, da ne ves zakaj se tega ne izraza v amperih, potem ocitnoi ves bore malo o elektriki.

tikitoki ::
Sem ocitno spregledal memo, da so dvignili napetost. V vsakem primeru pa ni bilo nikoli 240 V. Nazadnje, k sem meril napetos, pa je bila okoli 220 V, ali celo nizje.
Ze s stalisca nezanesljivosti napetosti in odvisnosti od lokacije vticnice, je ocitno podaja v porabe v amperih kretenizem.
Ze s stalisca nezanesljivosti napetosti in odvisnosti od lokacije vticnice, je ocitno podaja v porabe v amperih kretenizem.

pixelzgaming ::
IEC 60038 @ Wikipedia
No, jaz sem malo za časom. Smo na 230V +/- 10%
Torej da popravimo zgornjo trditev 1.2A @ 230V = 276W +/- 10% = (248,4 - 303,6 W)
No, jaz sem malo za časom. Smo na 230V +/- 10%
Torej da popravimo zgornjo trditev 1.2A @ 230V = 276W +/- 10% = (248,4 - 303,6 W)
PC: Ryzen 7 3700X | 32GB DDR4 | 500GB NVMe | 10TB HDD | RX 6800 XT | W10
Server: i5 6500 | 32GB DDR4 | 256GB SSD | 50TB HDD | Proxmox VE
Telefon: Samsung S23 Ultra | iPhone 16 Pro Avto: Megane MK4 GTLine
Server: i5 6500 | 32GB DDR4 | 256GB SSD | 50TB HDD | Proxmox VE
Telefon: Samsung S23 Ultra | iPhone 16 Pro Avto: Megane MK4 GTLine

D3m0r4l1z3d ::
D3m0r4l1z3d je izjavil:
Tiki, 1080ti stock v gamingu porabi 300w? Ti si bolan.
BOlj verjamem Tomshardware in se keri drugi skupini, k je testirala, k tebi. Pa kdo kupuje stock, ti bolnik?
Link?
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

K0l1br1 ::
stalisca nezanesljivosti napetosti in odvisnosti od lokacije vticnice, je ocitno podaja v porabe v amperih kretenizem.
Multimeter ti meri ali volte ali napetost. To dvoje meriš. Ostalo izračunaš.
Večini je jasno, kaj pomeni tok na domači napeljavi. Če se pa greš iskati dlake v jajcih, ti pa itak ne pomaga nič. Za (prej natančno) oceno moči je dovolj tok. Ocena, ki jo dobiš na podlagi meritve, je zagotovo boljša od tega, kar si nekdo na pamet zmisli in takoj na forum napiše ter mimogrede nekoga, ki razpolaga z meritvijo, okurca s kretenčiči, ker je on prebral na škatli, kaj bi moralo biti, pri tem pa pametnjakovič napiše pred cifro predlog "do" x wattow.

D3m0r4l1z3d ::
Tiki je dežuren trol.
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

tikitoki ::
stalisca nezanesljivosti napetosti in odvisnosti od lokacije vticnice, je ocitno podaja v porabe v amperih kretenizem.
Multimeter ti meri ali volte ali napetost. To dvoje meriš. Ostalo izračunaš.
Večini je jasno, kaj pomeni tok na domači napeljavi. Če se pa greš iskati dlake v jajcih, ti pa itak ne pomaga nič. Za (prej natančno) oceno moči je dovolj tok. Ocena, ki jo dobiš na podlagi meritve, je zagotovo boljša od tega, kar si nekdo na pamet zmisli in takoj na forum napiše ter mimogrede nekoga, ki razpolaga z meritvijo, okurca s kretenčiči, ker je on prebral na škatli, kaj bi moralo biti, pri tem pa pametnjakovič napiše pred cifro predlog "do" x wattow.
To ni iskanje dlake v jajcih. Zato obstajajo enote ki nimajo te pomankljivosti.
Ce pac hoces izpasti pameten in uporabljas enote, ki so vezane na variabilni vir napetosti si pac sam moron.
Btw, standardi dopuscajo odstopanja, torej je trditev napacna oz. Ne uposteva realnega stanja.
D3m0r4l1z3d je izjavil:
D3m0r4l1z3d je izjavil:
Tiki, 1080ti stock v gamingu porabi 300w? Ti si bolan.
BOlj verjamem Tomshardware in se keri drugi skupini, k je testirala, k tebi. Pa kdo kupuje stock, ti bolnik?
Link?
Ne bom tvoje lenobe podpiral. Vir mas. Poisci si pa sam
Zgodovina sprememb…
- spremenilo: tikitoki ()

D3m0r4l1z3d ::
Ker si mal gnil, evo direkten link:
https://img.purch.com/w/711/aHR0cDovL21...
https://img.purch.com/w/711/aHR0cDovL21...
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Jst ::
Če vam zadnjih 5 let ni bilo jasno:
GPU za gamerje se z vsako generacijo bolj delajo na podlagi HPC izdelkov. Torej "smeti". Če bi Nvidia in AMD delala grafe za "For Games First", bi sedaj imeli 8x 1080ti performanse za 300 EUR. Ker je pa notri toliko "smeti", ki jih game engines nikoli ne bodo izkoristilie (v tej generaciji), so pa NUJNE za compute, HPC segment in se tam sedaj služi največ denarja (ter mid low range, ki so isti čipi za prenosnike), "morajo umetno" sklestiti razne funkcije. S tem po eni strani pridobijo tudi čipe, ki niso dovolj za Enterprise ter OC oz. "Core" speed, ampak ker ni konkurence, lahko nabijajo cene.
Šele leta 2017 videvamo vpeljavo nekaj tehnologij renderiranja (+raznih detajlov), ki so jih AMD/Nvidia kazali na tech demotih več kot pet let nazaj.
Danes smo imeli debato in prihodnost za gamerje vsaj kratkoročno (ene pet let najmanj) ni svetla. Potreben bo "paradigm shift" vsepovsod; od telefonov, konzol do PCjev, da se "game engines" in "content creation" lahko "streamlined" uporabi brez tečnih in prepotrebnih optimizacij vsepovsod. To se sicer sedaj z PS4 in X1 sicer dogaja, vendar to ni tisti "paradigm shift" o katerem "sanjamo".
Če gledamo "core" tehnologijo, se ni spremenila od Geforce 256 T&L. Dodajale so se razne funkcionalnosti, potem namesto specific shaders bolj generalni, in več vsega.
Za Raytracing (Senitel se bo spomnil ene 12 let nazaj najinih dialogov verjetno) še ni dovolj moči, vmes so pa samo "hacki," ki izrišejo lepo/lepšo sliko. In dokler se ne bo razvil dobesedno specifičen hardware (ne nujno za "true" raytracing) za "next gen", bodo inkrementalni detajli furali sceno še sigurno desetletje.
Recimo poglejmo sence. Imamo jih že toliko časa... Ampak kaj se je pri teh sencah spremenmilo? Soft Shadows? To bi bilo možno 10 let nazaj. Temporal AA. Isto. Particles? 20 let nazaj. Več "luči"? Isto.
Gamer scena je trenmutno v "krču"; kjer se nam ne obeta nič dobrega.
Kar se pa tiče Vege. Že vsaj leto+ nazaj je bilo jasno, da bo to produkt za "HPC First". "Tower" Gaming mašin je čedalje manj, konzole so prevzele tako "content" kot tehnološke dosežke.
PC umira.
Kar mi pa kar "para srce", je pa navijanje nvidije, in "želja", da AMD crkne. Samomor iz zasede... :/
GPU za gamerje se z vsako generacijo bolj delajo na podlagi HPC izdelkov. Torej "smeti". Če bi Nvidia in AMD delala grafe za "For Games First", bi sedaj imeli 8x 1080ti performanse za 300 EUR. Ker je pa notri toliko "smeti", ki jih game engines nikoli ne bodo izkoristilie (v tej generaciji), so pa NUJNE za compute, HPC segment in se tam sedaj služi največ denarja (ter mid low range, ki so isti čipi za prenosnike), "morajo umetno" sklestiti razne funkcije. S tem po eni strani pridobijo tudi čipe, ki niso dovolj za Enterprise ter OC oz. "Core" speed, ampak ker ni konkurence, lahko nabijajo cene.
Šele leta 2017 videvamo vpeljavo nekaj tehnologij renderiranja (+raznih detajlov), ki so jih AMD/Nvidia kazali na tech demotih več kot pet let nazaj.
Danes smo imeli debato in prihodnost za gamerje vsaj kratkoročno (ene pet let najmanj) ni svetla. Potreben bo "paradigm shift" vsepovsod; od telefonov, konzol do PCjev, da se "game engines" in "content creation" lahko "streamlined" uporabi brez tečnih in prepotrebnih optimizacij vsepovsod. To se sicer sedaj z PS4 in X1 sicer dogaja, vendar to ni tisti "paradigm shift" o katerem "sanjamo".
Če gledamo "core" tehnologijo, se ni spremenila od Geforce 256 T&L. Dodajale so se razne funkcionalnosti, potem namesto specific shaders bolj generalni, in več vsega.
Za Raytracing (Senitel se bo spomnil ene 12 let nazaj najinih dialogov verjetno) še ni dovolj moči, vmes so pa samo "hacki," ki izrišejo lepo/lepšo sliko. In dokler se ne bo razvil dobesedno specifičen hardware (ne nujno za "true" raytracing) za "next gen", bodo inkrementalni detajli furali sceno še sigurno desetletje.
Recimo poglejmo sence. Imamo jih že toliko časa... Ampak kaj se je pri teh sencah spremenmilo? Soft Shadows? To bi bilo možno 10 let nazaj. Temporal AA. Isto. Particles? 20 let nazaj. Več "luči"? Isto.
Gamer scena je trenmutno v "krču"; kjer se nam ne obeta nič dobrega.
Kar se pa tiče Vege. Že vsaj leto+ nazaj je bilo jasno, da bo to produkt za "HPC First". "Tower" Gaming mašin je čedalje manj, konzole so prevzele tako "content" kot tehnološke dosežke.
PC umira.
Kar mi pa kar "para srce", je pa navijanje nvidije, in "želja", da AMD crkne. Samomor iz zasede... :/
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

D3m0r4l1z3d ::
Kritiziranje amdja ni navijanje za nvidio.
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Senitel ::
No ja... Nevem ravno kako so GPU-ji zadnjih 5 let delani na podlagi HPC izdelkov. Če pogledaš bottom line pri NV je GeForce še danes glavna molzna krava, Quadro ima stalnih 10% tega in Tesla je eksplodirala šele v zadnjih parih letih in še vedno ni po prihodkih na nivoju GeForce. Šele Pascal (GP100) in Volta (GV100) imata dedicated HPC čipe. Glede HPC smeti v GeForce-ih je pa v bistvu edina double precision v GK110. Pe še to se je folk tule gor usajal kakšen feller je, da je bilo to izklopljeno na GeForce čipih. Isto je bilo cel kup usajanja okrog Maxwell in "async compute". Ne štekam koncepta kako so GPU-ji danes "HPC smeti".
Igre danes uporabljajo ogromno GPU compute in performance tu igra veliko veliko vlogo. Raytracing je tam kot je vedno bil: eksotika. Ni niti nekaj, kar bi filmi 100% uporabljal, igre so pa zaradi svoje interaktivnosti še precej bolj komplicirane. In kot vedno primarni rayi so pocen, ampak ni nobene prednosti pred rasterizacijo. Sekundarni rayi so pa problematični, ker je dostop do podatkov precej kaotičen. Glede na to, da gre se Imagination Tech prodaja bomo morda videli kakšno brco v smeri ray tracinga, čeprav sam dvomim.
Kako si predstavljaš ja bi sploh izgledal ta 8x 1080TI performance GPU za 300€?
Igre danes uporabljajo ogromno GPU compute in performance tu igra veliko veliko vlogo. Raytracing je tam kot je vedno bil: eksotika. Ni niti nekaj, kar bi filmi 100% uporabljal, igre so pa zaradi svoje interaktivnosti še precej bolj komplicirane. In kot vedno primarni rayi so pocen, ampak ni nobene prednosti pred rasterizacijo. Sekundarni rayi so pa problematični, ker je dostop do podatkov precej kaotičen. Glede na to, da gre se Imagination Tech prodaja bomo morda videli kakšno brco v smeri ray tracinga, čeprav sam dvomim.
Kako si predstavljaš ja bi sploh izgledal ta 8x 1080TI performance GPU za 300€?

RejZoR ::
Senitel, a ni ray tracing zaenkrat uporabljen samo za npr realistični shadow casting, kjer vsak ray trace traja samo eno pot brez bouncanja in ostalega preračunavanja. Dejansko je samo smer in razdalja (da dobiš obliko in trdoto sence), kar je relativno poceni proti full ray tracingu celotne scene z večimi bounci in polnim računanjem barv vsake pike. Pač da dobiš lepo senco, ki se popolno prilagaja predmetu, ki jo meče in popolno pada na okolico. Al uporabljajo kakšno drugo metodo, ki je še cenejša od primitivnega ray tracinga z istimi rezultati?
Angry Sheep Blog @ www.rejzor.com

Senitel ::
Ne, sence se danes renderirajo tako, da GPU najprej naredi "shadow map". Iz perspektive luči se renderira scena v nek offscreen buffer. V naslednjem koraku, ko se računa osvelitev scene pa lahko izračunaš koliko je ta pixel daleč od luči in ali je kaj bližjega v "shadow mapi". Če je razdalja v "shadow mapi" manjša, potem je nek objekt med lučjo in renderiranim pixlom, torej senca. Če hočeš mehke sence se stvar zakomplicira, ampak ideja ostane ista (pregleda se še okolico v "shadow mapi").
Ray tracing sicer lahko delaš samo delno, ne moreš pa delat samo senc. Primarni ray-i se streljajo iz "kamere" za vsak pixel. Iz tega dobiš samo trikotnik, ki je v tistem pixlu viden. Če hočeš senco, moraš iz tistega pixla že izstrelit sekundarne raye proti luči in gledat če kaj zadanejo. In če hočeš mehke sence moraš strelat več rayev.
Ampak osnovni problem pri raytracingu je, da moraš v principu za vsak ray preverit vse trikotnike na sceni, če jih ta ray morda zadane (in poiskat najbližji trikotnik). Da to narediš v doglednem času rabiš neko pospeševalno strukturo (neko drevo), ki ti močno zmanjša količino teh testov, ki jih dejansko moraš preračunat. Sekundarni žarki pa naredijo štalo, ker se odbijajo vsepovprek. Problem je imet to strukturo v igri, kjer se stvari interaktivno premikajo okrog po igralčevih željah.
Sploh pa potem imaš še proper ray tracing => path tracing. Kjer bo vsaka luč posebej izstrelila vsak foton posebej in se bo preračunal v katere objekte vse se bo zabil preden (če sploh) bo priletel v kamero...
Ray tracing sicer lahko delaš samo delno, ne moreš pa delat samo senc. Primarni ray-i se streljajo iz "kamere" za vsak pixel. Iz tega dobiš samo trikotnik, ki je v tistem pixlu viden. Če hočeš senco, moraš iz tistega pixla že izstrelit sekundarne raye proti luči in gledat če kaj zadanejo. In če hočeš mehke sence moraš strelat več rayev.
Ampak osnovni problem pri raytracingu je, da moraš v principu za vsak ray preverit vse trikotnike na sceni, če jih ta ray morda zadane (in poiskat najbližji trikotnik). Da to narediš v doglednem času rabiš neko pospeševalno strukturo (neko drevo), ki ti močno zmanjša količino teh testov, ki jih dejansko moraš preračunat. Sekundarni žarki pa naredijo štalo, ker se odbijajo vsepovprek. Problem je imet to strukturo v igri, kjer se stvari interaktivno premikajo okrog po igralčevih željah.
Sploh pa potem imaš še proper ray tracing => path tracing. Kjer bo vsaka luč posebej izstrelila vsak foton posebej in se bo preračunal v katere objekte vse se bo zabil preden (če sploh) bo priletel v kamero...

Jst ::
Mogoče se nisem dobro izrazil...
Če bi delali GPU for GAMERS FIRST, bi videvali večje korake v kvaliteti iger in nižje cene.
Recimo poglejmo malo v zgodovino. Tam nekje do Radeon 4870, je bila vsaka generacija hitrejša od prejšnje in zato če si kupoval na dve leti, oz. vsako drugo generacijo (ker sta oba tabora včasih malo zamujala, prehitevala, reciklirala), si imel konkreten, več kot 50% boost.
V tem času so igre tudi VIDNO napredovale v kakovosti grafike.
Sedaj pa, med ULTRA in NORMAL sploh ni neke razlike, razen v tem, da so vse ULTRA nastavitve samo "pretiravanje." Recimo pretiravanje posameznih las (fur), kjer na ULTRA toliko nabijejo, da FPSji padejo, ampak vizualno pa ni neke vidne razlike.
Da so GPUji za GAMERJE, "HPC GPUji za v smeti" je seveda pretiravanje. Ampak ravno ko so GPUji začeli z večjo bolj splošno vlogo, ne samo za poganjanje iger, torej začetek nekje 5-7 let nazaj, takrat tudi mislim da so se "končale" "normalne" cene. 7970 in 680 generacija. In od takrat videvamo vedno večji poudarek na GPUjih za HPC in profi uporabo in potem iz teh GPUjih naredijo karte za Gamerje. Za "Gaming GPUs" se razne funkcije izklopijo in uporabijo čipi, ki niso na nivoju. In tako so cene sedaj za high end 1000EUR (pri 7970/680 - 400EUR), kar je dvakrat več (inflation included :)) kot 5-7 let nazaj.
Torej: prišli smo do neke meje, kjer za 1% boljši učinek, potrebuješ 10% več moči. Trenutno pač ni dovolj moči za druge tehnike, ter tudi komercialno ne obstaja nič drugega, razen mogoče kje kakšni "akademski" projekti, ki ne bodo ugledali izida na trg vsaj desetletje.
Če bi delali GPU for GAMERS FIRST, bi videvali večje korake v kvaliteti iger in nižje cene.
Recimo poglejmo malo v zgodovino. Tam nekje do Radeon 4870, je bila vsaka generacija hitrejša od prejšnje in zato če si kupoval na dve leti, oz. vsako drugo generacijo (ker sta oba tabora včasih malo zamujala, prehitevala, reciklirala), si imel konkreten, več kot 50% boost.
V tem času so igre tudi VIDNO napredovale v kakovosti grafike.
Sedaj pa, med ULTRA in NORMAL sploh ni neke razlike, razen v tem, da so vse ULTRA nastavitve samo "pretiravanje." Recimo pretiravanje posameznih las (fur), kjer na ULTRA toliko nabijejo, da FPSji padejo, ampak vizualno pa ni neke vidne razlike.
Da so GPUji za GAMERJE, "HPC GPUji za v smeti" je seveda pretiravanje. Ampak ravno ko so GPUji začeli z večjo bolj splošno vlogo, ne samo za poganjanje iger, torej začetek nekje 5-7 let nazaj, takrat tudi mislim da so se "končale" "normalne" cene. 7970 in 680 generacija. In od takrat videvamo vedno večji poudarek na GPUjih za HPC in profi uporabo in potem iz teh GPUjih naredijo karte za Gamerje. Za "Gaming GPUs" se razne funkcije izklopijo in uporabijo čipi, ki niso na nivoju. In tako so cene sedaj za high end 1000EUR (pri 7970/680 - 400EUR), kar je dvakrat več (inflation included :)) kot 5-7 let nazaj.
Torej: prišli smo do neke meje, kjer za 1% boljši učinek, potrebuješ 10% več moči. Trenutno pač ni dovolj moči za druge tehnike, ter tudi komercialno ne obstaja nič drugega, razen mogoče kje kakšni "akademski" projekti, ki ne bodo ugledali izida na trg vsaj desetletje.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
Zgodovina sprememb…
- spremenil: Jst ()

Senitel ::
Če pogledaš G80 in GP102 je na original Tesli 5,3M tranzistorjev za SP na Pascalu pa 3,1M tranzistorjev za SP. Če bi spravili G80 na nivo Pascala bi končali z 20 milijard tranzistorjev velikim čipom (to je 35% več kot compute monster od GP100). Seveda vsi ti ekstra tranzistorji dejansko nekaj prinesejo: drastično večji fillrate in texture fillrate (1.1T pixlov/s in 1.5T texlov/s) in totalno zaostal geometričen performance. Zakaj bi to bilo dobro? :)
G80 in GP102 sta tud lepa primerka, ker gre za dva praktično enako velika čipa. Launch price za Teslo je bil $599, Pascal pa $699. Kar je sicer $100 več, če pa upoštevaš inflacijo bi te pa Tesla danes stala $731.
Drugo je seveda sama slika. Kako sedaj oceniš 1% boljšo sliko? Je pa povsem res, za malenkostne izboljšave kvalitete se danes rabi drastično več GPU moči.
G80 in GP102 sta tud lepa primerka, ker gre za dva praktično enako velika čipa. Launch price za Teslo je bil $599, Pascal pa $699. Kar je sicer $100 več, če pa upoštevaš inflacijo bi te pa Tesla danes stala $731.
Drugo je seveda sama slika. Kako sedaj oceniš 1% boljšo sliko? Je pa povsem res, za malenkostne izboljšave kvalitete se danes rabi drastično več GPU moči.

D3m0r4l1z3d ::
Vprašanje, če sploh bomo z desktop mašinam prišli do skoraj realistične grafike, mogoče le preko Claud gaminga enkrat pač. Vsekakor pa, če gledamo na interaktivnost (vpliv dejanj na okolje, predmete, osebe), se da še mnogo več narediti, v začetku 2000-ih so zelo napredovale igre v tem pa potem kar ni bilo več pomembno oziroma grafika se je izboljševala, interaktivnost pa razen nekaj izjem skoraj nič. Čudno.
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Grey ::
RX Vega ima Beast mode, ki ga Pascal nima. Vsi večji pogoni jih omenjajo (id Tech, Bethesda, Frostbite) in bodo podpirali FP16 shaderje in Rapid Packed Math je FP16 stvarca.
Polaris = 11 TFLOP FP16 (RX480 blizu GTX 1080)
Vega = 26 TFLOP FP16 (RX Vega daleč pred GTX 1080 Ti)
Pascal = 0,14 TFLOP FP16
Se pravi v igrah v bližnji prihodnosti bo tudi Polaris preskočil Pascal, ko dodajo FP16 opcijo v igre.
Polaris = 11 TFLOP FP16 (RX480 blizu GTX 1080)
Vega = 26 TFLOP FP16 (RX Vega daleč pred GTX 1080 Ti)
Pascal = 0,14 TFLOP FP16
Se pravi v igrah v bližnji prihodnosti bo tudi Polaris preskočil Pascal, ko dodajo FP16 opcijo v igre.
Zgodovina sprememb…
- spremenilo: Grey ()

Mitja358 ::
Vega Frontier Edition Beats TITAN Xp in Compute
In its report, the publication comments that the Radeon Pro Vega Frontier Edition offers gaming performance that is faster than NVIDIA's GeForce GTX 1080, but slightly slower than its GTX 1080 Ti graphics card.

RejZoR ::
To da so uporabljal neko noro preciznost za grafiko v igrah je bil itaq čisti idiotizem, ker se itaq ne rabi take preciznosti. In ista fora je pri fiziki.Izračune so totalno zapretiraval samo zato da je bil nek razlog forsirat neko stvar, pa čeprav bi lahko 3/4 efektov namesto na GPU-ju povsem tekoče teklo na navadnem procesorju. Ista fora je s FP16. Dejansko se nikjer ne bo opazilo razlike, samo vse bo delalo bistveno hitreje.
Angry Sheep Blog @ www.rejzor.com

Jst ::
Danes prebral, da je Vega "Prosumer" zadeva. To sem sicer sumil že prej, preden sem napisal zgornja posta, ampak danes sem prvič prebral uradno od AMDja.
Drugače pa dobro za AMD, da so naredili sposoben GPU za content creation in da ciljajo na trge, na katerih jih skoraj da ni bilo zaznati.
Ampak jaz bi imel 4K in VR sposobno grafo, ki ne bi stala 1000+EUR, pa še ta 1kEUR (Titan XP) se marsikje matra pri 4K.
Drugače pa dobro za AMD, da so naredili sposoben GPU za content creation in da ciljajo na trge, na katerih jih skoraj da ni bilo zaznati.
Ampak jaz bi imel 4K in VR sposobno grafo, ki ne bi stala 1000+EUR, pa še ta 1kEUR (Titan XP) se marsikje matra pri 4K.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

D3m0r4l1z3d ::
RX Vega ima Beast mode, ki ga Pascal nima. Vsi večji pogoni jih omenjajo (id Tech, Bethesda, Frostbite) in bodo podpirali FP16 shaderje in Rapid Packed Math je FP16 stvarca.
Polaris = 11 TFLOP FP16 (RX480 blizu GTX 1080)
Vega = 26 TFLOP FP16 (RX Vega daleč pred GTX 1080 Ti)
Pascal = 0,14 TFLOP FP16
Se pravi v igrah v bližnji prihodnosti bo tudi Polaris preskočil Pascal, ko dodajo FP16 opcijo v igre.
Spet sanje?
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

tikitoki ::
D3m0r4l1z3d je izjavil:
Ker si mal gnil, evo direkten link:
https://img.purch.com/w/711/aHR0cDovL21...
Sej drugega od tebe nisem pricakoval. Tukaj je prava povezava.
https://img.purch.com/evga-gtx-1080-ti-...

Grey ::
D3m0r4l1z3d je izjavil:
RX Vega ima Beast mode, ki ga Pascal nima. Vsi večji pogoni jih omenjajo (id Tech, Bethesda, Frostbite) in bodo podpirali FP16 shaderje in Rapid Packed Math je FP16 stvarca.
Polaris = 11 TFLOP FP16 (RX480 blizu GTX 1080)
Vega = 26 TFLOP FP16 (RX Vega daleč pred GTX 1080 Ti)
Pascal = 0,14 TFLOP FP16
Se pravi v igrah v bližnji prihodnosti bo tudi Polaris preskočil Pascal, ko dodajo FP16 opcijo v igre.
Spet sanje?
Kakšne sanje Anymal? To so stvari, ki jih lahko ekstrapoliraš iz podatkov na internetu.
Igre na Playstation 4 Pro in Xbox Project Scorpio se bodo posluževale tega, ker je kar nekaj člankov na to temo (ME Andromeda laufa na konzoli 30% hitreje z uporabo FP16 shaderjev). In ker so grafike v konzolah AMDjeve in ker ima Vega tudi Full FP16 zmogljivost, pomeni, da lahko čez kratek čas (mogoče se da tudi sedanje igre updejtat z FP16 shaderji?) pričakujemo kar konkreten skok AMD kartic v primerjavi s Pascalom. Tako, da če so Vega kartice cca ekvivalentne s trenutnim Pascalom bodo vseeno bolj smiseln nakup.