» »

NVIDIA Ampere (2020)

NVIDIA Ampere (2020)

Temo vidijo: vsi
««
5 / 222
»»

D3m ::

Bait master. :)
|HP EliteBook|R5 6650U|

rabelj5 ::

m0LN4r je izjavil:

Igra kdo bingo?


9/10 manjka polje ngreedia

DarwiN ::

AMDtardi so že zdavaj šli full trumptard, ja.

Danes so zunaj reviewi od GTX 1650 Super in je na HardwareUnboxed najbolje ocenjen komentar v stilu "Let's take a minute of silence for 1650 owners".

Mislim WTF? Cene nenehno padajo in novejša tehnologija je vedno zmoglivejša.. Kaj je tu čudnega? Kaj ko bo izšel RX 6700 bomo imeli minuto molka za RX 5700 lastnike, ki so bili nategnjeni, ker imajo 6700 kartice boljši p/p?

Narobe svet.. In ko pomisliš, zakaj je omenjeni komentar najbolje ocenjen.. Preprosto zato, ker je poln splet AMDtardov in posledično poln anti-Nvidia sentimenta. Nvidia produkt avtomatsko dobi negativno oceno. Ampak tu se zalomi v realnosti - 1650S je dejansko dober produkt, pravzaprav ni kaj za popljuvat, pa vendar mora na vrh priplavat negativen komentar. What to do? Rezultat je povsem neracionalen in disturbing komentar - minuta molka za 1650 lastnike.

Res, kot bi bilo na svetu par milijard Beavisov in Buttheadov.
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

D3m ::

Saj je res. 1650 se je prodajala za več, kot 150 EUR.
|HP EliteBook|R5 6650U|

DarwiN ::

So what? 6700XT bo ~50% hitrejša od 5700XT, cena pa podobna. To je šele nateg?
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

Mr.B ::

France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

D3m ::

DarwiN je izjavil:

So what? 6700XT bo ~50% hitrejša od 5700XT, cena pa podobna. To je šele nateg?


Odlično.
|HP EliteBook|R5 6650U|

m0LN4r ::

DarwiN je izjavil:

AMDtardi so že zdavaj šli full trumptard, ja.

Danes so zunaj reviewi od GTX 1650 Super in je na HardwareUnboxed najbolje ocenjen komentar v stilu "Let's take a minute of silence for 1650 owners".

Mislim WTF? Cene nenehno padajo in novejša tehnologija je vedno zmoglivejša.. Kaj je tu čudnega? Kaj ko bo izšel RX 6700 bomo imeli minuto molka za RX 5700 lastnike, ki so bili nategnjeni, ker imajo 6700 kartice boljši p/p?

Narobe svet.. In ko pomisliš, zakaj je omenjeni komentar najbolje ocenjen.. Preprosto zato, ker je poln splet AMDtardov in posledično poln anti-Nvidia sentimenta. Nvidia produkt avtomatsko dobi negativno oceno. Ampak tu se zalomi v realnosti - 1650S je dejansko dober produkt, pravzaprav ni kaj za popljuvat, pa vendar mora na vrh priplavat negativen komentar. What to do? Rezultat je povsem neracionalen in disturbing komentar - minuta molka za 1650 lastnike.

Res, kot bi bilo na svetu par milijard Beavisov in Buttheadov.

Ves kaj je zanimivo? AMDtardi so glasni z vsem samo z performancom in denarnico ne. Oni se zadovoljijo z "5700ish" performance leta 2020 takorekoc.
https://www.youtube.com/user/m0LN4r

strumf666 ::

5700ish performance ima bistveno nižjo ceno, kot 2080Ti-ish; kaj je narobe s tem? Tut Nvidia ima cel spekter počasnejših graf za kupce, ki nočejo tolk plačat. Če hočeš več kot 5700-ish in AMD pol se pa mal zakomplicira, ne glede na to, kolk imaš v denarnici ;((
Member of OC-Lab Team
http://www.oc-lab.si/

Zgodovina sprememb…

Mr.B ::

m0LN4r je izjavil:

DarwiN je izjavil:

AMDtardi so že zdavaj šli full trumptard, ja.

Danes so zunaj reviewi od GTX 1650 Super in je na HardwareUnboxed najbolje ocenjen komentar v stilu "Let's take a minute of silence for 1650 owners".

Mislim WTF? Cene nenehno padajo in novejša tehnologija je vedno zmoglivejša.. Kaj je tu čudnega? Kaj ko bo izšel RX 6700 bomo imeli minuto molka za RX 5700 lastnike, ki so bili nategnjeni, ker imajo 6700 kartice boljši p/p?

Narobe svet.. In ko pomisliš, zakaj je omenjeni komentar najbolje ocenjen.. Preprosto zato, ker je poln splet AMDtardov in posledično poln anti-Nvidia sentimenta. Nvidia produkt avtomatsko dobi negativno oceno. Ampak tu se zalomi v realnosti - 1650S je dejansko dober produkt, pravzaprav ni kaj za popljuvat, pa vendar mora na vrh priplavat negativen komentar. What to do? Rezultat je povsem neracionalen in disturbing komentar - minuta molka za 1650 lastnike.

Res, kot bi bilo na svetu par milijard Beavisov in Buttheadov.

Ves kaj je zanimivo? AMDtardi so glasni z vsem samo z performancom in denarnico ne. Oni se zadovoljijo z "5700ish" performance leta 2020 takorekoc.

ce luna pravilno posije je naslednja rtx 2070 Supper, ki je 100€ vec... dobis pa dobro rtx 2080 ti z vodnim okoli stirih tavijolcnih ojro bankovcev.
ce pa se igras 1080p imas pa pri zelenih 1650 Supper...
Ne skrbi dobis novo vego 7 malo cez 500€, ce imas pa Aib vodniblok viska dobis pa novo vego 56 za 200€..
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

FlyingBee ::

A se ti spet kisa?

H2Obotic ::

Zakaj sploh bereš in odgovarjaš nekomu s takšnim nivojem?

FlyingBee ::

Hopper je nvidia registrirala kot trademark. Odpiram temo, čeprav še Ampere ni bil officialy najavljen, ampak Hopper kot prvi rumored MCM gpu, je velika nova stvar.

https://www.guru3d.com/news-story/rumor...

Jst ::

Senitel je izjavil:

Saj o tem smo nekaj malega že debatirali.
Vprašanje je performance take rešitve. V simulacijah pride rešitev s 4 chipleti nekje do 80% performans monolitne rešitve (odvisno kolk hitre interconnecte med chipleti imaš).
[...]


Vem, da odgovarjam malo pozno, ampak a ne bi šlo recimo tako:

"TheBoss" dobi: renderijaj tole, z temi podatki.
"TheBoss" naroči: Chiplet.1 tle maš vertexe (DataLocation.1), Chiplet.2 tesselate (DataLocation.1), Chiplet.3 rasterize (DataLocation.1), Chiplet.4 do some postprocessing (DataLocation.1). Medtem, ko vsak konča, osveži DataLocation.1, ne rabi točno vedeti kaj je notri, samo da ve, da pošlje naprej.
Ko zadnji konča, ima TheBoss sliko na DataLocation.1 in jo izriše na zaslonu.

To je sicer neumno zaradi odvisnosti od oddaljenosti podatkov, mogoče bi bilo bolje, da vsak obdeluje svoj tile, ampak for the sake of the debate a bi šlo lahko tako v teoriji?

Vsi chipleti imajo dostop do istega kosa pomnilnika, "TheBoss" ve, kam so se zapisali podatki, ki jih je določeni chiplet obdelal in skrbi, da so vsi zasedeni, da vsak dela svoje.
Tako imaš lahko gor posebej mini čip samo za 3d video encoding in ostale taske, ki niso povezani z rasterizacijo/renderiranjem in "TheBoss" ve kam poslati podatke (ne na "velike" chiplete)

Izbral sem ime TheBoss, ker ne vem, kako bi drugače poimenoval, ampak vsi vemo, o čem govorim.

?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

FireSnake ::

DarwiN je izjavil:

AMDtardi so že zdavaj šli full trumptard, ja.

Danes so zunaj reviewi od GTX 1650 Super in je na HardwareUnboxed najbolje ocenjen komentar v stilu "Let's take a minute of silence for 1650 owners".

Mislim WTF? Cene nenehno padajo in novejša tehnologija je vedno zmoglivejša.. Kaj je tu čudnega? Kaj ko bo izšel RX 6700 bomo imeli minuto molka za RX 5700 lastnike, ki so bili nategnjeni, ker imajo 6700 kartice boljši p/p?

Narobe svet.. In ko pomisliš, zakaj je omenjeni komentar najbolje ocenjen.. Preprosto zato, ker je poln splet AMDtardov in posledično poln anti-Nvidia sentimenta. Nvidia produkt avtomatsko dobi negativno oceno. Ampak tu se zalomi v realnosti - 1650S je dejansko dober produkt, pravzaprav ni kaj za popljuvat, pa vendar mora na vrh priplavat negativen komentar. What to do? Rezultat je povsem neracionalen in disturbing komentar - minuta molka za 1650 lastnike.

Res, kot bi bilo na svetu par milijard Beavisov in Buttheadov.

Meni je vseeno za zelene, rdeče ali modre. Ampak: glede na napisano ti težko koga označuješ za "vernika".
poišči pomoč dokler ni prepozno.
Toliko žolča že dolgo nihče ni zlil. Res a je, da v teme z grafičnimi redko zahajam - in to ravno zaradi objav, kot je tvoja (pa vidim, da nič ne zamujam).
Poglej in se nasmej: vicmaher.si

Senitel ::

Jst je izjavil:

Vem, da odgovarjam malo pozno, ampak a ne bi šlo recimo tako:

"TheBoss" dobi: renderijaj tole, z temi podatki.
"TheBoss" naroči: Chiplet.1 tle maš vertexe (DataLocation.1), Chiplet.2 tesselate (DataLocation.1), Chiplet.3 rasterize (DataLocation.1), Chiplet.4 do some postprocessing (DataLocation.1). Medtem, ko vsak konča, osveži DataLocation.1, ne rabi točno vedeti kaj je notri, samo da ve, da pošlje naprej.
Ko zadnji konča, ima TheBoss sliko na DataLocation.1 in jo izriše na zaslonu.

To je sicer neumno zaradi odvisnosti od oddaljenosti podatkov, mogoče bi bilo bolje, da vsak obdeluje svoj tile, ampak for the sake of the debate a bi šlo lahko tako v teoriji?

Vsi chipleti imajo dostop do istega kosa pomnilnika, "TheBoss" ve, kam so se zapisali podatki, ki jih je določeni chiplet obdelal in skrbi, da so vsi zasedeni, da vsak dela svoje.
Tako imaš lahko gor posebej mini čip samo za 3d video encoding in ostale taske, ki niso povezani z rasterizacijo/renderiranjem in "TheBoss" ve kam poslati podatke (ne na "velike" chiplete)

Izbral sem ime TheBoss, ker ne vem, kako bi drugače poimenoval, ampak vsi vemo, o čem govorim.

?

A hočeš stvari hitre, ali hočeš samo da so? :)
Da je tale ideja safe v bistvu pomeni, da mora chiplet 1 končat svoj task, preden začne chiplet 2 kar koli delat. Isto velja za chiplet 3, ki mora čakat, da chiplet 2 konča task in chiplet 4, da chiplet 3 konča task. Če chiplet 1 požre vertexe v vrstnem redu 1, 2, 3 to ne pomeni nujno, da bodo v takem vrstnem redu tudi prišli ven iz pipeline-a. Torej če nočeš čakat mora bit med chipletoma dost kompleksna sinhronizacija, ker mora chiplet 2 točno vedet, kateri deli taska, ki ga chiple 1 dela, so že končani. Isto za vse naslednje chiplete.

Drugi štos je kaj naj "TheBoss" naredi, če je recimo en del tega pipeline-a dost lahek. Recimo teselacija je ampak je samo replikacija trikotnikov na dva viewporta za VR recimo. Lahko "TheBoss" mal preklaplja okrog posamezne "renderiraj tole" tako da bo chiplet 1 recimo poganjal vertex shaderje za task 1 in rasterizacijo za task 2. Ampak granulacija s katero "TheBoss" operira bo hudo prevelika. RTX 2080 ima 48 SM-ov, ki jih lahko GPU prerazporeja med vse možne taske. "TheBoss" ima 4 chiplete.

Tretji problem je, da boš garantirano transportiral cel kup podatkov po interconnectih med chipleti, čemur se mi dejansko hočemo izognit, ker zadeva ne skalira.

Osnovni problem je, da v točki "renderiraj tole" GPU:
- nima pojma ali bo zadeva sploh on screen ali ne (lahko renderiram objekt, ki je recimo levo iz vidnega polja, lahko renderiram objekt, ki je za nekim drugim objektom).
- nima pojma niti ocene koliko časa bo porabil za katero koli od nadaljnih stopenj razen prve (3 vertexi not lahko pomeni 0 pixlov ven ali pa 8 milijonov pixlov ven in obratno).
- znotraj pipeline-a lahko delo ali "izgine" (ker smo v raster fazi ugotovili, da je objekt offscreen, skrit za nečem drugim, ali pa recimo velik manj kot 1 pixel) ali pa se amplificira (1 trikotnik se razbije v 32 trikotnikov, ali pa se zgodi recimo nek bolj splošen izvoz: vertex shaderji lahko "prosto" pišejo po ram-u, pixel shaderji lahko pišejo po večih razlišnih površinah hkrati).

Verjetno v tej točki nebi bilo slabo omenit failiure pointov za dosedanje SLI pristope k renderiranju z večimi čipi:
- SLI (original, torej Scan-Line Interleave), sode vrstice na eno grafo, lihe na drugo. Simpl, ampak takrat sploh nismo imeli grafičnih za igre, ki bi furale geometrijo.
- SLI (tm) SFR (Split Frame Rendering), en GPU renderira zgornjo polovico, drug spodnjo polovico. Kaj se zgodi če je zgornja polovica samo en simpl skybox? Driver glede na nek splošen load premika gor in dol definicijo polovice. Če se nekaj na hitro spremeni se zadeva zatakne. Zakaj ne več Scan-Line Interleave? Ker so bistvene prednosti, če GPU dela v 2x2 boxih (in še večjih). Še vedno ignoriramo geometrijo: če imamo dva GPU-ja bo vsak GPU moral naredi ves geometrijski del. Hudi problemi, ko so igre začele renderirat vmesne korake (render to texture).
- CrossFire checkerboard: podobno kot SFR zgoraj, ampak ker renderira šahovnico nima problema z ugibanjem kje je polovica dela.
- SLI (tm) AFR (Alternate Frame Rendering): zakaj nebi en GPU renderiral frame n, drug GPU pa frame n + 1? Ni se treba zezat s polovico dela. Geometrijskega dela ni treba podvajat... Vpeljemo pa en kup zakasnitev. In ker je v tej fazi renderiranje vmesnih korakov (render to texture) nekaj povsem naravnega imajo driverji celo trike kako se izognit syncu med GPU-jema (pač naj igra zrenderira vmesni korak 2x in tudi če ga potem uporablja čez 1000 frame-ov, ga driver ne rabi syncat). Je pa precej večji problem ker igre danes lahko počnejo vsega boga, ker pomeni, da je treba pazit še na kup drugih stvari, ne samo na renderirane teksture (recimo compute). Ker igre hočejo imet za frame n + 1 določene rezultate iz frame n je tukaj vse uphill battle.

FlyingBee ::

Kaj pa CFR? In kako v povezavi s Hopper MCM in RT, torej ne s klasično rasterizacijo?

DarwiN ::

TSMC will handle most of NVIDIA's next-gen 7nm Ampere GPUs

Ampere bo čista štala. Če samo primerjam TSMCjev 12nm proti 7nm+ procesu, so številke naravnost bogokletne.


Gostota tranzistorjev bi naj skočila iz 33.8 milijonov/mm2 na cirka 115.8 m/mm2, poraba pa tudi ~70% nižja. Sky is the limit. Nvidia bo dejansko prisiljena bremzat performance. Verjetno je ravno zato govora, da naj bi tokrat še več stavili na ray tracing.

Če predvidevamo, da bo vstopni model GTX2650 nekje na nivoju 1660S, ki porabi 130W in ima jedro veliko 284 mm2. Že samo pomanjšanje tega gpuja na 7nm+ prinese kartico s ~50W porabe in velikosti jedra ~100 mm2. In to hipotetično brez vsakih arhitekturnih sprememb! Dejansko to pomeni, da zna bit polovica GTX2650 modelov pasivno hlajenih brez ventilatorja. Le tiste OC variante bi imele en ventilator. Noro, če se uresniči.
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

Zgodovina sprememb…

  • spremenil: DarwiN ()

tikitoki ::

DarwiN je izjavil:

TSMC will handle most of NVIDIA's next-gen 7nm Ampere GPUs

Ampere bo čista štala. Če samo primerjam TSMCjev 12nm proti 7nm+ procesu, so številke naravnost bogokletne.


Gostota tranzistorjev bi naj skočila iz 33.8 milijonov/mm2 na cirka 115.8 m/mm2, poraba pa tudi ~70% nižja. Sky is the limit. Nvidia bo dejansko prisiljena bremzat performance. Verjetno je ravno zato govora, da naj bi tokrat še več stavili na ray tracing.

Če predvidevamo, da bo vstopni model GTX2650 nekje na nivoju 1660S, ki porabi 130W in ima jedro veliko 284 mm2. Že samo pomanjšanje tega gpuja na 7nm+ prinese kartico s ~50W porabe in velikosti jedra ~100 mm2. In to hipotetično brez vsakih arhitekturnih sprememb! Dejansko to pomeni, da zna bit polovica GTX2650 modelov pasivno hlajenih brez ventilatorja. Le tiste OC variante bi imele en ventilator. Noro, če se uresniči.


Sanja svinja kukuruz.

FlyingBee ::

Salty?

klinker ::

tikitoki je izjavil:

DarwiN je izjavil:

TSMC will handle most of NVIDIA's next-gen 7nm Ampere GPUs

Ampere bo čista štala. Če samo primerjam TSMCjev 12nm proti 7nm+ procesu, so številke naravnost bogokletne.


Gostota tranzistorjev bi naj skočila iz 33.8 milijonov/mm2 na cirka 115.8 m/mm2, poraba pa tudi ~70% nižja. Sky is the limit. Nvidia bo dejansko prisiljena bremzat performance. Verjetno je ravno zato govora, da naj bi tokrat še več stavili na ray tracing.

Če predvidevamo, da bo vstopni model GTX2650 nekje na nivoju 1660S, ki porabi 130W in ima jedro veliko 284 mm2. Že samo pomanjšanje tega gpuja na 7nm+ prinese kartico s ~50W porabe in velikosti jedra ~100 mm2. In to hipotetično brez vsakih arhitekturnih sprememb! Dejansko to pomeni, da zna bit polovica GTX2650 modelov pasivno hlajenih brez ventilatorja. Le tiste OC variante bi imele en ventilator. Noro, če se uresniči.


Sanja svinja kukuruz.


Seveda, ampak ne za to ker ni mozno, ampak ker bodo ce ne 6 let pred konkurenco, ne pa samo 3 leta >:D

Vuli ::

Pa a bo TMSC shendlal vse to. amd cpu/gpu tmsc, nvidia tmsc, pol apple kao..
|Gb x570 Pro|R9 5900x|32GB DDR4 RAM G.Skill V@ 3600 cl16|6800XT Merc319 Black|

D3m ::

Če ne bo shendlal bodo dobavni roki dolgi. :)
|HP EliteBook|R5 6650U|

Senitel ::

FlyingBee je izjavil:

Kaj pa CFR? In kako v povezavi s Hopper MCM in RT, torej ne s klasično rasterizacijo?

To je testiranje kaj se da dosečt z feature-ji, ki so že v hardware-u. Torej predvsem tiling in nvlink. NV hardware že nekaj časa sortira trikotnike pred rasterizacijo glede na tile, ki se ga dotaknejo. Kar pomeni, da lahko en GPU spravi stuff, ki ga je sprocesiral in se ga ne tiče na drug GPU.
RT? To nima veze s tem, RT ima precej drugačen pipeline.

FlyingBee ::

Hvala za odgovor. Vseeno pa me veže na en rumor, ki je omenjal, da bi MCM dizajn in RT lepo shajala, torej v mojem povsem laičnem smislu, da bo več gpujev dalo precej boljši rezultat v pure RT kot ga dosegajo v hit and miss klasični rasterizaciji, zato tudi izumrtje SLI/CF kot ga poznamo. Ali so mogoče mislili na to, da bi en chiplet samo RT, drug pa klasika oziroma s časoma vse več chipletov, ki bi izdatno pospešili RT, ki je trenutno velika ovira.

Težko boljše obrazložim, ker so ta del v omenjenem rumorju odstranili.

Zgodovina sprememb…

Senitel ::

Ray tracing je še iz CPU časov nekaj kar skalira linearno z dodajanjem corov. Detajl tukaj je, da dodajanje core-ov tudi povečuje memory bandwidth, ki je na razpolago. Ker greš iz enega CPU-ja na cel cluster CPU-jev. Ampak isto gre z rasterizacijo. Problemi nastanejo, ko začneš stvari "pospeševat" (torej da scaling ni več linearen). Tukaj prideš do podobniš štosov z ray tracingom. Ni problem samo v tem kolk žarek/trikotnik testov je hardware sposoben naredit, stvari so hudo odvisne od razpršenosti. Problem je tudi, da hočeš teh žarek/trikotnik testov izračunat čim manj in imaš zato neko pospeševalno strukturo, ki se v igrah konstantno spreminja (ker se stvari premikajo). In potem so še drugi problemi. Trenutno ima Turing hardware za žarek/trikotnik teste, pospeševalno strukturo pa delajo CUDA core-i (torej v nekem smislu software emulacija).

FireSnake ::

https://wccftech.com/nvidia-next-gen-am...

To pa so zanimive številke.
Poglej in se nasmej: vicmaher.si

Horas ::

ja sam sj ni nvidia tk butasta da bo sama s sabo tekmovala. že tako je 2080ti neverjetno superioren.

pegasus ::

Ob vsej tej neverjetni superiornosti meni še vedno laufajo jobi gor po en mesec ...
Rabimo 100x hitrejše reči, že od predlani.

DarwiN ::

Kot sem rekel. Sky is the limit za Nvidijo. Dobimo torej prvo 8k kartico s HDMI 2.1 in DP 2.0. Sicer s 30 fps v igrah, ampak ... :P
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

Zgodovina sprememb…

  • spremenil: DarwiN ()

FlyingBee ::

Ja, zato pa čakajo, veliko bodo izvedeli, ko izide rdna2, naslednji teden na CES bo že verjetno predstavljeno. Ampere v q3, dostopen jeseni bo 2 leti po Turingu, kar je ravno prav.

Jarno ::

pegasus je izjavil:

Ob vsej tej neverjetni superiornosti meni še vedno laufajo jobi gor po en mesec ...
Rabimo 100x hitrejše reči, že od predlani.


"Lineariziraj" algoritme in se začni ukvarjat z optimizacijami. Osebnostni razvoj par excellence.
Po domače povedano, boš z interpolacijo in hitrimi knjižnicami dosegel več, kot pa s 100x hitrejšim HW-jem.
Lahko si npr. generiraš lookup tabele za kritične domene in najbolj uporabljane funkcije. Ramdisk to the rescue.
Ali pa gpu compute hobi, če te trenutno za to ne plačujejo.:))

@DarwiN
Kot sem rekel. Sky is the limit za Nvidijo. Dobimo torej prvo 8k kartico s HDMI 2.1 in DP 2.0. Sicer s 30 fps v igrah, ampak ... :P

Še vedno se bodo našli tipi, ki jim bo gpu bottleneckal neko igrico in bodo širili svojevrstne rante preko spleta.
Sam se najbolj veselim kakšnih 120W 8-9 Tflops (performance rang RTX 2070) kartic.
Ogromnih in težkih škatel, v katere pakirajo PCB-je, ne maram preveč.
#65W!

DarwiN ::

Indeed. Zato je še toliko bolj hecno, ko ljudje dodajajo 650-750W napajalnike v nove kište. :|
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

pegasus ::

Jarno je izjavil:

"Lineariziraj" algoritme in se začni ukvarjat z optimizacijami. Osebnostni razvoj par excellence.
Po domače povedano, boš z interpolacijo in hitrimi knjižnicami dosegel več, kot pa s 100x hitrejšim HW-jem.
Lahko si npr. generiraš lookup tabele za kritične domene in najbolj uporabljane funkcije. Ramdisk to the rescue.
Ali pa gpu compute hobi, če te trenutno za to ne plačujejo.:))
Meni je to vse jasno in razvojniki softvera že delajo nekaj let z nvidio ... a rezultati so še vedno kakršni so. Imajo znanstveniki pač prevelike apetite ... oz. hardver ne dohaja njihovih želja.

Jarno ::

Se opravičujem, tak sw je verjetno res pretežko pisat za hobi. >:D
Dobra stran novih gpujev bo vsekakor perf/watt napredek.
#65W!

Bwaze6 ::

2080Ti je "neverjetno superioren"? V primerjavi s čim? Za 400 EUR dobiš rabljeno 1080Ti, ki dosega 70 - 80% hitrosti te "neverjetne superiornosti" za 1000 EUR in več... In za 4K ali VR gaming 2080Ti ni ravno nek overkill, tudi če gledamo samo ne-raytracing igre.

Glede leakanih napovedi Ampere ( 50% hitrejše od Turinga, razpolovljena poraba) pa nima smisla razpravljati, gre za neka okvirna ugibanja zaradi prehoda na 7nm proizvodni proces, ne uhajanje kakšnih dejanskih internih testov. Če bodo te številke sploh okvirno držale, še dolgo ne bomo izvedeli.

FlyingBee ::

Pričakujem vsaj kot pascal napram maxwellu, če ne bo celo kot pascal proti keplerju oziroma Ampere proti Pascalu, torej kepler kot prva na 28nm in pascal kot prva na 16nm, ampere pa prva na 7nm. Ampere 3070 bi moral vsaj kot 2080ti biti, oni sicer sanjajo o 3060 na ravni 2080ti. Če bo obdržalo Ampere proti Pacalu kot Pascal proti Keplerju, bo zelo velik napredek in tudi rdna2 100% hitrejša od 5700xt, ne bo dovolj, še posebej, če ne zrihtajo porabe pod 250W.

Zgodovina sprememb…

Bwaze6 ::

Tista primrrjava je bila glede porabe, ne glede zmogljivosti. Izvirna novoca ima v bistvu zelo malo podatkov o samem Ampere, vse ostalo so interpretacije WCCFTech:



A graphics processing unit (GPU) upgrade by Nvidia Corp is expected to drive growth in the global gaming industry this year and benefit local firms with high exposure to the sector, Yuanta Securities Investment Consulting Co (????) said in a client note on Friday.

...

A successor to units based on the Turing architecture, Nvidia's next-generation GPU based on the Ampere architecture is to adopt 7-nanometer technology, which would lead to a 50 percent increase in graphics performance while halving power consumption, the note said.

H2Obotic ::

Govorijo o do 50% hitrejših karticah pri 50% manjši porabi napram touring-u...kaj pa cene? Še bolj bolano drage kot so že sedaj!?!

klinker ::

Bwaze6 je izjavil:

2080Ti je "neverjetno superioren"? V primerjavi s čim? Za 400 EUR dobiš rabljeno 1080Ti, ki dosega 70 - 80% hitrosti te "neverjetne superiornosti" za 1000 EUR in več... In za 4K ali VR gaming 2080Ti ni ravno nek overkill, tudi če gledamo samo ne-raytracing igre.

Glede leakanih napovedi Ampere ( 50% hitrejše od Turinga, razpolovljena poraba) pa nima smisla razpravljati, gre za neka okvirna ugibanja zaradi prehoda na 7nm proizvodni proces, ne uhajanje kakšnih dejanskih internih testov. Če bodo te številke sploh okvirno držale, še dolgo ne bomo izvedeli.


Samo eni ne morete cez ceno, ko se debatira o napredku?
2080Ti je pac najhitrejsa karta pod soncem, predvsem pa precej hitrejsa od konkurence in zato neverjetno superiorna.
In ce ze meces ven cene, najhitrejsi HW je vedno imel tudi hudo ceno, ne pa eksponentno visjo, kolko je hitrejsi od svpjih populisticnih bratcov. Pa se to. Na svetu je folk, ki jim je jurja, kot meni in tebi 10EUR. Zato take cene naj naj igrack pod soncem in prav je tako ;)
Lahko pa gres v peskovnik z D3m-om in Mr.B-jem ter jokcas okoli da ni pravice, ker ne mores kupit najhitrejse grafe pod soncem za 600EUR >:D

Zgodovina sprememb…

  • spremenilo: klinker ()

Bwaze6 ::

Jaz si zlahka privoščim 2080Ti, a raje čakam na opaznejši dvig zmogljivosti glede na 1080Ti, menjava grafične vsako generacijo ni ravno najbolj smotrna, sploh pri tako majhnem dvigu zmogljivisti (20 - 30%). Kar ni prav "neverjetna superiornost", ampak eden manjših generacijskih dvigov v zadnjem desetletju.

Tako da bi bil prav vesel 50% dviga zmogljivosti Ampere. Stvar zdaj malce zapletajo RTX jedra - kateremu delu bo Nvidia namenila večjo pozornost, raytracingu ali običajni rasterizaciji, ki jo za večino upodabljanja uporablja tudi tista peščica raytracing iger, ki so od prohoda Turinga v septembru 2018 izšle?

DarwiN ::

Torej za 3080Ti Asus Snow White edition at 1600EUR imamo zaenkrat 2 neučakana kupca:
- m0LN4r
- Bwaze6

Še dodam koga? 8-)

P.s: Oziroma rečmo, da se bo Huang končno spametoval in bo flagship dobil ime 3090, tko kot bi moralo biti že od nekdaj. Torej 3090 Asus Snow White edition. :P
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

Zgodovina sprememb…

  • spremenil: DarwiN ()

pegasus ::

Jaz bi jih ene 100 vzel. S pasivnim hlajenjem, hvala.

DarwiN ::

Custom water loop potegneš do soseda in imaš pasivno hlajenje. 100 komadov booked. ;)
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

FlyingBee ::

Prav je, da so nabilo ceno 2080ti, itak je sploh ne bi bilo treba izdati, ampak za parado je dobra.

Jst ::

To bo super, če bo res. Ampak osebno mislim, da bo +50% perf pri pol porabe na kartah za laptope in pri nižjih modelih. Najvišji rang bo sigurno žrl več kot 200W-250W. Če lahko, zakaj ne?

Profi karte, ki ne bodo za gaming, pa lahko komot optimizirajo za specifične taske; primer, če se rabijo tensor cores itak pol čipa idla,... in takodeseže relativno majhno porabo. Te bodo stale 10k - pegasus si bo pa za svojih 100 komadov itak izboril dober popust pod NDA.

Anyway, wcctech si kar veliko razlaga po svoje, glede na izvorno novico. Ko bi se res to uresničilo, 3060-3070 50% hitrejša kot 2080ti. Tu bi se pa lahko že pogovarjali o 4K pri 144Hz. Upam le, da bo AMD z rDNA2 dosegel toliko, da bo neka konkurenca in da cene ne bodo še višje.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

FlyingBee ::

Verjetno bo 3070 okoli 170W, hitrost pa približno kot 2080ti. Mark my words! Glede cene pa odvisno tudi od AMD.

DarwiN ::

IMO cene ne bodo nič kaj višje.. 7nm+ bo seveda izredno drag silicij, ampak bodo čipi precej manjši.. Turing je pač gromozanski, ker so ostali na praktično istem procesu kot pri Pascalu (12nm == 16nm), pa vendar so morali ponudit več zmogljivosti, zraven so pa dodali še RT+tensor jedra. Od tod je velikost 2080Ti poskočila na 754mm2 proti 471 mm2 od 1080Ti.. ~60% večje jedro, toliko manj čipov na rezino, in toliko višja cena za posamezen čip. Nekaj malega so se sicer skozi čas izboljšali yieldi in padla cena proizvodnje, ampak tisto si je Huang stlačil v žep, kot se tudi spodobi za našega spiritualnega vodjo. :)

Ampak 7nm EUV bo zdaj naredil svinjsko štalo in dvomim, da bo 3090 večji od 450-500 mm2.. Yieldi za 7nm in 7nm+ pa so tudi menda že zelo dobri, posledično bi morale cene ostat nekje na podobnem nivoju kot danes, oziroma prva dva meseca seveda malo višje.
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!

Zgodovina sprememb…

  • spremenil: DarwiN ()

FlyingBee ::

Mogoče pa bo namesto raster./rt razmerja 85/15, pri Ampere 65/35?

DarwiN ::

Ja, ampak potem bo težko ~50% hitrejša od turinga. :S
You don't see faith healers working in hospitals
for the same reason you don't see psychics winning the lottery!
««
5 / 222
»»