» »

Nvidia GTX 900 series

Nvidia GTX 900 series

Temo vidijo: vsi
««
62 / 71
»»

Alien123 ::

m0LN4r je izjavil:

Samo 7W več v sintetiki od frizirane 290X, ki ne gre nikamor v primerjavi z 980Ti.
Kapo dol zeleni.

ja z gameworksom na ON pr 35ih fpsjih :D.. ti kar, če bo šlo tak naprej boš na ravni konzol :D

Jaz sem ti lepo podal odgovor na tvoj argument. Ti pa v jok in na drevo.
Jah lej, še vedno več kot na novi 380X 4GB z GW na ON - @tvoj nivo argumentacije


nimaš feedbacka :D bogi

Napajalc ::

NightHawk je izjavil:

Napajalc je izjavil:

Ne vidite poante, poraba Hi-end GPU se zvišuje, ne pade in ne stagnira, se spomnite kako ste tulil da r9 290 požge nenormalno energije?


http://www.tomshardware.com/reviews/nvi...

Enaka poraba glede na prejšnjo generacijo (780 Ti) in veliko več moči. Je pa nižja poraba od AMD mid class (290X, 290...) in konretno več moči. P/W je like 2× boljši. Ti pa bluzis o neki učinkovitosti pri 290 kartici. Ja, požre nenormalno energije.


Si zarčunal p/p r9 290 vs gtx 980ti? Si kadj pomislu da lahk iz p/p preneseš $$$ v p/w in kar naenkrta p/w ne deuje več?
011011100111010101100010

Senitel ::

PredatorX je izjavil:

Senitel, dej pisi na amd pa jih vprasaj zakaj ni async shaderjev na dx11.

Kaj čem pisat na AMD? Zakaj ima AMD D3D11 driver v splošnem večji overhead od NV?

PredatorX je izjavil:

Dx11 je narejen za serial scheduling, dx12 pa za parallel scheduling.

Ne sanjaj, če ne veš kako sploh Direct3D zgleda in samo ponavljaš neke trolovske ideje z interneta. Tudi v D3D12 gonilnikov nihče ne ovira, da ne izvajajo več Draw/Dispatch ukazov iz ene command liste in tudi testirano jih izvajajo.
V bistvu je zadevo dost trivialno tudi dejansko testirat na D3D11. Ampak za enga trola, ki ne ve osnov, ne bom šel pisat software-a, ker rezultatov itak ne boš razumel.

PredatorX je izjavil:

Senitel pojasni nm se zakaj je maxwell pocasnejsi na dx12, kot pa na dx11...kljub novim driverjem?

Če delaš isto na D3D12 kot na D3D11, bo zadeva isto hitra. Če delaš na D3D12 več stvari bo zadeva počasnejša.

PredatorX ::

Senitel je izjavil:

Kaj čem pisat na AMD? Zakaj ima AMD D3D11 driver v splošnem večji overhead od NV?


Ne sanjaj, če ne veš kako sploh Direct3D zgleda in samo ponavljaš neke trolovske ideje z interneta. Tudi v D3D12 gonilnikov nihče ne ovira, da ne izvajajo več Draw/Dispatch ukazov iz ene command liste in tudi testirano jih izvajajo.
V bistvu je zadevo dost trivialno tudi dejansko testirat na D3D11. Ampak za enga trola, ki ne ve osnov, ne bom šel pisat software-a, ker rezultatov itak ne boš razumel.


Jap to je napisal @mahigan, glede parallel vs serial.

DX12 in DX11 sta si zelo različna. Medtem, ko ima manjši driver in GPU govori skoraj direktno z CPUjem, na kar pomeni manjši CPU overhead. Zakaj manj FPSžjev in to ni kakšna napaka kle je razlike 10-20%.



Senitel je izjavil:

Če delaš isto na D3D12 kot na D3D11, bo zadeva isto hitra. Če delaš na D3D12 več stvari bo zadeva počasnejša.


Kaj je potem narobe?


Ali tukaj?
http://www.computerbase.de/2015-08/dire...

Okey štekam, tole je šele začetek in je lahko ključna napaka v optimizaciji... Ampak, NVIDIA je izdala driver točno za tale špil. AMD se niti približno toliko ne trudi...

Senitel ::

PredatorX je izjavil:

Jap to je napisal @mahigan, glede parallel vs serial.

Pa naj kaj demonstrira, namesto da samo bluzi. Sem sprobal s tem na B3D in še tam se je pojavlo kup novo registriranih idiotov, ki so solili pamet vsem počez (vključno z njim).

PredatorX je izjavil:


Kaj je potem narobe?


Ali tukaj?
http://www.computerbase.de/2015-08/dire...

Okey štekam, tole je šele začetek in je lahko ključna napaka v optimizaciji... Ampak, NVIDIA je izdala driver točno za tale špil. AMD se niti približno toliko ne trudi...

Nič ni narobe. Ampak kot sem že 100x omenil v tej temi: V D3D12 bodo developerji moral počet stvari, ki jih v D3D11 počne driver. Opcije za D3D12 driverje so precej omejene.
Kar pomeni, da primerjamo dve precej različni arhitekturi (GCN vs. Kepler/Maxwell) z dvema zelo različno sposobnima driverjema, v okolju kjer nimamo nobene garancije, da špil počne vsaj približno isto na D3D11 in D3D12.
Razen če rineš res v ekstreme kar se tiče Draw klicev (recimo čez 50k na frame) D3D12 na NV grafah ne bo prinesel nobene prednosti. Na AMD je to druga zgodba.

NightHawk ::

Napajalc je izjavil:

NightHawk je izjavil:

Napajalc je izjavil:

Ne vidite poante, poraba Hi-end GPU se zvišuje, ne pade in ne stagnira, se spomnite kako ste tulil da r9 290 požge nenormalno energije?


http://www.tomshardware.com/reviews/nvi...

Enaka poraba glede na prejšnjo generacijo (780 Ti) in veliko več moči. Je pa nižja poraba od AMD mid class (290X, 290...) in konretno več moči. P/W je like 2× boljši. Ti pa bluzis o neki učinkovitosti pri 290 kartici. Ja, požre nenormalno energije.


Si zarčunal p/p r9 290 vs gtx 980ti? Si kadj pomislu da lahk iz p/p preneseš $$$ v p/w in kar naenkrta p/w ne deuje več?


O čem ti ti bluziš? Nekaj hrušk bi pretopil v jabolka in potem hruške ne bodo bile več aktualne?

PredatorX ::

Senitel je izjavil:


Pa naj kaj demonstrira, namesto da samo bluzi. Sem sprobal s tem na B3D in še tam se je pojavlo kup novo registriranih idiotov, ki so solili pamet vsem počez (vključno z njim).


Okey.
Tud meni ni ravno najbolj jasno kaj je mislil z serial vs parallel.

Senitel je izjavil:


Nič ni narobe. Ampak kot sem že 100x omenil v tej temi: V D3D12 bodo developerji moral počet stvari, ki jih v D3D11 počne driver. Opcije za D3D12 driverje so precej omejene.
Kar pomeni, da primerjamo dve precej različni arhitekturi (GCN vs. Kepler/Maxwell) z dvema zelo različno sposobnima driverjema, v okolju kjer nimamo nobene garancije, da špil počne vsaj približno isto na D3D11 in D3D12.
Razen če rineš res v ekstreme kar se tiče Draw klicev (recimo čez 50k na frame) D3D12 na NV grafah ne bo prinesel nobene prednosti. Na AMD je to druga zgodba.


Ja, sepravi developerji bodo mogl prilagodit maxwellu in GCNju. GCN ima tukaj velikansko prednost, ker je že v konzolah in če se ne motim DX12 špili za XboX že obstajajo? Sepravi direkten port za PC nebi bil nič slabega za PC @ GCN, vsaj za performance.

m0LN4r ::

Potem pa pride spet nekega dne nov API in bo šele parti za nazaj.

Me prav zanima, kako kvalitetni (beri: vsebinsko dodelani) bojo špili, kjer se bo moglo rezat pr financah (ki jih devsi že tko al tko malo dobijo), zaradi d3d12 in tudi časovno bodo bolj pod pritiskom zaradi tega. Dejansko bodo morali delati veliko več in za isti dnar. Welcome to DLC future.
https://www.youtube.com/user/m0LN4r

Zgodovina sprememb…

  • spremenil: m0LN4r ()

hojnikb ::

nebojo sploh pisal za dx12, tko bo..
#brezpodpisa

m0LN4r ::

Ja dejansko, ker za dx11 dobijo več dnara manj dela, gw olajša delo ipd.
https://www.youtube.com/user/m0LN4r

PredatorX ::

hojnikb je izjavil:

nebojo sploh pisal za dx12, tko bo..


Poglej si tole.
http://www.computerbase.de/2015-11/call...

CoD:Black Ops3 vs modern warfare 2? Kje je razlika, da AMD deluje veliko bolje... ja, kot opazno 4GB HBM pri 4K ni dovolj. Poglej si še razliko med R9 380/280X vs GTX 960 in GTX 770.

R9 280X je skoraj na nivoju GTX 970.

Zgodovina sprememb…

  • spremenilo: PredatorX ()

Alien123 ::

Čudno da ko nima nvidia prste vmes, špili delujejo neverjetno vrhunsko na amdju :D

Napajalc ::

Če bi limal gor 4 gb ram in hladilnik ki zmore 300w pol nebi blo dnarja za "sponzorstvo". Sreča da so kasnej vsaj 1x 6 pin dodal za power.
011011100111010101100010

m0LN4r ::

Lepo bi blo, če bi te izjeme potrjevale pravilo...
https://www.youtube.com/user/m0LN4r

Zgodovina sprememb…

  • spremenil: m0LN4r ()

Senitel ::

PredatorX je izjavil:

Okey.
Tud meni ni ravno najbolj jasno kaj je mislil z serial vs parallel.

Meni je čisto jasno "kaj je mislil". Je bil en lep AMD marketing video, ki demonstrira zadevo. Problem z onim filmčkom je, da implicira, da rabiš več command queue-jev (D3D11 ima samo enega). Ergo D3D11 je "serial", D3D12 pa "parallel". Težava je, ker to enostavno ne drži. Je bilo lepo pokazano, da je tudi na AMD-ju boljše imet čim manj command queue-jev, ker performance z vsakim dodatnim degradira in je API povsem zadovoljen z enim samim in bo medsebojno neodvisne command liste še vedno izvajal vzporedno.

Senitel je izjavil:

Ja, sepravi developerji bodo mogl prilagodit maxwellu in GCNju. GCN ima tukaj velikansko prednost, ker je že v konzolah in če se ne motim DX12 špili za XboX že obstajajo? Sepravi direkten port za PC nebi bil nič slabega za PC @ GCN, vsaj za performance.

Ne. Nobenih D3D12 iger ni za Xbox One. D3D12 obstaja za Xbox kvečjemu tolk dolgo kot za PC (nimam dostopa do Xbox development kita, tako da ne vem, če je sploh že dostopen). Tvoja napaka je, da predpostavljaš, da je Xbox že dosedaj imel D3D12, kar enostavno ne drži. Če že hočeš poimenovat tisto zadevo potem ji rečemo "D3D11.5", čeprav ji lahko rečemo tudi Žblj3D.
Dejansko je vprašanje koliko developerjev se bo odločilo za D3D12 na Xbox One. Plus je seveda ena koda za Xbox in za PC. Minus je, da ima Xbox EDRAM, kar mora bit usrezno podprto s strani API-ja. To je podprto v D3D, ki je na voljo na Xbox, ni pa tega v D3D12. Ergo ali izgubiš kontrolo nad tem, ali bodo pa D3D12 moral raztegnit in spet ne bo samo ena koda tekla na PC in Xbox. Kar pomeni opcijo 1, ki pa ni optimalna.

hojnikb je izjavil:

nebojo sploh pisal za dx12, tko bo..

Ne... Uporabljal se bo že narejene pogone ala Unreal, Unity,... Barrier to entry za nove developerje, ki nebodo hoteli vzet obstoječega pogona se bo pa precej dvignil.

PredatorX je izjavil:

Poglej si tole.
http://www.computerbase.de/2015-11/call...

CoD:Black Ops3 vs modern warfare 2? Kje je razlika, da AMD deluje veliko bolje... ja, kot opazno 4GB HBM pri 4K ni dovolj. Poglej si še razliko med R9 380/280X vs GTX 960 in GTX 770.

R9 280X je skoraj na nivoju GTX 970.

Radeon-i imajo shitload več memory bandwidth-a od "ekvivalentnih" GeForce-ov. 280X vs. GTX 970 je 288 GB/s vs. 224 GB/s. Nekje se bo pa to že pokazalo ane?

PredatorX ::

Senitel je izjavil:

Meni je čisto jasno "kaj je mislil". Je bil en lep AMD marketing video, ki demonstrira zadevo. Problem z onim filmčkom je, da implicira, da rabiš več command queue-jev (D3D11 ima samo enega). Ergo D3D11 je "serial", D3D12 pa "parallel". Težava je, ker to enostavno ne drži. Je bilo lepo pokazano, da je tudi na AMD-ju boljše imet čim manj command queue-jev, ker performance z vsakim dodatnim degradira in je API povsem zadovoljen z enim samim in bo medsebojno neodvisne command liste še vedno izvajal vzporedno.


Počak zdej. Kaj hočeš stem povedat... prej si omenil async shaderje na D3D11. A ni ravno to point, D3S11 nebi pokazalo nobenih koristi od async sahaderjev, D3D12 pa bo dobil.

Senitel je izjavil:

Ne. Nobenih D3D12 iger ni za Xbox One. D3D12 obstaja za Xbox kvečjemu tolk dolgo kot za PC (nimam dostopa do Xbox development kita, tako da ne vem, če je sploh že dostopen). Tvoja napaka je, da predpostavljaš, da je Xbox že dosedaj imel D3D12, kar enostavno ne drži. Če že hočeš poimenovat tisto zadevo potem ji rečemo "D3D11.5", čeprav ji lahko rečemo tudi Žblj3D.
Dejansko je vprašanje koliko developerjev se bo odločilo za D3D12 na Xbox One. Plus je seveda ena koda za Xbox in za PC. Minus je, da ima Xbox EDRAM, kar mora bit usrezno podprto s strani API-ja. To je podprto v D3D, ki je na voljo na Xbox, ni pa tega v D3D12. Ergo ali izgubiš kontrolo nad tem, ali bodo pa D3D12 moral raztegnit in spet ne bo samo ena koda tekla na PC in Xbox. Kar pomeni opcijo 1, ki pa ni optimalna.


Predpostavljam? Ja ubistvu je moja napaka. Milsil sem, da je že kakšna igra zunaj na DX12 na XboXu. Ampak, prihajajo DX12 igre in kar nekaj za XboX @2016/2017.

Senitel je izjavil:

Radeon-i imajo shitload več memory bandwidth-a od "ekvivalentnih" GeForce-ov. 280X vs. GTX 970 je 288 GB/s vs. 224 GB/s. Nekje se bo pa to že pokazalo ane?

Ja, a nima Maxwell boljši bandwidth izkoristek od GCNja.

PredatorX ::

Hmm GTX 960 dela precej dobr z 128bit. Seprav memory bandwidth ni problem... pomoje je bolj arch.

Senitel ::

PredatorX je izjavil:

Počak zdej. Kaj hočeš stem povedat... prej si omenil async shaderje na D3D11. A ni ravno to point, D3S11 nebi pokazalo nobenih koristi od async sahaderjev, D3D12 pa bo dobil.

Cel koncept "async shaderjev", kot si ga fanboyi predstavljate je zgrešen! Če lahko nek compute task izvajaš paralelno z grafičnimi taski, potem bo nek profit (morajo pa jasno bit taski med seboj neodvisni). 3D API ima s tem bolj malo. Je pa res, da je za driver težje izbrskat neodvisne stvari iz ukaznega toka v D3D11 kot v D3D12.
Iz te cele zadeve ste naredil en tak utter complete bullshit in čisto nič drugega. D3D12 ima flag VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation, nobenega flaga za "async compute" oziroma kar bi dejansko bilo bolj pravilno: concurrent graphics and compute. Bolj je pomembno, da so developerji "aware", da je GPU sposoben "Viewport" in "Render Target" index prešvercat v rasterizer brez geometry shaderja.

PredatorX je izjavil:

Ja, a nima Maxwell boljši bandwidth izkoristek od GCNja.

Maxwell ima fenomenalen izkoristek memory bandwidtha. Še zmer pa to ne pomeni, da je bandwidth kar neomejen. Come on... 280X ima 30% več bandwidtha od GTX 970 in še vedno zaostane. Primerjaj 280X in 380. Česa ima 280X bistveno več?

PredatorX ::

Ubistvu se motis. R9 280x je full core z 1100 boosta medtem, ko pa ima r9 380 boljsi izkoristek bandwidtha pa ima 1gb vrama manj ter clock je nekje okoli 925-960 ter manj jeder.

Glede async shaderje pa tud neke velke razlike nemore biti, odvisno od spila..

Zgodovina sprememb…

  • spremenilo: PredatorX ()

hojnikb ::

Ubistvu se motis. R9 280x je full core z 1100 boosta medtem, ko pa ima r9 380 boljsi izkoristek bandwidtha pa ima 1gb vrama manj ter clock je nekje okoli 925-960 ter manj jeder.


Ja.. In ?
Nisi dojej bistva. 280x ma dosti večji raw memory bandwidth (384bitno vodilo in to..)
#brezpodpisa

PredatorX ::

Jst sm dojel bistvo, kar mi hoče Senitel povedat.. in razumem. Ampak, glede CoDa se definitivno moti, ker ni problem memory bandwidth. Kot prvič se GTX 960 čist dobr odreže, GTX 770 ima celo večji bandwidth.

Tebi pa tudi ni treba dodatno razlagat oziroma potrjevat njegove besede.

Zgodovina sprememb…

  • spremenilo: PredatorX ()

Master_Yoda ::

No pa je bila 960 dostavljena. Med benchmarkanjem temperatura ni presegla 68 stopinj, boostalo brez dodatnega overclocka pa je do 1379 (v specifikacijah pa je boost 1253).

Kateri program za navijanje je drugace najbolj pripljubljen ? Trenutno imam EVGA precision, slisal pa sem tudi za MSI afterburner.

Nic grem zdaj spile namescat.

Senitel ::

PredatorX je izjavil:

Kot prvič se GTX 960 čist dobr odreže, GTX 770 ima celo večji bandwidth.

Seveda ima bistveno več bandwidtha. Ima pa tudi bistveno manjši L2 cache. GTX 770 je sposoben prebrat 134G samplov iz tekstur, ni pa niti najmanjše možnosti, da pride približno blizu temu v praksi, če sampli ne padejo v L2 cache. Pri 32bit teksturi je to 536GB/s, 770 nima polovico tega.

D3m ::

Ni vse bandwidth ampak in-deep tehnične specifikacije produkta. Nekaj kar navadni kupci ne vidimo.
|HP EliteBook|R5 6650U|

PredatorX ::

Senitel je izjavil:

PredatorX je izjavil:

Kot prvič se GTX 960 čist dobr odreže, GTX 770 ima celo večji bandwidth.

Seveda ima bistveno več bandwidtha. Ima pa tudi bistveno manjši L2 cache. GTX 770 je sposoben prebrat 134G samplov iz tekstur, ni pa niti najmanjše možnosti, da pride približno blizu temu v praksi, če sampli ne padejo v L2 cache. Pri 32bit teksturi je to 536GB/s, 770 nima polovico tega.



Kar ti hočem povedat, da ni problem memory bandwidth pri codu.

http://www.guru3d.com/articles_pages/ca...
tukaj jim ni prav nič koristil.

Zgodovina sprememb…

  • spremenilo: PredatorX ()

PredatorX ::

http://nl.hardware.info/reviews/6425/5/...

tukaj pa pride prednost bandwidtha v poštev.

D3m0r4l1z3d ::

PredatorX, pregloboko si zabredel, že tako ali tako je toliko dejavnikov, da ne moreš v svojih enovrstičnicah povzeti bistva, Senitel pa ima tudi tehnično znanje in proti njemu izpadeš bedak, oprosti
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Zgodovina sprememb…

Napajalc ::

D3m0r4l1z3d je izjavil:

PredatorX, pregloboko si zabredel, že tako ali tako je toliko dejavnikov, da ne moreš v svojih enovrstičnicah povzeti bistva, Senitel pa ima tudi tehnično znanje in proti njemu izpadeš bedak, oprosti


Senti je ogrožen, debato treba uničit?
011011100111010101100010

D3m0r4l1z3d ::

Ja ogrožen s strani fanboya in povzetkov s tujih forumov in AMDjevih marketing slajdov, zares nekaj novega, še nismo šli čez kaj takega, PredatorX je poseben najstnik z povsem novimi metodami, not
Zresni se Napajalc, če ne drugega, si vsaj mojster za elektrotehniko in praktik-modder vsega analognega
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Associated ::

PredatorX je izjavil:

http://nl.hardware.info/reviews/6425/5/...

tukaj pa pride prednost bandwidtha v poštev.


Naslednja stran tega testa ("SLI/CrossFire schaling") je pa prikazana "svetla plat" AMDja ;)

D3m0r4l1z3d ::

PredatorX je izjavil:

Senitel je izjavil:

PredatorX je izjavil:

Kot prvič se GTX 960 čist dobr odreže, GTX 770 ima celo večji bandwidth.

Seveda ima bistveno več bandwidtha. Ima pa tudi bistveno manjši L2 cache. GTX 770 je sposoben prebrat 134G samplov iz tekstur, ni pa niti najmanjše možnosti, da pride približno blizu temu v praksi, če sampli ne padejo v L2 cache. Pri 32bit teksturi je to 536GB/s, 770 nima polovico tega.



Kar ti hočem povedat, da ni problem memory bandwidth pri codu.

http://www.guru3d.com/articles_pages/ca...
tukaj jim ni prav nič koristil.

V času hd2900xt tudi bandwidth ni bil problem pa očitno še vedno treba vsakemu newbiju to posebej razlagat pri vsaki generaciji gpujev
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

Napajalc ::

D3m0r4l1z3d je izjavil:

Ja ogrožen s strani fanboya in povzetkov s tujih forumov in AMDjevih marketing slajdov, zares nekaj novega, še nismo šli čez kaj takega, PredatorX je poseben najstnik z povsem novimi metodami, not
Zresni se Napajalc, če ne drugega, si vsaj mojster za elektrotehniko in praktik-modder vsega analognega


Sem upal/Umpam, da bo dotična debata laufala naprej, ena redkih debat o "štetju tranzistorjev" ki bi lahko kaj pripomogla k mojmu problemu ki ga trenutno rešujem s poskusi na igri. Gre se, da se mi na r9 290x core navije brez kakih dodatnih povečav napetosti, ram na GPU pa potrebuje malo več voltaže za višje OC, večjo voltažo dobi ram pa čez višanje napetosti na GPU.
Skratka, za nekatere igre se splača navit ram, za druge ne....
011011100111010101100010

Senitel ::

PredatorX je izjavil:

Senitel je izjavil:

PredatorX je izjavil:

Kot prvič se GTX 960 čist dobr odreže, GTX 770 ima celo večji bandwidth.

Seveda ima bistveno več bandwidtha. Ima pa tudi bistveno manjši L2 cache. GTX 770 je sposoben prebrat 134G samplov iz tekstur, ni pa niti najmanjše možnosti, da pride približno blizu temu v praksi, če sampli ne padejo v L2 cache. Pri 32bit teksturi je to 536GB/s, 770 nima polovico tega.



Kar ti hočem povedat, da ni problem memory bandwidth pri codu.

http://www.guru3d.com/articles_pages/ca...
tukaj jim ni prav nič koristil.

Kaj ima Advanced Warfare skupnega z Black Ops III?

PredatorX je izjavil:

http://nl.hardware.info/reviews/6425/5/...

tukaj pa pride prednost bandwidtha v poštev.

Ja tukaj je bandwidth problem... :)) Zato Fury X strmoglavi na 9 FPS. Bravo trol.

Master_Yoda ::

Se eno vprasanje za vas poznavalce: Ce disablam drug monitor, ki ga ponavadi med igranjem ne rabim (razen mogoce za predvanjanje videa med poteznimi spili) ali pa ga priklopim na iGPU bo kaki ucinek na perfofmance, ali je zanemarljiv ?

hojnikb ::

nebo..
#brezpodpisa

PredatorX ::

Senitel je izjavil:


Ja tukaj je bandwidth problem... :)) Zato Fury X strmoglavi na 9 FPS. Bravo trol.



Ne, tukaj je problem 4GB HBM VRAMA ter sama optimizacija....
Tudi ti se motiš, pa te vseeno ne kličem troll. Black Ops 3 ni več NVIDIA TITLE.

neverjetni99 ::

Mater ste smotani z tem AMD-jem, smetite tu temo od Nvidije z tem šrotom...glih tak ko da bi jokali za hyundaiom pa kio po mercedezovih forumah:))

Zgodovina sprememb…

Senitel ::

PredatorX je izjavil:

Ne, tukaj je problem 4GB HBM VRAMA ter sama optimizacija....
Tudi ti se motiš, pa te vseeno ne kličem troll. Black Ops 3 ni več NVIDIA TITLE.

Zgoraj si bandwidh omenjal sedaj je pa 4gb problem... To da se motiš, te še ne naredi trola. To da vsak post menjaš temo te pa naredi. Kaj ima to, da Black Ops 3 ni več NV naslov z mojim vprašanjem kaj imata Advanced Warfare in Black Ops 3 skupnega? Čisto ničesar. Torej trol.

m0LN4r ::

To da vsak post menjaš temo te pa naredi.

Temo, primer, vzrok, problem, vse. To sm že ene 10x napisal, da dela.
https://www.youtube.com/user/m0LN4r

D3m0r4l1z3d ::

m0LN4r je izjavil:

To da vsak post menjaš temo te pa naredi.

Temo, primer, vzrok, problem, vse. To sm že ene 10x napisal, da dela.

In še vedno Napajlc in nekateri nimajo čisto nič proti temu, ker so tudi ono fanboyi in trolajo pa še motijo se po vrhu
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

PredatorX ::

Senitel je izjavil:

PredatorX je izjavil:

Ne, tukaj je problem 4GB HBM VRAMA ter sama optimizacija....
Tudi ti se motiš, pa te vseeno ne kličem troll. Black Ops 3 ni več NVIDIA TITLE.

Zgoraj si bandwidh omenjal sedaj je pa 4gb problem... To da se motiš, te še ne naredi trola. To da vsak post menjaš temo te pa naredi. Kaj ima to, da Black Ops 3 ni več NV naslov z mojim vprašanjem kaj imata Advanced Warfare in Black Ops 3 skupnega? Čisto ničesar. Torej trol.



Kdo menja temo. Black Ops 3 in Advance warfare imata nekaj skupnega, če pa slučajno nisi razumel, sem ti hotel dati primer v katero smer igre gredo. GCN bo povozil tudi maxwella, samo vprašanje časa je kdaj bo Fury X prehitel GTX 980TI. Kolikor je pa to pomembno za nas, AMD... samo profit šteje. Pa ne mi govorit troll.. ker ti tudi trollaš. Zdej ko ti hočm dopovedat.

Vse pa samo zaradi konzol, to je tisto kar bo AMDju dal prednost.


Zdej pa je pa kr naenkrat bandwidth krivec, da GTX 980TI nemore prehiteti Fury X v 1080P... mjaaa, sami izgovori.

Zgodovina sprememb…

  • spremenilo: PredatorX ()

m0LN4r ::

samo vprašanje časa je kdaj bo Fury X prehitel GTX 980TI.

Ja fak no in če se to zgodi čez dve leti? Kdo je užival več s svojo karto? lol A ti rajš 3 leta tle jamraš, kot 3 leta v vsakem špilu razturavaš?
Jst ti povem,
takrat ko več niti ena nebo aktualna debata, ker boš isti perf staknu za pol manj dnara 7970 -> 290 - >970 (2014-300EUR), tako kot danes noben nikjer ne omenja 7970 za katero si odštel 600 ojrov 3 leta nazaj ane. (razen amd trolov)
in drugič takrat ko bo več kot 50% iger napisanih v prid Fury (oz. AMD) archu. To pa je lahko čez eno leto ali dve ali tri, če rad čakaš in prah nabiraš na kartici pa se pritožuješ nad vsem, kar ni GCNptimised.

Lahko se pa tudi že z Arctic Islandom izkaže, da je bila 500EUR 390X brca v temo (ja zdaj je super pocen, le zakaj) +/- 2015 igre igramo danes, ne pa čez 3/4 leta.

Anyway, za debato o tem "kaj bo, ko bo" - kupovanju 3 leta stare karte, za 3 leta stare špile si odprite novo temo. Ni pa treba tle AMDjašem srat, ker špili niso narjeni za GCN in mantle že od 2011 do danes. Nikogar ne zanima to jamranje.

PS:
In spet eno in isto butthurt nabijanje v tri krasne, brez repa in glave.
 Evo 1-10 kolo sreče oz. the blame game

Evo 1-10 kolo sreče oz. the blame game

https://www.youtube.com/user/m0LN4r

Zgodovina sprememb…

  • spremenil: m0LN4r ()

m0LN4r ::

Pa gremo naprej z on-topic PRom xD kot smo ga vajeni:
NVIDIA Says GameWorks VR Will Help Large Scale VR Adoption - Expects 25 Million PC Gamers To Adopt Virtual Reality



"[AMD has] been a strong competitor for as long as I can remember, and they remain a strong competitor," said Jen-Hsun Huang, chief executive officer of Nvidia, at the company's conference call with investors and financial analysts. "It is just that our strategy is very different now. We used to be much more of a component supplier, competing directly with other component suppliers, but increasingly, we are really a differentiated platform supplier. The software investments that we have made over the years really, really increasingly define our product." - CEO of NVIDIA, Jen-Hsun Huang via Kitguru

They are strong, but....


https://www.youtube.com/user/m0LN4r

Napajalc ::

m0LN4r je izjavil:

samo vprašanje časa je kdaj bo Fury X prehitel GTX 980TI.

Ja fak no in če se to zgodi čez dve leti? Kdo je užival več s svojo karto? lol A ti rajš 3 leta tle jamraš, kot 3 leta v vsakem špilu razturavaš?
Jst ti povem,
takrat ko več niti ena nebo aktualna debata, ker boš isti perf staknu za pol manj dnara 7970 -> 290 - >970 (2014-300EUR), tako kot danes noben nikjer ne omenja 7970 za katero si odštel 600 ojrov 3 leta nazaj ane. (razen amd trolov)
in drugič takrat ko bo več kot 50% iger napisanih v prid Fury (oz. AMD) archu. To pa je lahko čez eno leto ali dve ali tri, če rad čakaš in prah nabiraš na kartici pa se pritožuješ nad vsem, kar ni GCNptimised.

Lahko se pa tudi že z Arctic Islandom izkaže, da je bila 500EUR 390X brca v temo (ja zdaj je super pocen, le zakaj) +/- 2015 igre igramo danes, ne pa čez 3/4 leta.

Anyway, za debato o tem "kaj bo, ko bo" - kupovanju 3 leta stare karte, za 3 leta stare špile si odprite novo temo. Ni pa treba tle AMDjašem srat, ker špili niso narjeni za GCN in mantle že od 2011 do danes. Nikogar ne zanima to jamranje.

PS:
In spet eno in isto butthurt nabijanje v tri krasne, brez repa in glave.
 Evo 1-10 kolo sreče oz. the blame game

Evo 1-10 kolo sreče oz. the blame game



Še vedno ne zastopiš, večina nas čaka da bo fury ~300e (takrat bojo tudi igre malo bolj zahtevne in bo posledično fury bolši od gtx 980ti kot je že sedaj pri višjih resolucijah), ne tako kot ti ko čakaš za vse cente navidio, jo preplačaš 100% in imaš isto do 5% bolši preformens in 2 leti brez GPU.
011011100111010101100010

Senitel ::

PredatorX je izjavil:

Black Ops 3 in Advance warfare imata nekaj skupnega, če pa slučajno nisi razumel, sem ti hotel dati primer v katero smer igre gredo.

Kaj imata skupnega razen "Call of Duty" v imenu? Black Ops ima čisto svoj branch engine-a in Black Ops 3 ima glede na svojega predhodnika povsem nov renderer.
In v katero smer gredo igre? Je to slučajno prva igra sploh kjer je Fury X hitrejši od 980 Ti? Ne. Bodo od sedaj naprej vse (velika večina) igre hitrejše na Fury X kot na 980 Ti? Ne. Kaj je torej novega? Nič.

PredatorX je izjavil:

Kolikor je pa to pomembno za nas, AMD... samo profit šteje.

To vas itak ne zanima niti najmanj. O tem še ni bilo niti kančka kritičnega razmišljanja z vaše strani. In to je nekaj kar bi dejansko moralo vse nas skrbet.

PredatorX je izjavil:

Pa ne mi govorit troll.. ker ti tudi trollaš. Zdej ko ti hočm dopovedat.

Jaz poskušam imet argumentirano diskusijo, ti pa trolaš. Hočeš dopovedat... Argumentiraj zakaj po tvoje ni bandwidth/L2 cache problem in kaj po tvojem je. To loči normalno debato od religiozne.

PredatorX je izjavil:

Vse pa samo zaradi konzol, to je tisto kar bo AMDju dal prednost.

Xbox One je zunaj dve leti...

PredatorX je izjavil:

Zdej pa je pa kr naenkrat bandwidth krivec, da GTX 980TI nemore prehiteti Fury X v 1080P... mjaaa, sami izgovori.

V primeru s katerim se je začelo tvoje zadnje bluzenje seveda. Problem na tvojem nivoju razumevanja vsega skupaj je v tem, da je v tvojem vesolju potrebna pasovna širina do pomnilnika odvisna od ločljivosti zaslona. V realnem vesolju pa pasovno širino žrejo TMU-ji in ROP-i (in v vedno večji meri direkten dostop do pomnilnika iz shaderjev).

Napajalc ::

D3m0r4l1z3d je izjavil:

m0LN4r je izjavil:

To da vsak post menjaš temo te pa naredi.

Temo, primer, vzrok, problem, vse. To sm že ene 10x napisal, da dela.

In še vedno Napajlc in nekateri nimajo čisto nič proti temu, ker so tudi ono fanboyi in trolajo pa še motijo se po vrhu


Ni problem kako ti sodiš posameznike, bolj je problem ker tvoj varvanc hoče biti "vem use" pove pa nič (al se mu neda, al je nekje drugje aktiven... ni opravičila), in ti ga še podpiraš pri tem, čudno da vaju ne vržejo z teme, ker to je dejansko štoplc za dvignit nivo.
011011100111010101100010

m0LN4r ::

Še vedno ne zastopiš, večina nas čaka da bo fury ~300e (takrat bojo tudi igre malo bolj zahtevne in bo posledično fury bolši od gtx 980ti kot je že sedaj pri višjih resolucijah),

Seveda zastopim, čakaš da Nvidia izda novo grafo in spet zbije ceno AMDju (Fury X) pade pod 300€ in si jo naslednje leto lahko kupiš, za igre prejšnjih let.
Kupuješ za nazaj v smislu iger, we get it.
https://www.youtube.com/user/m0LN4r

Napajalc ::

Ne sodi drugih po sebi, gtx 980 ni dobra za 4k, normalni uporabniki z kančkom razuma furajo mid range gpu na 1080p, mogoče na 1440p, več je pa utopija. Še vedno ne zastopiš osnov gaminga.
011011100111010101100010

PredatorX ::

Senitel je izjavil:

Jaz poskušam imet argumentirano diskusijo, ti pa trolaš. Hočeš dopovedat... Argumentiraj zakaj po tvoje ni bandwidth/L2 cache problem in kaj po tvojem je. To loči normalno debato od religiozne.



Saj sem ti povedal. Black Ops 3 sem dal za primerjavo zadnjih iger. In če pogledaš je GCN zelo dober v zadnjih špilih... še v FO4 R7 360 (@ 1050/1500, 12GCN) prehiti GTX 750TI, ko pa se spomnimo je bila malce hitrejša od R7 260X @1100/1625, 14GCN. No prednost pri FO4 je, da je CPu bottleneckan in NVIDIA ima boljši driver.

Tako sem hotel povedat, da ima maxwell svoje prednosti in GCN svoje. Vendar GCN ima prednost, ker je v konzolah.

Ti si dal argument, da je R9 280X hitrejša samo zaradi memory bandwidtha v

- GTX 960 ma 128Bit bus pa je kr takoj za R9 380.
- GCN konzole (sepravi špil narejen za GCN, nič več gameworksa oziroma NVIDIje).
- GTX 970 ima 256bit bus .. x2 več kot GTX 960.
- R9 380 je 18% počasnejša pri 1080P in 13% pri 1440P od R9 280X. Višji bandwidth doda kakšen procent, ampak tudi R9 380X ima nekak 10-15% prednosti pred R9 380.

Tonga čip ima boljšo tessellacijo. Primer med Advance warfare in Black Ops 3 sem ti pa dal samo zato, ker je tonga oziroma R9 380 hitrejša v advance warfaru od R9 280X. Tu pa je ravno obratno.

D3m ::

[AMD has] been a strong competitor for as long as I can remember, and they remain a strong competitor," said Jen-Hsun Huang, chief executive officer of Nvidia, at the company's conference call with investors and financial analysts. "It is just that our strategy is very different now. We used to be much more of a component supplier, competing directly with other component suppliers, but increasingly, we are really a differentiated platform supplier. The software investments that we have made over the years really, really increasingly define our product." - CEO of NVIDIA, Jen-Hsun Huang via Kitguru


Hudiča.

AMD nima sreče z Intel in Nvidio. Gresta na "proprietary software".
|HP EliteBook|R5 6650U|
««
62 / 71
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

AMD pokazal svojo najhitrejšo grafično kartico Radeon R9 Fury X2 (strani: 1 2 3 4 5 )

Oddelek: Novice / Grafične kartice
24052607 (45786) Napajalc
»

grafična kartica?katero kupiti (strani: 1 2 3 48 9 10 11 )

Oddelek: Kaj kupiti
50777918 (7594) PredatorX

R9 380 prenizka frekvenca... (strani: 1 2 )

Oddelek: Strojna oprema
9010424 (8747) D3m

Več podobnih tem