» »

AMD pokazal svojo najhitrejšo grafično kartico Radeon R9 Fury X2

AMD pokazal svojo najhitrejšo grafično kartico Radeon R9 Fury X2

Slo-Tech - AMD je na sejmu Virtual Reality Los Angeles minuli konec tedna pokazal svojo najhitrejšo grafično kartico z dvema čipoma Fiji XT, ki se imenuje Radeon R9 Fury X2 oziroma kratko Gemini. V sestavljenem sistemu so pokazali, kako se nova kartica obnese v celotnem sistemu za navidezno resničnost, pri čemer so uporabili HTC Vive. Gemini bi bil moral iziti že decembra, a ga je AMD prestavil na prvo letošnje četrtletje, ko dobimo tudi Oculus Rift, HTC Vive in druge izdelke za navidezno resničnost. Naslednja generacija (Polaris) pa sledi kasneje.

Radeon R9 Fury X2 ima dva Fiji XT, ki tiktakata s 1000 MHz in imata vsak 4 GB pomnilnika HBM VRAM, ki pa je pol počasnejši. To pomeni, da dobimo 8192 tokovnih (stream) procesorjev, dve 4096-bitni vodili, 128 ROP, 512 TMU, prepustnost 1 TB/s z deklarirano porabo električne energije 375 W. V primerjavi z enim čipom Fury X2 naj bi bil Gemini 80 odstotkov hitrejši pri 4K. Cena še ni znana, pričakujemo pa lahko, da bo za kartico treba odšteti kakšnega tisočaka.

Kljub zelo zmogljivim specifikacijam bo kartica fizično krajša od na primer Radeona HD 5970 ali R9 295X2, ker so prvikrat uporabili zlaganje pomnilniških čipov v višino (3D HBM namesto klasičnega GDDR5).

240 komentarjev

«
1
2 3
...
5

Napajalc ::

To zna bit top p/w zadeva.
011011100111010101100010

globoko grlo ::

cena?
Gigabyte B460M DS3H | I5 - 10400F | 16GB | 6700XT | P2 m.2 500GB

mihec87 ::

globoko grlo je izjavil:

cena?

"pričakujemo pa lahko, da bo za kartico treba odšteti kakšnega tisočaka."

gddr85 ::

4k beast 8-)

dexterboy ::

Gledam tiste luknje okoli dveh čipov, pa je edino, kar mi pride na misel, hlajenje z vodnim blokom?
Zagotovo ekwb custom made :)
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.

stegl ::

če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-

dexterboy ::

stegl je izjavil:

če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-

Ne sprašuj se, kaj bo potem, ker potem ne bo več nobenega potem.
Mislim, da tako hudo jim ne gre (PS4, XBOX...).
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.

PrimozR ::

stegl je izjavil:

če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-

nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.

Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...

Domobrancek ::

PrimozR je izjavil:

stegl je izjavil:

če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-

nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.

Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...


No fanboy zdej pa povej zakaj nakup AMD-jevih kartic ni smiseln ?

D3m ::

Smiselen je nakup tudi Savinih delnic.
|HP EliteBook|R5 6650U|

SimplyMiha ::

Lejte, če folk noče AMD-ja v svojem sistemu, blagor jim. Nima veze prepričevati prepričanih in še te teme uničit z obračunavanjem med rdečimi in zelenimi.

Kar pa tale Fury X2, s to ceno ni za splošno rajo. Čakamo na nekaj ugodnejšega.

opeter ::

dexterboy je izjavil:

Gledam tiste luknje okoli dveh čipov, pa je edino, kar mi pride na misel, hlajenje z vodnim blokom?
Zagotovo ekwb custom made :)


Kaj pa, če drži ogromni hladilnik.
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j

D3m ::

Za vse je.
|HP EliteBook|R5 6650U|

Jakob_X ::

PrimozR je izjavil:


nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.


Trenutno razen 980ti nakup nvidie v nobenem segmentu ni smiseln. Mogoce se kaksna 950 ce imas res obupen napajalec.

hojnikb ::

seveda je smiseln. Noče vsak nuklearke od amdja v kišti
#brezpodpisa

Markoff ::

z deklarirano porabo električne energije 375 W


Say WHAT?
Antifašizem je danes poslednje pribežališče ničvredneža, je ideologija ničesar
in neizprosen boj proti neobstoječemu sovražniku - v zameno za državni denar
in neprofitno najemno stanovanje v središču Ljubljane. -- Tomaž Štih, 2021

SimplyMiha ::

U fino, sem se že bal, da bo treba znova naročit kurilno olje.

ProGo ::

Po mojih izkušnjah, AMDjevih gpujev nikdar več.

Napajalc ::

ATM ga ni čez fury in 1440p monitor, a mogoče kdo ve kaj predstavlja tisti dodatni čip med obema jedroma?
011011100111010101100010

hojnikb ::

ja, multiplicira pci-e steze, da maš lahko dva gpuja na enem 16x portu
#brezpodpisa

FireSnake ::

ProGo je izjavil:

Po mojih izkušnjah, AMDjevih gpujev nikdar več.


Od Martoxa G200 naprej sem imel same ATIjeve kartice. Vmes 4770, zdaj Radeon 7950 in nimam pojma o čem govoriš.

Pa nisem fan rdečih ... ampak, do zdaj ni bilo problemov, zakaj bi menjaval (pa tudi ob nakupu je bilo tako, da sem za svoj denar dobil največ)?
Da ne pozabim: Radeon 7950 je bil kupljen rabljen ...
Poglej in se nasmej: vicmaher.si

Zgodovina sprememb…

  • spremenilo: FireSnake ()

WyattEarp ::

Imam AMD 270X, deluje super, tiho in hladno. Poganja pa na full HD monitorju vse špile in vse na max. Kaj češ druzga. pa sem za njo dal 200€ 2 leti pa še malo nazaj. za 3 leta bo sigurno še, tako kot sem pred njo mel ATI 4850, ki je bla cca 150€ ene 8 let nazaj pa je poganjalo vse saj 5 let, ne na max, sm je pa delalo dobro.
AMD Phenom II 1090T,ASUS M4A89GTD PRO/USB3,12 Gb RAM(2x4Gb,2x2Gb)-1.600Mhz,
GMC H70, Gigabyte R9 270X, Samsung 850 EVO 250GB,WD 2Tb(G),Scythe 700W, LG 23''.

hojnikb ::

*khm* witcher 3 *khm*
#brezpodpisa

FireSnake ::

Jaz igram Starcraft in Diablota - takrat ko je čas.
Procesor: Intel core i7 4770T Haswell TDP 45W LGA1150 - 4 cores 8 threads 2.5 GHz

Pa vse leti.

Bom pa imel ta procesor za prodat, ker se trenutno pogajam za i7 4790k za pametno ceno.
Poglej in se nasmej: vicmaher.si

hojnikb ::

Sepravi delajo ti vsi špili na max, ki jih ti igraš...
#brezpodpisa

D3m ::

hojnikb je izjavil:

seveda je smiseln. Noče vsak nuklearke od amdja v kišti


This is getting old man.

Recimo razlika 40W in pol prbiješ, da rabiš za AMD nuklerako Krško za nvidio pa napajalnik.

Da faq man.
|HP EliteBook|R5 6650U|

user1618 ::

Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže.
Npr. kot Sound Blaster
"If we were supposed to talk more than listen
we would have been given two mouths and one ear"
- Mark Twain

hojnikb ::

70W bi reku da ni ravno zanemarljivo za njihovo najbolj popularno kartico

#brezpodpisa

D3m ::

Kje si ostal?
|HP EliteBook|R5 6650U|

opeter ::

user1618 je izjavil:

Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže.
Npr. kot Sound Blaster


Ali pa AMD GPU v njihovih procesorjih ... sicer pa se popolnoma strinjam.
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j

FireSnake ::

hojnikb je izjavil:

Sepravi delajo ti vsi špili na max, ki jih ti igraš...



Je s tem kaj narobe?

opeter je izjavil:

user1618 je izjavil:

Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže.
Npr. kot Sound Blaster


Ali pa AMD GPU v njihovih procesorjih ... sicer pa se popolnoma strinjam.


Sam komaj čakam ta dan, ker je škoda, da je na procesorju grafa, ki pa ni izkoriščena.
Poglej in se nasmej: vicmaher.si

Zgodovina sprememb…

  • spremenilo: FireSnake ()

Senitel ::

user1618 je izjavil:

Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže.
Npr. kot Sound Blaster

To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.

Jakob_X ::

Senitel je izjavil:


To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.


Se bo eventuelno zgodilo. Low end je prakticno ze izginil.

hojnikb ::

kjub temu še vidiš najave gpujev tipa gt710 :))
#brezpodpisa

Spock83 ::

No kakšna low profile pride prav za kakšen server ali workstation kjer so ponavadi notri xeoni in nimajo onchip grafike, samo osnovno za prikaz 2D slike.

Senitel ::

Jakob_X je izjavil:

Senitel je izjavil:


To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.


Se bo eventuelno zgodilo. Low end je prakticno ze izginil.

Kaj se bo eventuelno zgodilo in kaj je zate low end?
Nismo prvič v teh debatah in ni prvič "ko je low end praktično izginil" in je ena stopnička višje postala low end.
Meni je malo hm... recimo nehigienično razmišljat o CPU-ju, kjer je 90% tranzistorjev namenjenih grafiki. In Intel je pri tem že čez 50%. In če gremo v to smer tudi x86 ni nujno neka prednost.

Zgodovina sprememb…

  • spremenil: Senitel ()

sandmodnigga ::

hojnikb je izjavil:

Sepravi delajo ti vsi špili na max, ki jih ti igraš...

Pa tudi špili, kot so Half Life 3, ki jih GabeN igra na svojem 24 nitnem CPUju v kombinaciji z 64 GB rama in tremi GTX 980Ti Special SUPER DUPER OC edition. Igra pa na 8K resoluciji, ker ga na manjših pečejo oči. Vse to v kombinaciji s parimi terabajtnimi SSDji, ki lavfajo v načinu RAID 0.

Jakob_X je izjavil:

Senitel je izjavil:


To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.


Se bo eventuelno zgodilo. Low end je prakticno ze izginil.

Ne ni. Samo meja se je premaknila.

Senitel je izjavil:

Jakob_X je izjavil:

Senitel je izjavil:


To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.


Se bo eventuelno zgodilo. Low end je prakticno ze izginil.

Kaj se bo eventuelno zgodilo in kaj je zate low end?
Nismo prvič v teh debatah in ni prvič "ko je low end praktično izginil" in je ena stopnička višje postala low end.
Meni je malo hm... recimo nehigienično razmišljat o CPU-ju, kjer je 90% tranzistorjev namenjenih grafiki. In Intel je pri tem že čez 50%. In če gremo v to smer tudi x86 ni nujno neka prednost.

Folk nori, ker nek srednji_nižji rang grafike poje nekaj let staro highend pošast. Seen that, done that. CPUji, GPUji, ekrančki, ni da ni.
Ego odnos pa to v korelaciji z zmanjšanim e-penisom.

Zgodovina sprememb…

gddr85 ::

...in grafične zahteve bodo enake, resolucija ostane fhd in vse bo delovalo bp na high/ultra na igpu-ju, gamerji končno ne bodo rabili dgpu-ja :))

sandmodnigga ::

V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe.
Efekt:
Veliko jamranje nesposobnih programerjev.
Efekt#2:
Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli.
Efekt#3:
PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.

hojnikb ::

PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.


Actually no. xbox 360 se je vedno malenkost bolje prodajal.
#brezpodpisa

sandmodnigga ::

Worldwide: 84 million (as of June 9, 2014) XBOX360
80 million (as of November 2, 2013) PS3.
Najs, PS3 je prodal 7 mescih samo 4 miljončke. Prodajaj ti te bučke nekomur drugemu.
http://www.statista.com/statistics/2767...
http://www.forbes.com/sites/erikkain/20...

Senitel ::

sandmodnigga je izjavil:

V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe.
Efekt:
Veliko jamranje nesposobnih programerjev.
Efekt#2:
Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli.
Efekt#3:
PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.

Kaj naj bi bil point tukaj?

sandmodnigga ::

gamerji končno ne bodo rabili dgpu-ja


Tudi za čas Wiija niso potrebovali oh in wow GPUja.

Zgodovina sprememb…

Senitel ::

Tako PS3 kot Wii imata GPU čip. In kaj imajo konzole s tem?

PrimozR ::

Domobrancek je izjavil:

PrimozR je izjavil:

stegl je izjavil:

če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-

nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.

Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...


No fanboy zdej pa povej zakaj nakup AMD-jevih kartic ni smiseln ?

Ker nVidia večinoma za isto ceno ponuja podoben performance ob skoraj polovični porabi. Ni treba biti ravno genij, da vidiš, da je bolj smiselno vzeti hladnejšo (bistveno hladnejšo seveda) kartico.

SimplyMiha je izjavil:

Lejte, če folk noče AMD-ja v svojem sistemu, blagor jim. Nima veze prepričevati prepričanih in še te teme uničit z obračunavanjem med rdečimi in zelenimi.

Kar pa tale Fury X2, s to ceno ni za splošno rajo. Čakamo na nekaj ugodnejšega.

Joke's on you, trenutno mi sliko prikazuje ravno Radeon, ki je bil takrat boljša izbira.

Zgodovina sprememb…

  • spremenil: PrimozR ()

HighBane ::

GPU so še daleč od tega, da bi jih stlačil zraven CPU-ja za prihodnje iger. Še vedno prihajajo ven igre, ki premikajo meje zmožnosti in potrebuješ grafično iz višjega ranga, da igraš v visoki kvaliteti. Predstavljaj si (CG) scifi scene, ki jih vidiš v filmih, ki so potrebovale pred par leti par ur (dni), da so jih zrendirali. Ti jih bo konzula čez desetletje metala ven 30 na sekundo (;)). Trenutne konzule še 1080p in 60 fps ne zmorejo.
Ne rečem, da intergrirana grafična ne bo zadovoljiva potreb večine za grafično neintenzivne igre, tipa DoTA, LoL, CSGO, World of Tanks, Overwatch. Samo je še ogromno prostora za izboljšave.

D3m0r4l1z3d ::

Napajalc je izjavil:

To zna bit top p/w zadeva.

mogoče v 4k, bomo videli
ETN Wallet addr.: etnkGuvhDzR7Dh8us4e69VStubGbmQHrh5pe2fnpNDhEhX5
A1nCWrFBMK2NmkycgVN4sAwhvY8YyNNbF6KUSJyFZ99QKU8phCn
Cryptopia ref. link: https://www.cryptopia.co.nz/Register?referrer=Anymalus

SuperVeloce ::

sandmodnigga je izjavil:

V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe.
Efekt:
Veliko jamranje nesposobnih programerjev.
Efekt#2:
Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli.
Efekt#3:
PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.

Hvala bogu, da so si premislili. Sony ni imel nič blizu temu (na gpu področju), kar sta imela ATI in Nvidia.
xbox360 je uporabil arhitekturo praktično enako takratnim radeonom x1800-x1900, PS3 pa podobno zadevo nvidii 7800gtx. Zato pa smo gledali te konzole tako dolgo, kot smo jih.
ryzen 5900x, MSI 5700xt Gaming X, 2x16GB 3600CL16, 850evo+860qvo, Fractal Mini C

jlpktnst ::

Vsi ki težite glede porabe pozabljate, da je razlika sicer opazna (v porabi), vendar pa nimaš verjetno grafe dovolj časa obremenjene na max, da bi se ti pretirano poznalo na računih.

Recimo da grafa A kuri 50W več kot grafa B. Če uporabljaš 4 ure na dan vsak dan celo leto (kar je več kot povprečen uporabnik, razen seveda če nimaš službe in si 12 ur na dan v špilih - ne pozabite, na desktopu je razlika precej manjša, sem pa dal ravno zato več ur ker je tudi sicer mogoče več porabe v idle). Je to 50w * 4h * 356 dni = 71kWh * 0,073€/kWh (enotna tarifa recimo) ~ 5€ na leto ... + mogoče kak € zaradi večje porabe na ostalih dajatvah. Torej nekje do 20€ če si res hardcore... pa če je grafa zato nekaj cenejša/boljša whatever si definitivno profitiral.
«
1
2 3
...
5


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Radeon Pro Duo: zelo zmogljiv, zelo požrešen in zelo drag

Oddelek: Novice / Grafične kartice
165603 (3561) D3m
»

AMD-jev tržni delež grafičnih kartic se je prepolovil (strani: 1 2 3 47 8 9 10 )

Oddelek: Novice / Grafične kartice
45684470 (70752) Trololololol
»

AMD Radeon R9 Fury X je tu (strani: 1 2 )

Oddelek: Novice / Grafične kartice
8029436 (16769) PredatorX
»

Novi AMD-jevi čipi R9 3xx (strani: 1 2 3 4 )

Oddelek: Novice / Grafične kartice
16741446 (33133) m0LN4r

Več podobnih tem