Slo-Tech - AMD je na sejmu Virtual Reality Los Angeles minuli konec tedna pokazal svojo najhitrejšo grafično kartico z dvema čipoma Fiji XT, ki se imenuje Radeon R9 Fury X2 oziroma kratko Gemini. V sestavljenem sistemu so pokazali, kako se nova kartica obnese v celotnem sistemu za navidezno resničnost, pri čemer so uporabili HTC Vive. Gemini bi bil moral iziti že decembra, a ga je AMD prestavil na prvo letošnje četrtletje, ko dobimo tudi Oculus Rift, HTC Vive in druge izdelke za navidezno resničnost. Naslednja generacija (Polaris) pa sledi kasneje.
Radeon R9 Fury X2 ima dva Fiji XT, ki tiktakata s 1000 MHz in imata vsak 4 GB pomnilnika HBM VRAM, ki pa je pol počasnejši. To pomeni, da dobimo 8192 tokovnih (stream) procesorjev, dve 4096-bitni vodili, 128 ROP, 512 TMU, prepustnost 1 TB/s z deklarirano porabo električne energije 375 W. V primerjavi z enim čipom Fury X2 naj bi bil Gemini 80 odstotkov hitrejši pri 4K. Cena še ni znana, pričakujemo pa lahko, da bo za kartico treba odšteti kakšnega tisočaka.
Kljub zelo zmogljivim specifikacijam bo kartica fizično krajša od na primer Radeona HD 5970 ali R9 295X2, ker so prvikrat uporabili zlaganje pomnilniških čipov v višino (3D HBM namesto klasičnega GDDR5).
če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-
nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.
Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...
če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-
nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.
Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...
No fanboy zdej pa povej zakaj nakup AMD-jevih kartic ni smiseln ?
Lejte, če folk noče AMD-ja v svojem sistemu, blagor jim. Nima veze prepričevati prepričanih in še te teme uničit z obračunavanjem med rdečimi in zelenimi.
Kar pa tale Fury X2, s to ceno ni za splošno rajo. Čakamo na nekaj ugodnejšega.
Gledam tiste luknje okoli dveh čipov, pa je edino, kar mi pride na misel, hlajenje z vodnim blokom? Zagotovo ekwb custom made :)
Kaj pa, če drži ogromni hladilnik.
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
Antifašizem je danes poslednje pribežališče ničvredneža, je ideologija ničesar
in neizprosen boj proti neobstoječemu sovražniku - v zameno za državni denar
in neprofitno najemno stanovanje v središču Ljubljane. -- Tomaž Štih, 2021
Od Martoxa G200 naprej sem imel same ATIjeve kartice. Vmes 4770, zdaj Radeon 7950 in nimam pojma o čem govoriš.
Pa nisem fan rdečih ... ampak, do zdaj ni bilo problemov, zakaj bi menjaval (pa tudi ob nakupu je bilo tako, da sem za svoj denar dobil največ)? Da ne pozabim: Radeon 7950 je bil kupljen rabljen ...
Imam AMD 270X, deluje super, tiho in hladno. Poganja pa na full HD monitorju vse špile in vse na max. Kaj češ druzga. pa sem za njo dal 200€ 2 leti pa še malo nazaj. za 3 leta bo sigurno še, tako kot sem pred njo mel ATI 4850, ki je bla cca 150€ ene 8 let nazaj pa je poganjalo vse saj 5 let, ne na max, sm je pa delalo dobro.
AMD Phenom II 1090T,ASUS M4A89GTD PRO/USB3,12 Gb RAM(2x4Gb,2x2Gb)-1.600Mhz,
GMC H70, Gigabyte R9 270X, Samsung 850 EVO 250GB,WD 2Tb(G),Scythe 700W, LG 23''.
Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže. Npr. kot Sound Blaster
"If we were supposed to talk more than listen
we would have been given two mouths and one ear"
- Mark Twain
Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže. Npr. kot Sound Blaster
Ali pa AMD GPU v njihovih procesorjih ... sicer pa se popolnoma strinjam.
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže. Npr. kot Sound Blaster
Ali pa AMD GPU v njihovih procesorjih ... sicer pa se popolnoma strinjam.
Sam komaj čakam ta dan, ker je škoda, da je na procesorju grafa, ki pa ni izkoriščena.
Čez par generacij bo Intel GPU zadovoljil vse potrebe iger in trg diskretnih grafičnih procesorjev se bo zožal na profesionalne aplikacije/namensko distribuirano procesiranje/domače petičneže. Npr. kot Sound Blaster
To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.
No kakšna low profile pride prav za kakšen server ali workstation kjer so ponavadi notri xeoni in nimajo onchip grafike, samo osnovno za prikaz 2D slike.
To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.
Se bo eventuelno zgodilo. Low end je prakticno ze izginil.
Kaj se bo eventuelno zgodilo in kaj je zate low end? Nismo prvič v teh debatah in ni prvič "ko je low end praktično izginil" in je ena stopnička višje postala low end. Meni je malo hm... recimo nehigienično razmišljat o CPU-ju, kjer je 90% tranzistorjev namenjenih grafiki. In Intel je pri tem že čez 50%. In če gremo v to smer tudi x86 ni nujno neka prednost.
Sepravi delajo ti vsi špili na max, ki jih ti igraš...
Pa tudi špili, kot so Half Life 3, ki jih GabeN igra na svojem 24 nitnem CPUju v kombinaciji z 64 GB rama in tremi GTX 980Ti Special SUPER DUPER OC edition. Igra pa na 8K resoluciji, ker ga na manjših pečejo oči. Vse to v kombinaciji s parimi terabajtnimi SSDji, ki lavfajo v načinu RAID 0.
To je že leta en tak pipe dream. Lahko pa čisto isti zaključek potegneš za Intel CPU-je.
Se bo eventuelno zgodilo. Low end je prakticno ze izginil.
Kaj se bo eventuelno zgodilo in kaj je zate low end? Nismo prvič v teh debatah in ni prvič "ko je low end praktično izginil" in je ena stopnička višje postala low end. Meni je malo hm... recimo nehigienično razmišljat o CPU-ju, kjer je 90% tranzistorjev namenjenih grafiki. In Intel je pri tem že čez 50%. In če gremo v to smer tudi x86 ni nujno neka prednost.
Folk nori, ker nek srednji_nižji rang grafike poje nekaj let staro highend pošast. Seen that, done that. CPUji, GPUji, ekrančki, ni da ni. Ego odnos pa to v korelaciji z zmanjšanim e-penisom.
V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe. Efekt: Veliko jamranje nesposobnih programerjev. Efekt#2: Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli. Efekt#3: PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.
V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe. Efekt: Veliko jamranje nesposobnih programerjev. Efekt#2: Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli. Efekt#3: PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.
če gre amd kaj bom potem imel v kompu? intelovo intergrirano al kaj?! -.-
nVidia much? trenutno nakup AMD-jeve grafične ni pretirano smiseln, žal.
Tole pa tudi ni ravno 4k beast, ker se več kot ena grafična dandanes obnese vedno slabše. En redkih primerov, kjer sta dve grafični kul, je VR, ker za vsako oko porabiš en GPU in se tako izogneš celemu kupu problemov multi-GPU prikaza na enem monitorju. Razlaga, zakaj je temu tako: http://www.anandtech.com/show/9874/amd-...
No fanboy zdej pa povej zakaj nakup AMD-jevih kartic ni smiseln ?
Ker nVidia večinoma za isto ceno ponuja podoben performance ob skoraj polovični porabi. Ni treba biti ravno genij, da vidiš, da je bolj smiselno vzeti hladnejšo (bistveno hladnejšo seveda) kartico.
Lejte, če folk noče AMD-ja v svojem sistemu, blagor jim. Nima veze prepričevati prepričanih in še te teme uničit z obračunavanjem med rdečimi in zelenimi.
Kar pa tale Fury X2, s to ceno ni za splošno rajo. Čakamo na nekaj ugodnejšega.
Joke's on you, trenutno mi sliko prikazuje ravno Radeon, ki je bil takrat boljša izbira.
GPU so še daleč od tega, da bi jih stlačil zraven CPU-ja za prihodnje iger. Še vedno prihajajo ven igre, ki premikajo meje zmožnosti in potrebuješ grafično iz višjega ranga, da igraš v visoki kvaliteti. Predstavljaj si (CG) scifi scene, ki jih vidiš v filmih, ki so potrebovale pred par leti par ur (dni), da so jih zrendirali. Ti jih bo konzula čez desetletje metala ven 30 na sekundo (). Trenutne konzule še 1080p in 60 fps ne zmorejo. Ne rečem, da intergrirana grafična ne bo zadovoljiva potreb večine za grafično neintenzivne igre, tipa DoTA, LoL, CSGO, World of Tanks, Overwatch. Samo je še ogromno prostora za izboljšave.
V bistvu ga v času PlayStation 3 niti niso rabili. Sonyjevi inženirji so bili tako prepričani v svoje procesorje, da so imeli namen izdati konzolo brez neke posebne grafične. Na koncu so si premislili in noter porinili en drek od grafe. Efekt: Veliko jamranje nesposobnih programerjev. Efekt#2: Kdor je znal programirati, je dobil lepšo igro kot na konkurenčni konzoli. Efekt#3: PS3 je bil kljub kasnejšemu štartu bolje prodajan od konkurenčnega Xboxa.
Hvala bogu, da so si premislili. Sony ni imel nič blizu temu (na gpu področju), kar sta imela ATI in Nvidia. xbox360 je uporabil arhitekturo praktično enako takratnim radeonom x1800-x1900, PS3 pa podobno zadevo nvidii 7800gtx. Zato pa smo gledali te konzole tako dolgo, kot smo jih.
ryzen 5900x, MSI 5700xt Gaming X, 2x16GB 3600CL16, 850evo+860qvo, Fractal Mini C
Vsi ki težite glede porabe pozabljate, da je razlika sicer opazna (v porabi), vendar pa nimaš verjetno grafe dovolj časa obremenjene na max, da bi se ti pretirano poznalo na računih.
Recimo da grafa A kuri 50W več kot grafa B. Če uporabljaš 4 ure na dan vsak dan celo leto (kar je več kot povprečen uporabnik, razen seveda če nimaš službe in si 12 ur na dan v špilih - ne pozabite, na desktopu je razlika precej manjša, sem pa dal ravno zato več ur ker je tudi sicer mogoče več porabe v idle). Je to 50w * 4h * 356 dni = 71kWh * 0,073€/kWh (enotna tarifa recimo) ~ 5€ na leto ... + mogoče kak € zaradi večje porabe na ostalih dajatvah. Torej nekje do 20€ če si res hardcore... pa če je grafa zato nekaj cenejša/boljša whatever si definitivno profitiral.