» »

Konec velikih GPUjev

Konec velikih GPUjev

The inquirer - Čeprav še niti naslednja generacija Radeona ( R600) ni na policah, The Inquirer že poroča o novostih v arhitekturi R700. Če se ne motijo, bomo na ATI-jeveih (pardon, AMD-jevih) grafičnih karticah naslednje generacije videli večje število manjših GPUjev.

Ko začnete o tem razmišljati, se zdi zadeva očitna. Največji del aktualnih GPU-jev sestavlja veliko število identičnih procesnih enot ("stream processorjev"). Tako imamo recimo GeForce 8800 GTX z 128-timi, GTS s 96-timi, tisti z bolj plitvimi žepi pa čakamo na 8600-ce, 8400-ce itd., na katerih jih bo še manj. Če bi imeli namesto tega modularni GPU, z recimo 16 stream procesorji, priključenimi na dovolj zmogljivo vodilo, bi bila izdelava različno zmogljivih grafičnih kartic enostavno vprašanje tega (če seveda zanemarimo vse tehnične podrobnosti), v koliko podnožij bomo vtaknili GPU-je, koliko pa jih bo ostalo praznih. GPU-ji bi bili zaradi tega manjši in s tem cenejši za izdelavo, proizvajalec pa bi z enim samim GPU-jem pokril celotno paleto izdelkov iste generacije.

Slišijo se tudi šepetanja, da bo po podobni poti šla tudi nVidia z G90.

42 komentarjev

G-man ::

Kupec: "Eno grafično kartico prosim." Prodajalec: "Kolk procesorjev pa?" -"Štiri. NE, kar šest mi jih pripopnite!"

Zgodovina sprememb…

  • spremenil: G-man ()

PaX_MaN ::

Sej zadeva je modularna, samo ne v končnem produktu:D

simnov ::

kako bi pa prodajalec tako majhne gpuje dal gor če jih ne vidi z prostim očesom

Loksorr ::

Tko glih ne bo, ker je lotanje zeloo drago in komunikacija med žipi počasna. Prej bi reku, da bo na enem fizičnem čipu več enakovrednih enot povezanih med seboj. Torej nekako tako kot novi cpuji. Cenejše različice bodo pač imele nekatere procesorčke izklopljene.
Živi in pusti umreti

Ch4N93 ::

Sej zadeva je modularna, samo ne v končnem produktu

Zakaj pa ne bi bila?
Danes kupiš recimo kartico z dvema GPU-jema, čez pol leta pa še dva dodatna.
Naj še naredijo Tiny slote za RAM pa smo zmagali. :D

EDIT: dodan citat ter spodnji text

kar pa se tiče:
kako bi pa prodajalec tako majhne gpuje dal gor če jih ne vidi z prostim očesom

če je jedro zapakirano v ohišje se še kako vidi...
Ni nam lahko...

Zgodovina sprememb…

  • spremenil: Ch4N93 ()

ALTbla ::

samo res, zakaj ne naredijo kaksne slote za dodajat taksne procesorje? sploh ce bi GPUji naslednjih generacij bili tudi kompatibilni s starejsimi karticami.. in moznost dodajat rama.. zelo zanimivo bi bilo.. ali pa na laptopih zamenljive graficne.. ma veliko tega bi se dalo dobrega naredit,a kaj ko se taksne stvari ne ujemajo z koorporacijskimi načrti maksimiranja dobička..

CWIZO ::

Al pa najbolje da kar namesto grafične kartice v slot zatakneš kar še en PC pa bo ta za grafiko skrbel:)
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...

ALTbla ::

ja sj vse leze v to smer.. tista mrezna z svojim CPU in ramom itd je dobr dokaz bla :)

Good Guy ::

končno....

sam to bo bl K***.... al bos dav 2 x na let 50k za proc, al pa ce daš na 1.5 leta 150k za grafo.
http://goo.gl/7ItKpU
Naj računalnik dela za vas^^

sammy73 ::

A ni že 3dfx poizkušal nekaj takega pred leti, pa mu ni uspelo zmanjšati porabe posameznih procesorjev in je bila za kartico z osmimi enotami potrebna posebna elektrarna?

Jernej L ::

A se bo tako dalo tudi nadgraditi Vram?

ricola78 ::

Problem 3dfx-a je bil, ker je zamudil za ene pol leta, si pridelal nekaj izgub in nato ga je pohopsala Nvidia. Pa poraba je bila relativno viska glede na takratne 250W napajalnike pa tudi AGP ni dovajal dovolj štroma. Zato je rabila kartica s 4-imi VSA 100 procesorji dodaten napajalc. Sicer mi je še danes škoda da ni več 3dfxa med vodilnimi, saj bi definitivno pripomogel k večji konkurenci.

Tr0n ::

Prihodnost so softwarski ugrejdi. Ti bodo po liniji poslali par nanobotkov, ki ti bodo predelali integrirane cipke v bolj zmogljivejse verzije.

That's what I want for Christmas.

joebanana ::

Ah pomoje je bolš en močnej procesor kot mljavžnt drugih razn za probleme, ki so definirani vzporedno.(neb se branu kvantnega procesorja :D )

Pesimist ::

Torej bo osnova ista za vse ti pa jih sestavljal kot legokocke? Bos rabo enih 50 low end procesorjev da bos sestavo 8800GTX te :D
Te ce bo ta generacija zadna prava karta me must have 2 :D

Zgodovina sprememb…

  • spremenilo: Pesimist ()

Senitel ::

The Inquirer pač... :\

suntrace1 ::

A niso nedolgo nazaj napovedovali združitev CPU in GPU v eno enoto?

profii ::

zanima me kak bo z hladilniki za te grafe. če bo usak model ime drugje gpu-je(in različno število) in drugje luknje.
potem si pa predstavljajte da sami dodate še 2 gpuja pa spet nov hladilnik?

3p ::

Sentinel: Ja, včasih kiksnejo, včasih pa kaj lepo izvohajo (kot piše tudi na wikipediji). Vsekakor pa je to bolj spekulativni članek in tudi, če so jim viri prav namignili, si lahko ATI še premisli...

zvite grable ::

Zanimivo kartico je naredil MSI z GEMINIUM GO. Nanjo si lahko dau dva 6600 mxm jedra. http://www.msi-computer.nl/perscentrum/...

zvite grable ::

8-O

Zgodovina sprememb…

  • zavarovalo slike: gzibret ()

Pesimist ::

hehe. To zgleda kr dobro. Eno tako plato se kot je mama plata pol pa jedra gor z selotejpom prilepis :D

zvite grable ::

Dobr bi blo če bi jemu dve take karte vezane v sli. Pol bi meu 4 X 6600 go:P

Tr0n ::

Ah, ni prakticno. GPU mora bit majhen, z majhno porabo, tih in hiter. Vse te SLI variante so prevec pozresne.

G-man ::

Heh, imam idejo za patent: GMP - grafična matična plošča. :D

zvite grable ::

Tale kartica podpira mxm gpu-je ki so narejeni za prenosnike. Malo porabe, hrupa in vročine.:)) Škoda da ni prsla v prodajo:\

FireSnake ::

kako bi pa prodajalec tako majhne gpuje dal gor če jih ne vidi z prostim očesom


HAHAHA, samooklicani poznacvalec graficnih strikes again....>:D

Back to topic: pravzaprav zelo zanimiva ideja, ampak GPUji se dokaj hitro razvijajo, in tlacit vec (starih) procesorjev v zastarelo graficno menda ne bi bilo prevece smiselno....

Ampak pustimo se presenetiti ;)
Poglej in se nasmej: www.vicmaher.si

Pesimist ::

razvijajo se dokler jih kdo razvija in to sta trenutno samo Nvida in AMD. Mogoce se kaki S3. Ce jih ti vec ne razvijao in stavijo na to novo zadevo nebos nikjer dobil teh novig GPUjev a ni logicno?

zvite grable ::

LINK
V bistvu to ni grafična temveč samo adapter kli podpira MXM module, kar pomeni da lahko damo gor tudi GO 7900gtx

sammy73 ::

kako bi pa prodajalec tako majhne gpuje dal gor če jih ne vidi z prostim očesom


Prodajalec si bo moral kupiti mikroskop, mogoče pa bodo take GPU-je prodajali kar na kilograme ali pa na litre. :D

destiny ::

:D 1 kilo paradajza in pol kile ATIjev prosim...

CoolBits ::

Po mojem bojo to dodatni čipki na grafični podobni čipom za spomin...vsebovali pa bojo nove "unified shaderje" lahko po 50-100 njih na enem čipu... centralni GPU bo tako lahko manjši...

nvidio z 1Gb spomina pa 200 shaderji prosim 8-O :D

Dr_M ::

Sej zadeva je modularna, samo ne v končnem produktu:D

jest se s tem popolnoma strinjam. modularno bo samo za proizvajalce kartic, ne pa za prodajalca in koncnega uporabnika. sej to ni kruh pa salama.
fizicno bodo kartice se vedno razlicne, npr ena bo mela 4 nalote gpuje, druga 6, itn...
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.

tris ::

...ampak hladilo bi se pa že po defaultu bolje....ker ne bi bilo vse stlačeno v en kos plastike...

Highlag ::

Ne vem no. Procesor rabi za komunikacijo z zunanjim svetom en kup periferije. Če pomanjšaš procesor na račun manjšega števila shaderjev, kljub temu vsak še vedno rabi vse ostalo. Če se podatki pretakajo po 128bitnem vodilu ta to rabiš vsaj 128 nogic. Poleg vseh drugih. In naenkrat ugotoviš, da se ohišja ne morejo bistveno pomanjšati. Problem ostaja tudi hlajenje. En cpu je lažje hladit kot dva. Za dva rabiš dva hladilnika - ki zavzemata prostor, ki sploh ni majhen, pa pritrdilne luknje, ventilator....... V glavnem :\
Never trust a computer you can't throw out a window

rapz0r ::

Totalno brezvezna debata. Še R600 prototipa ni pa že neki o R700 sanjajo.

Dajte nam dejanske informacije o R600 ne pa neke futuristične blodnje ...

Senitel ::

3p: Včasih kiksnejo? >:D Povej eno stvar, ki so jo zadel o G80... >:D Problem z Inquirerjem je, da postajo čist vsako divjo idejo, brez kakršnega koli premisleka, kot fact! Recimo una šerada z RyderMark-om letos poleti in unimi screen shoti. Veš kaj je bil največji šok v zvezi s tem, ko sem prišel k NV? Da ta folk dejansko obstaja, sicer noben ne ve nič o tem benchmarku, razen da se občasno en model pokaže na kakšnem sejmu pred NV štantom z "Do you know who I am?" ("No." >:D).
Niti se noben ne vpraša kako bi se recimo tale ideja izpeljala. "Hej no pa dajmo GPU razbit na posamezne komponente, tko da lahko sestavmo grafičko ko iz kock..." Ja, great ane... Kako bojo pa te posamezna manjša ločena jedra komunicirala med sabo? Lahko ste prepričani, da 512 bitno vodilo ne bi bilo dovolj samo za komunikacijo med jedri! Ampak ok, je fino fantazirat... :\
Dosti bolj zanimiva in realna ideja je, da bi RAM čipe naredil mal bolj "smart", samo to potegne najprej enega potem pa še drugega proizvajalca GPU-jev še v DRAM biznis. ;)

rapz0r: Močno upam, da je R600 sedaj že počasi pri developerjih...

RejZoR ::

Če bi se kdaj zgodila modularna zasnova to ne bo na teh karticah ampak bo ena velika mamaplata na katero bomo tlačili čipe (tko kot že zdej CPU in RAM, bomo verjetno nekoč tud GPUje).
Lahko pa se zgodi da bo zadeva fiksna in nenadgradljiva, skor kot konzole. Kupil boš komplet plato na kateri bo že vse gor in slednje se bojo razdelile na 3 klase ko so že zdej (budget/low, mid in high end).
Ker tolk kot danes menjajo blesave sockete je nadgrajevanje povsem nesmiselno, grafe pa tak al tak povsem zastarajo po 2 letih.
Angry Sheep Blog @ www.rejzor.com

Bistri007 ::

!!!
Pa to je mišljeno, da je GPU ali 8core za low end ali 32core za high end.
Saj če pogledate AMDjeve dokumente, so govorili, da bodo imeli mainstream segmenti nekaj CPU enot, malo GPU; za gamerje več CPU in več GPU enot.

Kaj vi nekaj govorite o tlačenju čipov v motherboard? To je vse zapakirano v en C-GPU čip! :\
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...

RejZoR ::

Seveda. Si kdaj pomislil, da ogromni čipi fašejo nizke yelde, se radi grejejo v tri krasne? Edino kar jih rešuje so optimizacije ala downclockanje ko se ga ne rabi, izklapljanje segmentov čipa in manjši die size ter izkušnje s prejšnjimi procesi izdelave. Al bo mel čip 150 stopinj in bo serijsko hlajen s tekočim dušikom al pa se bojo mogl spomnit neki orenk novega. Ker s trenutno tehnologijo to ne bo šlo (brez manjših ali večjih zapletov).
Angry Sheep Blog @ www.rejzor.com

sammy73 ::

ja, kot enojedrni, dovjedrni ali štirijedrni procesorji.

Bistri007 ::

>da ogromni čipi fašejo nizke yelde
Če je pokvarjena ena funkcionalna enota (eno jedro), potem se ga da preprosto izklopiti, če ne prestane self-testa.

Saj ima tudi Cell čip za PS3 osem SPE enot, vendar je vklopljenih samo sedem. Torej, tudi če je ena izmed njih pokvarjena, ni čip za v koš.
Isto - če ima GPU 32 jeder - pet jih je pokvarjenih - še vedno ga lahko uporabiš za v kartico, ki ima 24 delujočih jeder.
:D
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

12000 točk R600 XT v 3DMark06?

Oddelek: Novice / Grafične kartice
284243 (2855) Shegevara
»

Test Radeona X2800 XTX (R600)? (strani: 1 2 )

Oddelek: Novice / Grafične kartice
718557 (5087) Pesimist
»

Prva slika Radeona X2800 (R600)

Oddelek: Novice / Grafične kartice
485385 (2729) Tilen
»

Poraba R600 bo 250 W?

Oddelek: Novice / Grafične kartice
304202 (2997) balocom
»

Nvidiin čip naslednje generacije-G70 (strani: 1 2 3 47 8 9 10 )

Oddelek: Strojna oprema
45823066 (13954) Senitel

Več podobnih tem