» »

AMD najavil Fusion: CPU+GPU

AMD najavil Fusion: CPU+GPU

AnandTech - Prav te dni, ko se končuje AMD-jev prevzem kandaskega ATi-ja, je AMD-jev PR oddelek obelodanil smele načrte okrog združitev grafičnega in centralnega procesorja. Združitev bo na voljo v vseh segmentih ponudbe, torej vse od ročnih, mobilnih, namiznih in strežniških naprav. Zaenkrat se ugiba, AMD je še zelo skop z informacijami, o tem, da naj bi pri štirijedrnih procesorjih bilo eno jedro dejansko GPU.

Če nekateri bralci mislijo, da bodo jedli enako slab golaž, kot ga je večina (odličen FPS naslov pri 20 sličicah na sekundo, na 800x600;) potrošnikov, AMD zatrjuje, da bodo še naprej podpirali rešitve za entuziaste, ki temeljijo na PCIe utoru.

Prve primerke bomo naj bi po nekaterih napovedih dobili v letu 2008.

Pričakujem, da v spodnjem grafičnem razredu ne bo več neslanih šal s čudaškimi označbami, ki so namenjene zgolj in samo temu, da zmedejo ubogega potrošnika (še pomnite GeF 4 MX?).

In spet je pred nami pomembna prelomnica.

28 komentarjev

Brane2 ::

Rahlo sem skeptičen okrog vsega tega. Kot da po nabavi Atija AMD ne bi imel prave ideje, kaj naj z njim počne.

Pričakoval sem napovedi UltraRaztur CPUjev iin GPUjev, dobil pa nekaj nejasnega. Bo enkrat čez skoraj dve leti, ne ve se pa še kaj in za koga.

Povsem možno je, da bo po vsej tej AMDjevi samohvali prvi prišel Intel na trg s čem pametnim.

Kot recimo:

- da bi imeli proci po novem SAMO HT vmesnike in nič drugega

- da bi v vsako pakungo dobil zapakiranih N procesorjev, zakopanih nekje v notranjosti in hlajenih s tekočinskim ali tekočekovinskim hlajenjem v CPU varianti. V GPU ali mešani varianti bi dobil pač ustrenzne čipe. Vse bi hladil tekočinsko in preko skupnega hladilnika na vrhu odvajal toploto tako kto sedaj to počneš- mogoče celo z natanko istim hladilnikom ! Ker bi bile vezice med čipi ZELO kratke in ker ne bi bilo praktičnih omejitev glede širine vodil, bi tako recimo zlahka imel npr. 2048-bitni RAM DDR-2, delujoč na frekvenci 2000 MHz ali kaj podobnega.

- da bi imel na plati več podnožij in bi za vsako lahko izbral, kaj boš počil not: skupino CPUjev, GPUjev, CPUjev+GPUjev ali shitload dedicated L3 cachea in RAM-a, ki preko HT kanalov servisira zahteve ostalih nodeov.
On the journey of life, I chose the psycho path.

jinzo ::

Zanimivo :) Bomo videli kako se bo to obneslo.

Zgodovina sprememb…

  • spremenil: madviper ()

globoko grlo ::

in kako se taka zadeva nadgrajuje?

GregaST ::

Ne zdi se mi nič posebnega oziroma kakšen velik mejnik.

Zgodovina sprememb…

  • spremenil: madviper ()

3p ::

Tak, precej naivno. V čem je bistvena razlika, če imaš ta GPU v centralnem procesorju ali v veznem čipu? Si bi lahko delila kake enote? Če ne bojo jedra nekako bolj univerzalna, je menda vseeno. Ali mislijo nazadnje vso čipovje z MB v en "CPU" zapeči?

Brane2 ::

Ena glavnih razlik je v hitrosti komunikacije. LAhko pozabiš na PCIe in podobne hece in prešaltaš iz prve direkt v peto... >:D

Druge so bolj odvisne od izvedbe. Lahko bi imel recimo nek deljeni L3 cache, ki bi si ga delila GPU in CPU. Lahko bi tudi imel veliko bolj neposreden in hiter dostop do kojekakvih shaderjev itd. Lahko bi mogoče upravljal tudi same enote. Lahko bi imel tudi enote, ki bi delale z nekimi področji slike v samem L3 itd itd.
On the journey of life, I chose the psycho path.

SavoKovac ::

Takšne čipe bi lahko vgrajevali v fotoaparate, kamere in TV-sprejemnike z manjšimi resolucijami.
Za nadzor nad napravo in digitalno obdelavo slike bi bilo fino met kak poceni čip, ki ne kuri 100W.

kixs ::

Brane2:
kaj si pa mislil, da bo AMD - ki je procesorska firma - naredila z ATI-jem? Logicno je, da grejo tocno v to smer, kot so nakazali s to novico!

galemir:
ni mi cisto jasno kaj bi ti z tako genericnim procesorjem pocel v fotoaparatih in podobno!? In se posebej z graficnim procesorjem.... !? Za to so posebni nameski DSP procesorji, ki so zelo hitri, hkrati pa zelo varcni.

Luka Percic ::

Zakaj je to uporabno?

Pomislite na prenosnike ki bodo zdržali par 10% več.
Pomislite na prenosnik ki bo imel hudo grafično, vendar jo bo po odklopu zunanjega napajanja ugasnil ter tako prispeval k trajanju baterije.

Pomislite na poceni htpc-je, serverje, pisarniške računalnike. Pomislite na "več monitor-no" namizje.

In kar je najpomembnejše, vse to za mali dnar.
Cant wait.

Brane2 ::

Brane2:
kaj si pa mislil, da bo AMD - ki je procesorska firma - naredila z ATI-jem? Logicno je, da grejo tocno v to smer, kot so nakazali s to novico!


Mislu sem, da so z ATIjevci delali na tem že dolgo, preden so objavili novico in da sedaj lahko napovedo nekaj manj medlega in predvsem bolj radikalno no/v/r/ega...
On the journey of life, I chose the psycho path.

Zgodovina sprememb…

  • spremenil: Brane2 ()

Zheegec ::

Druge so bolj odvisne od izvedbe. Lahko bi imel recimo nek deljeni L3 cache, ki bi si ga delila GPU in CPU. Lahko bi tudi imel veliko bolj neposreden in hiter dostop do kojekakvih shaderjev itd. Lahko bi mogoče upravljal tudi same enote. Lahko bi imel tudi enote, ki bi delale z nekimi področji slike v samem L3 itd itd.

Yeah, recimo če bi to imeli danes si lahko predstavljam en Turion64 x2 CPU+1xGPU jedro ala X1600 s 128KB L1 cache, 2x512KB L2 cache in pa 128MB L3 cache, ki ga lahko uporablja grafična, za 2D delo pa si ga lahko prilasti procesor :D Skupna cena pa nižja kot Turion64 x2 + x1600 128MB na PCIe.
"božja zapoved pravi; <Spoštuj očeta in mater>,
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014

SavoKovac ::

@ni mi cisto jasno kaj bi ti z tako genericnim procesorjem pocel v fotoaparatih in podobno!? In se posebej z graficnim procesorjem.... !? Za to so posebni nameski DSP procesorji, ki so zelo hitri, hkrati pa zelo varcni.

Dobiš nadgradljivo napravo. Me zanima, koliko tovrstnih naprav deluje po principu dinamičnih knjižnic. Majo not neke čipe, ko pa pridejo novi kodeki, pa lahko migaš z ušesi.

Na primer - naš flat-screen katodni TV ma neke provizorične tehnike za izboljšanje slike (predvidevam, da so vgradili poceni-varčne DSP čipe), če pa stvar postane programibilna, pa se pojavijo ljudje, ki stvari porihtajo (kot na primer pri firmeware-jih za divx playerje).

Zgodovina sprememb…

kixs ::

@galemir:

To kar ti govoris je cisto odvisno od proizvalajca in kako mu je vsec odprta skupnost. Genericni procesorji ti nic ne pomagajo, ce je software zaprt.

Kot primer so ti razni MP3 playerji, DVD-ROMi, DivX playjerji, ... , ko ljudje "shekajo" firmware, pa to nima nobene veze kaj zaen procesor je (naceloma). Ce imajo ljudje znanje in proizvaljalec ne zapre moznost, se lahko dogaja marsikaj.

Se enkrat ti povem, da za te naprave "genericni" procesorji niso namejeni - so prevec potratni in premalo varcni!

LP

m0LN4r ::

A nebi amd napravil eno grafo z AMD procesorjem saj po mojem bi se dalo eno CPU jedro zmoglivosti npr. 4500+ dati na grafično al ne?
https://www.youtube.com/user/m0LN4r

m0LN4r ::

al pa kdaj se bodo spomnili da bi zalima amd v enquadcore razdelil na jedra, kjer bi eno bilo posvečeno zvoku, drugo shaderjem, eno pa za ostale graf.vizu.-ne učinke, in eno ki bi bilo centralno kot navaden proc. Ampak da bi lahk delovali ti grafični čipi z izkoristljivo hitrostjo bi moral main rame spravit nad DDR3 kaj pa še rabi nekaj let za dozoret. Tak bi recimo en gamer oz. kdorkoli kupil samo matično z pci režami in en procesor, pa še rame in stem tudi končal nakup veleracunalnika.

In kaj bi dobil iz tega? eno ultimativno igračko ki troši toliko elektrike kot en navaden 4jedrni procesor ampak zna napravit vse kaj en današnji računalnik z zvočno kartico, grafično kartico in procesrjem pa še marsikaj, sam da današnji high-end pcji trošijo elektriko za 2 likalnika visjega razreda.
https://www.youtube.com/user/m0LN4r

madviper ::

Odstranil in pobrisal sem tisto kar je bilo off-topic. Naj se debata razvija naprej, brez nepotrebnih dodatkov.

Lp, madviper
I'd like to do something crazy!

Senitel ::

m0LN4r: Zakaj hudiča bi rabil tako razporeditev? Mislim, zakaj bi potreboval en core za zvok, en core za shaderje, in en core za ostale grafične učinke? Zakaj pa imamo potem sploh GPU-je? CPU nima kaj dosti brčkat pri shaderjih in grafiki, oziroma je to odvisno od tega kako je igra sprogramirana. V splošnem CPU samo polni "push buffer" grafične...
Poleg tega pri integraciji GPU-ja na CPU (ali obratno? >:D) samo prehod iz DDR2 na DDR3 ne bo pomgal čisto nič. Še vedno so vodila na vsaki malce spodobnejši grafični vsaj 2x širša, tudi low end kartice imajo še vedno večji bandwidth, ker si pasovne širine ne delijo s CPU-jem (še več: poleg svojega pomnilnika, ga kradejo še CPU-ju).

Razen za (ekstremni) low end enostavno ne vidim nobene spodobne uporabe za takole rešitev. Zakaj so recimo Intelove integrirane pogruntavščine povsem neuporabne za igre? >:D

Namesto da se na GPU gleda kot na eno zadevo, ki zna izključno samo pikce risat, bi bilo dosti bolj primerno na GPU gledat kot zelo masoven več niten kalkulator.

Zheegec ::

Ja CPU bi težko opravljal delo grafične kartice kaj hitreje kot en stari GF2, tako da to seveda odpade. Je pa za prenosnika super rešitev 3-jedrni CPU-hybrid, sestavljen iz Turion64 x2 in pa GPU dela, katera bi si skupaj delila L3 cache, ki bi bil primarno namenjen grafični kartici, 128MB L3 bi prišel kar prav, lahko bi ga razdelili na več delov pa do vsakega svoj HTT link, nekakšna čudna asociativnost (seveda namen čisto drugačen), ampak bi pa funkcioniralo tako kot tudi širša vodila pri grafičnih karticah.

Cool 'n' Quiet mode bi pa porabo energije lahko zelo zbil, tako da bi to bila kar huda integrirana rešitev za prenosnika, seveda še vseeno počasnejša kot ločene grafike.

No ja, 128MB L3 cache bi tudi imelo svojo ceno, toda glede na to da je off-chip, pa počasnejši kot L2 najbrž ne bi bilo tako hudo. South-bridge bi bil lahko pa zelo preprost, north-bridge pa nepotreben.
"božja zapoved pravi; <Spoštuj očeta in mater>,
ne govori pa o spoštovanju sodstva."
Janez Janša, 29.04.2014

Tarzan ::

Konec koncev, 128MB L3 bi lahko preimenovali kar v 128MB pomnilnika za grafično kartico, procesor pa ga v bistvu sploh ne bi uporabljal. L3 pripomore bore malo na hitrost procesorja (no, morda pri 128MB bi pohitritev dejansko bila opazna >:D ). Drugače pa bi lahko dobil GPU Core svoj L4;) . Stlačiti 128MB predpomnilnika je precej težko, seveda L3 še najlažje, ampak vseeno... vprašanje kakšno ceno bi to zahtevalo. Je pa res da pri 0,65mikronih bo to precej lažje kot trenutno, v stopničko manjši tehnologiji pa še precej lažje.

m0LN4r ::

To pomeni, da zgradbo GPUja ne moremo nikakor prenesti v eno izmed cpu enot? In zakaj lahko na grafičnah ustvarijo tako velik bandwidth na cpu vezju pa ne. Saj zdaj lahko ati in amd združi te napredne tehnologije in recimo naredi.

ja pa mislil sem na funkcionalnost (eno jedro za zvok eno za graf in shad. pa to) da bi enostavno znižali uporabo kartic v racunalnikih. In ne da bi cpu opravljal enako delo kot gpu ampak da bi GPU bil poleg CPU in stem si delila samo mesto v pcju.
https://www.youtube.com/user/m0LN4r

SavoKovac ::

Tak procesor bi se dal lepo ponucat za prenosne igralne platforme. 16MB GDDR3-like memory bi znalo bit dovolj kot spodnja meja. OS daš v flash-ROM, stvar pa sprogramiraš tako, da podpira "memory paging" in lahko nucaš tut pomnilnik s kartice.

Senitel ::

Tarzan: 128MB pomnilnika je 2048 milijonov tranzistorjev, za primerjavo: Core 2 Duo jih ima 290 milijonov, G80 okrog 700 milijonov. Kam boš sedaj to čudo dal?

m0LN4r: Širina vodila nima kaj bistvenega z zgradbo GPU... Niti ni fora, da se pri CPU-ju ne bi dalo razširit vodila... Fora je, ker bi se moral komplet vse kar je na matični na novo dizajnirat, vključno z režami za ram in pomnilniškimi moduli. Že če prestaviš nekaj ala NV44 (GeForce 6200) na CPU boš čip efektivno kastriral, če ne boš zraven še podvojil širine vodila.
Kar se performans tiče ima tak pristop samo eno prednost: to da je zraven ATI, ki za razliko od Intela dejansko zna naredit teksturirne enote na GPU. To intelu manjka. Če lahko to sedaj spraviš celo na en čip, je za koga to verjetno dejansko vredu...

Tarzan ::

Senitel: Točno to je največji problem. V primeru, da bi, kot je bilo to včasih, procesor stlačili s socketa xy na slot xy, bi bila zadeva še nekako izvedljiva, drugače pa bi morali drastično znižati velikost pomnilnika namenjenega GPU. Na manj kot 65 nanometrih morda bodo lahko na en čip celo vtaknili kakšno relativno zadostno količino pomnilnika, ampak potreba po velikosti le tega, se bo do takrat tudi še precej povečala. Mislim, da se strinjava, da high-end grafične kartice bodo še lep čas ostale v obliki kot jih poznamo.

edit: typo

Zgodovina sprememb…

  • spremenil: Tarzan ()

Wirko ::

Najprej bodo za vajo samo spravili procesor in GPU na isti čip, potem pa bodo gotovo tudi arhitekturno zbližali enega in drugega. To bo itak samo nadaljevanje dosedanjega razvoja.

V prihodnosti si predstavljam nekaj v smislu heterogene večjedrnosti - vsa jedra sicer lahko opravljajo vse naloge, samo da so nekatera še bolj prilagojena za grafiko, nekatera za enkripcijo itd. Pa še kakšno križanje s koncepti Cella (npr. lokalni RAM vsakega jedra) ali pa programabilnih logičnih vezij se zna zgoditi. Vse pač za čimboljši izkoristek silicija.

Quikee ::

To je nesmiselno.. danes imaš na GPU-ju (ki ga lahko označiš tudi kot za "stream processor") po 48 shaderjev (v prihodnosti še več), na katere lahko gledaš kot "light weight" procesorska jedra. En CPU z 48 jedri ne bo nikoli tako hiter kot je en GPU z 48 shaderji za določena opravila (predvsem 3D grafika, tudi zelo močno 2D grafika in učinki, vektorska grafika, obdelava zvoka, fizika, razne kompresije, itd. - "stream processing" je še bolj ali manj v povojih). Vse skupaj miksat bi bilo brezveze.

Edino kaj bi lahko je, da bi zbližali CPU in GPU s tem, da bi bila povezava med njima čim hitrejša in pa skupen pomnilnik recimo - ko bo sistemski dostojno hiter. Kljub vsemu pa bi še vedno morala biti oba dela striktno ločena - vsak pač za svoj tip opravila.

Senitel ::

Tako kot je Quikee rekel. Pa še nekaj je... Sama izkoriščenost jedra. To je pri načinu procesiranja na CPU bolj težko povečat, naslednja generacija GPU-jev bo pa glede tega precej hud napredek.

SavoKovac ::

Vertex unit se lahko lepo ponuca tudi za številske operacije, povezane z klasično kodo, ki jo sicer žveči cpu. Po moje se lahko zgodi, da bodo dodali nekaj registrov (podobno, kot se sedaj med vertex in fragment uniti) tudi med cpu-jem in vertex enotami.

Zgodovina sprememb…

strictom ::

Ne upa pa čez nVidio pimfat :)
"Violence is the last refuge of the incompetent" - Salvor Hardin


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Intel v odgovor na Ryzen močno pocenil procesorje (strani: 1 2 3 )

Oddelek: Novice / Procesorji
11921309 (14522) klinker
»

AMD: informacije o R600, Fusion komaj leta 2010

Oddelek: Novice / Grafične kartice
403784 (2446) @LOL
»

Bo Intel prevzel nVidio?

Oddelek: Novice / Nakupi / združitve / propadi
474816 (2867) tha_man
»

Dell: 20 milijonov AMD procesorjev

Oddelek: Novice / Procesorji
162983 (2285) Markoff
»

Bomo odslej kupovali AMD Radeone?

Oddelek: Novice / Grafične kartice
304152 (2381) Jaka83

Več podobnih tem