» »

Združitev CPU in GPU leta 2008?

Združitev CPU in GPU leta 2008?

X-Bit Labs - AMD-jev tehnični direktor, Phil Hester, je v intervjuju za Cnet News.com dejal, da naj bi prvi procesor z integriranim grafičnim procesorjem izdelali leta 2008 v 45 nanometrskem procesu. O izdelavi tovrstnega izdelka pričajo govorice tudi iz Intelovih logov. Tako bi z združenim procesorjem ter grafičnim procesorjem lahko procesorska giganta kupcem ponujala energijsko varčne, a kljub temu zmogljive računalniške sisteme.

Več na X-bit labs.

23 komentarjev

Hux ::

zdi se mi brezveze. Energetsko varcne in poceni sisteme? To ze mamo danes z integriranimi graficnimi na platah anyone?

Zgodovina sprememb…

  • spremenilo: Hux ()

TEDY ::

To je verjetno mišljeno kot energetsko varcne, vendar zmogljivejše:)

Azrael ::

Ko sem prebral naslov sem pomisli, to je znal že Sinclair ZX 80 in njegova naslednika ZX81 in ZX Spectrum, pred 25. leti.

Glede novice. Zlitje CPU in NB je uporabna rešitev za cenovno low end sisteme, ki bodo imeli vsaj to hibo, da jih bo praktično nemogoče HW posodabljati. Za poceni notesnike, razne VIA Epia konkurente in podobno, odlična stvar.

Matična plošča bo tako lahko smešno majhna z minimumov elementov (skoraj One Chip PC rešitev) in razen CPU, bodo ti elementi povečini le še konektorji za napajanje, RAM in I/O naprave.
Nekoč je bil Slo-tech.

Loksorr ::

če oboje spraviš na isti čip bo predvsem hitrejše, saj se tista povezava med čipom pri današnjih frekvencah zelo pozna. Poleg tega bo bolje za računsko zahtevne operacije, ki ne rabijo grafike(GPU se že zdaj uporablja za računanje, če je pa to avtomatizirano pa toliko bolje.)
Nadalje komunikacija med pomnilnikom in procesorjem in GPU se izboljša.
Potem namesto da imaš ram na plati in na kartici boš imel samo na plati.(verjetno bo trebanekoliko razširit povezavo med procesorjem in pomnilnikom)

In seveda cena bo nižja, kar ni slabo. Povezave na čipu so mnogo cenejše kot povezave med čipi.
Pa poraba tudi, saj če prav vem so CPE zgrajeni boljši tehnologiji kar se tiče velikosti tranzistorjev
Živi in pusti umreti

Mavrik ::

Mel boš pa vseeno problem povezljivosti z rami.
The truth is rarely pure and never simple.

Pyr0Beast ::

Se mi zdi, da bi bilo to odlično, kupiš 'semprona all in one' in imaš mir z izbiro graf/plat za low-cost sisteme. :D Različni GPU-ji z različnimi CPU-ji, oz. več kot daš za proc, boljšo grafo (in CPU) maš.
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Hux ::

Jah sej 2008 bo tak najpocasnejsa ta stvar dosti hitrejsa od danasnjih najmocnejsih graficnih samo v primerjavi z 2008 kartami bo ko low end sistem.

Loksorr ::

Problem povezlivosti z raami boš imel vedno(oziroma dokler se kaj drastičnega ne zgodi). Saj je to koneckoncev ozko grlo.
Samo te težave ne bodo nič manjše če imaš GPU na svoji platci.(Razen če bi uvedu kaak zelo kompliciran sistem.)

In ja to ne bo rešitev za hi end gamer sisteme. tam se ti bo ravno zardai posebnega rama za GPU poznalo. Vprašanje je bilo zakaj je to boljše od na plati integrirane GPU.
Živi in pusti umreti

Loksorr ::

Pa še nekaj sem pozabil: To bi lahko bilo zanimivo v kombinaciji z dodatnim GPU. V tem primeru bi ti procesorjev GPU lahko kril PPU pa SmellPU pa karkoli si bodo že zmislni.
Živi in pusti umreti

Senitel ::

Mislis, da bo GPU postal kar nekaksen SSE? Ne, se zmer bos imel klasicne API-je za dostop do GPU-ja.

Tear_DR0P ::

mene bi tak proc interesiral, za sestro rabim čim manjšo škatlo, ki bo podpirala brskanje po webu, pisanje v wordu in MSN protokol - ker pa nima placa v sobi, je dobr da je vse skupi majhno, tiho in hladno - seveda je dobro tudi če je skoraj zastonj :)
"Figures don't lie, but liars figure."
Samuel Clemens aka Mark Twain

balocom ::

klik
offtopic: če more bt majhno, pol bo zadeva na zgorem linku zhir dobra.
V svetu brez googla bi bil najbolj uporabljen ukaz v bash-u ukaz man

Phoebus ::

Očitno še nihče od vas ni slišal za Cyrix Media GX ;)
Bilo je to v času ko sta bila CX 6x86 PR166MX in Cx 6x86 PR200MX kao best buy za normalno delo (hitrejša od intla s podobnimi clocki), dali so pa ven tudi Media GX; 150MHz CPU ki je imel integrirano tudi zvočno in grafo; v enem čipu. Žal sem videl samo dva primerka; toliok o popularnosti takih rešitev.

Pyr0Beast ::

Pa sta bila cyrixa dejansko hitrejša od intla?

samo 2 primerka v slo?
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Loksorr ::

"Mislis, da bo GPU postal kar nekaksen SSE? Ne, se zmer bos imel klasicne API-je za dostop do GPU-ja."

Ne vidim zakaj bi imel ta tvoj argument kakršnkoli pomen. Verjetno ne bodo dali kar v nabor procesorskih ukazov, to bi samo brez potrebe zakompliciralo procesor. Samo to še ne pomeni, da ne boš mogu grafičnega procesorja, (Ki je v bistvu na istem čipu ampak še vedno ločen od procesorja, uporablja pa lahko isti L2 ki je tudi na istem čipu) uporabljati za računanje česa drugega ne le grafike. To lahko delaš sedaj ne vem zakaj tega ne bi delal kasneje.
Vprašanje je samo v tem, koliko truda bo vloženega v to, da se tega ne bo delalo.
Živi in pusti umreti

Loksorr ::

vidm, kje sm zabluzu. avtomatizirano. Ne vem, kaj sm mislu. Ne kej velik.
Živi in pusti umreti

3p ::

Glede na to, da postajajo grafične vse bolj programirljive in s tem podobne CPUjem, CPUji pa dobivajo vse več jeder (in postajajo podobni cevovodom GPUjev) niti ni tako čudno... Najbrž bodo jedra uporabna ali kot "shaderji" ali pa kot "cpu"ji oziroma njihove pomožne enote.

marvin42 ::

Pa sta bila cyrixa dejansko hitrejša od intla?

da, v tistem času sta bila dejansko najboljši nakup.
Mostly Harmless

mtosev ::

Rajše mam da sta gpu in cpu posebej.
Core i9 10900X, ASUS Prime X299 Edition 30, 32GB 4x8 3600Mhz G.skill, CM H500M,
ASUS ROG Strix RTX 2080 Super, Samsung 970 PRO, UltraSharp UP3017, Win 11 Pro
moj oče darko 1960-2016, moj labradorec max 2002-2013

Zgodovina sprememb…

  • spremenil: mtosev ()

desperados ::

največje ozko grlo v današnjih računalnikih so ravno vodila če pa vse skupaj postaviš na eno silicijevo rezino se tega problema skorajda rešiš,
ampak izmet pri proizvodnji bi bil ogromen če se spomnimo kolikšen izmet imajo core procesorji za ps3

mislim da računalnikov z tako stopnjo integracije ne bomo še videli ker bi sledil kolaps celotne industrije...

opeter ::

core procesorji za ps3

ne core, ampak cell ;)
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j

Vesoljc ::

> da, v tistem času sta bila dejansko najboljši nakup.

no ja, office je recimo deloval bolje, ampak FPU je bil pa porazen...
sem nekoc davno tega imel p166+ pa sem samo jokal ko sem pognal kak gejm...
Abnormal behavior of abnormal brain makes me normal...

Senitel ::

Loksorr: Ne moreš uporabljat L2 predpomnilnika kar za GPU. GPU ima verjetno vsega predpomnilnika manj kot je en sam blok znotraj L2 na CPU. So pa pravila totalno drugačna in še vedno potrebuješ predvsem ogromen bandwidth. Cache GPU-ju ne pomaga skoraj nič. Sicer se pa glede bolj prijazne uporabe GPU-ja še za kaj drugega itak pripravljajo bolj zanimive zadeve. :D


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Intelovo razkazovanje mišic: 80-jedrni procesor in napovedi o prehodu na 45 nm proizv

Oddelek: Novice / Procesorji
315512 (4325) imagodei
»

Intel odpira povezave do procesorjev

Oddelek: Novice / Procesorji
132708 (2201) Daedalus
»

AMD bo izdelal superračunalnik na zahtevo Kitajske

Oddelek: Novice / Procesorji
52472 (2332) MTm2H37rqt7B
»

Procesorske novice

Oddelek: Novice / Procesorji
343224 (2251) PrimozR
»

Po IBM-u še Sun...

Oddelek: Novice / Procesorji
162434 (2434) mh8759a

Več podobnih tem