bit-tech.net - Na IDFu je Pat Gelsinger, podpredsenik Intela, razkazoval rezino jeder Larrabee, Intelove vstopnice na grafični trg. Pri bit-techu so sliko s francoske strani Hardware.fr dodobra analizirali in s pomočjo Photoshopa in predpostavko, da ima rezina premer 300 mm ter je izdelana v 45 nm procesu, dognali, da ima eno jedro Larrabeeja kar 702 mm2 površine. Če ga primerjavo s procesorjem Itanium 2 (712 mm2 in 2 milijardi tranzistorjev) in nVidiinim GT200 (576 mm2 in 1,4 milijarde tranzistorjev), očitno napoved, da bo Larrabee imel 1,7 milijarde tranzistorjev, drži. Veliko število tranzistorjev oz. velika površina jedra pa pomeni tudi drago proizvodnjo, saj na rezino pride le 64 jeder, nikoli pa niso delujoča prav vsa.
Vseeno pa vse skupaj ni nemogoče, saj je Intelov High-K proces že dodobra izpopolnjen in pripravljen na izdelavo tako velikega jedra brez večjega števila nedelujočih jeder. Trenutno so pod vprašajem le še frekvence in s tem poraba, saj je Larrabee sestavljen iz malih in hitrih jeder (precej podobnih prvemu Pentiumu), Itanium 2, s katerim se na hitro primerja, pa je sestavljen predvsem iz tretjenivojskega predpomnilnika, ki seveda porabi manj energije, kot samo računsko jedro.
Na sliki se vidi, da pride 64 jeder/čipov na eno 300mm rezino. Nič se pa ne vidi koliko jeder bo v enem čipu. In Larrabee sploh ne bo imel SSE, ampak LRBni. Tako da razen tega, da bo čip ogromen, ne vemo ničesar novega.
Intel gleda v prihodnost, povečali so število jeder dodali grafične dele in vse skupaj zapakirali z vektorsko kodo upam da bodo dodali še Kyro TBR, če bo zadosti moči...
Bismark: Povečali število jeder glede na kaj? Larrabee sploh nima hardware-a za rasterizacijo! Edina stvar, ki je precej grafično specifična in je v Larrabee-ju so TMU-ji. Vse ostalo bo implementirano software-sko. Kaj naj bi torej "Kyro TBR" počel tukaj?
Imam nekaj n00b vprašanj: - kaj to pomeni v prihodnosti za navadne smrtnike? - Kaj lahko pričakujem o te platforme? - Bo računalnik po vklopu v 1-2 sekundah pripravljen za delo? - Ali bo za tiste, ki intenzivno igrajo vedno najnovejše igre, postalo nepotrebno, da bi konstantno nadgrajevali strojne opreme?
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
To je samo ugibanje, če za razvoj grafičnih rabijo cele farme strežnikov in tam laufajo GPU direkt v soft, zdaj pa bo kao Intel naredil soft grafično iz Pentium CPUjev...ki pa sploh ni Pentium več
Pentium = 3,000.000 x 64 = 192,000.000
Larrabee = 1,700.000.000 / 64 = 31,250.000 trans. na CPU
= Pentium 4 na 64 core
Frekvenca bo verjetno nizka ker 2 miljarde trans. niso več heci...
Kako tocno naj bi graficna kartica vplivala na hitrost zagona?
V novici piše, da je ta Larrabee skupek CPU-ja in grafičnega GPU-ja. Ali pa sem narobe razumel?
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
Bismark: Larrabee na tejle rezini definitivno nimajo 64 corov, 48 jederne variante naj bi prišle na 32nm. Tole je 45nm in tako po vsej verjetnosti 32 core verzija. Frekvence naj bi šle tja do 2GHz, ampak IMO je to že zlo na meji tudi za Intel. P.S.: Intelove simulacije pravijo, da za 60FPS v igri F.E.A.R. pri 1600x1200 4xAA potrebujejo 25 jeder pri 1GHz. G80 (8800 GTX) naredi pri takih nastavitvah 80FPS.
V novici piše, da je ta Larrabee skupek CPU-ja in grafičnega GPU-ja. Ali pa sem narobe razumel?
Po moje si narobe razumel. Treba je poudariti, da gre bolj ali manj samo za ugibanja in nihče točno ne ve kaj sploh Intel misli doseči z tem grafičnim čipom. Tukaj gre za grafični čip, ampak kolikor jaz razumem, bo ta deloval precej drugače kit pa tisti, ki smo jih vajeni pri Nvidiji in ATIju. Tukaj zgleda gre za podobno zgradbo čipa kot jo ima Pentium in le ta bo vse te grafične zadeve, kot na primer DirectX in OpenGL samo emuliral.
Po moje ta čip ne bo nobena konkurenca resnim grafičnim čipom za prave igričarje kot so na primer Nvidijini grafični čipi od G80 do G200. Celo upam si trditi, da bo prihajajoči Nvidijin GT300 grafični čip tudi po številu tranzistorjev prehitel tega napovedanega Intelovega. In ker bo GT300 pravi grafični čip brez kakršnihkoli emulacij je vsakršno ugibanje kateri bo boljši za igričarje brez veze.
Pri Intelu je že od nekdaj opaziti željo, da bi vso grafično obdelavo in igre spravil iz namenskih grafičnih čipov nazaj na CPU-je, ki naj bi po besedah Intela sedaj ko so tako zmogljivi lahko poleg normalnega računanja opravljali še emulacijo namenskih grafičnih čipov. In vse to je po moje samo še en korak v to smer.
Ampak nič bati, za igre bomo še vedno kupovali Nvidijine ali ATIjeve grafične kartice. Tako jaz gledam na vse to, lahko pa se tudi motim.
Edit: Pri grafičnih čipih kot vemo je pomembno veliko število jeder in na prvi pogled se zdi, da bo nekoč, ko bo Intel imel čipe z 16, 32 ali celo 64 jedri le ti lahko povsem nadomestili grafične čipe AMPAK ne smemo pozabiti, da Intel vztraja pri x86 tehnologiji, ki je zastarela in povsem neprimerna za grafični čip. Dokler bo Intel vztrajal pri x86 jaz ne vidim nobene možnosti, da bi se grafika preselila nazaj na CPU.
Dejansko naj bi šlo za GPU - vendar z naborom ukazom (podobnim) x86 - ali je to avtomatično dobro je stvar debate, ker definitivno povečuje število logičnih vrat (komentar k naslovu: večje število ni nujno enako Dobra stvar!) - Ne pozabite: to *ne* bodo x86 kompatibilni procesorji, tako da gre definitivno za čisto pravo dilemo!
Prednost naj bi bila, da bo to povsem programabilen GPU - vse do čisto osnovnih funkcij kot je z-buffering. Očitno želi Intel preskočiti vse AMD NVidia shader vojne in si zagotoviti poceni razvoj (s pomočjo preprogramiranja). Odgovor na ali je to prava poteza bi zahteval preroške sposobnosti. Mogoče!
Dodatno bodo procesorji (oz. procesorske enote) zelo primerni za vektorsko procesiranje z impresivno SIMD pasovno širino - v tem smislu Larabee konceptualno spominja na IBM Cell Broadband Engine (procesor v PS3), vendar skaliran, pomnožen in specializiran.
Tudi jaz msilim, da intel zagotovo saj na nek način cilja na splošen procesor, sicer vsa ta x86 drama nima smisla (ker razširjenost x86 v primeru GPU ne pomaga kaj dosti, če sploh).
Predvsem v cenejšem razredu ne bi bilo slabo imeti sistema z enim samim Larabee čipom, ki bi bil več kot dovolj zmogljiv za zelo širok spekter opravil. Recimo, tak procesor bi bil idealen za domačo video obedelavo ipd. hkrati pa bi se z zvitim programiranjem dalo poganjati več kot impresivne igre - potenciala je gotovo veliko.
x86 je res verjetno zastarel samo je pa poceni in razširjen do amena
Kaj pa bi brez x86 to je temelj potrošne industrije in bo zvest do konca omejitve čipov...
To ni tako zelo samoumevno. Primer: x86 je iz trga igralnih konzol (tržno izredno pomemben segment!) popolnoma izginil. Vse popularne novejše igralne konzole (Wii, XBOX360 in PS3) uporabljajo IBM PowerPC rešitve, seznam se nadaljuje naprej z Nintendo DS, PS2, PSP itd, kjer seveda tudi ni x86. V resnici ima x86 arhitektura težavo, da ima pravo prednost samo v kombinaciji z zahtevo po poganjanju MS Windows - takoj ko ta zahteva izgine, se konkurenčna prednost x86 kritično zmanjša, ker gre praviloma za relativno zapletene procesorje, glede na funkcionalnost.
In tu se svetlika na obzorju mogoče pravi razlog za Larabee:
Izgleda, da želi Intel z Larabee rahlo obrniti to situacijo, ker bi se z močno prisotnostjo x86 na področju GPU bistveno povečala popularnost te arhitekture same po sebi, neodvisno od OS ali drugega softvera.. Osebno mislim, da je to dokaj bistra strategija!
Larabee bo po moje pol grafična pol pa kot Cell...ker recimo ene Toshibe imajo noter še Cell cpu za video obdelavo.
Larabee bo podpiral DX samo Intel računa tukaj samo za zamenjavo obstoječih GMA rešitev in istočasno kopira fukcije kot so Cell,OpenCL,Cuda, ATi Stream...
Pa res. Nisem vedel, da nvidia podpira OpenCL. "The NVIDIA CUDA Driver API allows programmers to develop applications for the CUDA architecture and is the predecessor of OpenCL."
Ampak na Larrabeeju bi znalo biti še lepše... po možnosti bi lahko običajno kodo v kateremkoli jeziku (s paralelnimi dodatki seveda - kaj a la .NET 4.0) runtime kar sam spravil na "GPU" - ne pa da se za GPU programira v nekem jeziku, ki spomninja na zmazek.
Larrabee BO x86 kompatibilen! Samo brez MMX in SSE razširitev. Vsako Larrabee jedro bo imelo x86 del (modificiran Pentium P54 core) + zelo široko vektorsko enoto (16 float-ov). To jedro bo lahko vsak cikel izvedlo ali x86 ukaz ali pa load/store vektorja (x86 del) + LRBni ukaz (vektorski del). Teh jeder bo sprva kot kaže 32. In ne, to ni tako kot Cell. Cell ima 1 PPE in 7 SPE-jev (eden izklopljen zaradi boljšega yielda). 8 jeder, eno ima en nabor ukazov, drugih 7 ima povsem drugačen nabor ukazov.
Larabee bo po moje pol grafična pol pa kot Cell...ker recimo ene Tosibe imajo noter še Cell cpu za video obdelavo.
Po mojem zna ta koncept prinesti kar nekaj priložnost. Primer je ravno Cell BE - trenutno večina PS3 iger zelo slabo izkorišča zmožnosti tega procesorja, ker zahteva rahlo drugačno zasnovo, kot jo je večina programerjev vajena - gre za asimetrično multiprocesiranje na nivoju samega uporabniškega programiranja, kjer je potencial sicer velik, vendar zahteva izkušnje. Podobna situacija je bila z PS2 in njegovim Emotion Engine CPU (še en programabilen asimteričen dizajn) - kasneješe PS2 igre so bistveno presegle prve, ker so si razvijalci pridobili izkušnje in trike.
Larabee ima sicer simetričen dizajn, vendar je catch zelo podoben: trenutno večina ne bi vedela kaj početi z njimi in večina "impresivnih" aplikacij bi bile dokaj očitni kandidati (sam se takoj spomnim kodiranja videa z razporejanjem sličic na procesorske enote, npr.).. vendar je potencial bitveno večji, ko se bo prišlo na zvitejše prijeme...
Ta nova zasnova ima sigurno zelo velik potencial in edina stvar, ki manjka Intelu je čip za video obdelavo in točno to bo Larrabee in še spotoma grafična.
Ker pa programerji ne bodo naredili podpore samo za deločen nov tip grafične kot je Larrabee lahko kar pozabimo na Gamer kartico ker že Intel i740 grafični čip ni bil nič posebnega.
Pa res. Nisem vedel, da nvidia podpira OpenCL. "The NVIDIA CUDA Driver API allows programmers to develop applications for the CUDA architecture and is the predecessor of OpenCL."
Ampak na Larrabeeju bi znalo biti še lepše... po možnosti bi lahko običajno kodo v kateremkoli jeziku (s paralelnimi dodatki seveda - kaj a la .NET 4.0) runtime kar sam spravil na "GPU" - ne pa da se za GPU programira v nekem jeziku, ki spomninja na zmazek.
The NVIDIA CUDA Driver API allows programmers to develop applications for the CUDA architecture and is the predecessor of OpenCL - prevedeno:
NVIDIA CUDA gonilnik API dovoljuje programejem ustvarjanje aplikacij za CUDA arhitekturo in je predhodnik OPENcl iz tukaj razbereš, da je cuda pravzaprav PREDHODNIK openCLja :D
Plus... ravno opažam, da bi bilo to kot naročeno za laptope ipd. Verjetno ne bi bilo preveč težko procesorskih enot izklapljati in ker gre kot že rečeno za simetričen dizajn bi se lahko število aktivnih enot in s tem seveda porabo sistema z lahko prilagajalo samodejno ali (posredno) na programsko zahtevo. V primeru sistema z larabee za CPU in GPU hkrati bi imel lahko dokaj učinkovito rešitev!
The NVIDIA CUDA Driver API allows programmers to develop applications for the CUDA architecture and is the predecessor of OpenCL - prevedeno:
NVIDIA CUDA gonilnik API dovoljuje programejem ustvarjanje aplikacij za CUDA arhitekturo in je predhodnik OPENcl iz tukaj razbereš, da je cuda pravzaprav PREDHODNIK openCLja :D
Vem kaj pomeni. Le presenečen sem bil nad citatom (iz neke njihove dokumentacije), ker ne samo da OpenCL podpirajo, ampak so CUDO proglasili za lanski sneg.
"1,7 milijarde tranzistorjev", meh... Točno tega sem se bal. Če bi intel stavil predvsem na svojo "super" zasnovo potem ne bi rabil takih številk.
Eno je če se na trgu pojavi nov igralec z dobrimi idejami, ki prevetrijo igro, drugo pa je če pride nekdo z več $, in dela kartice na bolšem procesu in tako dobiva prevlado.
No pa sej še ni nič rečeno, lahko da bo njihova zasnova tudi res super in supiriorna, samo nebi rad videl, da intel preganja ostala dva s svojimi fabrkami (in kapitalom) namesto dizajnom in idejami...
3p: CUDA je v bistvu samo NV runtime, ki poganja vse skupaj. OpenCL/"C for CUDA"/"Fortran for CUDA"/DX11 compute shader so pa potem jeziki. Je pa C for CUDA praktično skoraj povsem enak OpenCL, malo drugačno poimenovanje funkcij (ravno toliko, da se zadeva ne prevede v obeh primerih z istim prevajalnikom).
Vsako Larrabee jedro ima SSE računsko enoto s 512-bitnimi registri, nekaj podobnega novim AVX ukazom. Dejansko računanje je izvedeno tu, x86/x64 se uporablja samo za flow-control. Vsekakor programerjem bolj prijazno kot CUDA assembler.
Za znanstvene aplikacije, kjer se danes uporablja CUDA je Larrabee veliko bolj primeren, saj je veliko boljših x86 compilerjev kot CUDA compilerjev. In tudi samo kodo je veliko lažje prilagoditi, saj je treba z AVX optimizirati samo kritične dele kode.
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...
Že povedano... To ni SSE ampak LRBni. CUDA nima assemblerja, ampak se programira v normalnem C-ju (Fortran in OpenCL prihajata). Isto lahko z OpenCL optimiziraš samo kritične dele kode. Problem je že v tvojem pogledu na vso stvar. CUDA/OpenCL sta neodvisna od tega koliko jeder imaš. Lahko jih imaš 10 ali 10000, če imaš dovolj "velik problem" se bo stvar skalirala čisto sama od sebe. "Down to metal" se to z Larrabee-jem niti ne bo dalo početi, oziroma Intel ni predstavil še nobenega API-ja, ki bi se dotikal tega kaj teče na katerem jedru. Če bi bil Larrabee "master" (torej CPU) bi to seveda delal ročno z kreiranjem niti ali kakšnim OpenMP.
Vsako Larrabee jedro ima SSE računsko enoto s 512-bitnimi registri, nekaj podobnega novim AVX ukazom. Dejansko računanje je izvedeno tu, x86/x64 se uporablja samo za flow-control. Vsekakor programerjem bolj prijazno kot CUDA assembler.
Za znanstvene aplikacije, kjer se danes uporablja CUDA je Larrabee veliko bolj primeren, saj je veliko boljših x86 compilerjev kot CUDA compilerjev. In tudi samo kodo je veliko lažje prilagoditi, saj je treba z AVX optimizirati samo kritične dele kode.
Večina zahtevnih delov kode se kliče prek knjižnjic, ki so napisane v assemblerju. Recimo na 1.3 PFLOPS Jaguarju imajo zraven PGI in Pathscale-ovega tudi GCC, za katerega se ve, da ni najboljši za performance [vir: http://www.nccs.gov/computing-resources... ]. IMHO Cuda, Brook ipd. ne bodo šli nikamor. Tudi če Larrabee ne bo zamudil, ga bodo GPU-ji ob prihodu nesli za 2-4x, zaradi večjega čipa bo dražji, porabil pa bo pribli isto Wattov kot novi GPU-ji. Verjetno bo podobna zgodba kot z Windows HPC Edition - se ne splača, ampak je pa luštno z njim delat.
Pa še največja napaka larrabee je ta da intel podcenjuje nvidio in ati. Že z samo moč preračunavanja, če se prav spominjam bo najmočnejši model z 2 teraflopom, ampak problem za intel je ta da ati že ima grafično kartico, ki je skoraj ima 2 teraflopa (4870x2) in še letos pride nova generacija z novo arhitekturo.
Že povedano... To ni SSE ampak LRBni. CUDA nima assemblerja, ampak se programira v normalnem C-ju (Fortran in OpenCL prihajata). Isto lahko z OpenCL optimiziraš samo kritične dele kode. Problem je že v tvojem pogledu na vso stvar. CUDA/OpenCL sta neodvisna od tega koliko jeder imaš. Lahko jih imaš 10 ali 10000, če imaš dovolj "velik problem" se bo stvar skalirala čisto sama od sebe. "Down to metal" se to z Larrabee-jem niti ne bo dalo početi, oziroma Intel ni predstavil še nobenega API-ja, ki bi se dotikal tega kaj teče na katerem jedru. Če bi bil Larrabee "master" (torej CPU) bi to seveda delal ročno z kreiranjem niti ali kakšnim OpenMP.
Mogoče samo malo porihtajo IMKL in bo zadeva laufala s polnim potencialom.
@destroyer2k Po drugi strani pa ljudje še vedno kupujejo licence za Win, Matlab, Mathematico, čeprav imamo (v ne malo primerih boljše) recimo zastonjske alternative. Če bodo res razširli IMKL in ako bo njihov Cl jezik res tak eleganten, kot pravijo, potem se zna zgodit, da bo Larrabee proti ATI/Nv kot je bil Win proti Lnx v starih cajtih. Lažje se z njim dela ker ma GUI, maš večjo produktivnost in toleriraš nestabilnost oz. v tem primeru, hitrost. Glede na to, da zna gnat tudi OS-e, bo verjetno še kaka reklama na temo virtualizacije.
Senitel, imaš prav glede LRBni - Larrabee new instructions. Jaz sem hotel samo poudariti, da je x86 samo ogrodje za flow control, večino izračunov pa narejenih z novimi ukazi z 3+ parametri, podobnim novim AVX SSE ukazom.
Vse skupaj je eno LRB jedro x86 programabilni shader. Prva generacija zagotovo ne bo potolkla nVidia&ATI, počakajmo na 32nm in 22nm proces. Ter integracijo LRB jeder v isto pakiranje kot CPU - veliko bolje kot trenutne GMA rešitve za SoC
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...
Še to, Intel je kralj compilerjev. AMD, še posebej pa nVidia nimata za burek, kompatibilnost z navadnim C++/Fortranom pa tudi nekaj šteje
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...