» »

Prihaja 14 nm

Prihaja 14 nm

AnandTech - Čeprav pri krčenju velikosti elektronskih komponent počasi trkamo na robove fizikalnih omejitev, za zdaj proizvajalci še uspevajo zmanjševati litografijo. Intel že dlje časa dela na prehodu na 14 nm-tehnologijo izdelave, katere napredek so predstavili včeraj.

Intel je 14 nm prvikrat predstavil že lanskega novembra, potem čipov Broadwell v tej litografiji ni in ni bilo. S slabim letom zamude se sedaj Intel vendarle zares podaja v 14 nm. Prve rezine za 22 nm-tehnologijo so pokazali na IDF-u leta 2009, prve delujoče čipe dve leti pozneje, predlani pa so šli v množično prodajo. Zato pravimo, da 14 nm nekoliko zamuja. Sedaj so povedali skoraj vse o prihajajočem Broadwellu Y, ki ga bomo našli v čipih s komercialnim imenom Core M.

Intel trdi, da je v Core M prenovil arhitekturo praktično vseh sestavnih delov: predpomnilnika, pomnilniškega krmilnika, PCIe, I/O itd. Glavna sprememba bo seveda nižja poraba energije, ki naj bi bila pol nižja od 22 nm-predhodnikov, ter seveda manjša fizična velikost čipa. Intel še vedno sledi razvoju po načelu tik-tak. Tik označuje prehod na nižjo litografijo, tak pa na novo arhitekturo. Broadwell je torej tik.

Proizvodnja 14 nm-čipov je najprej stekla v njihovi tovarni v Oregonu, sedaj pa jo bodo počasi razširili tudi po ostalih obratih. Arizonska in irska tovarna naj bi sledili še letos, ostale pa pozneje. Intel priznava, da je bil razvoj 14 nm-tehnologije najtežji doslej. Izmet pri proizvodnji se počasi manjša in z zaostankom sledi uveljavljenim 22 nm, ki je trenutno Intelova tehnologija z najmanjšim izmetom. Čez približno pol leta naj bi bila zanesljivost izdelave 14 nm-čipov primerljiva z 22 nm in tedaj lahko pričakujemo celotno paleto Broadwellov, ki bodo prodrli tudi v Core i3/i5/i7. Za letos pa ostaja napovedan le Broadwell-Y SKU, ki bo nared do božičnih razprodaj.

Za boljšo predstavo je Intel pokazal, kakšne bodo dimenzije v novih čipih. Vertikalne povezave tranzistorja (fins) so razmaknjene za 42 nm, kolikor merijo tudi v višini. V prejšnji tehnologiji so bile 60 nm vsaksebi. V povprečju je čip za polovico manjši od prejšnje generacije, ocenjuje Intel.

Seveda pa že razvijajo naslednjo generacijo. To bo 10 nm-tehnologija izdelave, ki pa je za zdaj še v fazi razvoja.

Intel

39 komentarjev

Nummy ::

Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.

hojnikb ::

Nummy je izjavil:

Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.

Seveda so se. Ampak za konkretn performance se pač morš skeširat in kupit 2011 platformo.

Danes se vse vrti okol porabe in perf/W
In prav je tak.
#brezpodpisa

Janac ::

Core M in ne več i ? Not so good name.

Nummy ::

Nope tudi 2011 platforma ni "wau" bistveno hitrejša od ostalih, razen če res rukneš notri 12-core pa furaš na vseh corih zadeve.

Včasih je bil vsak preskok na novo arhitekturo tudi performance boljši za vsaj 20%, danes težko rečem, da sem pridobil toliko z novim procom.

hojnikb ::

Nummy je izjavil:

Nope tudi 2011 platforma ni "wau" bistveno hitrejša od ostalih, razen če res rukneš notri 12-core pa furaš na vseh corih zadeve.

Včasih je bil vsak preskok na novo arhitekturo tudi performance boljši za vsaj 20%, danes težko rečem, da sem pridobil toliko z novim procom.

To se pa lahko zahvalimo konkurenci ;((

Janac je izjavil:

Core M in ne več i ? Not so good name.

Core M bo sam za lowpower parte (bivši Y)
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Nummy ::

hojnikb je izjavil:

Nummy je izjavil:

Nope tudi 2011 platforma ni "wau" bistveno hitrejša od ostalih, razen če res rukneš notri 12-core pa furaš na vseh corih zadeve.

Včasih je bil vsak preskok na novo arhitekturo tudi performance boljši za vsaj 20%, danes težko rečem, da sem pridobil toliko z novim procom.

To se pa lahko zahvalimo konkurenci ;((



V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.

Smorny ::

Se strinjam. Autocad uporablja eno jedro za 99% vsega dela. Ostalih 7 pa lupi krompir...
Motiti se je človeško.
Ampak, če hočeš stvar totalno zajebati potrebuješ računalnik!
http://www.smorny.com/

hojnikb ::

V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.

Namenski dekoderji so veliko boljša rešitev, kot pa da dekodaš video preko shaderjov.
#brezpodpisa

Nummy ::

Smorny je izjavil:

Se strinjam. Autocad uporablja eno jedro za 99% vsega dela. Ostalih 7 pa lupi krompir...

Ni samo autocad, tud recimo adobe illustrator, kjer so skor sami vektorji pa procesira vse CPU... Imaš malo večji file z veliko elementi pa vse šteka u 3pm.
Photoshop tud samo za določene stvari fura openCL, ostalo vse na CPU-ju. Edino kar so popravili je to, da sedaj photoshop res izkorišča jeder kolikor jih vidi (but still not enough).
Sm mislu, da bo AMD z mantle kej naredu, pa zaenkrat še nič kaj preveč pokazali.

hojnikb je izjavil:

V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.

Namenski dekoderji so veliko boljša rešitev, kot pa da dekodaš video preko shaderjov.

Že, ampak ven prihajajo novi in novi kodeki. Če boš hotel dekodirat tanov kodek, boš moral kupiti nov procesor, pri knjižnjici pa samo nadgradiš in voila spet ti grafična melje naprej :)

Zgodovina sprememb…

  • spremenilo: Nummy ()

hojnikb ::

Že, ampak ven prihajajo novi in novi kodeki. Če boš hotel dekodirat tanov kodek, boš moral kupiti nov procesor, pri knjižnjici pa samo nadgradiš in voila spet ti grafična melje naprej :)

Kar pa spet ni res. Edina sprememba v zadnjih letih je bil h.265 in VP9. Ostali kodeki so pa tako eksotični, da niso ravno relavantni.
#brezpodpisa

pegasus ::

Nummy je izjavil:

V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.

Mogoče ena kost za glodat ...
Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:

next_byte ::

pegasus je izjavil:

Nummy je izjavil:

V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.

Mogoče ena kost za glodat ...
Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:


Nisem prepričan, če tale stvar sploh v teoriji gre skozi, sem malček skeptičen bi bil pa zelo vesel če se izide :) Ali je mogoče izjavat logične operacije?

pegasus ::

next_byte je izjavil:

Nisem prepričan, če tale stvar sploh v teoriji gre skozi, sem malček skeptičen bi bil pa zelo vesel če se izide :) Ali je mogoče izjavat logične operacije?
Nazadnje sem slišal, da bodo delujočo reč pokazali januarja. Bomo videli ;)

s6c-gEL ::

Smorny je izjavil:

Se strinjam. Autocad uporablja eno jedro za 99% vsega dela. Ostalih 7 pa lupi krompir...

Tvoj problem če si še vedno pri Autodesk dinozavrih.
Pro/ENGINEER je že vsaj 5 let nazaj znal uporabljati več jeder.

Nummy ::

pegasus je izjavil:

Nummy je izjavil:

V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.

Mogoče ena kost za glodat ...
Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:

That sounds like: "sanja svinja kukuruz"... Preveč lepo, da bi bilo res.

Dr_M ::

Pri autocadu cpu niti ni tako zelo pomemben, vec pridobis z ustrezno graficno.

technolog ::

hojnikb je izjavil:

Nummy je izjavil:

Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.

Seveda so se. Ampak za konkretn performance se pač morš skeširat in kupit 2011 platformo.

Danes se vse vrti okol porabe in perf/W
In prav je tak.


Ker je kao sandy bridge prinesel tak napredek. Nope, ni ga.

Intel trdi, da je v Core M prenovil arhitekturo praktično vseh sestavnih delov: predpomnilnika, pomnilniškega krmilnika, PCIe, I/O itd.


Jst sm pa mislil, da to naredijo v tock-u...

Zgodovina sprememb…

hojnikb ::

Če bo stvar skodirana v h.264, bo čisto lepo delala :)

Hec je, da izboljšave v softwareskih dekoderjih nimajo prav veliko veze z samim formatom. Format se fiksno ratificira in potem tudi ostane tak, dokler ga ne zamenja kak drug.
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Unknown_001 ::

Nummy je izjavil:

Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.


Ah ja. Downsizing je konkretno iz avtomobilskih motorjev prešla še na Procesorje :D
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?

Begabt

hojnikb ::

No ja, ampak downsizing pri avtomobilih nemorš ravno tako primerjat, ker se tam dejansko performance povečuje :)
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Unknown_001 ::

hojnikb je izjavil:

No ja, ampak downsizing pri avtomobilih nemorš ravno tako primerjat, ker se tam dejansko performance povečuje :)


True, true... :)

Ampak malenkost pa zihr se poveča preformance, al dejansko samo en in isti procesor z novim dekoderjem manjšajo:P ? Me že en cajt ni več v Hardware sceni pa ne spremljam več tako intenzivno kot takrat ko sem računalnik sestavljal 8-)
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?

Begabt

hojnikb ::

Performance se veča skos, ampak ne s tako hitrostjo kot včasih.
#brezpodpisa

Unknown_001 ::

hojnikb je izjavil:

Performance se veča skos, ampak ne s tako hitrostjo kot včasih.


Se pravi bodo 2D arhitekturo vezja kmal tolk izpilili da bo zadeva začela stagnirat, al bodo pol čip povečal? Men se zdi da je zadeva začela že nekak približno po korenski funkciji naraščat :P
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?

Begabt

hojnikb ::

razvoj v 3d že poteka (v bistvo že lahko kupiš ssd, ki to že ima).
In ne, čipovje se nebo nič povečeval fizično, because thats just bad practices (yieldi pa to).
#brezpodpisa

mitja_n ::

Se vidi, da AMD zaostaja, če ne bi bili 8+ jederni čipi s HTjem že mainstream. Tako nam pa prodajajo eno in isto sranje že ne vem kolko let.

mirancar ::

8 jedrni čip bi bil another eno in isto sranje

next_byte ::

Am nevem če razvoj stagnira.. samo malček, se je preselil.

On April 8, 2014, AMD launched R9 295X2, a dual R9 290X in a single PCB, with 11.6 TFlops.

Nummy ::

hojnikb je izjavil:

Če bo stvar skodirana v h.264, bo čisto lepo delala :)

Hec je, da izboljšave v softwareskih dekoderjih nimajo prav veliko veze z samim formatom. Format se fiksno ratificira in potem tudi ostane tak, dokler ga ne zamenja kak drug.

Ne problem je, ker bo stvar zakodirana v h.266 in je tvoj dekorder ne bo niti prepoznal. Ampak kaj razlagam steni...

hojnikb ::

da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)

Sej komaj h.265 prihaja v uveljavo :)
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Nummy ::

hojnikb je izjavil:

da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)

Sej komaj h.265 prihaja v uveljavo :)

Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.

hojnikb ::

Nummy je izjavil:

hojnikb je izjavil:

da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)

Sej komaj h.265 prihaja v uveljavo :)

Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.

Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov.
Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Nummy ::

hojnikb je izjavil:

Nummy je izjavil:

hojnikb je izjavil:

da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)

Sej komaj h.265 prihaja v uveljavo :)

Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.

Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov.
Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.

Nov standard pride ponavadi ven, ko pride nova tehnologija. Ko bo 4K TV široko razširjen se bo spet pojavil nov boljši standard. Ne fantaziraj.

hojnikb ::

Nummy je izjavil:

hojnikb je izjavil:

Nummy je izjavil:

hojnikb je izjavil:

da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)

Sej komaj h.265 prihaja v uveljavo :)

Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.

Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov.
Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.

Nov standard pride ponavadi ven, ko pride nova tehnologija. Ko bo 4K TV široko razširjen se bo spet pojavil nov boljši standard. Ne fantaziraj.

Motiš se. 4K bo kr lepo še neki časa v h.264, kasneje pa tudi v h.265
O kakem h.266 ti sanjaš, is beyond me. To je še 10 let stran.
#brezpodpisa

tikitoki ::

Strinjam se s tistimi, ki pravijo, da je vleikorkat problem v pogramski opremi. Tudi sam sem opazil, da takrat, ko je zadeva delal počasi, da je bil ponavadi problem v tem, da je bilo uporabljeno samo eno jedro. Torej, kaj mi bo 8 ali 12 jeder, ce program uporablja enega.

Seveda pa je problem, da se moc posameznih jeder res ni mocno zvisala in napreduje s polzjo hitrostjo.

Dejstvo pa je ,da za so za vecino ljudi racunlaniki dovolj zmogljivi ze vrsto let in sem preprican, da jih bolj zanima poraba in nepotrebnost kilogramskih ali ultra glasnih resitev za hlajenje.

Realno gledano pa se res nimamo kaj veliko za pritozevati. Racunalniki so trenutno izredno dostopni in dovolj hitri za vecino stvari. Mislim, da ni bilo se nikoli tako krasno za koncnega uporabnika.

klinker ::

tikitoki je izjavil:

Strinjam se s tistimi, ki pravijo, da je vleikorkat problem v pogramski opremi. Tudi sam sem opazil, da takrat, ko je zadeva delal počasi, da je bil ponavadi problem v tem, da je bilo uporabljeno samo eno jedro. Torej, kaj mi bo 8 ali 12 jeder, ce program uporablja enega.

Seveda pa je problem, da se moc posameznih jeder res ni mocno zvisala in napreduje s polzjo hitrostjo.

Dejstvo pa je ,da za so za vecino ljudi racunlaniki dovolj zmogljivi ze vrsto let in sem preprican, da jih bolj zanima poraba in nepotrebnost kilogramskih ali ultra glasnih resitev za hlajenje.

Realno gledano pa se res nimamo kaj veliko za pritozevati. Racunalniki so trenutno izredno dostopni in dovolj hitri za vecino stvari. Mislim, da ni bilo se nikoli tako krasno za koncnega uporabnika.


Danes ze najbolj cheap cpu z integriranim gpu-jem zadosti 95% domace uporabe.
Bolj je problem v profi vodah, ker kot omenjeno, SW sploh ni sposoben na polno koristit tako CPU kot GPU moc. Imas i7 z 8 niti, GTX770/HD290, 32GB rama, pa melje na 2 nitih, grafa pociva, edino ram se naceloma lepo uporablja.

Tarzan ::

i7 laptop mi ne zmore gnat niti Dota2 na low. Res je da je par let star APU, ampak vseeno isti špil dela super nekje na srednjih nastavitvah s še starejšim Fusion APUjem, ki mu frekvenčno ne seže niti do gležnjev.

Ne, niso vsi APUji zadosti za 95% domače uporabe. Osebno bi črtal vse najbolj cheap varijante Intela. Grafično jedro v Intel APUju me je totalno razočaralo, pa čeprav nisem veliko pričakoval. Če odštejem omenjeno Doto2, je zadeva pogojno užitna in načeloma ni problemov niti s predvajanjem 720p filmov na YT, 1080p ne deluje več vedno tekoče, 4k pa ubije celoten sistem, ne samo browserja. Novi APUji nimajo več te težave, ampak velikokrat se prodajajo če vedno arhaični primerki in totalno useless Celeroni, od katerih je pa praktično hitrejša že vsaka druga kitajska tablica.

hojnikb ::

khm khm
Vsi intel procesorji (tudi celeroni)od ivy naprej so zmožni predvajat up to 4K video z levo jajco zaradi namenskega dekoderja.
Če tebi ni delal 1080p na i7 kišti (tudi če je čisto prva generacija) potem delaš nekaj hudo narobe.
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()

Tarzan ::

Ne rečem da ne dela noben, pravim samo, da ne delajo vsi tekoče. CPU pa pri 1080p youtube trailerju pobere eno celotno jedro in polovico drugega. Ker je dvojedrnik (kvazi 4 jedrnik v primeru da vklopim hyperthreading) je to že blizu maksimuma. Če zraven poganjam še karkoli drugega, potem se video konkretno zatika. Da ne omenim, koliko se ob gledanju full hd zadeva segreje. Skupaj požre preko 50W, če gre softweru verjeti, dočim rahlo topel na otip in s porabo med 25 in 30W, spet, če gre softweru verjeti, AMD fusion normalno prebavlja 1080p. Sicer se tudi tam poviša CPU util, ampak bistveno manj.

Prvi i7 APU so, kar se mene tiče, pofl od pofla. Za prenosnik si bom verjetno spet umislil APU, ampak definitivno ne bom vzel Intela, ker bo folk govoril, da je orto boljši. Sam ga ne bi vzel, če ne bi bil v hudo dobri akciji, ko sem ga dobil skoraj za polovično ceno - no saj zdaj mi je jasno zakaj.

In ja, namenski dekoderji spremenijo zadevo. Sicer se mi zdi malo trapasto dodajati namenski dekoder samo zaradi predvajanja videa, če se točno to zadevo lahko elegantno reši s shaderji, ki jih itak rabiš še za marsikakšen drug namen, ampak okej, performančno in glede porabe so daleč boljši način, gotovo pa niso cenejša opcija. Vsak kitajski predvajalnik, ki temelji na ARM soc zdaj lepo predvaja 4k, tako da razen na letalu uporaba računalnika za gledanje filmov praktično več nima smisla.

hojnikb ::

Šrš tvojih problemov je sam v tem, da nimaš vkloplenga strojnega dekodiranja videa in zelo zapacan sistem. Meni prastari core2duo prežveči 720p brez problema (1080p youtube mu dela pa že probleme) pa tudi 1080p prebavlja čisto lepo v samostojnem predvajalniku.

In namenski dekoder je daleč naboljša rešitev, ker porabi najmanj die placa, ima najmanjši tax na cpu usage (meni ivy pentium premleva 4k pri manj kot 1% cpu loada) daaleč najmanjša poraba in enostavno dela. Rešitev z shaderji je crap (kar je očitno iz implementacij tega včasih) ker shaderji nebojo v celoti offloadal dekodiranje pa še poraba vbo večja.
#brezpodpisa

Zgodovina sprememb…

  • spremenil: hojnikb ()


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Intelovi 10-nm procesorji se odmikajo (strani: 1 2 )

Oddelek: Novice / Procesorji
8928196 (23449) PrimozR
»

Intel bo še četrtič ostal pri 14 nm (strani: 1 2 3 )

Oddelek: Novice / Procesorji
12232234 (26412) PrimozR
»

Intelov tik tak je mrtev (strani: 1 2 )

Oddelek: Novice / Procesorji
7125307 (21129) Bistri007
»

CES 2015: Novi čipi Broadwell-U iz Intela (strani: 1 2 )

Oddelek: Novice / Procesorji
7617632 (14503) FlyingBee
»

Intelov kartični računalnik Edison in delujoč prototip 14 nm

Oddelek: Novice / Procesorji
3112003 (9153) WizmoTo

Več podobnih tem