AnandTech - Čeprav pri krčenju velikosti elektronskih komponent počasi trkamo na robove fizikalnih omejitev, za zdaj proizvajalci še uspevajo zmanjševati litografijo. Intel že dlje časa dela na prehodu na 14 nm-tehnologijo izdelave, katere napredek so predstavili včeraj.
Intel je 14 nm prvikrat predstavil že lanskega novembra, potem čipov Broadwell v tej litografiji ni in ni bilo. S slabim letom zamude se sedaj Intel vendarle zares podaja v 14 nm. Prve rezine za 22 nm-tehnologijo so pokazali na IDF-u leta 2009, prve delujoče čipe dve leti pozneje, predlani pa so šli v množično prodajo. Zato pravimo, da 14 nm nekoliko zamuja. Sedaj so povedali skoraj vse o prihajajočem Broadwellu Y, ki ga bomo našli v čipih s komercialnim imenom Core M.
Intel trdi, da je v Core M prenovil arhitekturo praktično vseh sestavnih delov: predpomnilnika, pomnilniškega krmilnika, PCIe, I/O itd. Glavna sprememba bo seveda nižja poraba energije, ki naj bi bila pol nižja od 22 nm-predhodnikov, ter seveda manjša fizična velikost čipa. Intel še vedno sledi razvoju po načelu tik-tak. Tik označuje prehod na nižjo litografijo, tak pa na novo arhitekturo. Broadwell je torej tik.
Proizvodnja 14 nm-čipov je najprej stekla v njihovi tovarni v Oregonu, sedaj pa jo bodo počasi razširili tudi po ostalih obratih. Arizonska in irska tovarna naj bi sledili še letos, ostale pa pozneje. Intel priznava, da je bil razvoj 14 nm-tehnologije najtežji doslej. Izmet pri proizvodnji se počasi manjša in z zaostankom sledi uveljavljenim 22 nm, ki je trenutno Intelova tehnologija z najmanjšim izmetom. Čez približno pol leta naj bi bila zanesljivost izdelave 14 nm-čipov primerljiva z 22 nm in tedaj lahko pričakujemo celotno paleto Broadwellov, ki bodo prodrli tudi v Core i3/i5/i7. Za letos pa ostaja napovedan le Broadwell-Y SKU, ki bo nared do božičnih razprodaj.
Za boljšo predstavo je Intel pokazal, kakšne bodo dimenzije v novih čipih. Vertikalne povezave tranzistorja (fins) so razmaknjene za 42 nm, kolikor merijo tudi v višini. V prejšnji tehnologiji so bile 60 nm vsaksebi. V povprečju je čip za polovico manjši od prejšnje generacije, ocenjuje Intel.
Seveda pa že razvijajo naslednjo generacijo. To bo 10 nm-tehnologija izdelave, ki pa je za zdaj še v fazi razvoja.
Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.
Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.
Seveda so se. Ampak za konkretn performance se pač morš skeširat in kupit 2011 platformo.
Danes se vse vrti okol porabe in perf/W In prav je tak.
Nope tudi 2011 platforma ni "wau" bistveno hitrejša od ostalih, razen če res rukneš notri 12-core pa furaš na vseh corih zadeve. Včasih je bil vsak preskok na novo arhitekturo tudi performance boljši za vsaj 20%, danes težko rečem, da sem pridobil toliko z novim procom.
Nope tudi 2011 platforma ni "wau" bistveno hitrejša od ostalih, razen če res rukneš notri 12-core pa furaš na vseh corih zadeve. Včasih je bil vsak preskok na novo arhitekturo tudi performance boljši za vsaj 20%, danes težko rečem, da sem pridobil toliko z novim procom.
To se pa lahko zahvalimo konkurenci
V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Se strinjam. Autocad uporablja eno jedro za 99% vsega dela. Ostalih 7 pa lupi krompir...
Ni samo autocad, tud recimo adobe illustrator, kjer so skor sami vektorji pa procesira vse CPU... Imaš malo večji file z veliko elementi pa vse šteka u 3pm. Photoshop tud samo za določene stvari fura openCL, ostalo vse na CPU-ju. Edino kar so popravili je to, da sedaj photoshop res izkorišča jeder kolikor jih vidi (but still not enough). Sm mislu, da bo AMD z mantle kej naredu, pa zaenkrat še nič kaj preveč pokazali.
V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Namenski dekoderji so veliko boljša rešitev, kot pa da dekodaš video preko shaderjov.
Že, ampak ven prihajajo novi in novi kodeki. Če boš hotel dekodirat tanov kodek, boš moral kupiti nov procesor, pri knjižnjici pa samo nadgradiš in voila spet ti grafična melje naprej :)
Že, ampak ven prihajajo novi in novi kodeki. Če boš hotel dekodirat tanov kodek, boš moral kupiti nov procesor, pri knjižnjici pa samo nadgradiš in voila spet ti grafična melje naprej :)
Kar pa spet ni res. Edina sprememba v zadnjih letih je bil h.265 in VP9. Ostali kodeki so pa tako eksotični, da niso ravno relavantni.
V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.
Mogoče ena kost za glodat ... Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:
V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.
Mogoče ena kost za glodat ... Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:
Nisem prepričan, če tale stvar sploh v teoriji gre skozi, sem malček skeptičen bi bil pa zelo vesel če se izide :) Ali je mogoče izjavat logične operacije?
Nisem prepričan, če tale stvar sploh v teoriji gre skozi, sem malček skeptičen bi bil pa zelo vesel če se izide :) Ali je mogoče izjavat logične operacije?
Nazadnje sem slišal, da bodo delujočo reč pokazali januarja. Bomo videli ;)
V bistvu ne samo konkurenci, pač pa tudi software-ju, ki ne zna izkoristit vsega kar ponujajo novi proci. Če gledam podrobno lahko opazim, da software že par let ne dohaja razvoja hardware-ja. V bistvu imamo že kar precej let tudi grafične, ki so sposobne kot en mini super-računalnik, pa še danes nimamo ene poštene knjižnjice, ki bi izkoristila garfično do kraja. OpenCL 2.0 pa še ni upeljan :( Nvidia spančka na svoji CUDA-i, intel pa tud sanja kukuruz s svojimi integriranimi grafičnimi. V bistvu so dal rajš notr dodatne dekoderje za video, namest da bi razvijal naprej knjižnjico, ki bila sposobna dekodirat vsega boga.
Money talks. So dekoderji za video veliko večji profit kot pa razvoj božje knjižnice.
Mogoče ena kost za glodat ... Izgleda, da se bodo analogni računalniki vrnili. Ne z elektriko, pač pa s svetlobo. Kar je edino prav, narava je analogna:
That sounds like: "sanja svinja kukuruz"... Preveč lepo, da bi bilo res.
Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.
Seveda so se. Ampak za konkretn performance se pač morš skeširat in kupit 2011 platformo.
Danes se vse vrti okol porabe in perf/W In prav je tak.
Ker je kao sandy bridge prinesel tak napredek. Nope, ni ga.
Intel trdi, da je v Core M prenovil arhitekturo praktično vseh sestavnih delov: predpomnilnika, pomnilniškega krmilnika, PCIe, I/O itd.
Če bo stvar skodirana v h.264, bo čisto lepo delala :)
Hec je, da izboljšave v softwareskih dekoderjih nimajo prav veliko veze z samim formatom. Format se fiksno ratificira in potem tudi ostane tak, dokler ga ne zamenja kak drug.
Nižja poraba... naj raje delajo na večjem performance. Procesorji se praktično zadnjih nekaj n-let niso kaj prida spremenili. Edina "revolucija" trenutno je AMD-jeva APU, pa še tam je vse bolj tako-tako na majavih nogah.
Ah ja. Downsizing je konkretno iz avtomobilskih motorjev prešla še na Procesorje
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?
No ja, ampak downsizing pri avtomobilih nemorš ravno tako primerjat, ker se tam dejansko performance povečuje :)
True, true... :)
Ampak malenkost pa zihr se poveča preformance, al dejansko samo en in isti procesor z novim dekoderjem manjšajo ? Me že en cajt ni več v Hardware sceni pa ne spremljam več tako intenzivno kot takrat ko sem računalnik sestavljal
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?
Performance se veča skos, ampak ne s tako hitrostjo kot včasih.
Se pravi bodo 2D arhitekturo vezja kmal tolk izpilili da bo zadeva začela stagnirat, al bodo pol čip povečal? Men se zdi da je zadeva začela že nekak približno po korenski funkciji naraščat
Wie nennt man einen Moderator mit der Hälfte des Gehirnis ?
razvoj v 3d že poteka (v bistvo že lahko kupiš ssd, ki to že ima). In ne, čipovje se nebo nič povečeval fizično, because thats just bad practices (yieldi pa to).
Če bo stvar skodirana v h.264, bo čisto lepo delala :)
Hec je, da izboljšave v softwareskih dekoderjih nimajo prav veliko veze z samim formatom. Format se fiksno ratificira in potem tudi ostane tak, dokler ga ne zamenja kak drug.
Ne problem je, ker bo stvar zakodirana v h.266 in je tvoj dekorder ne bo niti prepoznal. Ampak kaj razlagam steni...
da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)
Sej komaj h.265 prihaja v uveljavo :)
Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.
Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov. Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.
da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)
Sej komaj h.265 prihaja v uveljavo :)
Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.
Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov. Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.
Nov standard pride ponavadi ven, ko pride nova tehnologija. Ko bo 4K TV široko razširjen se bo spet pojavil nov boljši standard. Ne fantaziraj.
da bo h.266 širše dostopen in uporabljen, boš menjaš vsaj ene par konfigov :)
Sej komaj h.265 prihaja v uveljavo :)
Kot pravim... se s s teno pogovarjamo... pa še una ima očitno višji IQ. Vsaj ne govori neumnosti.
Ja. Sam jst ti pravim, da ti standardi ne prihajajo glih vsako leto ven, kar pomeni, da ti bo prej računalnik odslužo svoje, predn nebo zmožen hardwaresko ali softwaresko obdelat takih kodekov. Remember, h.264 je na sceni že cca 10-11 let pa še tudi nebo kr za stran. Heck, veliko contenta se najde še v starem h.263.
Nov standard pride ponavadi ven, ko pride nova tehnologija. Ko bo 4K TV široko razširjen se bo spet pojavil nov boljši standard. Ne fantaziraj.
Motiš se. 4K bo kr lepo še neki časa v h.264, kasneje pa tudi v h.265 O kakem h.266 ti sanjaš, is beyond me. To je še 10 let stran.
Strinjam se s tistimi, ki pravijo, da je vleikorkat problem v pogramski opremi. Tudi sam sem opazil, da takrat, ko je zadeva delal počasi, da je bil ponavadi problem v tem, da je bilo uporabljeno samo eno jedro. Torej, kaj mi bo 8 ali 12 jeder, ce program uporablja enega.
Seveda pa je problem, da se moc posameznih jeder res ni mocno zvisala in napreduje s polzjo hitrostjo.
Dejstvo pa je ,da za so za vecino ljudi racunlaniki dovolj zmogljivi ze vrsto let in sem preprican, da jih bolj zanima poraba in nepotrebnost kilogramskih ali ultra glasnih resitev za hlajenje.
Realno gledano pa se res nimamo kaj veliko za pritozevati. Racunalniki so trenutno izredno dostopni in dovolj hitri za vecino stvari. Mislim, da ni bilo se nikoli tako krasno za koncnega uporabnika.
Strinjam se s tistimi, ki pravijo, da je vleikorkat problem v pogramski opremi. Tudi sam sem opazil, da takrat, ko je zadeva delal počasi, da je bil ponavadi problem v tem, da je bilo uporabljeno samo eno jedro. Torej, kaj mi bo 8 ali 12 jeder, ce program uporablja enega.
Seveda pa je problem, da se moc posameznih jeder res ni mocno zvisala in napreduje s polzjo hitrostjo.
Dejstvo pa je ,da za so za vecino ljudi racunlaniki dovolj zmogljivi ze vrsto let in sem preprican, da jih bolj zanima poraba in nepotrebnost kilogramskih ali ultra glasnih resitev za hlajenje.
Realno gledano pa se res nimamo kaj veliko za pritozevati. Racunalniki so trenutno izredno dostopni in dovolj hitri za vecino stvari. Mislim, da ni bilo se nikoli tako krasno za koncnega uporabnika.
Danes ze najbolj cheap cpu z integriranim gpu-jem zadosti 95% domace uporabe. Bolj je problem v profi vodah, ker kot omenjeno, SW sploh ni sposoben na polno koristit tako CPU kot GPU moc. Imas i7 z 8 niti, GTX770/HD290, 32GB rama, pa melje na 2 nitih, grafa pociva, edino ram se naceloma lepo uporablja.
i7 laptop mi ne zmore gnat niti Dota2 na low. Res je da je par let star APU, ampak vseeno isti špil dela super nekje na srednjih nastavitvah s še starejšim Fusion APUjem, ki mu frekvenčno ne seže niti do gležnjev.
Ne, niso vsi APUji zadosti za 95% domače uporabe. Osebno bi črtal vse najbolj cheap varijante Intela. Grafično jedro v Intel APUju me je totalno razočaralo, pa čeprav nisem veliko pričakoval. Če odštejem omenjeno Doto2, je zadeva pogojno užitna in načeloma ni problemov niti s predvajanjem 720p filmov na YT, 1080p ne deluje več vedno tekoče, 4k pa ubije celoten sistem, ne samo browserja. Novi APUji nimajo več te težave, ampak velikokrat se prodajajo če vedno arhaični primerki in totalno useless Celeroni, od katerih je pa praktično hitrejša že vsaka druga kitajska tablica.
khm khm Vsi intel procesorji (tudi celeroni)od ivy naprej so zmožni predvajat up to 4K video z levo jajco zaradi namenskega dekoderja. Če tebi ni delal 1080p na i7 kišti (tudi če je čisto prva generacija) potem delaš nekaj hudo narobe.
Ne rečem da ne dela noben, pravim samo, da ne delajo vsi tekoče. CPU pa pri 1080p youtube trailerju pobere eno celotno jedro in polovico drugega. Ker je dvojedrnik (kvazi 4 jedrnik v primeru da vklopim hyperthreading) je to že blizu maksimuma. Če zraven poganjam še karkoli drugega, potem se video konkretno zatika. Da ne omenim, koliko se ob gledanju full hd zadeva segreje. Skupaj požre preko 50W, če gre softweru verjeti, dočim rahlo topel na otip in s porabo med 25 in 30W, spet, če gre softweru verjeti, AMD fusion normalno prebavlja 1080p. Sicer se tudi tam poviša CPU util, ampak bistveno manj.
Prvi i7 APU so, kar se mene tiče, pofl od pofla. Za prenosnik si bom verjetno spet umislil APU, ampak definitivno ne bom vzel Intela, ker bo folk govoril, da je orto boljši. Sam ga ne bi vzel, če ne bi bil v hudo dobri akciji, ko sem ga dobil skoraj za polovično ceno - no saj zdaj mi je jasno zakaj.
In ja, namenski dekoderji spremenijo zadevo. Sicer se mi zdi malo trapasto dodajati namenski dekoder samo zaradi predvajanja videa, če se točno to zadevo lahko elegantno reši s shaderji, ki jih itak rabiš še za marsikakšen drug namen, ampak okej, performančno in glede porabe so daleč boljši način, gotovo pa niso cenejša opcija. Vsak kitajski predvajalnik, ki temelji na ARM soc zdaj lepo predvaja 4k, tako da razen na letalu uporaba računalnika za gledanje filmov praktično več nima smisla.
Šrš tvojih problemov je sam v tem, da nimaš vkloplenga strojnega dekodiranja videa in zelo zapacan sistem. Meni prastari core2duo prežveči 720p brez problema (1080p youtube mu dela pa že probleme) pa tudi 1080p prebavlja čisto lepo v samostojnem predvajalniku.
In namenski dekoder je daleč naboljša rešitev, ker porabi najmanj die placa, ima najmanjši tax na cpu usage (meni ivy pentium premleva 4k pri manj kot 1% cpu loada) daaleč najmanjša poraba in enostavno dela. Rešitev z shaderji je crap (kar je očitno iz implementacij tega včasih) ker shaderji nebojo v celoti offloadal dekodiranje pa še poraba vbo večja.