bit-tech.net - Prva prednaročila dvojedrnih procesorjev Clarkdale so se že pojavila na nemški spletni trgovini HPM-computer.de, a so bila tudi že odstranjena. Vseeno so dokazi o možnosti prednaročila zaokrožili po celem računalniškem svetu, z njimi pa, seveda, tudi cene. Le-te so znane za vse prihajajoče dvojedrnike, tako iz serije Core i5 kot iz serije Core i3. Slednja sta sploh ugodna, saj je (oz. bo) Core i3-530 stal 104, Core i3-540 pa 121 evrov. Procesorji Core i5 za razliko od serije i3 podpirajo naprednejšo virtualizacijo (VT-d - operacijski sistem v virtualizaciji lahko dostopa neposredno do strojne opreme, npr. USB priključkov, mrežne kartice, itd.), dodatne varnostne funkcije v obliki tehnologije TXT (Trusted Execution Technology) ter Turbo Boost oz. dviganje frekvence enega izmed jeder, ko je le to močno obremenjeno, drugo pa ne.
Posledično so procesorji Core i5 tudi nekoliko dražji, saj modeli 650, 660, 661 (ki ima namesto 733 MHz grafično jedro s frekvenco 900 MHz in nekoliko višji TDP) in 670 stanejo 161, 176 oz. 253 €. Kot že rečeno bo vseh pet novih procesorjev, razen Core i5-661, porabilo do največ 73 W električne energije, medtem ko naj bi zaradi hitrejšega grafičnega jedra slednji porabil 87 W. Pri bit-techu sicer dvomijo, da bo Core i5-661 sploh izdelan, na kar sumijo zaradi cene, ki je enaka šibkejšemu modelu. Po drugi strani so do sedaj edini s takimi dvomi, točno usodo tega modela pa bomo izvedeli najkasneje v začetku januarja.
EDIT: prehitro sem bral... se opravičujem. Ža na začetku novice piše, da so dvojedrniki. Torej vsi i3 in i5 so v bistvu samo in izključno dvojedrniki, ne?
Hrabri mišek (od 2015 nova serija!) -> http://tinyurl.com/na7r54l
18. november 2011 - Umrl je Mark Hall, "oče" Hrabrega miška
RTVSLO: http://tinyurl.com/74r9n7j
2 dodatni jedri prineseta samo ~10-20w porabe? to na full load (vseh jeder)? graficna bi se mogla obnest kar dobro, ker je na cpu, rajt? ima ta proc tudi pcie kontroler?
2 dodatni jedri prineseta samo ~10-20w porabe? to na full load (vseh jeder)? graficna bi se mogla obnest kar dobro, ker je na cpu, rajt? ima ta proc tudi pcie kontroler?
Niti ne. Procesorji pa imajo integriran memory controller, grafiko in pa PCI-E. Grafika bo praktično na nivoju intelovih integriranih čudes.
Pozabil si na GPU, ki ga je Intel stlačil v i3 in i5 6xx modele, i5 750 pa kot kaže nima grafične zraven.
i5 750 je 45 nm, 4 jedra, ima 8 MB L3 cache in ima TDP 95 Wattov i5 661 je 32 nm, 2 jedri, ima 4 MB L3 cache + GPU na 900 MHz in ima TDP 87 Wattov i5 6xx je 32 nm, 2 jedri, ima 4 MB L3 cache + GPU na 733 MHz in ima TDP 73 Wattov
GPU je kar velik porabnik čeprav gre za ubogo Intelovo grafiko s katero iger ne boš mogel igrati. Če torej integrirane grafike ne potrebuješ se procesorja z integriranim GPU ne splača kupiti, ker kot kaže GPU vedno porablja štrom tudi če ti uporabljaš ATI ali Nvidia grafično.
Precej bedno, da pridejo i5 32nm quadi baje šele konec 2010 z TOCK sandy bridge. Do takrat pa sploh ne vem katerega quada na 32nm in socketu 1156, brez bedne integrirane grafike, boš sploh lahko kupil. Kr neki.
Pozabil si na GPU, ki ga je Intel stlačil v i3 in i5 6xx modele, i5 750 pa kot kaže nima grafične zraven.
i5 750 je 45 nm, 4 jedra, ima 8 MB L3 cache in ima TDP 95 Wattov i5 661 je 32 nm, 2 jedri, ima 4 MB L3 cache + GPU na 900 MHz in ima TDP 87 Wattov i5 6xx je 32 nm, 2 jedri, ima 4 MB L3 cache + GPU na 733 MHz in ima TDP 73 Wattov
GPU je kar velik porabnik čeprav gre za ubogo Intelovo grafiko s katero iger ne boš mogel igrati. Če torej integrirane grafike ne potrebuješ se procesorja z integriranim GPU ne splača kupiti, ker kot kaže GPU vedno porablja štrom tudi če ti uporabljaš ATI ali Nvidia grafično.
Od kje ti ideja, da vedno porablja štrom? In zakaj se en bi splačalo kupiti duala, če ne rabiš grafičnega čipa? Kot bi rekel, da je brezveze kupiti poceni plato z integriranim grafičnim čipom, če boš pa uporabljal ločeno, PCIe grafo (pa ima GPU integriranih vedno več plat).
Mogoče se motim, ampak idejo sem dobil iz testov. Procesor je med benchamarki vedno rabil dobrih 70 wattow pa so vedno testirali z ATI ali Nvidia grafično kartico. Če bi se GPU kakorkoli izključil bi moral procesor prispevati samo okoli 40 wattov k celotni porabi. Mogoče sem kaj spregledal.
Mogoče se motim, ampak idejo sem dobil iz testov. Procesor je med benchamarki vedno rabil dobrih 70 wattow pa so vedno testirali z ATI ali Nvidia grafično kartico. Če bi se GPU kakorkoli izključil bi moral procesor prispevati samo okoli 40 wattov k celotni porabi. Mogoče sem kaj spregledal.
Ne, saj CPU sam porabi 70 wattov, grafična pa okrog 5, tako da je skupaj ravno 75 wattov.
No, kar se pa tiče celotne zadeve z novimi procesorji, pa lahko samo zmajam z glavo. Intel dela takšne bedarije, da je to skoraj neverjetno. Zakaj za vraga so se odločli izdat celotni dve seriji novih dvojedrnih procesorjev, ko pa je že nekaj časa jasno, da bodo dvojedrni procesorji v letu ali dveh za odmet, razen seveda za osnovna dela. In od kje jim ideja da gredo tiščat neko grafično skropucalo v sam procesor, ko pa plate z integrirano grafo stanejo skoraj nič. Jah, namesto, da bi izdali en ali največ dva 32nm dvojedrnika z frekvencami od 2GHz pa mogoče do 2,2GHz z rekordno nizko porabo, oni grejo do 3,73GHz. Pa saj to več ni normalno. 32nm Quadi pa seveda konec 2010!?!
Konkretno sem videl pri i5 650 med overclock in benchmark testi, ki se pojavljajo že od konca septembra, se pravi že 2 meseca. Mogoče je problem, da gre za engineering model in niso mogli ugasniti GPU.
Ne, saj CPU sam porabi 70 wattov, grafična pa okrog 5, tako da je skupaj ravno 75 wattov.
To pa ne bo držalo, če sta 660 in 661 modela popolnoma enaka razen da ima 660 model 733 MHz GPU, 661 pa 900 MHz GPU in prvi porabi 73 drugi pa 87 wattov. Potem takem samo 167 MHz višja frekvenca GPU-ja porabi kar 14 wattov več. celotni GPU mora potem po moji logiki rabiti vsaj 30 wattov če ne še več, med obremenitvijo seveda.
Mogoče se motim, ampak idejo sem dobil iz testov. Procesor je med benchamarki vedno rabil dobrih 70 wattow pa so vedno testirali z ATI ali Nvidia grafično kartico. Če bi se GPU kakorkoli izključil bi moral procesor prispevati samo okoli 40 wattov k celotni porabi. Mogoče sem kaj spregledal.
Ne, saj CPU sam porabi 70 wattov, grafična pa okrog 5, tako da je skupaj ravno 75 wattov.
No, kar se pa tiče celotne zadeve z novimi procesorji, pa lahko samo zmajam z glavo. Intel dela takšne bedarije, da je to skoraj neverjetno. Zakaj za vraga so se odločli izdat celotni dve seriji novih dvojedrnih procesorjev, ko pa je že nekaj časa jasno, da bodo dvojedrni procesorji v letu ali dveh za odmet, razen seveda za osnovna dela. In od kje jim ideja da gredo tiščat neko grafično skropucalo v sam procesor, ko pa plate z integrirano grafo stanejo skoraj nič. Jah, namesto, da bi izdali en ali največ dva 32nm dvojedrnika z frekvencami od 2GHz pa mogoče do 2,2GHz z rekordno nizko porabo, oni grejo do 3,73GHz. Pa saj to več ni normalno. 32nm Quadi pa seveda konec 2010!?!
jaz pa zmajam zaradi bedarij v tvojem postu...
Iz testov? Katerih testov?
Konkretno sem videl pri i5 650 med overclock in benchmark testi, ki se pojavljajo že od konca septembra, se pravi že 2 meseca. Mogoče je problem, da gre za engineering model in niso mogli ugasniti GPU.
Ne, saj CPU sam porabi 70 wattov, grafična pa okrog 5, tako da je skupaj ravno 75 wattov.
To pa ne bo držalo, če sta 660 in 661 modela popolnoma enaka razen da ima 660 model 733 MHz GPU, 661 pa 900 MHz GPU in prvi porabi 73 drugi pa 87 wattov. Potem takem samo 167 MHz višja frekvenca GPU-ja porabi kar 14 wattov več. celotni GPU mora potem po moji logiki rabiti vsaj 30 wattov če ne še več, med obremenitvijo seveda.
Sem nekje 95% rpepričan, da je GPU vlekel štrom zaradi nedodelanega BIOSa, pomanjkanja podpore v driverjih, itd. itd. Preproduction hardware, ki niti še ni narejen za skupno delo (drugače bi bilo, če bi imeli H/Q plato, namesto obstoječe P plate) ni neka osnova za taka predvidevanja. ZMogljivost samega CPUja ja, poraba, kjer je zraven še grafa pa ne.
In ja, multicore še ni tako zelo zakoreninjen v programje, kot si marsikdo rad predstavlja. Itak pa imamo obilico problemov, ki niti ne morejo biti multicore. Sam sem šele manj kot leto in pol na dual core in kot kaže ne bom zapuščal ladje v kratkem (močno razmišljam o zamenjavi za Clarkdalea).