» »

Krmilnik za logično združitev HDD in SSD

Slo-Tech - Pisali smo že o sklopitvi trdih diskov in SSD-jev, ki poizkusi prinesti najbolje iz obeh svetov: torej odzivnost, hitrost, cenenost in kapaciteto. Podobno napravo so izdelali tudi v podjetju Marvell in jo poimenovali 88SE9130 (človek bi njihov marketinški oddelek kar za ušesa). Gre za krmilnik s podporo za tehnologijo HyperDuo, ki sistemu oba pogona predstavi kot eno logično enoto.

Krmilnik lahko deluje v dveh načinih. Če ga poganjamo v varnem načinu, so vsi podatki s SSD-ja zapisani tudi na trdem disku. Berejo in zapisujejo se seveda s hitrejše enote. Druga možnost je uporaba v prostornem načinu, kjer se podatki ne podvojijo. Krmilnik v obeh primerih sam odloči, kateri podatki morajo za najboljšo zmogljivosti ležati na SSD-ju, pri čemer ima uporabnik možnost določitve tako imenovanih vročih datotek, ki bodo tudi vedno tam. Proizvajalec pravi, da naprave doseže do 80 odstotkov čistega SSD-ja. Na voljo bo še v tem četrtletju.

22 komentarjev

RejZoR ::

Seagate Momentus XT anyone?
RejZoR's Flock of Sheep @ rejzor.wordpress.com

cekr ::

To je tako kot pri avtomobilih. Hibrid ni ravno rešitev.
Sinclair ZX Spectrum , Zilog Z80A - 3.5 MHz, 48kB, dvojni kasetofon, TV-OUT, radirke, Sinclair-Basic

tntn3000 ::

Ni mi jasno zakaj se SSDji bolj pospešeno ne razvijajo, ko pa je že kar nekaj časa jasno, da so ozko grlo compov diski... in bi se kar strinjal s cekr-om

nekikr ::

Bolj pospešeno? Saj se ne tako počasi...danes recimo za normalen denar dobiš že kar pošten SSD...res pa je da smo od 500GB za 50EUR še daleč.

Izi ::

tntn3000, ne razumem o čem govoriš, SSD-ji so ja najbolj hitro razvijajoča tehnologija v zadnjem desetletju. V Zadnji nekaj letih odkar so splošno dostopni imamo že tretjo generacijo SSD-jev. Že vsaj 3 leta so povsem zrela in uporabna tehnologija.
Razvoj je že bolj ali manj končan, sedaj ko so zrela in preizkušena tehnologija ostaja smo še počasno večanje kapacitet in hitrosti. Nižanja cen ni pričakovati, bomo pa za enak denar vsako leto lahko kupili malenkost večje in hitrejše SSD-je.

Ne računati na SSD-je z nižjimi kapacitetami in hitrostmi, ker tisto niso več SSD-ji ampak USB ključki :P. Le ti tesno slediji SSD jem in so trenutno prilezli nekje do 64 GB, medtem ko so SSDji prilezli nekje do 600 GB.
Treba je omeniti, da so tudi najnovejši USB ključki na USB 3.0 že prehiteli trde diske, kar se tiče hitrosti.

Kar se pa tiče ozkega grla, pa so tudi SSD-ji še vedno ozko grlo. Nek element mora nujno biti najpočasnejši v celoti in tudi če se SSD-ji pohitrijo še za 10-krat bodo še vedno najpočasnejši del v računalniku.

Relanium ::

Se pa po mojih izkušnjah z zamenjavo diska za hitrejšega da oživet kakšen star računalnik.
Naš domači namizni ma že 6 let (procesor in plata, drugo še več), pa še vedno lepo gladko deluje windows 7 z malo novejšim diskom.
Pravijo da pa se s SSDjem hitrost ne sam podvoji ampak skoraj podeseteri

Zgodovina sprememb…

  • spremenilo: Relanium ()

nekikr ::

No ja, pohitritev gre od 0x hitreje do 100x hitreje :)

Izi ::

Relanium je izjavil:

Pravijo da pa se s SSDjem hitrost ne sam podvoji ampak skoraj podeseteri

To je pa precej preoptimistična ocena :D
Pri kopiranju večjih datotek sem in tja se hitrost približno podvoji, dostopni časi pa so res okoli 10 krat manjši od trdih diskov, kar v praksi vse skupaj znese okoli 5-krat hitreje od trdega diska, kar pa še zdaleč ne pomeni, da bo računalnik delal 5-krat hitreje in se bodo Windows zagnali namesto v 50 sekundah kar v 10 sekundah. Še zdaleč ne. Med nalaganjem programov polovico časa SSD še vedno počiva, medtem ko mora procesor obdelati vse podatke in jih poslati v RAM. Tako da kar se tiče zagonskih časov programov je na koncu računalnik s SSD-jem približno še enkrat hitrejši od tistega s trdim diskom. Pa še to le v primeru, da je procesor dovolj hiter.
Hitrost procesorja je še vedno precej pomembna, da lahko hitrost SSD-ja pride do izraza. Če imaš ti 10 let star procesor potem SSD ne bo kaj dosti, če sploh kaj, pohitril sistema.
Podobno je z grafično kartico, ki jo je nesmiselno vzeti najhitrejšo, če je procesor prepočasen in ji ne more slediti.
Procesor je glavni v računalniku in dokler on ne obdela prav vsega kar je treba ga morajo vse ostale komponente čakati.

Jaz zato za stare računalnike odsvetujem nakup SSD-ja, ker procesor že tako deluje na meji zmogljivosti in mu hitrejše podajanje podatkov ne bo prav nič pomagalo. Kakšen enojedrn procesor je že tak kamor nima smisla tlačiti SSD.
SSD odlično sede v računalmik, kjer je procesor tako hiter, da polovico časa počiva.

Zgodovina sprememb…

  • spremenil: Izi ()

Jst ::

Zanimivo! Podobno rešitev sem jaz opisal, kako bi si predstavljal. Lahko poiščem post iz ene pol leta nazaj.

Idejo sem pa dal, da bi SSDji bili PCIe kartice, ki bi bili poljubne velikosti in ker podatki itak letijo po računalniku, se na zadevo zapisujejo tisti podatki, kateri se največkrat ponovijo. Tako je zagotovljeno transparentno delovanje in vsi podatki so na HDDju. Strojni Readyboost, nisem pa takrat preveč razmišljal naprej, če bi nujno rabil podporo OSa.

Problem s SDDji je "samo" velikost, katera posledično dvigne ceno. Ni to tako kot pri HDDju, kjer je 1TB 100EUR z dvema ploščama, 1.5TB pa 125EUR s tremi - in so te plošče manjši strošek. Pri SDDju se cena dokaj linearno povečuje z velikostjo/količino MLC celic (če odšteješ kontroler, vezje in ohišje).

Jaz sem programer in na prenosniku, kjer imam naložena vsa orodja, ki jih potrebujem, pride takoj do 200GB. Potem so tu še Virtualci za testiranje, normalna raba brskanja po internetu, ki danes vključuje tudi par HD posnetkov in 500GB disku ostane frej dobrih 120GB at this very moment.
Proton decay is a tax on existence.

tntn3000 ::

@izi: Kar se pa tiče ozkega grla, pa so tudi SSD-ji še vedno ozko grlo. Nek element mora nujno biti najpočasnejši v celoti in tudi če se SSD-ji pohitrijo še za 10-krat bodo še vedno najpočasnejši del v računalniku.
Zakaj mora biti nek element najpočasnejši? Zakaj ne bi bil comp kot celota bolj usklajen in s tem najbrž bolj učinkovit? In če je ssd disk še zmeraj 10x počasnejši kot ostale komponente, očitno tehnologija le ni tako razvita...

googleg1 ::

@jst kakšen developer pa si da rabiš 200GB za orodja. Res me zanima, ker za večino jezikov razvijalska orodja ne porabijo toliko prostora (tukaj ciljam na Visual studio in pa eclipse)

oldguy ::

Zakaj mora biti nek element najpočasnejši? Zakaj ne bi bil comp kot celota bolj usklajen in s tem najbrž bolj učinkovit? In če je ssd disk še zmeraj 10x počasnejši kot ostale komponente, očitno tehnologija le ni tako razvita...


Boš dal za PCja 100.000EUR? Ne boš? Zato.

Zgodovina sprememb…

  • spremenil: oldguy ()

tntn3000 ::

kaj si hotel s tem povedati? za novo mašino dam ponavadi okrog 2k eur, zraven top price/perf komponent pa dobim že nekaj časa eno velko bremzo - disk. in pa vedno bolj nasmeten software, ampak to je že druga zgodba

Zgodovina sprememb…

  • spremenil: tntn3000 ()

oldguy ::

Hotel sem ti povedati, da je tvoj scenarij o usklajenosti komponent neumnost. Pozabi na to, da boš podatke procesorju metal s hitrostjo vodila. Bodisi imaš 100 jurjev, bodisi ti je 8Mb dovolj, bodisi pa se tega ne greš...

Jst ::

>Zakaj mora biti nek element najpočasnejši?

Hehe, samo poglej CPU. L1 Cache je mnogo hitrejši od L2 Cache, ki je spet mnogo hitrejši od L3. Ki je spet hitrejši kot ram ter na koncu te "verige" je disk, storage. Nekdo se je tukaj enkrat dobro izrazil, da je to kot bi opisoval reduktor.


>jst kakšen developer pa si da rabiš 200GB za orodja.

Res je, da samo orodja niso tako velika. Tako veliko vse skupaj rata potem zaradi večih faktorjev. Windows7 si vsako verzijo dll-ja shranijo. Vsak compile (dllja) veča tisti Windows direktorij. Potem recimo Help, ki ga uporablja vsak, ker si je nemogoče zapomniti vsa imena funkcij in parametrov. Help se tudi veča, ker se veliko dobrih pomoči sproti dopolnjuje iz interneta. Potem, ko se lotiš nečesa novega, so tu Exampli.

Prvo imaš seveda Diagramming Tools, nato bazo (osebno uporabljam na prenosniku postGreSQL), ne pozabimo na vse dot net like frameworke, RAD IDE,... in potem ko daš nekaj projektov čez, se disk nafila.

Dam ti en primer, na katerega sem ponosen, da sem ga sam sprogramiral. Srednje veliko podjetje ima več lokacij. Direktor, računovodstvo na enem koncu, proizvodnja na dveh. Takrat VPN ni bil smotern, ker so v pisarnah, kjer je direktore, dostopali do interneta prek ISDNja. Zato sem sprogramiral sinhronizacijo podatkov, ki se je opravljala med lokacijami ponoči. Seveda niso vse lokacije rabile vseh podatkov. Backend sem napisal potrebne dllje v C++, GUI za nastavitve, nadzor in loge pa v Borland Delphiju. To jim je takrat zmanjšalo stroške za telefon iz 200ksit (ko so imeli star sistem z VPN) na nekaj deset tisoč tolarjev. (Saj jim ni bil problem plačevati tolikšne vsote, vendar je bilo prej vse polžje počasno, ker ko so na eni lokaciji v proizvodnji vnesli v program, da so porabili vrečo cementa, se je moralo to prenesti v glavni strežnik, kjer je imela firma headquarters.)

To je bilo že dolgo nazaj in menda tam še vedno nimajo DSL dostopa do interneta in ker sem moj program naredil toliko fleksibilen, se po mojih informacijah uporablja še danes, vendar sedaj z Mobilnim dostopom. Ker sem napisal dobesedno svoj protokol, data se prenaša kriptirano, so te dllji (če so moje informacije točne) le rahlo spremenjeni zaradi prihoda Viste in Sedmice (nekaj v zvezi s ključi, katere sem uporabljal za kriptiranje).

Če se prav spomnim, sem to napisal na Dellu z 900Mhz procesorjem. To je bil še čas, ko ni bilo še vse bloated (tudi zaradi takšnih poenastavitev, ki jih orodja omogočajo danes, ko večino delov aplikacij "narišeš".)

Recimo končni izdelek - takšen service - zaseda zelo malo. Ampak če bi ga moral delati danes, bi bila procedura izbire tehnike enaka. Prvo raziskovanje, nato pregled examplov in malo računanja, koliko je česa, vzpostavitev testnega okolja, pisanje programa in nato testiranje delovanja programa in ubijanje hroščev in optimizacija. Torej service je miniaturen v primerjavi z "okoljem," katerega vzpostaviš za delo.
Proton decay is a tax on existence.

3p ::

Ta rešitev je samoumevna, ne vem pa kaj pacajo toliko časa. Intel je to že pred časom (5 let nazaj?) obljubljal na ploščah (flash, ki bo kao buffer med diskom), pa ni bilo nič. Momentus XT je fail, ker je počasen (premalo SSD, prepočasen, verjetno počasen krmilnik)...

MrStein ::

Saj si sam napisal: V praksi ni rezultatov od te kombinacije.

Sicer pa če že, na nivoju OS-a.
Priklopiš eno "kolo" (disk) in en flash (blisk? :P) in OS lepo razporeja stvari.
Zakaj bi doplačeval za "pameten" krmilnik? Ki je omejen in čez pol leta že obsolete?
Teštiram če delaž - umlaut dela: ä ?

fiore ::

Jst je izjavil:


Dam ti en primer, na katerega sem ponosen, da sem ga sam sprogramiral. Srednje veliko podjetje ima več lokacij. Direktor, računovodstvo na enem koncu, proizvodnja na dveh. Takrat VPN ni bil smotern, ker so v pisarnah, kjer je direktore, dostopali do interneta prek ISDNja. Zato sem sprogramiral sinhronizacijo podatkov, ki se je opravljala med lokacijami ponoči. Seveda niso vse lokacije rabile vseh podatkov. Backend sem napisal potrebne dllje v C++, GUI za nastavitve, nadzor in loge pa v Borland Delphiju. To jim je takrat zmanjšalo stroške za telefon iz 200ksit (ko so imeli star sistem z VPN) na nekaj deset tisoč tolarjev. (Saj jim ni bil problem plačevati tolikšne vsote, vendar je bilo prej vse polžje počasno, ker ko so na eni lokaciji v proizvodnji vnesli v program, da so porabili vrečo cementa, se je moralo to prenesti v glavni strežnik, kjer je imela firma headquarters.)

To je bilo že dolgo nazaj in menda tam še vedno nimajo DSL dostopa do interneta in ker sem moj program naredil toliko fleksibilen, se po mojih informacijah uporablja še danes, vendar sedaj z Mobilnim dostopom. Ker sem napisal dobesedno svoj protokol, data se prenaša kriptirano, so te dllji (če so moje informacije točne) le rahlo spremenjeni zaradi prihoda Viste in Sedmice (nekaj v zvezi s ključi, katere sem uporabljal za kriptiranje).

Če se prav spomnim, sem to napisal na Dellu z 900Mhz procesorjem. To je bil še čas, ko ni bilo še vse bloated (tudi zaradi takšnih poenastavitev, ki jih orodja omogočajo danes, ko večino delov aplikacij "narišeš".)

Recimo končni izdelek - takšen service - zaseda zelo malo. Ampak če bi ga moral delati danes, bi bila procedura izbire tehnike enaka. Prvo raziskovanje, nato pregled examplov in malo računanja, koliko je česa, vzpostavitev testnega okolja, pisanje programa in nato testiranje delovanja programa in ubijanje hroščev in optimizacija. Torej service je miniaturen v primerjavi z "okoljem," katerega vzpostaviš za delo.

hm, sicer ne poznam celotne zgodbe, ampak a ne bi bilo lažje narediti eno skripto ki prek sshja z rsyncom vse prekopira? to narediš v manj kot 10 vrsticah, in ne vzame ti več kot 15min.

sicer pa kar se tiče SSD + HDD, se da to v linuxu zelo lepo rešit. imenike s programi in sistemom mountaš na SSD, dokumente, filme, glasbo in podobno pa na HDD. problem je edino na prenosniku, ker imaš prostor za samo en disk, ampak tam ti tudi rešitev iz novice ne pomaga.
Kubuntu 10.04 (desktop), Ubuntu 10.10 64-bit (laptop), UNE 9.04 (eeePC),
Kubuntu 10.04 64-bit (workstation), Android 2.2 (phone)

Jst ::

Na obsolete prenosniku doma poganjam openSuse, ki služi kot Internet Device. In res, v linuxu bi mogoče lažje uredil stvari s kombinacijo SSDja za distro in HDDja za /home.

>ne bi bilo lažje narediti eno skripto ki prek sshja z rsyncom vse prekopira?

Ja, potem bi pa sync delal nekaj dni zaporedoma. Tisto pa NI bila klasična sinhronizacija.

Kar se pa tistega programčka tiče: V HQ pisarnah je bil Win Server 2000, ki je imel vse podatke, na drugih dveh lokacijah pa proizvodnjo, kjer je bilo zaposlenih kar veliko ljudi in tudi podatkov v bazi ni bilo ravno malo. Pa tudi druge tabele so se filale. ISDN je bil pa počasen kot hudič... drugi časi, ko bi za youtube posnetek čakal nekaj ur.

Danes v času Broadbanda je rešitev več in bolj elegantne, ampak takrat je bil pa hud problem, ker si bil omejen s pasovno širino. Saj sedaj ko tudi sam pomislim z malo distance, kakšne kolobocije so bile okoli tega, se samo nasmejim.
Proton decay is a tax on existence.

Zgodovina sprememb…

  • spremenil: Jst ()

3p ::

MrStein: Rezultatov kombinacije ni, ker je izvedba lame.
Fiore: Sicer lahko tudi na windowsih SSD mountaš v program files recimo. Ampak to ni point. Kot je nekdo napisal, mora računalnik upravljati s hierarhijo pomnilnika, v katero SSD lepo paše, ne pa da jaz izbiram kaj bo tu in kaj tam. Na SSD naj računalnik zloži tisto, kar se najbolj pozna pri hitrosti, in on se naj ugotavlja kaj to je.

fiore ::

3p je izjavil:


Fiore: Sicer lahko tudi na windowsih SSD mountaš v program files recimo. Ampak to ni point. Kot je nekdo napisal, mora računalnik upravljati s hierarhijo pomnilnika, v katero SSD lepo paše, ne pa da jaz izbiram kaj bo tu in kaj tam. Na SSD naj računalnik zloži tisto, kar se najbolj pozna pri hitrosti, in on se naj ugotavlja kaj to je.

iz novice
Druga možnost je uporaba v prostornem načinu, kjer se podatki ne podvojijo. Krmilnik v obeh primerih sam odloči, kateri podatki morajo za najboljšo zmogljivosti ležati na SSD-ju, pri čemer ima uporabnik možnost določitve tako imenovanih vročih datotek, ki bodo tudi vedno tam

očitno računalnik ne zna ugotovit kaj naj bo kje... sploh pa, zakaj naj ne bi uporabnik to sam določil? edina potencialna prednost, ki jo vidim je to, da lahko krmilnik določa na nivoju datotek, uporabnik pa na nivoju imenikov.
Kubuntu 10.04 (desktop), Ubuntu 10.10 64-bit (laptop), UNE 9.04 (eeePC),
Kubuntu 10.04 64-bit (workstation), Android 2.2 (phone)

Jst ::

>da lahko krmilnik določa na nivoju datotek, uporabnik pa na nivoju imenikov.

Niti to ni rešitev. Naj se gor zapišejo podatki, ki se največkrat pojavijo v kontrolerju. Lahko so samo deli datotek. Recimo, če imaš dokaj hiter RAID HDDjev, je problem samo še v počasnem dostopu. In na takšen SSD se zapiše samo prvih nekaj MB takšne velike datoteke, ker v zaporednem branju je RAID hitrejši. Ampak za to idejo misim, da bi bila najbolje implementirana v takšni rešitvi, ki sem jo jaz opisal. Torej PCIe SSD, ki je nekakšen pospeševalnik.

Bolj kot premišljujem, bolj se mi zdi, da bi se dalo takšno PCIe kartico implementirati transparentno operacijskemu sistemu. Takšna PCIe kartica bi imela še SATA priklope gor, da ne bi za brezveze dodatno obremenjevala podatkovna vodila, tako, da bi Disk (ali diske) priklopil na to kartico.

Tako bi te PCIe SSD kartice menjal brez da bi izgubil bit podatka, ker bi bilo vse na disku. Hitrost bi bila sicer odvisna od pametnosti kontrolerja*, ampak mislim, da bi se dalo narediti takšno implementacijo, da bi bila hitrost branja in pisanja zelo blizu SDDjev, a obenem z velikostjo Diska, priklopljenega nanj.

*pametnost kontrolerja: Tako kot Defrag programi razporedijo datoteke tako, da so tiste, ki so največkrat uporabljanje na pravem mestu, bi pa kontroler gledal kateri podatki imajo največji access time in te hranil gor. Ampak spet nisem prepričan, če ne bi rabil za to podporo OSa.... hm...
Proton decay is a tax on existence.


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Prihajajo poceni SSD diski (strani: 1 2 )

Oddelek: Novice / Diski
9715483 (2897) element
»

Krmilnik za logično združitev HDD in SSD

Oddelek: Novice / Diski
223189 (1839) Jst
»

Sklopitev SSD in HDD

Oddelek: Novice / Diski
153469 (2310) Icematxyz
»

Vprašanje glede SSD na prenosniku

Oddelek: Strojna oprema
102416 (2146) ender
»

Intel X25-X (strani: 1 2 3 )

Oddelek: Novice / Procesorji
1426431 (3698) lopov

Več podobnih tem