Forum » Pomoč in nasveti » ZFS vprasanja, za in proti, izkusnje
ZFS vprasanja, za in proti, izkusnje
xandros ::
Postavim si en server, notri bi dal dva ali tri diske v raid.
Kaksna je prednost ZFS, pa kaksne so slabosti?
Najbolje iz osebnih izkusenj.
Kaksna je prednost ZFS, pa kaksne so slabosti?
Najbolje iz osebnih izkusenj.
jype ::
Slabost je, da potrebuje ogromno pomnilnika za ogromno prostora, pa da ga je razmeroma enostavno pripravit do strahotne počasnosti z določenimi vzorci uporabe.
Prednosti so vse ostalo.
Prednosti so vse ostalo.
jype ::
Odvisno, kaj boš počel. ZFS je veliko več kot zgolj "mdadm", pri čemer verjetno misliš neko vrsto RAID polja in gor en klasičen datotečni sistem?
ZFS dolgoročno veliko bolj pazi na podatke.
ZFS dolgoročno veliko bolj pazi na podatke.
xandros ::
Mdadm naredim raid dveh diskov.
A zfs omogoca, da imam dva razlicna diska, in kasneje se dodam enega v polje?
Kaj bi kljucnega izpostavili, zakaj bi vzel rajsi zfs?
A zfs omogoca, da imam dva razlicna diska, in kasneje se dodam enega v polje?
Kaj bi kljucnega izpostavili, zakaj bi vzel rajsi zfs?
jype ::
Dolgoročno shranjevanje na ext4 zagotovo v podatkih pusti napake. Koliko jih je, ne vem, ker ne morem vedeti.
xandros> Kaj bi kljucnega izpostavili, zakaj bi vzel rajsi zfs?
Tole preberi:
http://arstechnica.com/information-tech...
xandros> Kaj bi kljucnega izpostavili, zakaj bi vzel rajsi zfs?
Tole preberi:
http://arstechnica.com/information-tech...
xandros ::
Torej snapshot je ful uporaben.
A lahko imam diske razlicnih velikosti?
A RaidZ lahko naredim z dvema diskoma? Pa cez cas, ce bom rabil, grem na 3?
A lahko imam diske razlicnih velikosti?
A RaidZ lahko naredim z dvema diskoma? Pa cez cas, ce bom rabil, grem na 3?
Mavrik ::
Torej snapshot je ful uporaben.
A lahko imam diske razlicnih velikosti?
V poolu ja. Samo če boš pa 320 pa 2x500G diska dal v RAIDZ boš pa dobil 640G array.
A RaidZ lahko naredim z dvema diskoma? Pa cez cas, ce bom rabil, grem na 3?
RAIDZ zahteva vsaj tri diske. Za dva diska imaš mirror način. Ne, RAIDZ ne moreš širit - lahko pa daš zdaj dva diska v mirror in potem dokupiš dva in ju daš v mirror ter v isti pool.
The truth is rarely pure and never simple.
Zgodovina sprememb…
- spremenil: Mavrik ()
Mavrik ::
Em, kateri del "RAIDZ se ne da širiti" ni jasen? :)
Dokupiti moraš novo RAIDZ polje in ga dodati v pool, širjenja NI (razen če seveda vse skupaj podereš, sformatiraš in nanovo postaviš).
Priporočam ti, da se naučiš osnove terminologije in rihtanja ZFSa preden greš v nakup (poglej si kaj je ZFS pool, kaj je RAIDZ (ter RAIDZ2, RAIDZ3) in mirror način, ipd.) - da ne boš brezveze zapravljal denarja.
Dokupiti moraš novo RAIDZ polje in ga dodati v pool, širjenja NI (razen če seveda vse skupaj podereš, sformatiraš in nanovo postaviš).
Priporočam ti, da se naučiš osnove terminologije in rihtanja ZFSa preden greš v nakup (poglej si kaj je ZFS pool, kaj je RAIDZ (ter RAIDZ2, RAIDZ3) in mirror način, ipd.) - da ne boš brezveze zapravljal denarja.
The truth is rarely pure and never simple.
Zgodovina sprememb…
- spremenil: Mavrik ()
xandros ::
Sej nisem rekel, da bi raidz siril.
Vprasal, ce se da kaksen raid sirit,
Ja zato pa sprasujem.
Sej lahko pa prakticen primer, kako se "siri". Zgoraj omenjeno, torej dva v pol, pa spet dva, in v isti pool.
Vprasal, ce se da kaksen raid sirit,
Ja zato pa sprasujem.
Sej lahko pa prakticen primer, kako se "siri". Zgoraj omenjeno, torej dva v pol, pa spet dva, in v isti pool.
kogledom ::
Tudi to piše v članku. Na začetku (praktično) nič, potem pa glede na to, koliko podatkov se spremeni.
Brane22 ::
Vprasal, ce se da kaksen raid sirit,
mdadm lahko širiš.
Iz RAID5 lahko narediš RAID6 recimo.
Ali dodaš extra diske v RAID ali spremeniš stripe itd itd.
jype ::
xandros> Vprasal, ce se da kaksen raid sirit,
Širiš lahko Btrfs (in delaš praktično vse enako kot z md raid).
Širiš lahko Btrfs (in delaš praktično vse enako kot z md raid).
Zgodovina sprememb…
- spremenilo: jype ()
LuiIII ::
Kot dolgoleten uporabnik ZFS (ok 5 let je pa že kar dolgo za tele zadeve) lahko rečem, da je ZFS zelo uporaben za data vault malo večjih kapacitet (z ustreznim vzdrževanjem), krasen je za offline backup, kot NAS, kot storage za velike datoteke (video, LIDAR, aeroposnetki,...) in še kaj bi se našlo. Dober pravzaprav ni edino za tiste vrste uporabe, ko ne veš kaj in kako pravzaprav želiš hraniti na njem in za res veliko IOPS (baze z veliko uporabniki), pa še tu se seveda da stvari optimizirati. Res toplo pa priporočam zadevo za hranjenje živih in pomembnih podatkov. Seveda ne v RAID Z1 ampak kvečjemu v kakšnem mirror RAID Z2 ipd.
Glede razširljivosti ima morda na prvo žogo res krepko omejene možnosti, a ko zadevo bolje premislim to pravzaprav niti niso hude pomanjklivosti.
Glede razširljivosti ima morda na prvo žogo res krepko omejene možnosti, a ko zadevo bolje premislim to pravzaprav niti niso hude pomanjklivosti.
Zgodovina sprememb…
- spremenil: LuiIII ()
AndrejO ::
Slabost je, da potrebuje ogromno pomnilnika za ogromno prostora, pa da ga je razmeroma enostavno pripravit do strahotne počasnosti z določenimi vzorci uporabe.
Prednosti so vse ostalo.
ECC pomnilnika. Kar za seboj potegne dodatne stroške pri izbiri ustrezne strojne opreme.
Če rabiš hiter datotečni sistem, pozabi. Ta bo skoraj zagotovo najpočasnejši.
Slabost je tudi to, da v primeru okvare (kar se dogaja redkeje, kot pri drugih datotečnih sistemih, a vendar...), ugotoviš, da nimaš praktično nobenega orodja za obnovo ali reševanje podatkov.
Dodatna slabost je, da boš za stabilno implementacijo moral vzeti bodisi Solaris (drago), naslednika OpenSolaris (zelo omejena strojna podpora) ali FreeBSD (klasičen UNIX in ne Linux). Ne glede na vse, kar pravijo o ZFS na Linux sistemih, sta obe implementaciji bolj tako, tako. Performančno in iz vidika stabilnosti/zanesljivosti.
Bistvena, če ne kar edina prednost ZFS je ta, da je to edini prosto dostopen sistem, ki ponuja možnost odkrivanja (ne pa nujno tudi odpravljanja) napak v podatkih, če seveda redno izvajaš preglede (scrubbing). To ne odpravi zahteve za varnostnimi kopijami, pomaga pa neprimerljivo bolj zanesljivo ugotoviti kdaj je prišlo do napake in je potrebno vsebino obnoviti iz varnostne kopije. Ostalo imajo tudi drugi.
jype ::
AndrejO> ECC pomnilnika.
Brez tega je malce bolj nerodno, a še vedno daleč bolj varno kot brez ZFS. ZFS "odkrije" tudi težave s pomnilnikom (kar pomaga samo toliko, da veš, da so podatki zdaj pokvarjeni - ne moreš jih pa popravit). Pri navadnem pomnilniku in običajnem datotečnem sistemu ne veš niti tega, da so pokvarjeni.
Brez tega je malce bolj nerodno, a še vedno daleč bolj varno kot brez ZFS. ZFS "odkrije" tudi težave s pomnilnikom (kar pomaga samo toliko, da veš, da so podatki zdaj pokvarjeni - ne moreš jih pa popravit). Pri navadnem pomnilniku in običajnem datotečnem sistemu ne veš niti tega, da so pokvarjeni.
Zgodovina sprememb…
- spremenilo: jype ()
zee ::
Sam tuhtam, da bi presaltal na ZFS (iz XFS). Predvsem mi je vsec moznost popravljanja napak na podatkih in deduplikacija.
zee
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.
Mavrik ::
Deduplikacija v večini primerov ni smiselna, saj porabi ogromne količine virov (predvsem RAM-a) in redko kdaj prihrani prostora kot ga prihrani kompresija.
The truth is rarely pure and never simple.
AndrejO ::
AndrejO> ECC pomnilnika.
Brez tega je malce bolj nerodno, a še vedno daleč bolj varno kot brez ZFS. ZFS "odkrije" tudi težave s pomnilnikom (kar pomaga samo toliko, da veš, da so podatki zdaj pokvarjeni - ne moreš jih pa popravit). Pri navadnem pomnilniku in običajnem datotečnem sistemu ne veš niti tega, da so pokvarjeni.
Prodajaš krivo vero. Brez ECC ZFS ne zagotavlja end-to-end integritete podatkov. Napake v predpomnilniku ZFS-ja ne bodo vedno odkrite - tudi single bit flip ne. Neodkrite napake v metapodatkih bodo zaradi načina izračunavanja kontrolnih kod v drevesu privedle do uničenja datotečnega sistema, saj bodo pri zapisu sočasno poškodovane vse kopije metapodatka (adijo smisel redundance). Orodij za nizkonivojsko obnovo pa praktično nimaš, razen, če poznaš strukture na pamet in ti delo z bitki na surovem disku ni tuje.
Pa da ne boš rabil meni verjeti na besedo: Vir
Od testiranega v14 do trenutno aktualnega v28 ali v34 se tega ni dotikalo, ker je sistem namenjem strežnikom, kjer je ECC tako ali tako edina možna izbira.
jype ::
AndrejO> ZFS ne zagotavlja end-to-end integritete podatkov.
Ne. Zagotavlja pa, da ko boš prebral podatke in ponovno izračunal checksum, ki se ne ujema s shranjenim, obvestilo o napaki.
AndrejO> Orodij za nizkonivojsko obnovo pa praktično nimaš, razen, če poznaš strukture na pamet in ti delo z bitki na surovem disku ni tuje.
Ne. Zagotavlja pa, da ko boš prebral podatke in ponovno izračunal checksum, ki se ne ujema s shranjenim, obvestilo o napaki.
AndrejO> Orodij za nizkonivojsko obnovo pa praktično nimaš, razen, če poznaš strukture na pamet in ti delo z bitki na surovem disku ni tuje.
Zgodovina sprememb…
- spremenilo: jype ()
AndrejO ::
AndrejO> ZFS ne zagotavlja end-to-end integritete podatkov.
Ne. Zagotavlja pa, da ko boš prebral podatke in ponovno izračunal checksum, ki se ne ujema s shranjenim, obvestilo o napaki.
Nope, ne zagotavlja ti tega. Najprej si preberi dokument, potem pa razmisli še enkrat, če tvoje izjave držijo tako absolutno, kot jih izrekaš.
AndrejO> Orodij za nizkonivojsko obnovo pa praktično nimaš, razen, če poznaš strukture na pamet in ti delo z bitki na surovem disku ni tuje.
Hvala za praktično demonstracijo zahtevnosti obnove podatkov na takšnem sistemu. Sem mislil, da ne bo potrebno tako nazorno pokazati kako pomembna so orodja, ki pridejo prav takrat, ko posamezniki ignorirajo dobre prakse.
Sicer je pa običajno zaporedje dogodkov sledeče:
- Non-ECC pomnilnik.
- bit flip v metapodatkih
- kernel panic, reboot
- "The pool metadata is corrupted."
- Game Over.
pegasus ::
To zaporedje je precej pogosto na kateremkoli datotečnem sistemu. In ljudje še vedno trdijo, da ECC rama pa res ne rabiš ...
jype ::
AndrejO> Nope, ne zagotavlja ti tega.
Seveda ti. Saj sem prebral kodo. Možnost, da bo napačno zapisan blok imel pravilen checksum, ali pa da bo okvarjen checksum po napaki pri zapisovanju veljaven, je infinitezimalna.
AndrejO> Sicer je pa običajno zaporedje dogodkov sledeče:
AndrejO> - Non-ECC pomnilnik.
AndrejO> - bit flip v metapodatkih
AndrejO> - kernel panic, reboot
AndrejO> - "The pool metadata is corrupted."
AndrejO> - Game Over.
Drži. To je v splošnem znatno boljše od tega zaporedja, ki je še pogostejše:
- Poljuben pomnilnik
- poljuben način shranjevanja podatkov
- bit flip
- bit flip
- bit flip
- bit flip
- 5 let izdelovanja novih varnostnih kopij z neveljavnimi podatki
- "moji podatki so neuporabni!"
Seveda ti. Saj sem prebral kodo. Možnost, da bo napačno zapisan blok imel pravilen checksum, ali pa da bo okvarjen checksum po napaki pri zapisovanju veljaven, je infinitezimalna.
AndrejO> Sicer je pa običajno zaporedje dogodkov sledeče:
AndrejO> - Non-ECC pomnilnik.
AndrejO> - bit flip v metapodatkih
AndrejO> - kernel panic, reboot
AndrejO> - "The pool metadata is corrupted."
AndrejO> - Game Over.
Drži. To je v splošnem znatno boljše od tega zaporedja, ki je še pogostejše:
- Poljuben pomnilnik
- poljuben način shranjevanja podatkov
- bit flip
- bit flip
- bit flip
- bit flip
- 5 let izdelovanja novih varnostnih kopij z neveljavnimi podatki
- "moji podatki so neuporabni!"
AndrejO ::
To zaporedje je precej pogosto na kateremkoli datotečnem sistemu. In ljudje še vedno trdijo, da ECC rama pa res ne rabiš ...
Drugi datotečni sistemi te ne varujejo pred napakami pri branju iz medija, pisanju na medij ali prenosu podatkov po vodilih med medijem in pomnilnikom. ZFS uporablja kontrolne kode ravno zato, da zazna in potencialno nevtralizira te napake.
ZFS pa se po drugi strani ne posveča napakam v pomnilniku, temveč se zanaša na okoliščino, da so te zadovoljivo obravnavane z uporabo ECC pomnilnika, ki je v okolju, ki mu je ZFS namenenjen, tako ali tako standard.
Narobe je trditi, da ZFS varuje tudi pred napakami v pomnilniku, ker tega dejansko ne počne nič bolje kot kateri koli drug datotečni sistem. Še več, sam postopek odkrivanja in odpravljanja napak (scrubbing), ki se ga priporoča redno poganjati, bo v primeru okvarjenega DRAM čipa skoraj zagotovil uničenje datotečnega sistema.
hojnikb ::
Preveč komplicirate... Model bo meu storage server z parimi diski, ne pa server farme..
#brezpodpisa
jype ::
AndrejO> varuje tudi pred napakami v pomnilniku
Nisem tega napisal. Pravim, da nanje zelo hitro pokaže - čeprav praviloma tako, da enostavno javi napako (in ne deluje več), kar je IMO veliko bolje, kot silent corruption, ki ga po zakonodaji tega vesolja vedno ujameš šele ko si že vse uporabne varnostne kopije prepisal s pokvarjenimi podatki.
Nisem tega napisal. Pravim, da nanje zelo hitro pokaže - čeprav praviloma tako, da enostavno javi napako (in ne deluje več), kar je IMO veliko bolje, kot silent corruption, ki ga po zakonodaji tega vesolja vedno ujameš šele ko si že vse uporabne varnostne kopije prepisal s pokvarjenimi podatki.
xandros ::
Ja imel bi dva diska za storage.
Zdaj mi je mdamd ok, dam oba diska lahko kam drugam, in pridem do podatkov.
Tudi ce en crkne, dam novega,starega pa lahko se mountam in pogledam kaj.
Ta snapshot bi mi mogoce prisel prav.
Kolikor vas berem, je ta ZFS namenjen za bolj velike stvari.
Zdaj mi je mdamd ok, dam oba diska lahko kam drugam, in pridem do podatkov.
Tudi ce en crkne, dam novega,starega pa lahko se mountam in pogledam kaj.
Ta snapshot bi mi mogoce prisel prav.
Kolikor vas berem, je ta ZFS namenjen za bolj velike stvari.
jype ::
Ja, če misliš imet več terabajtov velik pool hočeš vsaj 16GB (ECC!) pomnilnika, kar je verjetno več, kot si želiš privoščiti.
Snapshot lahko delaš tudi z LVM, jaz ga na primer takole:
S tem zagotavljam zaščito pred ponesrečenim brisanjem in drugimi uporabniškimi neprilikami, ki jih kdorkoli opazi v 10 dneh po nastanku.
To _ni_ nadomestilo za redno kopiranje reči še kam drugam.
Snapshot lahko delaš tudi z LVM, jaz ga na primer takole:
#!/bin/bash DAYS=10 SIZE=50G VOLUME=/dev/backup/main test -h /dev/backup/backup-`date +%Y-%m-%d -d "$DAYS days ago"` && /sbin/lvremove -f /dev/backup/backup-`date +%Y-%m-%d -d "$DAYS days ago"` /sbin/lvcreate -L $SIZE -s -n backup-`date +%Y-%m-%d` $VOLUME
S tem zagotavljam zaščito pred ponesrečenim brisanjem in drugimi uporabniškimi neprilikami, ki jih kdorkoli opazi v 10 dneh po nastanku.
To _ni_ nadomestilo za redno kopiranje reči še kam drugam.
Zgodovina sprememb…
- spremenilo: jype ()
AndrejO ::
AndrejO> Nope, ne zagotavlja ti tega.
Seveda ti. Saj sem prebral kodo. Možnost, da bo napačno zapisan blok imel pravilen checksum, ali pa da bo okvarjen checksum po napaki pri zapisovanju veljaven, je infinitezimalna.
I call bullshit.
Trdim, da je tvoja zgornja izjava samo tvoj povezetek razumevanja delovanja kontrolnih kod, nikakor pa ne rezultat razumevanja kode, kaj šele znak, da si kodo res bral in razumel. Prej nasprotno.
Lahko pa seveda rečeš, da poznaš delovanje ZFS bolje od raziskovalcev, ki so svoja dognanja javno predstavili na konferenci USENIX in katerih raziskava je bila tudi večkrat citirana in v celoti izpostavljena kritični javnosti.
Citiram nekatere njihove lastne povzetke iz raziskave (na temo napak v pomnilniku):
"ZFS does not use the checksums in the page cache along with the blocks to detect memory corruptions."
"The window of vulnerability of blocks in the page cache is unbounded."
"Since the checksums are created when blocks are written to disk, any corruption to blocks that are dirty (or will be dirtied) is written to disk permanently on a flush."
"Dirtying blocks due to updating file access time increases the possibility of making corruptions permanent."
"For most metadata blocks in the page cache, checksums are not valid and thus useless in detecting memory corruptions."
...
"There is no recovery for corrupted metadata."
...
"In summary, ZFS fails to detect and recover from many corruptions. Checksums in the page cache are not used to protect the integrity of blocks. Therefore, bad data blocks are returned to the user or written to disk. Moreover, corrupted metadata blocks are accessed by ZFS and lead to operation failure and system crashes."
Sedaj mi pa reci, da se ti mojstri motijo, ti pa imaš prav. Glede na to, da me danes čaka še dolg dan, bi mi malo smeha zjutraj kar prijalo. Pol zdravja in to :)
Drži. To je v splošnem znatno boljše od tega zaporedja, ki je še pogostejše:
In čisto nič boljše od zaporedja:
- bit flip
- nikakršne prijavljene napake ("Observation 8: The read() system call may return bad data.")
- 5 let backupa z napačnimi podatki.
Torej: ECC or bust.
Bistvena razlika je, da so ostali datotečni sistemi bust ne glede na ECC. ZFS pa v kombinaciji z ECC praktično ni bust. Brez ECC pa se lahko reklamno sporočilo end-to-end varnosti prečrta, ker bil prečrtan bistven element v verigi varovanja podatka.
AndrejO> varuje tudi pred napakami v pomnilniku
Nisem tega napisal. Pravim, da nanje zelo hitro pokaže - čeprav praviloma tako, da enostavno javi napako (in ne deluje več), kar je IMO veliko bolje, kot silent corruption, ki ga po zakonodaji tega vesolja vedno ujameš šele ko si že vse uporabne varnostne kopije prepisal s pokvarjenimi podatki.
ZFS brez ECC na takšne napake ne bo "hitro pokazal". Imaš celo verigo dogodkov v predpomnilniku, kjer to preprosto ni res in rezultat bo natančno ta zloglasen "silent corruption".
Zgodovina sprememb…
- spremenil: AndrejO ()
jype ::
AndrejO> "ZFS does not use the checksums in the page cache along with the blocks to detect memory corruptions."
Seveda ne. Mirno zapiše neveljaven blok.
Ampak ko ga naslednjič prebere, to vsekakor zazna. Verjetnost, da bo ista napaka v pomnilniku povzročila, da se neveljaven blok prebere brez napak, je praktično nič.
AndrejO> ZFS brez ECC na takšne napake ne bo "hitro pokazal". Imaš celo verigo dogodkov v predpomnilniku, kjer to preprosto ni res in rezultat bo natančno ta zloglasen "silent corruption".
Kaj pomeni "hitro"?
Prvič, ko boš blok poskušal prebrati. To je ponavadi pri poskusu ustvarjanja prvega backupa po napaki, ko starejši backup še imaš - za razliko od konvencionalnih datotečnih sistemov, kjer se bo prva napaka praviloma pokazala ob odpiranju dokumenta v aplikaciji.
Seveda ne. Mirno zapiše neveljaven blok.
Ampak ko ga naslednjič prebere, to vsekakor zazna. Verjetnost, da bo ista napaka v pomnilniku povzročila, da se neveljaven blok prebere brez napak, je praktično nič.
AndrejO> ZFS brez ECC na takšne napake ne bo "hitro pokazal". Imaš celo verigo dogodkov v predpomnilniku, kjer to preprosto ni res in rezultat bo natančno ta zloglasen "silent corruption".
Kaj pomeni "hitro"?
Prvič, ko boš blok poskušal prebrati. To je ponavadi pri poskusu ustvarjanja prvega backupa po napaki, ko starejši backup še imaš - za razliko od konvencionalnih datotečnih sistemov, kjer se bo prva napaka praviloma pokazala ob odpiranju dokumenta v aplikaciji.
Zgodovina sprememb…
- spremenilo: jype ()
Brane22 ::
BTW, so kaki poceni bordi za ECC RAM in za poceni strojčke ?
A ni bil napovedan APU Opteron enkrat te dni ?
Btw, 16GiB ECCC palčke niti niso več tako pošastno drage. €130-150 ni nevemkaj.
A ni bil napovedan APU Opteron enkrat te dni ?
Btw, 16GiB ECCC palčke niti niso več tako pošastno drage. €130-150 ni nevemkaj.
Zgodovina sprememb…
- spremenilo: Brane22 ()
Mavrik ::
Za domači NAS (kar verjetno avtor dela) je 600€ brez diskovja že precej. Da o tem, da se težko dobi pametne mini-ITX plate z ECC in low-powered Xeone niti ne začnem.
The truth is rarely pure and never simple.
hojnikb ::
Rajši se vrnite na vprašanje OPja, dr*anje s tem, kater FS je bolši pa v drugo tem..
#brezpodpisa
Zgodovina sprememb…
- spremenil: hojnikb ()
AndrejO ::
AndrejO> "ZFS does not use the checksums in the page cache along with the blocks to detect memory corruptions."
Seveda ne. Mirno zapiše neveljaven blok.
Ampak ko ga naslednjič prebere, to vsekakor zazna. Verjetnost, da bo ista napaka v pomnilniku povzročila, da se neveljaven blok prebere brez napak, je praktično nič.
Nope, napača. Bit flip se zgodi, ko je podatek še v page cache in umazan čaka na zapis. Ko se ga bo ZFS odločil zapisati, ga bo prevzel, izračunal novo kontrolno kodo (stara je v tem konteksu samo okrasek) in pogumno zapisal napačen podatek z pravilno izračunano kontrolno kodo. Pri branju bo vse izgledalo OK. Silent corruption.
AndrejO> ZFS brez ECC na takšne napake ne bo "hitro pokazal". Imaš celo verigo dogodkov v predpomnilniku, kjer to preprosto ni res in rezultat bo natančno ta zloglasen "silent corruption".
Kaj pomeni "hitro"?
Karkoli si ti sam definiral kot "hitro pokazal". ZFS ne varuje pred napakami v pomnilniku in verjetnost, da bo zaradi tega prišlo do silent corruption je enaka, kot pri drugih sistemih. Ker kontrolne kode pri tem dejavniku ne pomagajo nič, ne moreš govoriti o nekih "infitazemalnih" vrednostih. Kar je težava drugih datotečnih sistemov je samo to, da ne varujejo ničesar drugega, kar pomeni, da se k tej verjetnosti prištejejo še vse ostale verjetnosti pri katerih pa ZFS pomaga.
Prvič, ko boš blok poskušal prebrati. To je ponavadi pri poskusu ustvarjanja prvega backupa po napaki, ko starejši backup še imaš - za razliko od konvencionalnih datotečnih sistemov, kjer se bo prva napaka praviloma pokazala ob odpiranju dokumenta v aplikaciji.
Ne poznaš dejanskega delovanja ZFS. Tvoja izjava je osnovana na napačni predpostavki in je zato vsebinsko napačna.
BTW, so kaki poceni bordi za ECC RAM in za poceni strojčke ?
A ni bil napovedan APU Opteron enkrat te dni ?
Btw, 16GiB ECCC palčke niti niso več tako pošastno drage. €130-150 ni nevemkaj.
http://geizhals.eu/asrock-e3c224d2i-90-...
http://geizhals.eu/intel-pentium-g3220t...
http://geizhals.eu/kingston-valueram-di...
Skupaj verjetno pod 400 EUR s poštninami, brez diskov, napajalnika in ohišja. S tem pa dobiš spodoben mini računalnik z ne pretirano porabo, ki bo dober za NAS z ZFS ali pa brez. Količino RAM se lahko po potrebi poveča na 16GB, če bo res veliko diskovja in vključen dedup.
Zgodovina sprememb…
- spremenil: AndrejO ()
hojnikb ::
hojnikb> dr*anje s tem, kater FS je bolši pa v drugo tem..
Nepismen si.
To je tvoje mnenje...
OPja ste samo še bolj zmedl.. Sj ok... debata je na mestu, če odštejemo zahteve OPja..
#brezpodpisa
Zgodovina sprememb…
- spremenil: hojnikb ()
jype ::
AndrejO> ZFS ne varuje pred napakami v pomnilniku
Čemu si že drugič napisal da ZFS ne varuje pred napakami v pomnilniku? Saj jaz nisem nikoli trdil, da varuje.
AndrejO> Nope, napača. Bit flip se zgodi, ko je podatek še v page cache in umazan čaka na zapis. Ko se ga bo ZFS odločil zapisati, ga bo prevzel, izračunal novo kontrolno kodo (stara je v tem konteksu samo okrasek) in pogumno zapisal napačen podatek z pravilno izračunano kontrolno kodo. Pri branju bo vse izgledalo OK. Silent corruption.
To je pa že stvar jedra in ne več ZFS, sorry.
hojnikb> OPja ste samo še bolj zmedl.. Sj ok... debata je na mestu, če odštejemo zahteve OPja..
Ne, ni. OPja zanima, če je zanj ZFS primeren in kakšne prednosti mu prinaša. Z AndrejO se samo ne strinjava, kolikšna je verjetnost, da bo ZFS ujel napako v njegovem pomnilniku, če je ta brez ECC bitov.
Čemu si že drugič napisal da ZFS ne varuje pred napakami v pomnilniku? Saj jaz nisem nikoli trdil, da varuje.
AndrejO> Nope, napača. Bit flip se zgodi, ko je podatek še v page cache in umazan čaka na zapis. Ko se ga bo ZFS odločil zapisati, ga bo prevzel, izračunal novo kontrolno kodo (stara je v tem konteksu samo okrasek) in pogumno zapisal napačen podatek z pravilno izračunano kontrolno kodo. Pri branju bo vse izgledalo OK. Silent corruption.
To je pa že stvar jedra in ne več ZFS, sorry.
hojnikb> OPja ste samo še bolj zmedl.. Sj ok... debata je na mestu, če odštejemo zahteve OPja..
Ne, ni. OPja zanima, če je zanj ZFS primeren in kakšne prednosti mu prinaša. Z AndrejO se samo ne strinjava, kolikšna je verjetnost, da bo ZFS ujel napako v njegovem pomnilniku, če je ta brez ECC bitov.
Brane22 ::
Sem šel gledat okrog. Gre za X1100 in X2100. Prvi je brez GPU, drugi ga ima.
Edini ki se hvali z X2100 je Sun z nekim serverjem. O X1100 ni nič.
Se kaj ve kdaj to pride ven ?
Edini ki se hvali z X2100 je Sun z nekim serverjem. O X1100 ni nič.
Se kaj ve kdaj to pride ven ?
Brane22 ::
Update- imajo že SDK za A1100, ki je isto to, le da z ARM corei namesto jaguarjev.
Če bo cena OK, bi to lahko bilo zanimivo.
Če bo cena OK, bi to lahko bilo zanimivo.
hojnikb ::
Update- imajo že SDK za A1100, ki je isto to, le da z ARM corei namesto jaguarjev.
Če bo cena OK, bi to lahko bilo zanimivo.
To bojo nabrž cortex A5x based jedra, ali pač .. ?
#brezpodpisa
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Pokvarjeni podatki pri kopiranju čez mrežoOddelek: Pomoč in nasveti | 4934 (3540) | MrStein |
» | HDD - neizbežne napake pri branju (URE)Oddelek: Strojna oprema | 4336 (3691) | MrStein |
» | Nakup HP MicroserverjaOddelek: Kaj kupiti | 3583 (2901) | krneki0001 |
» | Podatkovna diodaOddelek: Informacijska varnost | 4843 (4219) | vostok_1 |
» | enojno povezan seznam -izpis nazajOddelek: Programiranje | 3643 (3183) | Randomness |