» »

Fizicni vs. software Raid

Fizicni vs. software Raid

«
1
2

SmeskoSnezak ::

V temi o NASih, se plamti debata o raidih. Kaksne so tocne vase izkusnje in mnenja o enem ali drugem? Pro in kontra?

darkolord je izjavil:

Synology/QNAP/... imajo tudi software raid.

MD raid na primer ima sicer svoje glupe fore, ki jih moraš poznati, drugače te poj...., ko to najmanj rabiš. Npr. to, da ne gre v degraded mode, če disk vrača corrupted podatke (kar HW array naredi TAKOJ). Dokler se vrti in piše in bere nekaj, je za njega A-OK.

Če unraid uporablja kaj drugega, potem je za recoverat to isti pain kot HW raid.

Pa vidim, da unraid nima iSCSI. Ha?


Kje in kako imate software RAID narejen?
Kaksne specifikacije imajo fizicne masine, ki to furajo?
Kaj se naredi, ko disk odleti v tem primeru?

Mislim da bo to za zacetek dovolj...
LP
Smeska
@ Pusti soncu v srce... @

imagodei ::

Nima veze. Raid je raid.

HW Raid ima nekaj drobnih prednosti, kot npr. hot swap brez vednosti OS-a. Drugače pa razlike ni.

Je pa HW Raid običajno dedicated kartica, ki košta par 100 €; "consumer grade" matične plošče, ki koštajo 90 €, nimajo pravega HW RAIDa. Kar ponujajo te matične plate, je SW RAID - IOW, če ti faila OS, ali če štartaš OS iz Live CD-ja/USB-ja, nimaš nobenega RAID-a, ampak vidiš samo posamezne diske.
- Hoc est qui sumus -

c3p0 ::

Če je le možno, ZFS.

imagodei ::

Če je le možno, ne ZFS. To je kot bi šel z macolo nad komarja.

ZFS je top zadeva, ampak uporabljaš tam, kjer rabiš. Ne pa kar povsod.
- Hoc est qui sumus -

Bakunin ::

problem HW raid je, da zna ne-delati, če ob menjavi HW raid ctrl ni TOČNO enak firmware ali serijska....
SW dela vedno - jaz sem nekoc postavil raid 5 na polje 5,25 FDD. :) lepo je ružlo, a delalo je vseeno.

jype ::

Če je le možno, ne HW.

c3p0 ::

imagodei je izjavil:

Če je le možno, ne ZFS. To je kot bi šel z macolo nad komarja.

ZFS je top zadeva, ampak uporabljaš tam, kjer rabiš. Ne pa kar povsod.


Ne vidim problemov, le prednosti. Lahko pa daš od 600€ za dober HW kontroler z BBU (x2 ker rabiš še enega identičnega za backup), za slabše delovanje.

Ampak to več ni hobby domača uporaba, čeprav ga izdatno tudi doma uporabljam.

SmeskoSnezak ::

torej pravite, da je tudi razlika med domaco - hobi uporabo ter bolj resno uporabo - malimi* podjetji, ce prav razumem?

LP

*mala podjetja, mali budget ... a vseeno (vsaj) kakih 300-5ooeur vec kot domaci uporabniki.
@ Pusti soncu v srce... @

Zgodovina sprememb…

zee ::

imagodei je izjavil:

Če je le možno, ne ZFS. To je kot bi šel z macolo nad komarja.

ZFS je top zadeva, ampak uporabljaš tam, kjer rabiš. Ne pa kar povsod.


Še en glas za ZFS. Malček več dela pri postavljanju, vendar imaš potem mir.
zee
Linux: Be Root, Windows: Re Boot
Giant Amazon and Google Compute Cloud in the Sky.

gendale2018 ::

imagodei, zakaj ti ni všeč zfs?
ja sam mali poštar, kurac mi je oštar
čuvajte se žene, bit ćete jebene

imagodei ::

c3p0 je izjavil:

imagodei je izjavil:

Če je le možno, ne ZFS. To je kot bi šel z macolo nad komarja.

ZFS je top zadeva, ampak uporabljaš tam, kjer rabiš. Ne pa kar povsod.


Ne vidim problemov, le prednosti. Lahko pa daš od 600€ za dober HW kontroler z BBU (x2 ker rabiš še enega identičnega za backup), za slabše delovanje.

Ampak to več ni hobby domača uporaba, čeprav ga izdatno tudi doma uporabljam.

Zakaj bi sploh HW Raid postavljal?
- Hoc est qui sumus -

imagodei ::

gendale2018 je izjavil:

imagodei, zakaj ti ni všeč zfs?

Ne da mi ni všeč. Saj sem napisal, da je ZFS top. Ampak ZFS danes v SOHO okolju nima nobenih norih prednosti pred drugimi ustrezno postavljenimi "diskovnimi shrambami". ZFS ni samo filesystem, je hkrati tudi RAID in logical volume manager. In vse to lahko postaviš tudi ločeno. In včasih celo želiš, da je ločeno.

Še bolj pomembno je pa razumet, kaj ZFS sploh je, ker drugače samo misliš, da si dobil nekaj ekstremno zanesljivega, ampak če ne veš kaj delaš, je ta občutek lahko precej lažen.

Se pravi: ZFS: nič nimam proti, kamot lahko postavljaš/postavljate, ampak v SOHO okolju vam ne bo dal nobene merljive prednosti pred npr. RAID 10 (+ LVM, če že rabite).
- Hoc est qui sumus -

jype ::

imagodei je izjavil:

Ampak ZFS danes v SOHO okolju nima nobenih norih prednosti pred drugimi ustrezno postavljenimi "diskovnimi shrambami".
Razen zastonj snapshotov, ki dejansko dobro delujejo, ter dejanske zaščite podatkov pred praktično vsemi oblikami napak?

imagodei je izjavil:

ampak v SOHO okolju vam ne bo dal nobene merljive prednosti pred npr. RAID 10 (+ LVM, če že rabite).
Seveda nam bo dal merljivo prednost:

- Poskrbel bo, da napake ne ostanejo skrite,
- redni dnevni snapshoti nas ne bodo stali ničesar, bodo pa zagotovili dostop do podatkov tudi v primeru ransomware virusov,
- omogočajo trivialno inkrementalno kopiranje na oddaljeno shrambo.

Vse to si lahko v SOHO okolju privoščiš izključno z uporabo ZFS, vse ostalo je dražje.

hojnikb ::

za zfs bos skor nujno rabo ecc ram, kar ni vedno poceni kombo
#brezpodpisa

pegasus ::

Če imaš količkaj rad svoje podatke, potem jim zagotovo privoščiš vsaj ecc ram.

Invictus ::

hojnikb je izjavil:

za zfs bos skor nujno rabo ecc ram, kar ni vedno poceni kombo

Varnost podatkov ni bila NIKOLI poceni...

Pač odvisno koliko devetic zanesljivosti hočeš imeti. Vsaka devetica približno podvoji stroške sistema.
"Life is hard; it's even harder when you're stupid."

http://goo.gl/2YuS2x

c3p0 ::

imagodei je izjavil:

gendale2018 je izjavil:

imagodei, zakaj ti ni všeč zfs?

Ne da mi ni všeč. Saj sem napisal, da je ZFS top. Ampak ZFS danes v SOHO okolju nima nobenih norih prednosti pred drugimi ustrezno postavljenimi "diskovnimi shrambami". ZFS ni samo filesystem, je hkrati tudi RAID in logical volume manager. In vse to lahko postaviš tudi ločeno. In včasih celo želiš, da je ločeno.


Seveda, ZFS združuje vse layerje, zato ponuja nekaj prej nedostopnih opcij. Npr. daj rebuildat SW/HW RAID na velikih diskih, recimo da je particija na 50% polna. potem pa naredi resilvering še na ZFS.

Kompresija, need I say more?

Baja ::

da ti non-ecc ram uniči podatke, rabiš posebaj zlobno vrsto.

http://jrs-s.net/2015/02/03/will-zfs-an...

drugače pa ja. škoditi ne more.

poor's man ECC: ZFS_DEBUG_MODIFY

Zgodovina sprememb…

  • spremenil: Baja ()

ginekk ::

Saj sploh ni meje HW ali SW. Tudi pri "HW raid" to opravlja nek zaklenjen SW.

Slabost HW raida, da si priklenjen na določen kontroler. Upaš, da po petih letih ko kaj crkne, proizvajalec še obstaja in proizvaja nadomestne dele oz. kompatibilne kontrolerje. Skratka to je za PRO namene, kjer zraven nujno podpišeš vzdrževalno pogodbo.
Prednost HW raida je seveda hitrost.

Za vse ostalo je ZFS in sestavljen HW :) Jaz recimo uporabljam 4+2 sistem na nas4free, celo dva diska lahko gresta po gobe. Vmes sem zamenjal SAS kontroler in PC matično, pa še vedno vse deluje.

Aja, še vedno je dobro imet tape, za občasen off-site backup core podatkov.

darkolord ::

Jaz sem precej bolj miren s HW kontrolerji. Tudi za DIY in homelab zadeve.

Predvsem, ker:
- so glede napak precej bolj pedantni (pri kakršnem koli errorju označi disk kot failed)
- konfiguracija je neodvisna/ločena od OS-ja
- težko kaj pokvariš
- ne rabiš posebne podpore v OS-ju (večinoma uporabljam ESXi, ki nima podpore za SW raid)

Za dobavljivost me ne skrbi, ker je rabljenih kontrolerjev na voljo veliko po ugodnih cenah. Večinoma imajo tudi iste čipsete (Broadcom ali Microchip).

Nekaj časa sem uporabljal tudi ZFS, mislim da še na Illumos oz. na enem od solaris forkov, ampak se mi je zdela konfiguracija res komplicirana, sploh pri kakšnih nadgradnjah (tako OS-ja kot ZFS-ja) sem vedno malo trepetal zraven. Moj confidence v to, da bi stvar lahko sestavil nazaj, če gre kaj narobe, je bil točno 0,00.

pegasus ::

darkolord je izjavil:

Predvsem, ker:
- so glede napak precej bolj pedantni (pri kakršnem koli errorju označi disk kot failed)
- konfiguracija je neodvisna/ločena od OS-ja
- težko kaj pokvariš
- ne rabiš posebne podpore v OS-ju (večinoma uporabljam ESXi, ki nima podpore za SW raid)
Z veseljem ti prodam hw raid kontrolerje, ki te bodo (neprijetno) presenetili glede prvih treh točk. Prva točka je sploh napačna; linuxov md raid je bil dolgo znan kot daleč preveč pedanten, ker je res takoj ob najmanjši težavi izvrgel disk. Šele pred nekaj leti je dobil logiko, da gre npr. v mirrorju najprej probat prebrat problematičen sektor z drugega diska, nato pa podatke nazaj zapisat na prvi disk in šele če to ne uspe, začeti jamrati o slabem disku.

jukoz ::

pegasus je izjavil:

darkolord je izjavil:

Predvsem, ker:
- so glede napak precej bolj pedantni (pri kakršnem koli errorju označi disk kot failed)
- konfiguracija je neodvisna/ločena od OS-ja
- težko kaj pokvariš
- ne rabiš posebne podpore v OS-ju (večinoma uporabljam ESXi, ki nima podpore za SW raid)
Z veseljem ti prodam hw raid kontrolerje, ki te bodo (neprijetno) presenetili glede prvih treh točk. Prva točka je sploh napačna; linuxov md raid je bil dolgo znan kot daleč preveč pedanten, ker je res takoj ob najmanjši težavi izvrgel disk. Šele pred nekaj leti je dobil logiko, da gre npr. v mirrorju najprej probat prebrat problematičen sektor z drugega diska, nato pa podatke nazaj zapisat na prvi disk in šele če to ne uspe, začeti jamrati o slabem disku.


Pegasus, dej jih prodaj temule revežu spodaj, jih kupi za ugodno ceno =)

krho ::

HPjev 410 nas je prav fino presenetil, ko se je pregrel in malce naključno pisal po diskih.
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

issak ::

zee je izjavil:

imagodei je izjavil:

Če je le možno, ne ZFS. To je kot bi šel z macolo nad komarja.

ZFS je top zadeva, ampak uporabljaš tam, kjer rabiš. Ne pa kar povsod.


Še en glas za ZFS. Malček več dela pri postavljanju, vendar imaš potem mir.


Več dela? apt install zfs, zpool create, zpool add. Še mkfs ni treba poganjat :) Jaz sem imel zraid mirror v 5 minutah postavljen, pa še nisem prej nikoli z ZFS delal.

Ali sem kaj falil? :D

Ko smo ravno na ZFS, je kakšna možnost mirror v Raid 5 spremeniti on the fly, če dodam še tretji disk?
Desktop: i7-12700F | 7900XTX | Asrock H670M-ITX/ax | 32 GB RAM | Dell G3223Q
Server: G4560 | 16GB RAM
OLKB Planck | Logitech G Pro X Superlight | Sennheiser HD6XX

darkolord ::

pegasus je izjavil:

Šele pred nekaj leti je dobil logiko, da gre npr. v mirrorju najprej probat prebrat problematičen sektor z drugega diska, nato pa podatke nazaj zapisat na prvi disk in šele če to ne uspe, začeti jamrati o slabem disku.
Možno, ampak preferiram pedantnost. Ta situacija me je namreč zelo drago stala, tako v evrih (recovery) kot v živcih. En disk je imel ogromno takih "transient" bad sectorjev, potem je pa drugi disk korektno crknil. Naprej verjetno ni treba razlagati.

Glede drugih dveh točk pa ne vem, kaj si imel v mislih. HW arraye lahko vedno skonfiguriraš offline in konfiguracija ostane tam, (skoraj) ne glede na to, kaj potem šariš z OS-i ipd.

Zgodovina sprememb…

  • spremenilo: darkolord ()

jype ::

Jaz sem enkrat vštekal en USB ključek v domač strežnik in s ključka na ohišje je preskočila iskra (mogoče sem v copatih šel preko tepiha ali kaj takega, pojma nimam). Mašina se je obesila. Stisnil sem reset in šel po monitor in tipkovnico. Ko sem ju priklopil, je 3ware 8500 že prepisal 30 giga vseh diskov z ničlami (na zaslonu pa objavil "initializing"). Mašino sem sicer takoj ugasnil, ampak izgubil sem praktično vse, kar je bilo gor.

Od takrat naprej HW raid ne uporabljam več.

Zgodovina sprememb…

  • spremenilo: jype ()

tony1 ::

jype je izjavil:

Če je le možno, ne HW.


Koliko se SW RAID pozna pri hitrosti pisanja/branja po diskovnem polju v primerjavi z običnim HW RAIDom, ki ga "dobiš zraven" v osnovnem HPjevem G6-G10 2U serverju?

jype ::

tony1 je izjavil:

Koliko se SW RAID pozna pri hitrosti pisanja/branja po diskovnem polju v primerjavi z običnim HW RAIDom, ki ga "dobiš zraven" v osnovnem HPjevem G6-G10 2U serverju?
SW raid je, če je pravilno konfiguriran, stokrat hitrejši, ker ima vmes en PCIe x16 SSD cache za ZIL/ARC.

tony1 ::

a) Zdi se super, ampak: kaj ni to neke sorte poor man's HW raid? :8)

Kaj pa če PCIe kartica crkne? SSD na njem umre? Se da narediti kakšno redundanco z dvema karticama/SSDjema? Je monitoring njihovega delovanja zanesljiv? Kaj če začne počasi umirati SSD?

b) Kaj pa če se mi ne da je6ati s tem hardverom in uporabim "obični" SW RAID? Btw., je kaj razlike v hitrosti SW RAIDa med povprečnimi SATA/SAS/SSD diski v običnem 2U HP serverju? Kje je pravzaprav ozko grlo v hitrosti pri SW RAIDu?

pegasus ::

Izpelji to logiko do konca in pristani na glinenih tablicah. Preverjeno delujejo tisočletja.

Sicer bodi nekje pripravljen sprejeti kompromis v stilu "cheap, fast, reliable: pick any two, you can't have all three".

jype ::

tony1 je izjavil:

Kaj pa če PCIe kartica crkne? SSD na njem umre?
Zato imaš vedno dve :)

tony1 je izjavil:

Se da narediti kakšno redundanco z dvema karticama/SSDjema? Je monitoring njihovega delovanja zanesljiv? Kaj če začne počasi umirati SSD?
Ker vsi bloki podatkov s seboj nosijo kompleksne kontrolne vsote, je verjetnost za nediagnosticirano napako izrazito majhna (0 je kar dober približek), seveda pa (zgoraj je Baja prilepil članek) ni popolnoma nemogoče (je pa verjetnost tudi približno 0), da se hardver zaroti proti tebi z zlobnim bit flipom.

tony1 je izjavil:

b) Kaj pa če se mi ne da je6ati s tem hardverom in uporabim "obični" SW RAID? Btw., je kaj razlike v hitrosti SW RAIDa med povprečnimi SATA/SAS/SSD diski v običnem 2U HP serverju? Kje je pravzaprav ozko grlo v hitrosti pri SW RAIDu?
ZFS je (za potrebne gostilniške debate uporabnikov) že "obični SW raid". Zdaj sem že z dveh "pokvarjenih" ZFS polj reševal podatke in sem vesel, da že obstajajo orodja, ki omogočajo plezanje po drevesih, ki jih ZFS shranjuje na medije.

https://www.joyent.com/blog/zfs-forensi... je eden od člankov, ki ti (če te ne začne boleti glava ob branju) približa ideje v ZFS in razjasni, koliko nivojev abstrakcij je nanizanih v ZFS stacku.

Zgodovina sprememb…

  • spremenilo: jype ()

tony1 ::

pegasus je izjavil:

Izpelji to logiko do konca in pristani na glinenih tablicah. Preverjeno delujejo tisočletja.

Sicer bodi nekje pripravljen sprejeti kompromis v stilu "cheap, fast, reliable: pick any two, you can't have all three".


Seveda imaš prav. Zanima me le praktični velikostni red razlike v hitrosti med HW RAIDom, ki "pride zraven" enega HP serverja (take your pick, G6 do G10, karkoli poznaš) in SW RAIDom.

Če to razliko poznam, jo lahko upoštevam in npr. SW RAID uporabim v serverjih, kjer ni zahtevane posebne hitrosti ali pa npr. na serverju za backupe.

pegasus ::

Poznam HPjev p400 in ti lahko povem, da je na 12ih diskih približno tako hiter kot en sam disk. Nekoč sem zapravil cel teden s fine tuningom parametrov polja na p400 v kombinaciji parametrov aplikacije na njem, da sem dosegel približno smiselne številke.

darkolord ::

No, P400 je že zelo zelo star. P410 ima sicer le 3 Gb/s SATA, ima pa že support za SSDje in dela spodobno hitro. P420 pa sploh nima nobenih težav, tudi če ga nafilaš z SSD-ji.

Zgodovina sprememb…

  • spremenilo: darkolord ()

jype ::

tony1 je izjavil:

Če to razliko poznam, jo lahko upoštevam in npr. SW RAID uporabim v serverjih, kjer ni zahtevane posebne hitrosti ali pa npr. na serverju za backupe.
HW RAID kartice niso hitrejše, dokler ne prideš do SAN tehnologij, kjer je centralna komponenta stikalo, ki stane vsaj 30 jurjev (in kjer te že več stanejo licence za softver, ki laufa na teh napravah, kot za hardver, ki ga moraš kupiti, da vse skupaj sploh lahko deluje).

Pa še v tem primeru se dolgoročno bolj splača same aplikacije napisati tako, da znajo delati z distribuirano shrambo, zgrajeno na poceni hardveru, povezanemu v sodobno ethernet omrežje.

tony1 ::

To je odgovor, ki sem ga rabil. Super, hvala.

krho ::

zfs raid 5 je na navadnih diskih neuporaben. Vse skupaj konkretno pade na IOju. ZIL ne pomaga, ker se ZIL uporabi samo pr network trasnferu, če rabiš pa ganjaš en kup virtualcev, ti pa pomaga ama poplnoma nič. Takšne so moje izkušnje.
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

jype ::

krho je izjavil:

ker se ZIL uporabi samo pr network trasnferu
Lahko tole podrobneje razložiš?

krho ::

uporaba ZIL je bila 1%, pa se je preko networka besno dostopalo do cca 10 od 30 virtualcev.
Z novim strežnikom, gresta stran zfs compression in raid 5 bo šel v raid 1.
Ah pa swap datoteko je bilo treba umaknit iz ZFSje, ker drugače se je hudič obesil, tako, da je pomagal samo hard reset.
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

Zgodovina sprememb…

  • spremenil: krho ()

jype ::

Zanimive izkušnje. Pri meni pa to deluje že od 2012 (brez kompresije, deduplikacije in z raidz2, z ZIL in ARC na SSDjih).

krho ::

Koliko pa sploh je utilizacija ZILa? A si potem ves software nastavil, da ti dela sinhroni fsync?
ARCa nisem postavljal, sem pa naredil 8G ZILa na SSDju.
Novi server bo tako imel samo SSDje.. Bom pa za foro na starem potem probal postaviti ARC
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

jype ::

Praviloma zelo majhna, se pa zelo pozna, kadar virtualke delajo razne backupe in druge reči sredi noči, ko uporaba močno naraste.

ARC je, po drugi strani, precej izkoriščen za tiste virtualke, ki dovolj redno berejo iste bloke (to so ponavadi tiste, ki imajo premalo rama, da bi vse držale not).

pegasus ::

Ne rabiš 8G zila, par 100M je dovolj. Vse kar počne ubistvu je da pretvarja random writes v en seq write. Podobno dosežeš z ext4 data=journal + external journal device.

c3p0 ::

Če hočeš ZFS performance, ti RAIDZ (RAID5 po tvoje) precej bremza zadeve, saj celo polje deluje s hitrostjo najpočasnejšega diska. Rešitev je striping več VDEV-ov.

Po drugi strani pa eni s SATA diski želijo naredit neko enterprise rešitev. Za določene workloade deluje, za vse pač ne.

ZIL (ki mora biti mirrored), ne more biti nek consumer SSD, ker bo spet bremzal. S tem da marsikdo ne ve, da se iz ZILa bere le po crashu sistema, drugače kot da ga ni.

Za read heavy pa pride prav ogromen ARC, nimaš ga kaj postavljat, je vedno tam, lahko ga le tunaš. Zato dodaš ECC RAMa kolikor je možno, saj je poceni.

Kompresija ponavadi pomaga pri hitrosti.

Zdaj komaj pridemo do tuninga ZFS parametrov, ki jih niti približno ne manjka.

krho ::

E5 ni za v SOHO. V Soho lahko postavim Tamalega Xeona E3 oz. novo E-2000 serijo, katera je v začetku novembra doživela drugi paper launch.. E3 serija je pa tako ali tako omejena na 32G rama, Mislim, da tadnji 2? generaciji pa na 64.
Tako, da nimam kaj šopat RAMa, ker ga tako ali tako več kot 75% rabim za poganjanje virtualcev.
Pa RAM niti ni poceni, Je cena na GB ene 3x previsoka glede na stanje kot bi moralo biti.

Vsi diski v RAID5 polju so iz iste serije in enaki.
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

Zgodovina sprememb…

  • spremenil: krho ()

gendale2018 ::

krho je izjavil:

zfs raid 5 je na navadnih diskih neuporaben. Vse skupaj konkretno pade na IOju. ZIL ne pomaga, ker se ZIL uporabi samo pr network trasnferu, če rabiš pa ganjaš en kup virtualcev, ti pa pomaga ama poplnoma nič. Takšne so moje izkušnje.

to je znan problem paritenih raidov.. če hočeš hitrost uporabi raid 10

tony1 je izjavil:


b) Kaj pa če se mi ne da je6ati s tem hardverom in uporabim "obični" SW RAID? Btw., je kaj razlike v hitrosti SW RAIDa med povprečnimi SATA/SAS/SSD diski v običnem 2U HP serverju? Kje je pravzaprav ozko grlo v hitrosti pri SW RAIDu?

vrsta raida (paritetni so počasni) in diski

hojnikb je izjavil:

za zfs bos skor nujno rabo ecc ram, kar ni vedno poceni kombo

zfs brez ecc rama je še vedno enako varen kot ostali filesystemi brez ecc rama
ja sam mali poštar, kurac mi je oštar
čuvajte se žene, bit ćete jebene

Zgodovina sprememb…

pegasus ::

gendale2018 je izjavil:

krho je izjavil:

zfs raid 5 je na navadnih diskih neuporaben. Vse skupaj konkretno pade na IOju.

to je znan problem paritenih raidov.

To je znan problem ljudi, ki ne znajo natjunati skupaj aplikacije in diskovnega polja.

Primer (pozor, terminologija je za vaše okolje morda drugačna):

Imamo 10 diskov v raid6 (8*data + 2*parity). Hočemo se izogniti read-modify-write ciklu za vsak write, zato moramo razumeti, kako velik write dela naš app. En write mora ustrezati velikosti vsaj enega stripea, torej mora biti chunk size velik eno osmino stripea, ker imamo 8 data diskov. Če naš app pljuva 1MB writes, mora torej chunk size biti 128K, da se ta 1MB lepo v enem šusu zapiše na vse diske. Če je to vse nastavljeno v sožitju, gre io gor nekje 3x v primerjavi z razštelanim okoljem.

Boste rekli, da aplikacije pišejo z različno velikimi IOji? Ta problem prepuščam vam, ukrotite jih, kot veste in znate. Jaz npr. na 120 diskih, zloženih v 12 raid6 polj, dosegam write prek 10GB/s, na 5 let starem hardveru. Ozko grlo mi je SAS 6Gb/s in ne diski.

krho ::

Na žalost nimam kaj tunat oz. krotit, poleg tega to ni primary job. Tu gor teče vse. Od Windows virtualk, do testnih okolij, ter enega kupa LXCjev vsak z "drugačnim" sw.
si.Mail odprto-kodni odjemalec elektronske pošte. - http://www.simail.si
Uredite si svojo zbirko filmov, serij in iger - http://xcollect.sf.net

darkolord ::

pegasus je izjavil:

To je znan problem ljudi, ki ne znajo natjunati skupaj aplikacije in diskovnega polja.
Ne, to je problem, da je paritetni raid primeren za specifične aplikacije.

Kar pomeni, da ga za večino primerov niti ne moreš kaj dosti natunati.

gendale2018 ::

pegasus je izjavil:

gendale2018 je izjavil:

krho je izjavil:

zfs raid 5 je na navadnih diskih neuporaben. Vse skupaj konkretno pade na IOju.

to je znan problem paritenih raidov.

To je znan problem ljudi, ki ne znajo natjunati skupaj aplikacije in diskovnega polja.

ne, to je pač posledica tega kako delujejo, je pa res da če je polje pravilno konfigurirano glede na uporabo so problemi s hitrostjo manjši in da v nekaterih primerih izguba performanca (predvsem pri pisanju) ni pomembna

je pa raid 10 v vsakem primeru hitrejši

problem je tudi pri rebuildih, ker se zna zgodit, da ti med rebuildom gre še en disk in se lahko posloviš od arraya... raid6 ima to sicer delno rešeno, ker lahko odletita dva, ampak pri većjih arrayih problem ostane

pa afaik imata raidz1/2 (zfsjeva verzija raid5/6) malo manj pomankljivosti od klasičnega raid5/6
ja sam mali poštar, kurac mi je oštar
čuvajte se žene, bit ćete jebene
«
1
2


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Kaj kupiti za shranjevanje 10T podatkov

Oddelek: Kaj kupiti
4711934 (9375) HighBane
»

OS za SAN (strani: 1 2 3 )

Oddelek: Operacijski sistemi
12214761 (10984) jlpktnst
»

Računalnik za poganjanje virtualnih PC-jev

Oddelek: Kaj kupiti
223309 (2844) Dami
»

Pomoc pri sestavi streznika za shrambo, proxy in dns

Oddelek: Kaj kupiti
282994 (2558) Daedalus
»

Gradnja/sestava diskovnega polja (strani: 1 2 3 4 )

Oddelek: Strojna oprema
15316620 (12952) levaky

Več podobnih tem