Slo-Tech - Zadnje tedne uporabniki po vsem svetu ugotavljajo, da njihovi NAS-i v programski opremi Synology DiskStation Manager javljajo opozorilo, da bodo Western Digitalovi diski odpovedali. To se zgodi po treh letih delovanja NAS-a, saj tedaj Western Digitalova programska oprema Device Analytics (WDDA) začne opozarjati, da je disk nabral veliko število ur obratovanja. Synology je potrdil, da opozorilo njihov DiskStation Manager le preda uporabniku, izvira pa iz WDDA.
Nimajo vsi Western Digitalovi diski programske opreme WDDA. Synology pravi, da se opozorilo pojavlja v serijah WD Red Pro, WD Red Plus in WD Purple. Drži, da proizvajalci diske ločijo glede na namen uporabe, a da bi diski odpovedali po treh letih delovanja, je vseeno huda predpostavka. Western Digital uradno tega sicer ne trdi, temveč opozarja le, da je disk morda blizu konca življenjske dobe in da ga velja zamenjati. WDDA so v resnici parametri, ki so podobni SMART-u, ki ga že desetletja poznamo. Javljajo različne podatke o zdravju diska, ki bi vsaj v teoriji lahko napovedali njegovo slovo. V praksi to včasih deluje, še večkrat pa tudi ne.
Ni pa to prvi spodrsljaj, ki si ga je privoščil Western Digital. Spomnimo, da so način zapisa podatkov SMR, ki je cenejši in omogoča višjo kapaciteto, a počasnejši, vgradili v diske, ne da bi kupci to vedeli. Western Digital je zato doletela tožba, ki jih je stala 2,7 milijona dolarjev.
WDDA je možno izklopiti, a to izniči njegov sicer koristen namen.
Novice » Diski » Western Digital: Tri leta neprekinjenega delovanja diskov je dovolj
dexterboy ::
WTF ???
A je ta svet RES šel v hurac? NAS in ostala navlaka od enterprise diskov "jema ojštja" garancijo dolgo reci in piši 60 luninih men. Tri leta je malo bosa... kar pomeni, da disk samega sebe uniči, ko poteče tri leta? Kaj pa, če je tak disk samo občasno prižgan, enkrat na mesec za backup?
A je ta svet RES šel v hurac? NAS in ostala navlaka od enterprise diskov "jema ojštja" garancijo dolgo reci in piši 60 luninih men. Tri leta je malo bosa... kar pomeni, da disk samega sebe uniči, ko poteče tri leta? Kaj pa, če je tak disk samo občasno prižgan, enkrat na mesec za backup?
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.
filip007 ::
3 leta 24 ur na dan ali 5 let občasno saj to je normalno, vmes pa itak zastarajo.
Trevor Philips Industries
Ales ::
Enterprise diski komot delajo še kar malo dlje kot tri leta. Sploh če preživijo do takrat...
Tole menda samo prijazno "opozarja"... ...da je potrebno povečevati potrošnjo, ker nam gre sicer naš super vzdržni ekonomski model po gobe.
Samouničenje diskov je naslednji korak?
Tole menda samo prijazno "opozarja"... ...da je potrebno povečevati potrošnjo, ker nam gre sicer naš super vzdržni ekonomski model po gobe.
Samouničenje diskov je naslednji korak?
FlyingBee ::
Naivni pogled na vse skupaj bi bil, da upoštevajo statistiko in uporabnika opomnijo, naj naredi/dela varnostno kopijo pogosteje.
Poleg ohišja in napajalnika, bi rekel, da HDD najkasneje zastara med vsemi komponentami.
3 leta 24 ur na dan ali 5 let občasno saj to je normalno, vmes pa itak zastarajo.
Poleg ohišja in napajalnika, bi rekel, da HDD najkasneje zastara med vsemi komponentami.
P200 MMX, 32mb ram, 2gb HDD, s3 virge 2mb, 14" CRT 640x480
New Sphincter Kvartet:
Roko Spestner, Namaž Zlevčar, Daje Heading, Maraje Spetan
New Sphincter Kvartet:
Roko Spestner, Namaž Zlevčar, Daje Heading, Maraje Spetan
Zgodovina sprememb…
- spremenil: FlyingBee ()
rkobarov ::
to sem jaz občutil na lastni koži.
Ryzen 5800x AIO280 32gb 16c3200 3080ti Msi b550 tomahawk Samsung 970 1Tb M27q
mrTwelveTrees ::
Diski se manj kvarijo če se skoz vrtijo, bolj se kvarijo če je več start/stopov, ampak tega v NASih ni sploh če ga imaš na UPSu.
Oberyn ::
Pri meni zgleda v redu, 5 kosov WD red nas edition v synology nasu, delujejo neprekinjeno cirka 5 in pol let in ni nobenega opozorila zaenkrat, vsi imajo status healthy.
I was born lucky...
I was born lucky...
Gregor P ::
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
user1618 ::
3 leta oz. 26000 h mora disk od prenosnika zdržat
WD disk black verzija bi moral z lahko zdržati 30000 h, pri 40000 pa recimo da je kritično.
Kaj šele red verzija
WD disk black verzija bi moral z lahko zdržati 30000 h, pri 40000 pa recimo da je kritično.
Kaj šele red verzija
"If we were supposed to talk more than listen
we would have been given two mouths and one ear"
- Mark Twain
we would have been given two mouths and one ear"
- Mark Twain
PARTyZAN ::
kar pomeni, da disk samega sebe uniči, ko poteče tri leta?
Ne.
Kaj pa, če je tak disk samo občasno prižgan, enkrat na mesec za backup?
Načeloma bi dobil po skupno treh letih obratovalnih ur opozorilo, ne po treh letih od nekega datuma.
AFAIK sta Synology in Qnap oba že deprecatala WDDA. Več informacij v threadu na NAS compares.
Daniel ::
Nekaj časa nazaj sem kupil dva rabljena WD green 2 TB za uporabo v računalniku. Imata tam nekje 55000 ur in še delata BP. Letos sem dodal še WD Red 2TB z 20000 urami. Tudi tale nima težav. Pomembne podatke imam tako na treh mestih, ostalo pa če odpove pač odpove.
Phantomeye ::
v prihodnosti bomo ziher imeli trde diske na naročnino. In se ugasne, če nehaš plačevat naročnino.
Gregor P ::
Upam, da bo zoper to kaj pomagalo, da živimo v EU
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
dexterboy ::
Če je pri meni kaj zdržalo, je to serija črne magije. Ne vem še za noben WD Black, ki sem ga kupil, da je crknil, pred 10+leti... Edini skriti tekst je pa res ta, da so to 1 TB kapacitete in niso več ploščni. Zadnji šoping je bil 10 TB od morskih gat polnjen s smejalnim plinom. To je pa drug ekstrem, ker če imaš 5 diskov po 1 tera in ti en crkne, zgubiš petino podatkov. Pri 10 tera zgubiš vse...
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.
Gregor P ::
Ampak imaš najbrž potem 5 teh 10 tera diskov oz. najbrž ne staviš vse vitalne podatke samo na 1 disk
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).
PARTyZAN ::
1. poskrbi za varnostne kopije
2. uporabi redundanco. Vse potrošniške NAS škatle ti znajo na poljuden način ponuditi različna RAID polja
2. uporabi redundanco. Vse potrošniške NAS škatle ti znajo na poljuden način ponuditi različna RAID polja
c3p0 ::
Pred kratkim dobil stari IBM X server v roke, ker je grozno počasi deloval. 2x 250GB disk v RAID1, prvi je crknil, drugi še je imel vse podatke, a je smart kazal že kar nekaj erorrjev.
17 let, torej že skoraj polnoletna diska, zdaj pa bomo lahko srečni, če preživijo 3 leta in ni že vse rdeče. Daleč smo prišli.
17 let, torej že skoraj polnoletna diska, zdaj pa bomo lahko srečni, če preživijo 3 leta in ni že vse rdeče. Daleč smo prišli.
bbbbbb2015 ::
Poglejte, nočem vam soliti pameti okrog diskovnih polj in odpovedi diskov. Vendar...
Že članek je tendenciozno "click-baitovsko" napisan. Resnica je pa taka...
Zanesljivost diska je krivulja v obliki "bane", najprej je % odpovedi visok, tam do 18 mesecev, potem cca 3 leta je krivulja flat (kar pomeni da diski crkujejo po nekem enakomernem procentu), po TREH LETIH pa začne procent odpovedi naraščati signifikantno. Pa to je tako že sigurno 10+ let.
Sedaj so rekli, da krivulja ni več "bana", ampak "hokejska palica", torej je % odpovedi flat (to ne pomeni, da ne odpovedujejo, pomeni da odpovedujejo recimo z 0,5%), potem pa se krivulja strmo dvigne.
Kaj storiti, ko vam napiše, da so diski stari 3 leta? Kupite še enega, istega, ter ga imate za hladno rezervo. Če disk crkne, zamenjate disk. Ker problem je, da tisti trenutek, ko v RAID-5 delata 2 diska ali v raid-1 dela en sam disk - ste izpostavljeni nevarnosti izgube podatkov. Diske, točno iste, je težko dobiti hitro.
Če želite, lahko date en, rezerven disk noter (če imate slot, seveda), ter ga skonfigurirate kot "vročo rezervo". Čim disk crkne, takoj naredi recovery na vročo rezervo.
Osebno nimam vročih rezerv, ker vsaj Lenovo/IBM RAID kontrolerji preverjajo integriteto tudi vročih rezerv. Po domače povedano, disk nabira (nekaj!) delovnih ur, četudi ni v uporabi.
Jaz naročam iz Kitajske nove enterprise 2,5 inčne 1TB ali 2TB SAS hot-swap diske. Sedaj jih imam v rezervi samo dva, pravkar sem naročil še dodatne štiri.
Pretiravaš. IBM ima to lepo narejeno, narediš hot-swap starega ven, novega noter. Najdi FRU defektnega diska, ki mu gori oranžna lučka, ter na ebayu naroči novega. Samo izklopiš na živo disk, ter novega noter, pazi na FRU, da bo isti oz. replaceable.
Če se ti da, posodobi firmware, da bo na diskih isti firmware. To v nulo dela.
Že članek je tendenciozno "click-baitovsko" napisan. Resnica je pa taka...
Zanesljivost diska je krivulja v obliki "bane", najprej je % odpovedi visok, tam do 18 mesecev, potem cca 3 leta je krivulja flat (kar pomeni da diski crkujejo po nekem enakomernem procentu), po TREH LETIH pa začne procent odpovedi naraščati signifikantno. Pa to je tako že sigurno 10+ let.
Sedaj so rekli, da krivulja ni več "bana", ampak "hokejska palica", torej je % odpovedi flat (to ne pomeni, da ne odpovedujejo, pomeni da odpovedujejo recimo z 0,5%), potem pa se krivulja strmo dvigne.
Kaj storiti, ko vam napiše, da so diski stari 3 leta? Kupite še enega, istega, ter ga imate za hladno rezervo. Če disk crkne, zamenjate disk. Ker problem je, da tisti trenutek, ko v RAID-5 delata 2 diska ali v raid-1 dela en sam disk - ste izpostavljeni nevarnosti izgube podatkov. Diske, točno iste, je težko dobiti hitro.
Če želite, lahko date en, rezerven disk noter (če imate slot, seveda), ter ga skonfigurirate kot "vročo rezervo". Čim disk crkne, takoj naredi recovery na vročo rezervo.
Osebno nimam vročih rezerv, ker vsaj Lenovo/IBM RAID kontrolerji preverjajo integriteto tudi vročih rezerv. Po domače povedano, disk nabira (nekaj!) delovnih ur, četudi ni v uporabi.
Jaz naročam iz Kitajske nove enterprise 2,5 inčne 1TB ali 2TB SAS hot-swap diske. Sedaj jih imam v rezervi samo dva, pravkar sem naročil še dodatne štiri.
Pred kratkim dobil stari IBM X server v roke, ker je grozno počasi deloval. 2x 250GB disk v RAID1, prvi je crknil, drugi še je imel vse podatke, a je smart kazal že kar nekaj erorrjev.
17 let, torej že skoraj polnoletna diska, zdaj pa bomo lahko srečni, če preživijo 3 leta in ni že vse rdeče. Daleč smo prišli.
Pretiravaš. IBM ima to lepo narejeno, narediš hot-swap starega ven, novega noter. Najdi FRU defektnega diska, ki mu gori oranžna lučka, ter na ebayu naroči novega. Samo izklopiš na živo disk, ter novega noter, pazi na FRU, da bo isti oz. replaceable.
Če se ti da, posodobi firmware, da bo na diskih isti firmware. To v nulo dela.
Zgodovina sprememb…
- spremenilo: bbbbbb2015 ()
c3p0 ::
>> Diske, točno iste, je težko dobiti hitro.
Zakaj že točno iste? Dobro je, da imajo skoraj iste specs, da so točno isti pa marsikdo celo odsvetuje, ker naletiš na slabo serijo in ti jih par crkne praktično hkrati...
>> Pretiravaš. IBM ima to lepo narejeno, narediš hot-swap starega ven, novega noter. Najdi FRU defektnega diska, ki mu gori oranžna lučka, ter na ebayu naroči novega. Samo izklopiš na živo disk, ter novega noter, pazi na FRU, da bo isti oz. replaceable.
Niti ne, po 17(!) letih si je stranka zaželela tudi novega serverja, kaj šele novih diskov.
Zakaj že točno iste? Dobro je, da imajo skoraj iste specs, da so točno isti pa marsikdo celo odsvetuje, ker naletiš na slabo serijo in ti jih par crkne praktično hkrati...
>> Pretiravaš. IBM ima to lepo narejeno, narediš hot-swap starega ven, novega noter. Najdi FRU defektnega diska, ki mu gori oranžna lučka, ter na ebayu naroči novega. Samo izklopiš na živo disk, ter novega noter, pazi na FRU, da bo isti oz. replaceable.
Niti ne, po 17(!) letih si je stranka zaželela tudi novega serverja, kaj šele novih diskov.
Zgodovina sprememb…
- spremenil: c3p0 ()
bbbbbb2015 ::
>> Diske, točno iste, je težko dobiti hitro.
Zakaj že točno iste? Dobro je, da imajo skoraj iste specs, da so točno isti pa marsikdo celo odsvetuje, ker naletiš na slabo serijo in ti jih par crkne praktično hkrati...
No, glej, manjši ne more biti. Večji je lahko, samo z odvečno kapaciteto si nimaš kaj pomagati.
Jaz, ko menjujem diske, za IBM/lenovo strežnike, ponavadi z orodjem še nadgradim firmver. Da imajo vsi isti firmware. To dela zanesljivo in predvidljivo.
Govorim o IBM/Lenovo serijah strežnikov.
Ales ::
Tudi moja praksa je, da ne dajem iste modele diskov v raid polja, kaj šele diske iz iste serije.
Enake velikosti in primerljive performanse, seveda, enako znamko pa ne. Diske iz iste serije pa absolutno nikoli.
Enake velikosti in primerljive performanse, seveda, enako znamko pa ne. Diske iz iste serije pa absolutno nikoli.
bbbbbb2015 ::
Tudi moja praksa je, da ne dajem iste modele diskov v raid polja, kaj šele diske iz iste serije.
Enake velikosti in primerljive performanse, seveda, enako znamko pa ne. Diske iz iste serije pa absolutno nikoli.
Glej, jaz dajem samo originalne IBM/Lenovo diske. Pogledam tule:
https://www.harddrivesdirect.com/ibm_bu...
Vpišem ID dela v ebay, ter poiščem China, Condition:new
Nimam kaj dosti za zbirati. Ampak ti diski v nulo delajo. Na tem imamo vse enterprise podatke. Vse. Pač po različnih serverjih. Za vsak tip diska imam cold spare. Ponavadi dva cold spara.
c3p0 ::
bbbbbb2015 je izjavil:
>> Diske, točno iste, je težko dobiti hitro.
Zakaj že točno iste? Dobro je, da imajo skoraj iste specs, da so točno isti pa marsikdo celo odsvetuje, ker naletiš na slabo serijo in ti jih par crkne praktično hkrati...
No, glej, manjši ne more biti. Večji je lahko, samo z odvečno kapaciteto si nimaš kaj pomagati.
Jaz, ko menjujem diske, za IBM/lenovo strežnike, ponavadi z orodjem še nadgradim firmver. Da imajo vsi isti firmware. To dela zanesljivo in predvidljivo.
Govorim o IBM/Lenovo serijah strežnikov.
Če govoriš o "istem" kot o isti kapaciteti, potem OK. A tudi npr. obrati morajo štimat, ker najpočasnejši disk drži nazaj vse ostale.
Lahko pa je komot en od Toshibe, drugi pa WD, ali pa branded disk z official firmware, ki je uradno podprt za nek model serverja.
Kakor kdaj sicer, npr. HP je imel par let nazaj svojo zanič serijo firmwareja in so ravno ti "zanesljivi in predvidljivi" diski prvi odpovedali.
k4vz0024 ::
Ta izjava je sramotna. Disk bi moral delati 10+ let. Seveda, če zgradiš najcenejši elektroniko bo šel po 3 letih!
bbbbbb2015 ::
bbbbbb2015 je izjavil:
>> Diske, točno iste, je težko dobiti hitro.
Zakaj že točno iste? Dobro je, da imajo skoraj iste specs, da so točno isti pa marsikdo celo odsvetuje, ker naletiš na slabo serijo in ti jih par crkne praktično hkrati...
No, glej, manjši ne more biti. Večji je lahko, samo z odvečno kapaciteto si nimaš kaj pomagati.
Jaz, ko menjujem diske, za IBM/lenovo strežnike, ponavadi z orodjem še nadgradim firmver. Da imajo vsi isti firmware. To dela zanesljivo in predvidljivo.
Govorim o IBM/Lenovo serijah strežnikov.
Če govoriš o "istem" kot o isti kapaciteti, potem OK. A tudi npr. obrati morajo štimat, ker najpočasnejši disk drži nazaj vse ostale.
Lahko pa je komot en od Toshibe, drugi pa WD, ali pa branded disk z official firmware, ki je uradno podprt za nek model serverja.
Kakor kdaj sicer, npr. HP je imel par let nazaj svojo zanič serijo firmwareja in so ravno ti "zanesljivi in predvidljivi" diski prvi odpovedali.
Poglej, jaz mislim, da si v zmoti. Jaz sem po moje dal skozi že vse, home made brand hardware/software RAID polja, SOHO serverje, edge serverje, enterprise serverje, diskovna polja, kot je EMC: EMC Symmetrix @ Wikipedia
Zdaj konkretno uporabljam enterprise serverje, kjer pa diske kupujem na eBayu, strogo FRU (part number), ki je certificiran, ter nadgradim firmware (če ne takoj, pa ob prvem vzdrževanju). In še vedno menim, da je najbolje imeti testirane enterprise SAS diske, ki so certificirani za model.
Dva razloga ti bom navedel, zakaj je to tako (najbolje):
Šefa firme EMC (ki je takrat prodajala diskovna polja) so vprašali, zakaj je potrebno nujno kupiti prav EMC disk, z posebnim EMC caddyjem, da si to vtaknil v server. Zakaj ne dovoli, da se lahko doda Seagate ali pač ne vem WD disk. Še posebej zato, ker EMC firma sama ni proizvajala diskov, ampak dejansko so bili pod pokrovom to Seagatei, WDji ipd.
Pa je odgovoril, da je bil začetni plan drugačen, da je bila ideja, da bodo certificirali (tudi) zunanje diske, če bo model ID in firmware ID štimal, lahko to vtakneš v EMC. Pa je rekel, da ko so trstirali vse diske, ki so bili na trgu, s svojimi programi, vse operacije, ki jih je takrat SCSI in FC-AL disk poznal, so bile pri 100% ali pri skoraj 100% testiranih diskov napake ki so pomenile izgubo podatkov. Imeli so dve metriki: izgubo podatkov in izgubo hitrosti. Skratka, pri skoraj vseh so odkrili napake. Potem so imeli idejo, da bodo naredili loop, pač stestirajo in certificirajo, ampak je bila kvaliteta divergentna, torej naslednje verzije firmvera niso bile nujno boljše.
Imeli so tudi fizične težave, od preplitvih lukenj za vijake, do slabih kontaktov. Namreč, če brni 50 diskov, imajo vibracije en drug pomen.
Zato so se dogovorili, da kupijo pač diske, ter kodo od diskov (firmware), ki ga prilagodijo in stestirajo po sovjih standardih. Imeli so tudi svoje fizične caddyje, ki so diske trdno vpeli v ležišča. Danes se podobno vpenjajo SAS diski za IBM/lenovo generacije M4 in M5. Potem je bilo 0 težav in so potem blokirali ne-EMC diske. In je to v nulo delalo.
To je tudi razlog, zakaj Lenovo in DELL še danes testirajo in imajo diske z lastnim firmverom.
Drugi razlog je bolj praktične narave. Ti misliš, da če boš imel 2x WD in 1x Toshiba, ne more vse crkniti "naenkrat". No, težava je ta, da lahko crkne čudno. Recimo disk gre offline, array zazna izpad, in da diskovno polje v yellow state. Nakar pride disk nazaj - kontroler pač začne delati rebuild polja. Na žalost ti disk lahko zopet odpove. In tukaj postane še bolj zoprno. Jaz sem dal v home-array drug disk namesto crknjenega, raid začne rebuild, nakar crkne izvor - disk ki je bil do takrat v redu. In se polje znajde v statusu RED in se ustavi. In nimaš več raida,ker je eden in drug disk (recimo mirroring) flagiran kot missing/down.
IBM/Lenovo to dela drugače. Ko daš nov disk notri namesto starega, začne delati SMART long teste, traja sigurno pol ure ali celo dlje, da array ugotovi, da je disk, ki je namesto starega zanesljiv in dobro dela.
Rebuild dela tako, da četudi je izvorni disk obremenjen z normalnim bremenom, raid kontroler pazljivo obrmenjuje izvor, da rebuilda ponor.
Pri IBM7Leovo sem lahko ziher, ko pridem v sistemsko sobo, disk z oranžno kontrolko potegnem ven, dam drugi disk noter, začne utripati zelena lučka. To je to. Nimam kaj več. Jutri zjutraj bo array sigurno rebuildan.
Zgodovina sprememb…
- spremenilo: bbbbbb2015 ()
rasutuki ::
Odkar sem ZFS našel (15+ let nazaj), ne kupim več RAID5 kontrolerja. Toliko štal kot je z njimi, nisem imel z ničemer razen btrfsjem.
Ja, saj to naredijo. Zadnji disk, ki mi je fizično crkaval je bil SCSI na alphi. Pa še tega sem rešil s kladivčkom.
Vedno crkne elektronika.
Toshibe ne crknejo. Vsaj preden jih je Seagate (fuj!) kupil. Tudi HGSTji niso. Dokler jih ni WD kupil.
Sicer pa tole pogledaš, normaliziraš tabelce in kupiš na podlagi tega: https://www.backblaze.com/blog/backblaz...
Ta izjava je sramotna. Disk bi moral delati 10+ let. Seveda, če zgradiš najcenejši elektroniko bo šel po 3 letih!
Ja, saj to naredijo. Zadnji disk, ki mi je fizično crkaval je bil SCSI na alphi. Pa še tega sem rešil s kladivčkom.
Vedno crkne elektronika.
bbbbbb2015 je izjavil:
1x Toshiba, ne more vse crkniti "naenkrat".
Toshibe ne crknejo. Vsaj preden jih je Seagate (fuj!) kupil. Tudi HGSTji niso. Dokler jih ni WD kupil.
Sicer pa tole pogledaš, normaliziraš tabelce in kupiš na podlagi tega: https://www.backblaze.com/blog/backblaz...
Zgodovina sprememb…
- spremenilo: rasutuki ()
levaky ::
Backblaze je vsekakor dober source.
Sicer pa imam sam precej dobre izkušnje s Seagate (4TB SAS in 6TB SAS). Enih in drugih se mi v raznih JBODih vrti 500+, večinoma več kot 5 let (SMART pravi okoli 8 let). Do sedaj jih je odpovedalo kakšnih 10.
Z HGST 6TB SAS (cca 130 diskov) tudi ni bilo težav (5+ let), dokler jih nisem ugasnil za pol leta in potem nazaj prižgal. Precej jih je v roku nekaj mescev odpovedalo.
Imam tudi cca 800 16TB SAS diskov (se mi zdi da Lenovo / Seagate), delovnih ur imajo za slaba 3 leta, do sedaj kakšnih 10 odpovedi.
Lenovo / IBM SAS trdi diski (320GB 2,5" SAS 10k) jih je bilo v zadnjih 10 letih ogromno v rabi (sigurno 500+), odpovedi zelo malo, še največ težav sem imel z 1,2TB (več kot 50% izpada v enem letu). Zadnjih 5 let smo samo na SSDjih (SATA) za sistemske diske, ne vem če sem zamenjal 2 kosa.
HP diskov je bilo manj, mogoče okoli 200. Tudi tam ni bilo nekih pretiranih odpovedi (SAS 2,5" 10k).
Sicer pa imam sam precej dobre izkušnje s Seagate (4TB SAS in 6TB SAS). Enih in drugih se mi v raznih JBODih vrti 500+, večinoma več kot 5 let (SMART pravi okoli 8 let). Do sedaj jih je odpovedalo kakšnih 10.
Z HGST 6TB SAS (cca 130 diskov) tudi ni bilo težav (5+ let), dokler jih nisem ugasnil za pol leta in potem nazaj prižgal. Precej jih je v roku nekaj mescev odpovedalo.
Imam tudi cca 800 16TB SAS diskov (se mi zdi da Lenovo / Seagate), delovnih ur imajo za slaba 3 leta, do sedaj kakšnih 10 odpovedi.
Lenovo / IBM SAS trdi diski (320GB 2,5" SAS 10k) jih je bilo v zadnjih 10 letih ogromno v rabi (sigurno 500+), odpovedi zelo malo, še največ težav sem imel z 1,2TB (več kot 50% izpada v enem letu). Zadnjih 5 let smo samo na SSDjih (SATA) za sistemske diske, ne vem če sem zamenjal 2 kosa.
HP diskov je bilo manj, mogoče okoli 200. Tudi tam ni bilo nekih pretiranih odpovedi (SAS 2,5" 10k).
Zgodovina sprememb…
- spremenil: levaky ()
Ales ::
bbbbbb2015 je izjavil:
Drugi razlog je bolj praktične narave. Ti misliš, da če boš imel 2x WD in 1x Toshiba, ne more vse crkniti "naenkrat".
Ne mislimo kar apriori, da ne more, le da je še malo manjša verjetnost, da se bo pomor zgodil ob istem času.
No, težava je ta, da lahko crkne čudno. Recimo disk gre offline, array zazna izpad, in da diskovno polje v yellow state. Nakar pride disk nazaj - kontroler pač začne delati rebuild polja. Na žalost ti disk lahko zopet odpove. In tukaj postane še bolj zoprno. Jaz sem dal v home-array drug disk namesto crknjenega, raid začne rebuild, nakar crkne izvor - disk ki je bil do takrat v redu. In se polje znajde v statusu RED in se ustavi. In nimaš več raida,ker je eden in drug disk (recimo mirroring) flagiran kot missing/down.
To kar opisuješ je tipična bedna situacija, ki se lahko zgodi npr. pri kakem RAID-5. Marsikateri admin je dal take stvari čez. Ampak ne vidim kaj ima to veze s pogovorom o različnih modelih diskov, razen da je pri istih modelih še večja verjetnost za kaj takega.
IBM/Lenovo to dela drugače. Ko daš nov disk notri namesto starega, začne delati SMART long teste, traja sigurno pol ure ali celo dlje, da array ugotovi, da je disk, ki je namesto starega zanesljiv in dobro dela. Rebuild dela tako, da četudi je izvorni disk obremenjen z normalnim bremenom, raid kontroler pazljivo obrmenjuje izvor, da rebuilda ponor.
Tovrstni uvodni testi in potem čim manj obremenjujoče regeneriranje RIAD-a ni specifično samo za IBM/Lenovo. Podoben pristop je pravzaprav osnovna dobra praksa vsakega admina, ki se je z RAID-om ukvarjal, tudi če kak HW/SW tega ne dela sam od sebe.
Na žalost pa se prej zgodi, da ob regeneriranju crkne en od preostalih obstoječih diskov, ne ta nov, kljub čim manj obremenjujočemu regeneriranju arraya... Pa smo spet pri tem, kje je večja verjetnost za to, pri istih modelih diskov ali pri različnih.
Pri IBM7Leovo sem lahko ziher, ko pridem v sistemsko sobo, disk z oranžno kontrolko potegnem ven, dam drugi disk noter, začne utripati zelena lučka. To je to. Nimam kaj več. Jutri zjutraj bo array sigurno rebuildan.
O ne, ne moreš biti.
Mislim, trkaj na les, trkam jaz na les in ti želim, da vsakič vse želeno blinka, ampak... nope, verjetnost za to ni 100%.
Naj ob tej priliki samo napišem, za koga drugega, ki morda bere, pa rabi slišati: RAID NI backup. Res, res ni.
starfotr ::
c3p0 ::
bbbbbb2015 je izjavil:
...
IBM/Lenovo to dela drugače. Ko daš nov disk notri namesto starega, začne delati SMART long teste, traja sigurno pol ure ali celo dlje, da array ugotovi, da je disk, ki je namesto starega zanesljiv in dobro dela.
Rebuild dela tako, da četudi je izvorni disk obremenjen z normalnim bremenom, raid kontroler pazljivo obrmenjuje izvor, da rebuilda ponor.
Pri IBM7Leovo sem lahko ziher, ko pridem v sistemsko sobo, disk z oranžno kontrolko potegnem ven, dam drugi disk noter, začne utripati zelena lučka. To je to. Nimam kaj več. Jutri zjutraj bo array sigurno rebuildan.
Ne vem kje točno se motim. Pri "old school" enterprise segmentu se drugače niti ne bi šel, vse certificirano, official support itd. Če se greš te igre, oz. če budget omogoča in pogosto politika podjetja tudi tako zahteva, zaradi raznih pogodb, druge opcije tako ali tako nimaš.
Realnost, vsaj pri nas, pa je druga. RAID kontrolerja vsaj v svojih serverjih sicer nisem videl že precej let in vsak dan se zbudim srečen, da obstaja ZFS, ki se zaveda kje so dejansko podatki in delno polnega RAIDa ne rabiš resilverat ure in ure, narediš snapshot in ga varno pošlješ na drug server daleč stran, tam pa še backupiraš.
Ali pa sestaviš kak CEPH z gmoto cheap diskov.
Naj ob tej priliki samo napišem, za koga drugega, ki morda bere, pa rabi slišati: RAID NI backup. Res, res ni.
To lahko hitro vidiš, ko user želi fajl, ki ga je pred tednom pobrisal. ZFS te tu sicer lahko reši, če delaš snapshote, pa niti to ni backup. Podjetje (ali posameznik), ki nima nobenega cold backupa, pravilno rotiranega, zame nima backupa. Ja, sem štejem tudi "cloud".
Zgodovina sprememb…
- spremenil: c3p0 ()
njyngs ::
Moji WD Red so v Synology NASu že 10 let (pred par meseci je minilo toliko). Sam opozorila nisem dobil. Verjetno še moji diski nimajo WDDA. Zgleda ni vedno latest=greatest :)
KHM https://www.youtube.com/watch?v=dQw4w9WgXcQ
jaxokyr ::
bbbbbb2015 ::
Naj ob tej priliki samo napišem, za koga drugega, ki morda bere, pa rabi slišati: RAID NI backup. Res, res ni.
Seveda ni, tukaj se pogovarjamo o diskih.
Tako ja. Saj RAID ti v bistvu povečuje availability. Tudi če imaš vse backupe, probaj ti enkrat potegniti restore malo večje količine podatkov.
Se pravi, da je pomembno, da ti nekaj ne crkne bom rekel ta hip. Ker moraš najti nadomestni hardver (če nimaš rezervnih kapacitet), to moraš poservisirati, potem pa narediti restore.
Pa tudi backup... Je potrebno testirati. Da se ne bi zgodilo, da ugotoviš, da backup ne dela, ko ga rabiš.
Nekaj jih je omenjalo, da če pa imamo ZFS, pol pa nas briga, kaj je spodaj, pa če makar veverice bežijo noter v diskih in so skrite. Poglejte, IBM in kasneje SUN je naredil neko študijo, to zdaj bi se moral pomatrati, če bi hotel najti to, da je najbolje, ampak res najbolje, da se za integriteto podatkov skrbi pri izvoru, čim bolj pri izvoru. Se pravi na shranjenih diskih. Čim kasneje napako (izgubo) začnemo sanirati, dražje je in bolj komplicirano je.
Najbolje je torej, da interni mehanizmi firmvera diska začnejo validacijo sektorjev interno, potem to testira kontroler (raid) in potem in šele potem pride ZFS.
dexterboy ::
Backblaze je vsekakor dober source. Sicer pa imam sam precej dobre izkušnje s Seagate (4TB SAS in 6TB SAS). Enih in drugih se mi v raznih JBODih vrti 500+, večinoma več kot 5 let (SMART pravi okoli 8 let). Do sedaj jih je odpovedalo kakšnih 10. Z HGST 6TB SAS (cca 130 diskov) tudi ni bilo težav (5+ let), dokler jih nisem ugasnil za pol leta in potem nazaj prižgal. Precej jih je v roku nekaj mescev odpovedalo.Oj, je skrivnost, v kateri branži služiš kruh?
Imam tudi cca 800 16TB SAS diskov (se mi zdi da Lenovo / Seagate), delovnih ur imajo za slaba 3 leta, do sedaj kakšnih 10 odpovedi. Lenovo / IBM SAS trdi diski (320GB 2,5" SAS 10k) jih je bilo v zadnjih 10 letih ogromno v rabi (sigurno 500+), odpovedi zelo malo, še največ težav sem imel z 1,2TB (več kot 50% izpada v enem letu). Zadnjih 5 let smo samo na SSDjih (SATA) za sistemske diske, ne vem če sem zamenjal 2 kosa. HP diskov je bilo manj, mogoče okoli 200. Tudi tam ni bilo nekih pretiranih odpovedi (SAS 2,5" 10k).
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.
bbbbbb2015 ::
Backblaze je vsekakor dober source. Sicer pa imam sam precej dobre izkušnje s Seagate (4TB SAS in 6TB SAS). Enih in drugih se mi v raznih JBODih vrti 500+, večinoma več kot 5 let (SMART pravi okoli 8 let). Do sedaj jih je odpovedalo kakšnih 10. Z HGST 6TB SAS (cca 130 diskov) tudi ni bilo težav (5+ let), dokler jih nisem ugasnil za pol leta in potem nazaj prižgal. Precej jih je v roku nekaj mescev odpovedalo.Oj, je skrivnost, v kateri branži služiš kruh?
Imam tudi cca 800 16TB SAS diskov (se mi zdi da Lenovo / Seagate), delovnih ur imajo za slaba 3 leta, do sedaj kakšnih 10 odpovedi. Lenovo / IBM SAS trdi diski (320GB 2,5" SAS 10k) jih je bilo v zadnjih 10 letih ogromno v rabi (sigurno 500+), odpovedi zelo malo, še največ težav sem imel z 1,2TB (več kot 50% izpada v enem letu). Zadnjih 5 let smo samo na SSDjih (SATA) za sistemske diske, ne vem če sem zamenjal 2 kosa. HP diskov je bilo manj, mogoče okoli 200. Tudi tam ni bilo nekih pretiranih odpovedi (SAS 2,5" 10k).
Verjetno je. Tudi jaz nočem navajati številk. Tudi firm ne navajam. Če se le da, tudi denarja ne navajam. Ta te nekdo ne doxxa, nadleguje ali kibicira. Ali, kot je to v Sloveniji navada, žlehtno širi laži o tebi. Iz dolgega časa ali res žlehtnobe.
Lahko ga pa vprašaš na ZS. Mogoče ti bo povedal, sploh, če se mu predstaviš z imenom in priimkom.
jaxokyr ::
bbbbbb2015 je izjavil:
Pa tudi backup... Je potrebno testirati. Da se ne bi zgodilo, da ugotoviš, da backup ne dela, ko ga rabiš.
bbbbbb2015 je izjavil:
Najbolje je torej, da interni mehanizmi firmvera diska začnejo validacijo sektorjev interno, potem to testira kontroler (raid) in potem in šele potem pride ZFS.
Osebno mi je najbolj pomembno, da je kar se da najmanj kolobocij z hw controlerji. Kot sem že zgoraj omenil, v veliki večini na diskih crkne kontroler, že te so me pred leti zjebali, da sem moral bios prelotat na novega, ker so šli kalibracijske podatke zapisovati nanj in se jih ne da več preprosto zamenjati. In res ne rabim proprietary raid5 kontrolerja vmes, ki ima sicer optimalno in oh in sploh razporeditev podatkov, za maksimalen performance, hkrati pa so podatki na disku gibberish, ki ga živ bog več ni sposoben prebrati. ZFS bom, če bo hudič vzel šalo, zdebugirat in potencialno ali popravil bug, ali naredil tool, da reši točno situacijo, ki jo imam. HW raid controller? Good luck.
Zgodovina sprememb…
- spremenilo: jaxokyr ()
Glugy ::
Problem je da po 3 letih imaš zapečeno stalno opozorilo ki je tam avtomatsko ne glede na stanje diska nonstop, da potem ko bi rabil res bit pozoren ko se dejansko začne slabšat stanje diska potem to novo, tapravno opozorilo totalno spregledaš. To je problem.
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Backblaze: letno odpove 1,7 odstotka diskov, HGST boljši kot SeagateOddelek: Novice / Diski | 4658 (2540) | yjpe |
» | Western Digital prinaša helij v domače diskeOddelek: Novice / Diski | 12201 (9238) | MrStein |
» | Najzanesljivejša Hitachi in Western Digital, Segate 3 TB prava katastrofaOddelek: Novice / Diski | 36130 (5191) | m47hingi |
» | Kateri NASOddelek: Kaj kupiti | 2569 (2216) | floyd1 |