Forum » Pomoč in nasveti » MBWE-WL 1 TB nadgradnja na 2 TB
MBWE-WL 1 TB nadgradnja na 2 TB
Kamran ::
Živjo,
(po dolgem času)
Imam eden zelo star mrežni disk, in sicer od WD My Book World Edition (White Light), model WD10000H1NC-00 (tudi takole se menda piše: WDH1NC10000). V njem je ta klasični 1TB WD Green WD10EARS trdi disk. Sem pa po naključju prišel do "njegovega večjega brata" (WD20EARS) in bi sedaj rad le-tega spravil notri in da bi ga linux OS lepo zaznal kot 2 TB.
Do sedaj mi je uspelo sledeče:
(poleg uspešnega odprtja ohišja/razstavitve)
- Preko SSH in PuTTY mi je uspelo narediti "dump" OS, particij, itn. v mybook.img datoteko (nasvet kako to naredit; nfodiz-ov komentar).
- V System Rescue CD 5.0.0. sem preko dd ukaza na WD20EARS lepo prekloniral tisto mybook.img datoteko na novi disk (nfodiz komentar).
Od tukaj naprej se mi pa zatika...
Posnetek/Slika iz GParted
Torej sedaj me zanima kako tistih preostalih 1 TB (931.50 GiB) združim s sda4 oz. md2. Vsaj upam da prav razmišljam.
V ukazni vrstici/konzoli sem poizkusil z ukazom:
In ni šlo.
Potem sem našel tukaj eden nasvet in poizkusil z:
Spet ni šlo - javi neko napako, da je "device/resources busy".
Torej kak nasvet kako to uspešno rešiti ?
Na tejli strani sem enkrat za My Book Live lepo našel rešitev kako notri vstaviti večji disk in zadevo usposobit (tudi za My Cloud), vendar za tole mi pa kar ne gre.
Če ima pa kdo mogoče slučajno še MBWE-WL 2 TB (WDH1NC20000) NAS disk, bi bil pa zelo hvaležen za dump te img datoteke. Naloži se pa lahko semle in javno ali preko ZS posreduje povezavo.
Hvala in lep pozdrav
(po dolgem času)
Imam eden zelo star mrežni disk, in sicer od WD My Book World Edition (White Light), model WD10000H1NC-00 (tudi takole se menda piše: WDH1NC10000). V njem je ta klasični 1TB WD Green WD10EARS trdi disk. Sem pa po naključju prišel do "njegovega večjega brata" (WD20EARS) in bi sedaj rad le-tega spravil notri in da bi ga linux OS lepo zaznal kot 2 TB.
Do sedaj mi je uspelo sledeče:
(poleg uspešnega odprtja ohišja/razstavitve)
- Preko SSH in PuTTY mi je uspelo narediti "dump" OS, particij, itn. v mybook.img datoteko (nasvet kako to naredit; nfodiz-ov komentar).
- V System Rescue CD 5.0.0. sem preko dd ukaza na WD20EARS lepo prekloniral tisto mybook.img datoteko na novi disk (nfodiz komentar).
Od tukaj naprej se mi pa zatika...
Posnetek/Slika iz GParted
Torej sedaj me zanima kako tistih preostalih 1 TB (931.50 GiB) združim s sda4 oz. md2. Vsaj upam da prav razmišljam.
V ukazni vrstici/konzoli sem poizkusil z ukazom:
mdadm --grow -size=max /dev/md2
In ni šlo.
Potem sem našel tukaj eden nasvet in poizkusil z:
mdadm --fail /dev/md2 /dev/sda4
mdadm --remove /dev/md2 /dev/sda4
Spet ni šlo - javi neko napako, da je "device/resources busy".
Torej kak nasvet kako to uspešno rešiti ?
Na tejli strani sem enkrat za My Book Live lepo našel rešitev kako notri vstaviti večji disk in zadevo usposobit (tudi za My Cloud), vendar za tole mi pa kar ne gre.
Če ima pa kdo mogoče slučajno še MBWE-WL 2 TB (WDH1NC20000) NAS disk, bi bil pa zelo hvaležen za dump te img datoteke. Naloži se pa lahko semle in javno ali preko ZS posreduje povezavo.
Hvala in lep pozdrav
sas084 ::
Ponavadi je problem "device/resources busy" ta, da je disk v uporabi (mountan, udev problemi ...). Drugo kar lahko poizkusiš je, da polje ustaviš, mu dodaš disk ter ponovno zaženeš.
Kamran ::
Z df ukazom v konzoli mi ne pokaže, da bi bila katerakoli particija v uporabi. Če pa z umount ukazom poskusim na blef katerokoli particijo odklopiti, mi pa javi, da dani razdelek sploh ni priključen.
Bom poizkusil še s temi nasveti in poročal nazaj.
Bom poizkusil še s temi nasveti in poročal nazaj.
Zgodovina sprememb…
- spremenil: Kamran ()
Kamran ::
Tole je še od prej:
Ok, torej:
Deluje in md2 izgine iz GParted:
(čeprav če ponovno zaženem računalnik, se nazaj vrne na GParted)
Vendar se še zmeraj ne da sda4 povečati, da bi zajel tistih preostalih 1 TB prostega prostora. Niti recimo ni variante, da če bi sda4 pobrisal in naredil novo linux raid particijo.
Mogoče bi moral prvo samo običajno ext3 particijo naredit, potem pa nazaj md2 ali kako...
Ok, torej:
mdadm --stop /dev/md2
mdadm: stopped /dev/md2
Deluje in md2 izgine iz GParted:
(čeprav če ponovno zaženem računalnik, se nazaj vrne na GParted)
Vendar se še zmeraj ne da sda4 povečati, da bi zajel tistih preostalih 1 TB prostega prostora. Niti recimo ni variante, da če bi sda4 pobrisal in naredil novo linux raid particijo.
Mogoče bi moral prvo samo običajno ext3 particijo naredit, potem pa nazaj md2 ali kako...
konspirator je izjavil:
Prilepi izpis od "mount".
Zgodovina sprememb…
- spremenil: Kamran ()
Kamran ::
Ponavadi je problem "device/resources busy" ta, da je disk v uporabi (mountan, udev problemi ...). Drugo kar lahko poizkusiš je, da polje ustaviš, mu dodaš disk ter ponovno zaženeš.
Jaz sem pa razmišljal, da kaj pa, ko sem mybook.img prekloniral na WD20EARS, da bi moral takoj ta disk dati nazaj v MBWE-WL ohišje, da malo zalaufa in se šele potem igrati v SRC5.0...
Ker ko sem takoj po kloniranju zagnal GParted, mi je javil da je GPT nekaj pokvarjen.
sas084 ::
Kokr vem mdadm dela tako s celimi diski kot s particijami, sam sm zmeraj delu s particijami. Zdej iz slik bi reku, da ko si ustavu md2 si dobu dostop do sda4, ki je bil verjetno v raidu. Probaj naredit skupno particijo z sda4, nakar jo dodaš v polje. Vprašanje je tud, kakšen raid je md2, če je raid0 potem mislm da morš na novo kreirat kompletno polje, ker raid0 ne podpira grow.
sas084 ::
Malo sm se igral z raidom na virtualki, verjetno je obnašanje s fizičnimi diski enako. Začetna konfiguracija je raid1 za sistem in raid0 za testiranje:
Fail na katerem od disku v raid0 ne dela:
Ko se array ustavi, potem se lahko dela s posameznimi diski:
Če se ne pobriše superblocka, potem bo mdadm ob naslednjem zagonu naredu rekonstrukcijo raid0 polja iz obeh diskov, če se pobriše, md200 arraya ni več:
Kreiranje raid1 polja:
Iz raid 1 polja fail dela, razen na degradiranem arrayu, kjer je treba ustavit celoten array:
Superblock je treba izbrisat če nočes da ti mdadm rekonstruira polje ob restartu. Še izgradnja raid0 polja:
Verjetno je uporaba za druge tipe raidov podobna.
[root@localhost ~]# cat /proc/mdstat Personalities : [raid1] [raid0] md200 : active raid0 vdc[0] vdd[1] 10477568 blocks super 1.2 512k chunks md126 : active raid1 vdb2[2] vda2[0] 2051072 blocks super 1.2 [2/2] [UU] md127 : active raid1 vdb1[2] vda1[0] 7384000 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk unused devices: <none>
Fail na katerem od disku v raid0 ne dela:
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdc mdadm: set device faulty failed for /dev/vdc: Device or resource busy [root@localhost ~]# mdadm /dev/md200 --fail /dev/vdd mdadm: set device faulty failed for /dev/vdd: Device or resource busy
Ko se array ustavi, potem se lahko dela s posameznimi diski:
[root@localhost ~]# mdadm --stop /dev/md200 mdadm: stopped /dev/md200 [root@localhost ~]# cat /proc/mdstat Personalities : [raid1] [raid0] md126 : active raid1 vdb2[2] vda2[0] 2051072 blocks super 1.2 [2/2] [UU] md127 : active raid1 vdb1[2] vda1[0] 7384000 blocks super 1.0 [2/2] [UU] bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none> [root@localhost ~]# lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 253:0 0 9G 0 disk vda1 253:1 0 7G 0 part |_md127 9:127 0 7G 0 raid1 / vda2 253:2 0 2G 0 part |_md126 9:126 0 2G 0 raid1 [SWAP] vdb 253:16 0 9G 0 disk vdb1 253:17 0 7G 0 part |_md127 9:127 0 7G 0 raid1 / vdb2 253:18 0 2G 0 part |_md126 9:126 0 2G 0 raid1 [SWAP] vdc 253:32 0 5G 0 disk vdd 253:48 0 5G 0 disk md200 9:200 0 0 md
Če se ne pobriše superblocka, potem bo mdadm ob naslednjem zagonu naredu rekonstrukcijo raid0 polja iz obeh diskov, če se pobriše, md200 arraya ni več:
[root@localhost ~]# mdadm --zero-superblock /dev/vdd [root@localhost ~]# mdadm --zero-superblock /dev/vdc [root@localhost ~]# lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 253:0 0 9G 0 disk vda1 253:1 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vda2 253:2 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdb 253:16 0 9G 0 disk vdb1 253:17 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vdb2 253:18 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdc 253:32 0 5G 0 disk vdd 253:48 0 5G 0 disk
Kreiranje raid1 polja:
[root@localhost ~]# mdadm --create /dev/md200 --level=1 --raid-devices=2 /dev/vdc /dev/vdd mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? yes mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md200 started. [root@localhost ~]# cat /proc/mdstat Personalities : [raid1] md200 : active raid1 vdd[1] vdc[0] 5238784 blocks super 1.2 [2/2] [UU] [=>...................] resync = 6.7% (354880/5238784) finish=1.1min speed=70976K/sec md126 : active raid1 vdb1[2] vda1[0] 7384000 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md127 : active raid1 vda2[0] vdb2[2] 2051072 blocks super 1.2 [2/2] [UU] unused devices: <none> [root@localhost ~]# lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 253:0 0 9G 0 disk vda1 253:1 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vda2 253:2 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdb 253:16 0 9G 0 disk vdb1 253:17 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vdb2 253:18 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdc 253:32 0 5G 0 disk |_md200 9:200 0 5G 0 raid1 vdd 253:48 0 5G 0 disk |_md200 9:200 0 5G 0 raid1
Iz raid 1 polja fail dela, razen na degradiranem arrayu, kjer je treba ustavit celoten array:
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdc mdadm: set /dev/vdc faulty in /dev/md200 [root@localhost ~]# mdadm /dev/md200 --fail /dev/vdd mdadm: set device faulty failed for /dev/vdd: Device or resource busy [root@localhost ~]# mdadm --stop /dev/md200 mdadm: stopped /dev/md200 [root@localhost ~]# lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 253:0 0 9G 0 disk vda1 253:1 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vda2 253:2 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdb 253:16 0 9G 0 disk vdb1 253:17 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vdb2 253:18 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdc 253:32 0 5G 0 disk vdd 253:48 0 5G 0 disk md200 9:200 0 0 md
Superblock je treba izbrisat če nočes da ti mdadm rekonstruira polje ob restartu. Še izgradnja raid0 polja:
[root@localhost ~]# mdadm --create /dev/md200 --level=0 --raid-devices=2 /dev/vdc /dev/vdd mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md200 started. [root@localhost ~]# cat /proc/mdstat Personalities : [raid1] [raid0] md200 : active raid0 vdd[1] vdc[0] 10477568 blocks super 1.2 512k chunks md126 : active raid1 vda1[0] vdb1[2] 7384000 blocks super 1.0 [2/2] [UU] bitmap: 1/1 pages [4KB], 65536KB chunk md127 : active raid1 vdb2[2] vda2[0] 2051072 blocks super 1.2 [2/2] [UU] unused devices: <none> [root@localhost ~]# lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 253:0 0 9G 0 disk vda1 253:1 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vda2 253:2 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdb 253:16 0 9G 0 disk vdb1 253:17 0 7G 0 part |_md126 9:126 0 7G 0 raid1 / vdb2 253:18 0 2G 0 part |_md127 9:127 0 2G 0 raid1 [SWAP] vdc 253:32 0 5G 0 disk |_md200 9:200 0 10G 0 raid0 vdd 253:48 0 5G 0 disk |_md200 9:200 0 10G 0 raid0
Verjetno je uporaba za druge tipe raidov podobna.
Zgodovina sprememb…
- spremenil: sas084 ()
Kamran ::
Mislim, da je bil prej sda4 v raidu.
Kako bi pa lahko pogledal kateri tip raida je md2 ? Gre to z ukazom
cat /proc/mdstat
?
Lahko naredim izpis za vse md-je in napišem nazaj.
Vidim, da si stručko samo tukaj bi pa rabil res nek step-by-step pristop.
Najbolje, da mi napišeš katere ukaze naj zlaufam (v določenem zaporedju) - in poročam nazaj.
Torej najbolje je prvo sploh preveriti za kakšen tip raid-a se gre ?
Kako bi pa lahko pogledal kateri tip raida je md2 ? Gre to z ukazom
cat /proc/mdstat
?
Lahko naredim izpis za vse md-je in napišem nazaj.
Vidim, da si stručko samo tukaj bi pa rabil res nek step-by-step pristop.
Najbolje, da mi napišeš katere ukaze naj zlaufam (v določenem zaporedju) - in poročam nazaj.
Torej najbolje je prvo sploh preveriti za kakšen tip raid-a se gre ?
Zgodovina sprememb…
- spremenil: Kamran ()
sas084 ::
Daleč od tega da bi bil stručko, ko boš mel md2 raid živ (po restartu sistema recimo) izpišeš raid polja:
Za dodatne informacije lahko izpišeš še vse block device:
cat /proc/mdstat
Za dodatne informacije lahko izpišeš še vse block device:
lsblk -a
Kamran ::
Evo, za:
Drugi ukaz:
Iz tega ukaza se pa vidi, da so md-ji res raid1 kot si prej pravilno sklepal.
Kako sedaj naprej ?
root@sysresccd /root % cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md124 : active raid1 sda4[0] 973525343 blocks super 1.2 [2/1] [U_] md125 : active raid1 sda1[0] 1959872 blocks [2/1] [U_] md126 : active raid1 sda3[0] 987904 blocks [2/1] [U_] md127 : active raid1 sda2[0] 256896 blocks [2/1] [U_] unused devices: <none>
Drugi ukaz:
root@sysresccd /root % lsblk -a NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT loop1 7:1 0 0 loop sdb 8:16 1 961M 0 disk |-sdb1 8:17 1 960M 0 part /livemnt/boot loop6 7:6 0 0 loop md0 9:0 0 0 md loop4 7:4 0 0 loop sr0 11:0 1 1024M 0 rom loop2 7:2 0 0 loop loop0 7:0 0 390.3M 1 loop /livemnt/squashfs sda 8:0 0 1.8T 0 disk |-sda4 8:4 0 928.4G 0 part | |-md124 9:124 0 928.4G 0 raid1 |-sda2 8:2 0 251M 0 part | |-md127 9:127 0 250.9M 0 raid1 |-sda3 8:3 0 964.9M 0 part | |-md126 9:126 0 964.8M 0 raid1 |-sda1 8:1 0 1.9G 0 part | |-md125 9:125 0 1.9G 0 raid1 loop7 7:7 0 0 loop loop5 7:5 0 0 loop loop3 7:3 0 0 loop
Iz tega ukaza se pa vidi, da so md-ji res raid1 kot si prej pravilno sklepal.
Kako sedaj naprej ?
Zgodovina sprememb…
- spremenil: Kamran ()
sas084 ::
Hmm, iz zapisov je videt da maš vse particije od sda diska v degradiranem raid1 (mirror). Zdej na hitro bi reku da tebe manjka še eden disk, z istimi velikostmi particij, da bi rebuildu raid1 polja, ker po trenutni konfiguraciji ti raid1 nič ne pomaga, ker če ti sda crkne ostaneš v vsakem primeru brez podatkov. Za sda tud piše da je 1.8TB, če sešteješ veliksot posameznih particij (sda1 - sda4) pa nanese dobrih 930GB, kar pomen da ti enih dobrih 900GB manjka (verjetno unallocated space), al pa sm jst ki spregledu. Če gre za unallocated space potem lahko teh 900GB lahko združiš z sda4 tko, da ukineš md124 (md2), potem pa sda4 razširiš. Jst bi na tvojem mestu najprej probal ugotovit, zakaj maš degradirane raid1, ker taka konfiguracija ti nič ne koristi. Če mirror rabiš, potem moraš najprej naredit rekontrukcijo obstoječih raid1 polj, seveda tu ne pride v poštev razširitev, ker raid1 vzame najmanjšo particijo (če nista iste) in na njih zgradi polje. Če mirorja ne rabiš, potem lahko polja ukineš in razširiš sda4 oz. narediš raid0 iz sda4 in particije na dodatnem disku. Če boš ukinu raid polja, potem je potrebno mount pointe popravt v /etc/fstab če jih maš definirane, odstranit polja iz /etc/mdadm/mdadm.conf (/etc/mdadm.conf oz kjerkoli se nahaja konfiguracija za mdadm) itd.
Kamran ::
Ej zelo ti hvala za ves trud, samo (neverjetno) sem našel precej, precej krajšo pot kako to rešit.
http://iknowsomething.com/how-to-fix-br...
Držiš se navodil v članku in zadeva res preverjeno 100 % deluje (vsaj za moj WD20EARS disk). Še naknadno objavim par "skrinšotov" za potrditev.
Še enkrat hvala !
http://iknowsomething.com/how-to-fix-br...
Držiš se navodil v članku in zadeva res preverjeno 100 % deluje (vsaj za moj WD20EARS disk). Še naknadno objavim par "skrinšotov" za potrditev.
Še enkrat hvala !
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | SSD m.2 zaznan kot unknow deviceOddelek: Pomoč in nasveti | 1172 (849) | Ales |
» | Software raid 1 (strani: 1 2 )Oddelek: Pomoč in nasveti | 11969 (11111) | uporabniik |
» | NAS(raid 5)+diskiOddelek: Kaj kupiti | 4149 (3599) | antonija |
» | [Ubuntu] SambaOddelek: Programska oprema | 1871 (1661) | black ice |
» | [ Linux ] RAID problem ...Oddelek: Operacijski sistemi | 1478 (1404) | kekz |