» »

MBWE-WL 1 TB nadgradnja na 2 TB

MBWE-WL 1 TB nadgradnja na 2 TB

Kamran ::

Živjo,

(po dolgem času)

Imam eden zelo star mrežni disk, in sicer od WD My Book World Edition (White Light), model WD10000H1NC-00 (tudi takole se menda piše: WDH1NC10000). V njem je ta klasični 1TB WD Green WD10EARS trdi disk. Sem pa po naključju prišel do "njegovega večjega brata" (WD20EARS) in bi sedaj rad le-tega spravil notri in da bi ga linux OS lepo zaznal kot 2 TB. :|

Do sedaj mi je uspelo sledeče:

(poleg uspešnega odprtja ohišja/razstavitve)

- Preko SSH in PuTTY mi je uspelo narediti "dump" OS, particij, itn. v mybook.img datoteko (nasvet kako to naredit; nfodiz-ov komentar).

- V System Rescue CD 5.0.0. sem preko dd ukaza na WD20EARS lepo prekloniral tisto mybook.img datoteko na novi disk (nfodiz komentar).

Od tukaj naprej se mi pa zatika... :(

Posnetek/Slika iz GParted
 GParted osnovno

GParted osnovno



Torej sedaj me zanima kako tistih preostalih 1 TB (931.50 GiB) združim s sda4 oz. md2. Vsaj upam da prav razmišljam.

V ukazni vrstici/konzoli sem poizkusil z ukazom:

mdadm --grow -size=max /dev/md2


In ni šlo.

Potem sem našel tukaj eden nasvet in poizkusil z:

mdadm --fail /dev/md2 /dev/sda4


mdadm --remove /dev/md2 /dev/sda4


Spet ni šlo - javi neko napako, da je "device/resources busy".

Torej kak nasvet kako to uspešno rešiti ? 8-)

Na tejli strani sem enkrat za My Book Live lepo našel rešitev kako notri vstaviti večji disk in zadevo usposobit (tudi za My Cloud), vendar za tole mi pa kar ne gre.

Če ima pa kdo mogoče slučajno še MBWE-WL 2 TB (WDH1NC20000) NAS disk, bi bil pa zelo hvaležen za dump te img datoteke. Naloži se pa lahko semle in javno ali preko ZS posreduje povezavo.

Hvala in lep pozdrav

sas084 ::

Ponavadi je problem "device/resources busy" ta, da je disk v uporabi (mountan, udev problemi ...). Drugo kar lahko poizkusiš je, da polje ustaviš, mu dodaš disk ter ponovno zaženeš.

Kamran ::

Z df ukazom v konzoli mi ne pokaže, da bi bila katerakoli particija v uporabi. Če pa z umount ukazom poskusim na blef katerokoli particijo odklopiti, mi pa javi, da dani razdelek sploh ni priključen. :|

Bom poizkusil še s temi nasveti in poročal nazaj.

Zgodovina sprememb…

  • spremenil: Kamran ()

konspirator ::

Prilepi izpis od "mount".
--

Kamran ::

Tole je še od prej:

 Konzola 1

Konzola 1



Ok, torej:

mdadm --stop /dev/md2
mdadm: stopped /dev/md2


Deluje in md2 izgine iz GParted:

 GParted - md2 izgine

GParted - md2 izgine



(čeprav če ponovno zaženem računalnik, se nazaj vrne na GParted)

Vendar se še zmeraj ne da sda4 povečati, da bi zajel tistih preostalih 1 TB prostega prostora. Niti recimo ni variante, da če bi sda4 pobrisal in naredil novo linux raid particijo.

 GParted - ni linux-raid

GParted - ni linux-raid



Mogoče bi moral prvo samo običajno ext3 particijo naredit, potem pa nazaj md2 ali kako...

konspirator je izjavil:

Prilepi izpis od "mount".

 Konzola - mount

Konzola - mount

Zgodovina sprememb…

  • spremenil: Kamran ()

Kamran ::

sas084 je izjavil:

Ponavadi je problem "device/resources busy" ta, da je disk v uporabi (mountan, udev problemi ...). Drugo kar lahko poizkusiš je, da polje ustaviš, mu dodaš disk ter ponovno zaženeš.

Jaz sem pa razmišljal, da kaj pa, ko sem mybook.img prekloniral na WD20EARS, da bi moral takoj ta disk dati nazaj v MBWE-WL ohišje, da malo zalaufa in se šele potem igrati v SRC5.0... :|

Ker ko sem takoj po kloniranju zagnal GParted, mi je javil da je GPT nekaj pokvarjen.

sas084 ::

Kokr vem mdadm dela tako s celimi diski kot s particijami, sam sm zmeraj delu s particijami. Zdej iz slik bi reku, da ko si ustavu md2 si dobu dostop do sda4, ki je bil verjetno v raidu. Probaj naredit skupno particijo z sda4, nakar jo dodaš v polje. Vprašanje je tud, kakšen raid je md2, če je raid0 potem mislm da morš na novo kreirat kompletno polje, ker raid0 ne podpira grow.

sas084 ::

Malo sm se igral z raidom na virtualki, verjetno je obnašanje s fizičnimi diski enako. Začetna konfiguracija je raid1 za sistem in raid0 za testiranje:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md200 : active raid0 vdc[0] vdd[1]
      10477568 blocks super 1.2 512k chunks

md126 : active raid1 vdb2[2] vda2[0]
      2051072 blocks super 1.2 [2/2] [UU]

md127 : active raid1 vdb1[2] vda1[0]
      7384000 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

Fail na katerem od disku v raid0 ne dela:
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdc
mdadm: set device faulty failed for /dev/vdc:  Device or resource busy
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdd
mdadm: set device faulty failed for /dev/vdd:  Device or resource busy

Ko se array ustavi, potem se lahko dela s posameznimi diski:
[root@localhost ~]# mdadm --stop /dev/md200
mdadm: stopped /dev/md200

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md126 : active raid1 vdb2[2] vda2[0]
      2051072 blocks super 1.2 [2/2] [UU]

md127 : active raid1 vdb1[2] vda1[0]
      7384000 blocks super 1.0 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

[root@localhost ~]# lsblk -a
NAME      MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sr0        11:0    1 1024M  0 rom
vda       253:0    0    9G  0 disk
vda1    253:1    0    7G  0 part
 |_md127   9:127  0    7G  0 raid1 /
vda2    253:2    0    2G  0 part
 |_md126   9:126  0    2G  0 raid1 [SWAP]
vdb       253:16   0    9G  0 disk
vdb1    253:17   0    7G  0 part
 |_md127   9:127  0    7G  0 raid1 /
vdb2    253:18   0    2G  0 part
 |_md126   9:126  0    2G  0 raid1 [SWAP]
vdc       253:32   0    5G  0 disk
vdd       253:48   0    5G  0 disk
md200       9:200  0        0 md

Če se ne pobriše superblocka, potem bo mdadm ob naslednjem zagonu naredu rekonstrukcijo raid0 polja iz obeh diskov, če se pobriše, md200 arraya ni več:
[root@localhost ~]# mdadm --zero-superblock /dev/vdd
[root@localhost ~]# mdadm --zero-superblock /dev/vdc

[root@localhost ~]# lsblk -a
NAME      MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sr0        11:0    1 1024M  0 rom
vda       253:0    0    9G  0 disk
vda1    253:1    0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vda2    253:2    0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdb       253:16   0    9G  0 disk
vdb1    253:17   0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vdb2    253:18   0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdc       253:32   0    5G  0 disk
vdd       253:48   0    5G  0 disk

Kreiranje raid1 polja:
[root@localhost ~]# mdadm --create /dev/md200 --level=1 --raid-devices=2 /dev/vdc /dev/vdd
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md200 started.

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md200 : active raid1 vdd[1] vdc[0]
      5238784 blocks super 1.2 [2/2] [UU]
      [=>...................]  resync =  6.7% (354880/5238784) finish=1.1min speed=70976K/sec

md126 : active raid1 vdb1[2] vda1[0]
      7384000 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 vda2[0] vdb2[2]
      2051072 blocks super 1.2 [2/2] [UU]

unused devices: <none>

[root@localhost ~]# lsblk -a
NAME      MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sr0        11:0    1 1024M  0 rom
vda       253:0    0    9G  0 disk
vda1    253:1    0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vda2    253:2    0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdb       253:16   0    9G  0 disk
vdb1    253:17   0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vdb2    253:18   0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdc       253:32   0    5G  0 disk
 |_md200     9:200  0    5G  0 raid1
vdd       253:48   0    5G  0 disk
 |_md200     9:200  0    5G  0 raid1

Iz raid 1 polja fail dela, razen na degradiranem arrayu, kjer je treba ustavit celoten array:
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdc
mdadm: set /dev/vdc faulty in /dev/md200
[root@localhost ~]# mdadm /dev/md200 --fail /dev/vdd
mdadm: set device faulty failed for /dev/vdd:  Device or resource busy

[root@localhost ~]# mdadm --stop /dev/md200
mdadm: stopped /dev/md200

[root@localhost ~]# lsblk -a
NAME      MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sr0        11:0    1 1024M  0 rom
vda       253:0    0    9G  0 disk
vda1    253:1    0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vda2    253:2    0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdb       253:16   0    9G  0 disk
vdb1    253:17   0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vdb2    253:18   0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdc       253:32   0    5G  0 disk
vdd       253:48   0    5G  0 disk
md200       9:200  0        0 md

Superblock je treba izbrisat če nočes da ti mdadm rekonstruira polje ob restartu. Še izgradnja raid0 polja:
[root@localhost ~]# mdadm --create /dev/md200 --level=0 --raid-devices=2 /dev/vdc /dev/vdd
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md200 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md200 : active raid0 vdd[1] vdc[0]
      10477568 blocks super 1.2 512k chunks

md126 : active raid1 vda1[0] vdb1[2]
      7384000 blocks super 1.0 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 vdb2[2] vda2[0]
      2051072 blocks super 1.2 [2/2] [UU]

unused devices: <none>

[root@localhost ~]# lsblk -a
NAME      MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sr0        11:0    1 1024M  0 rom
vda       253:0    0    9G  0 disk
vda1    253:1    0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vda2    253:2    0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdb       253:16   0    9G  0 disk
vdb1    253:17   0    7G  0 part
 |_md126   9:126  0    7G  0 raid1 /
vdb2    253:18   0    2G  0 part
 |_md127   9:127  0    2G  0 raid1 [SWAP]
vdc       253:32   0    5G  0 disk
 |_md200     9:200  0   10G  0 raid0
vdd       253:48   0    5G  0 disk
 |_md200     9:200  0   10G  0 raid0

Verjetno je uporaba za druge tipe raidov podobna.

Zgodovina sprememb…

  • spremenil: sas084 ()

Kamran ::

Mislim, da je bil prej sda4 v raidu.
Kako bi pa lahko pogledal kateri tip raida je md2 ? Gre to z ukazom

cat /proc/mdstat

?
Lahko naredim izpis za vse md-je in napišem nazaj.

Vidim, da si stručko samo tukaj bi pa rabil res nek step-by-step pristop.8-O

Najbolje, da mi napišeš katere ukaze naj zlaufam (v določenem zaporedju) - in poročam nazaj.

Torej najbolje je prvo sploh preveriti za kakšen tip raid-a se gre ?

Zgodovina sprememb…

  • spremenil: Kamran ()

sas084 ::

Daleč od tega da bi bil stručko, ko boš mel md2 raid živ (po restartu sistema recimo) izpišeš raid polja:
cat /proc/mdstat

Za dodatne informacije lahko izpišeš še vse block device:
lsblk -a

Kamran ::

Evo, za:

root@sysresccd /root % cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md124 : active raid1 sda4[0]
      973525343 blocks super 1.2 [2/1] [U_]
      
md125 : active raid1 sda1[0]
      1959872 blocks [2/1] [U_]
      
md126 : active raid1 sda3[0]
      987904 blocks [2/1] [U_]
      
md127 : active raid1 sda2[0]
      256896 blocks [2/1] [U_]
      
unused devices: <none>


Drugi ukaz:

root@sysresccd /root % lsblk -a
NAME      MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
loop1       7:1    0         0 loop  
sdb         8:16   1   961M  0 disk  
|-sdb1      8:17   1   960M  0 part  /livemnt/boot
loop6       7:6    0         0 loop  
md0         9:0    0         0 md    
loop4       7:4    0         0 loop  
sr0        11:0    1  1024M  0 rom   
loop2       7:2    0         0 loop  
loop0       7:0    0 390.3M  1 loop  /livemnt/squashfs
sda         8:0    0   1.8T  0 disk  
|-sda4      8:4    0 928.4G  0 part  
| |-md124   9:124  0 928.4G  0 raid1 
|-sda2      8:2    0   251M  0 part  
| |-md127   9:127  0 250.9M  0 raid1 
|-sda3      8:3    0 964.9M  0 part  
| |-md126   9:126  0 964.8M  0 raid1 
|-sda1      8:1    0   1.9G  0 part  
| |-md125   9:125  0   1.9G  0 raid1 
loop7       7:7    0         0 loop  
loop5       7:5    0         0 loop  
loop3       7:3    0         0 loop


Iz tega ukaza se pa vidi, da so md-ji res raid1 kot si prej pravilno sklepal.

Kako sedaj naprej ?

Zgodovina sprememb…

  • spremenil: Kamran ()

Kamran ::

md124 je (stari) md2
md125 je md0
md126 md3
md127 pa md1

sas084 ::

Hmm, iz zapisov je videt da maš vse particije od sda diska v degradiranem raid1 (mirror). Zdej na hitro bi reku da tebe manjka še eden disk, z istimi velikostmi particij, da bi rebuildu raid1 polja, ker po trenutni konfiguraciji ti raid1 nič ne pomaga, ker če ti sda crkne ostaneš v vsakem primeru brez podatkov. Za sda tud piše da je 1.8TB, če sešteješ veliksot posameznih particij (sda1 - sda4) pa nanese dobrih 930GB, kar pomen da ti enih dobrih 900GB manjka (verjetno unallocated space), al pa sm jst ki spregledu. Če gre za unallocated space potem lahko teh 900GB lahko združiš z sda4 tko, da ukineš md124 (md2), potem pa sda4 razširiš. Jst bi na tvojem mestu najprej probal ugotovit, zakaj maš degradirane raid1, ker taka konfiguracija ti nič ne koristi. Če mirror rabiš, potem moraš najprej naredit rekontrukcijo obstoječih raid1 polj, seveda tu ne pride v poštev razširitev, ker raid1 vzame najmanjšo particijo (če nista iste) in na njih zgradi polje. Če mirorja ne rabiš, potem lahko polja ukineš in razširiš sda4 oz. narediš raid0 iz sda4 in particije na dodatnem disku. Če boš ukinu raid polja, potem je potrebno mount pointe popravt v /etc/fstab če jih maš definirane, odstranit polja iz /etc/mdadm/mdadm.conf (/etc/mdadm.conf oz kjerkoli se nahaja konfiguracija za mdadm) itd.

Kamran ::

Ej zelo ti hvala za ves trud, samo (neverjetno) sem našel precej, precej krajšo pot kako to rešit. :8)8-O:D

http://iknowsomething.com/how-to-fix-br...

Držiš se navodil v članku in zadeva res preverjeno 100 % deluje (vsaj za moj WD20EARS disk). Še naknadno objavim par "skrinšotov" za potrditev.

Še enkrat hvala ! 8-)

Kamran ::

 Uspeh 1

Uspeh 1



 Uspeh 2

Uspeh 2

sas084 ::

Super da si zrihtu, zdej vemo neki novga :).


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

SSD m.2 zaznan kot unknow device

Oddelek: Pomoč in nasveti
91103 (780) Ales
»

Software raid 1 (strani: 1 2 )

Oddelek: Pomoč in nasveti
5710758 (9900) uporabniik
»

NAS(raid 5)+diski

Oddelek: Kaj kupiti
303979 (3429) antonija
»

[Ubuntu] Samba

Oddelek: Programska oprema
151745 (1535) black ice
»

[ Linux ] RAID problem ...

Oddelek: Operacijski sistemi
51366 (1292) kekz

Več podobnih tem