Installation av nya diskar (Pt II)
.
.
/dev/md126: Moved: 99.8%
/dev/md126: Moved: 99.9%
ABORTING: Can't find LV in lvm-raid for /dev/md126
Gahhh! Såhär vill man inte att 2 timmars grejjande av det magiska kommandot "pvmove" skall sluta.
Efter panik-googlande visade det sig att detta beteendet är en känd bugg, dokumenterad här. Som det går att se nedan så är hela PVn /dev/md126 tom, så "pvmove" gjorde det den skulle.
Efter panik-googlande visade det sig att detta beteendet är en känd bugg, dokumenterad här. Som det går att se nedan så är hela PVn /dev/md126 tom, så "pvmove" gjorde det den skulle.
# pvs
PV VG Fmt Attr PSize PFree
/dev/md100 lvm-raid lvm2 a- 1.82t 931.50g
/dev/md126 lvm-raid lvm2 a- 931.51g 931.51g
/dev/md127 lvm-raid lvm2 a- 931.51g 0
#
Vi tar först bort etiketten på den aktuella PVn och sedan resar vi bort den ifrån volymgruppen (VG).
# pvremove -ff -v /dev/md126
Really WIPE LABELS from physical volume "/dev/md126" of volume group "lvm-raid" [y/n]? y
WARNING: Wiping physical volume label from /dev/md126 of volume group "lvm-raid"
Labels on physical volume "/dev/md126" successfully wiped
#
# pvs
Couldn't find device with uuid P8UUSG-EqE4-5qpH-939d-fYVn-S5cn-ngGz26.
PV VG Fmt Attr PSize PFree
/dev/md100 lvm-raid lvm2 a- 1.82t 931.50g
/dev/md127 lvm-raid lvm2 a- 931.51g 0
unknown device lvm-raid lvm2 a- 931.51g 931.51g
#
# vgreduce --removemissing lvm-raid
Couldn't find device with uuid P8UUSG-EqE4-5qpH-939d-fYVn-S5cn-ngGz26.
Wrote out consistent volume group lvm-raid
# pvs
PV VG Fmt Attr PSize PFree
/dev/md100 lvm-raid lvm2 a- 1.82t 931.50g
/dev/md127 lvm-raid lvm2 a- 931.51g 0
#
Nu stänger vi ned servern och monterar bort de trasiga diskarna.
Efter uppstarten visar det sig att LVM döper om de olika arrayerna, men det spelar ingen stötrre roll eftersom den lyckas reda ut hur dom hänger ihop ändå. Syncningen fortsätter där den blev avbruten och allt ser bra ut sålångt - de trasiga diskarna har redan påbörjat sin resa mot elektronikåtervinningen:
# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[0] sdd1[1]
1953512400 blocks super 1.2 [2/2] [UU]
[=========>...........] resync = 48.5% (948276288/1953512400) finish=109.2min speed=153363K/sec
md127 : active raid1 sdf1[1] sde1[0]
976759672 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda2[0] sdc1[1]
485807996 blocks super 1.1 [2/2] [UU]
bitmap: 4/4 pages [16KB], 65536KB chunk
unused devices: <none>
Nästa steg är att utöka den logiska volymen (LV) med de outnyttjade 1TB utrymme som finns i vår nyaste PV, notera kolumnen PFree nedan:
# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 lvm-raid lvm2 a- 1.82t 931.50g
/dev/md127 lvm-raid lvm2 a- 931.51g
#
För att kunna göra detta behöver jag veta hela sökvägen för LV, vilket jag kan få fram med "lvdisplay", samt antalet lediga PE, vilket gar får fram med "pvdisplay"
# lvdisplay
--- Logical volume ---
LV Name /dev/lvm-raid/lvm0
VG Name lvm-raid
LV UUID tDC0UQ-TrcX-P0qU-SyNA-PA21-R7Pu-7gJHwM
LV Write Access read/write
LV Status available
# open 1
LV Size 1.82 TiB
Current LE 476932
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
# pvdisplay /dev/md126
--- Physical volume ---
PV Name /dev/md126
VG Name lvm-raid
PV Size 1.82 TiB / not usable 2.95 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 476931
Free PE 238465
Allocated PE 238466
PV UUID mg0Qio-KqU3-Bf50-lpr6-mCNL-eOwf-M1yhEE
#
Nästa steg blir att utöka LV med de lediga PE.
# lvextend -l+238465 /dev/lvm-raid/lvm0
Extending logical volume lvm0 to 2.73 TiB
Logical volume lvm0 successfully resized
#
För att vi skall få mer lagringsutrymme (filsystem) räcker det inte med att utöka den logiska volymen - man måste utöka filsystemet också.
Men eftersom allt har gått så bra och vi känner oss riktigt sturska så utökar vi storleken på filsystemet on-line, dvs med servern i full drift (filsystemet är monterat och används).
# resize2fs /dev/lvm-raid/lvm0
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/lvm-raid/lvm0 is mounted on /data; on-line resizing required
old desc_blocks = 117, new_desc_blocks = 175
Performing an on-line resize of /dev/lvm-raid/lvm0 to 732566528 (4k) blocks.
The filesystem on /dev/lvm-raid/lvm0 is now 732566528 blocks long.
Med detta har vi bytt ut 2 trasiga 1TB diskar som var speglade med RAID1 mot två 2TB nya under full drift av servern, men det enda undantaget att jag stängde ner den då jag monterade i och ur diskarna.
Slutet gott allting gott.
Kommentarer
Trackback