Installation av nya diskar (Pt II)

   .
   .
  /dev/md126: Moved: 99.8%
  /dev/md126: Moved: 99.9%
  ABORTING: Can't find LV in lvm-raid for /dev/md126
 
Gahhh! Såhär vill man inte att 2 timmars grejjande av det magiska kommandot "pvmove" skall sluta.
Efter panik-googlande visade det sig att detta beteendet är en känd bugg, dokumenterad här. Som det går att se nedan så är hela PVn /dev/md126 tom, så "pvmove" gjorde det den skulle.
 
# pvs
  PV         VG       Fmt  Attr PSize   PFree  
  /dev/md100 lvm-raid lvm2 a-     1.82t 931.50g
  /dev/md126 lvm-raid lvm2 a-   931.51g 931.51g
  /dev/md127 lvm-raid lvm2 a-   931.51g      0
#
 
Vi tar först bort etiketten på den aktuella PVn och sedan resar vi bort den ifrån volymgruppen (VG).
 
# pvremove -ff -v /dev/md126
Really WIPE LABELS from physical volume "/dev/md126" of volume group "lvm-raid" [y/n]? y
  WARNING: Wiping physical volume label from /dev/md126 of volume group "lvm-raid"
  Labels on physical volume "/dev/md126" successfully wiped
#
# pvs
  Couldn't find device with uuid P8UUSG-EqE4-5qpH-939d-fYVn-S5cn-ngGz26.
  PV             VG       Fmt  Attr PSize   PFree  
  /dev/md100     lvm-raid lvm2 a-     1.82t 931.50g
  /dev/md127     lvm-raid lvm2 a-   931.51g      0
  unknown device lvm-raid lvm2 a-   931.51g 931.51g
#
# vgreduce --removemissing lvm-raid
  Couldn't find device with uuid P8UUSG-EqE4-5qpH-939d-fYVn-S5cn-ngGz26.
  Wrote out consistent volume group lvm-raid
# pvs
  PV         VG       Fmt  Attr PSize   PFree  
  /dev/md100 lvm-raid lvm2 a-     1.82t 931.50g
  /dev/md127 lvm-raid lvm2 a-   931.51g      0
#
 
Nu stänger vi ned servern och monterar bort de trasiga diskarna.
 
Efter uppstarten visar det sig att LVM döper om de olika arrayerna, men det spelar ingen stötrre roll eftersom den lyckas reda ut hur dom hänger ihop ändå. Syncningen fortsätter där den blev avbruten och allt ser bra ut sålångt - de trasiga diskarna har redan påbörjat sin resa mot elektronikåtervinningen:
 
# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[0] sdd1[1]
      1953512400 blocks super 1.2 [2/2] [UU]
      [=========>...........]  resync = 48.5% (948276288/1953512400) finish=109.2min speed=153363K/sec
      
md127 : active raid1 sdf1[1] sde1[0]
      976759672 blocks super 1.2 [2/2] [UU]
      
md0 : active raid1 sda2[0] sdc1[1]
      485807996 blocks super 1.1 [2/2] [UU]
      bitmap: 4/4 pages [16KB], 65536KB chunk

unused devices: <none>
 
Nästa steg är att utöka den logiska volymen (LV) med de outnyttjade 1TB utrymme som finns i vår nyaste PV, notera kolumnen PFree nedan:
 
# pvs
  PV         VG       Fmt  Attr PSize   PFree  
  /dev/md126 lvm-raid lvm2 a-     1.82t 931.50g
  /dev/md127 lvm-raid lvm2 a-   931.51g
#
 
För att kunna göra detta behöver jag veta hela sökvägen för LV, vilket jag kan få fram med "lvdisplay", samt antalet lediga PE, vilket gar får fram med "pvdisplay"

# lvdisplay
  --- Logical volume ---
  LV Name                /dev/lvm-raid/lvm0
  VG Name                lvm-raid
  LV UUID                tDC0UQ-TrcX-P0qU-SyNA-PA21-R7Pu-7gJHwM
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                1.82 TiB
  Current LE             476932
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
   
# pvdisplay /dev/md126
  --- Physical volume ---
  PV Name               /dev/md126
  VG Name               lvm-raid
  PV Size               1.82 TiB / not usable 2.95 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              476931
  Free PE               238465
  Allocated PE          238466
  PV UUID               mg0Qio-KqU3-Bf50-lpr6-mCNL-eOwf-M1yhEE
   
#
 
Nästa steg blir att utöka LV med de lediga PE.

# lvextend -l+238465 /dev/lvm-raid/lvm0
  Extending logical volume lvm0 to 2.73 TiB
  Logical volume lvm0 successfully resized
#
 
För att vi skall få mer lagringsutrymme (filsystem) räcker det inte med att utöka den logiska volymen - man måste utöka filsystemet också.
 
Men eftersom allt har gått så bra och vi känner oss riktigt sturska så utökar vi storleken på filsystemet on-line, dvs med servern i full drift (filsystemet är monterat och används).

# resize2fs /dev/lvm-raid/lvm0
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/lvm-raid/lvm0 is mounted on /data; on-line resizing required
old desc_blocks = 117, new_desc_blocks = 175
Performing an on-line resize of /dev/lvm-raid/lvm0 to 732566528 (4k) blocks.
The filesystem on /dev/lvm-raid/lvm0 is now 732566528 blocks long.

Med detta har vi bytt ut 2 trasiga 1TB diskar som var speglade med RAID1 mot två 2TB nya under full drift av servern, men det enda undantaget att jag stängde ner den då jag monterade i och ur diskarna.
 
Slutet gott allting gott.

Kommentarer

Kommentera inlägget här:

Namn:
Kom ihåg mig?

E-postadress: (publiceras ej)

URL/Bloggadress:

Kommentar:

Trackback
RSS 2.0