Lvmraid : Différence entre versions

De SME Server Wiki
(resize machine vmware)
(resize SME9 on proxmox with degraded raid 1 and LVM)
 
(29 révisions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
grace a lvm et raid1 par defaut sur sme vous pouvez gerer facilement les disques, voir meme changer un disque ou deux et retoucher la taille des partitions.
+
grâce a lvm et raid1 par défaut sur sme vous pouvez gérer facilement les disques, voir même changer un disque ou deux et retoucher la taille des partitions.
  
 
voir  
 
voir  
Ligne 5 : Ligne 5 :
 
http://wiki.contribs.org/Raid#Upgrading_the_Hard_Drive_Size
 
http://wiki.contribs.org/Raid#Upgrading_the_Hard_Drive_Size
  
resumé
 
Upgrading the Hard Drive Size
 
  
    * CAUTION MAKE A FULL BACKUP!
+
'''Attention cette manipulation est réservée à des administrateurs qui sont à l'aise avec Linux. Vous devez être certain de ce que vous faites. En effet il est facile, si l'on est pas à l'aise de formater le lecteur contenant les données au lieu de votre nouveau disque.
    * Ensure you have e-smith-base-4.16.0-33 or newer installed. [or Update to at least 7.1.3]
+
'''
  
  1. Shut down and install larger drive in system.
+
== Sur un serveur Physique ==
  2. Boot up and manage raid to add new (larger) drive to system.
+
=== Installer le premier nouveau disque ===
  3. Wait for raid to fully sync.
+
  4. Repeat steps 1-3 until all drives in system are upgraded to larger capacity.
+
  5. Ensure all drives have been replace with larger drives and array is in sync and redundant!
+
  6. Issue the following commands:
+
        1. mdadm --grow /dev/md2 --size=max
+
        2. pvresize /dev/md2
+
        3. lvresize -l +$(vgdisplay -c main | cut -d: -f16) main/root
+
            ou  lvresize -l +$(vgdisplay -c vg_primary | cut -d: -f16) vg_primary/lv_root
+
[-l (lower case L)]
+
        4. ext2online -C0 /dev/main/root
+
[is -C0 (zero)]
+
  
Notes :
+
Éteindre le serveur et installer un des nouveaux disques en débranchant un des anciens. '''Faites attention de débrancher tout disque USB qui ne serve à autre chose''' (comme pour faire une sauvegarde).
 +
 
 +
Relancez votre serveur.
 +
 
 +
'''Nous utiliserons ici <font color="#FF0000">sdb</font> comme nom de disque ajouté a chaque étape en considérant que le disque précédemment ajouté passe sous le nom <font color="#00FF00">sda</font> à l'étape suivante. Il est de votre responsabilité de vérifier quel est le bon nom de disque, et d'adapter le how to.'''
 +
 
 +
=== Ajout du  premier nouveau disque dans l'array raid ===
 +
 
 +
Une fois redémarré vous pouvez constater que le raid focntionne en degradé :
 +
 
 +
cat /proc/mdstat
 +
 
 +
==== partitionner le disque ====
 +
 
 +
Avant tout vérifier la taille de la partition boot
 +
 
 +
df /boot
 +
devrait retourner :
 +
Sys. de fich.        1K-blocs      Occupé Disponible Capacité Monté sur
 +
/dev/md1                101018    20802    75000  22% /boot
 +
 
 +
Vous devez ensuite créer les partitions raid
 +
 
 +
'''/!\ Attention <font color="#FF0000">sdb</font> n'est peut être pas le nom de votre disque ajouté /!\'''
 +
 
 +
fdisk /dev/<font color="#FF0000">sdb</font>
 +
 
 +
taper : '''p''' pour afficher la table de partition: celle-ci doit être vide si votre disque est neuf, si ce n'est pas le cas vous vous apprêtez probablement à détruire un des disques système !!!
 +
 
 +
taper: '''n''' '''p''' '''1''' puis '''1''' et '''+101018K''' pour la taille de la partition boot (a changer suivant votre cas)
 +
 
 +
 
 +
ensuite deuxième partition:  '''n''' '''p''' '''2''' puis compléter le disque avec la deuxième partition (taper sur '''entrer''' pour utiliser tout)
 +
 
 +
 
 +
choisissez de mettre un système raid linux sur chacune des partitions: tapez '''t''' puis '''1''' puis  '''fd'''
 +
choisissez de mettre un système raid linux sur chacune des partitions: tapez '''t''' puis '''2''' puis  '''fd'''
 +
 
 +
ajouter le drapeau de boot : '''a''' puis '''1'''
 +
 
 +
terminez en quittant fdisk en écrivant la table de partition: tapez '''w'''
 +
 
 +
==== ajouter les disques dans les array raid ====
 +
 
 +
En observant le raid avec cat /proc/mdstat vous pouvez constater qu'il y'a deux array (un pour le boot et un pour le systeme) il faut donc ajouter les partitions créées a ces deux array :
 +
(en admetant que md1 est le array  boot et md2 est l'array système ce qui est à vérifier avec mdstat)
 +
 
 +
mdadm /dev/md1 --add /dev/<font color="#FF0000">sdb</font>1
 +
mdadm /dev/md2 --add /dev/<font color="#FF0000">sdb</font>2
 +
 
 +
maintenant vos disques sont ajoutés et ('''a condition que les partitions soient au moins aussi grosses que les anciennes''') les array vont synchroniser les données:
 +
 
 +
vérifiez l'avancée avec:
 +
watch -n 3 cat /proc/mdstat
 +
 
 +
attendez que tout soit synchronisé
 +
 
 +
==== grub et la mbr  ====
 +
 
 +
grub
 +
puis dans la console grub (a condition que <font color="#FF0000">sdb</font> soit bien le nom de votre lecteur):
 +
 
 +
device (hd0) /dev/<font color="#FF0000">sdb</font>
 +
root (hd0,0)
 +
setup (hd0)
 +
 
 +
===Installer le deuxième nouveau disque===
 +
 
 +
éteindre le serveur retirer le deuxième ancien disque, ajouter le nouveau tout rebrancher et redémarrer.
 +
 
 +
=== ajouter le deuxième nouveau disque===
 +
 
 +
 
 +
==== partitioner le disque ====
 +
 
 +
 
 +
 
 +
D'abord verifier la taille de la partition boot
 +
 
 +
df /boot
 +
devrait retourner :
 +
Sys. de fich.        1K-blocs      Occupé Disponible Capacité Monté sur
 +
/dev/md1                101018    20802    75000  22% /boot
 +
 
 +
Vous devez d'abord créer les partitions raid '''(attention <font color="#FF0000">sdb</font> n'est pas forcement le nom de votre disque ajouté)'''
 +
 
 +
fdisk /dev/<font color="#FF0000">sdb</font>
 +
 
 +
taper '''n''' '''p''' '''1''' puis '''1''' et '''101018K''' pour la taille de la partition boot, a changer suivant votre cas)
 +
 
 +
 
 +
ensuite deuxième partition:  '''n''' '''p''' '''2''' puis compléter le disque avec la deuxième partition (taper sur '''entrer''' pour utiliser tout)
 +
 
 +
 
 +
choisissez de mettre un système raid linux sur chacune des partitions: tapez '''t''' puis '''1''' puis  '''fd'''
 +
choisissez de mettre un système raid linux sur chacune des partitions: tapez '''t''' puis '''2''' puis '''fd'''
 +
 
 +
 
 +
ajouter le drapeau de boot : '''a''' puis '''1'''
 +
 
 +
terminez en quittant fdisk en écrivant la table de partition: tapez '''w'''
 +
 
 +
 
 +
alternativement tapez :
 +
sfdisk -d /dev/sda | sfdisk /dev/sdb
 +
 
 +
==== grub et la mbr  ====
 +
 
 +
grub
 +
puis dans la console grub (a condition que <font color="#FF0000">sdb</font> soit bien le nom de votre lecteur):
 +
 
 +
device (hd0) /dev/<font color="#FF0000">sdb</font>
 +
root (hd0,0)
 +
setup (hd0)
 +
 
 +
==== ajouter les disques dans les array raid ====
 +
 
 +
En observant le raid avec cat /proc/mdstats vous pouvez constater qu'il y'a deux array (un pour le boot et un pour le système) il faut donc ajouter les partitions créées a ces deux array :
 +
(en admetant que md1 est le array  boot et md2 est l'array système ce qui est à vérifier avec mdstats)
 +
 
 +
mdadm /dev/md1 --add /dev/<font color="#FF0000">sdb</font>1
 +
mdadm /dev/md2 --add /dev/<font color="#FF0000">sdb</font>2
 +
 
 +
maintenant vos disques sont ajoutés et ('''a condition que les partitions soient au moins aussi grosses que les anciennes''') les array vont synchroniser les données:
 +
 
 +
vérifiez l'avancée avec:
 +
watch -n 3 cat /proc/mdstat
 +
 
 +
attendez que tout soit synchronisé
 +
 
 +
=== agrandir l'espace ===
 +
 
 +
D'abord augmenter la taille du raid :
 +
mdadm --grow /dev/md1 --size=max
 +
mdadm --grow /dev/md2 --size=max
 +
 
 +
Ensuite augmenter la taille du volume LVM
 +
pvresize /dev/md1
 +
pvresize /dev/md2
 +
 
 +
Enfin augmenter la taille du groupe de volume LVM.
 +
 
 +
lvresize -l +$(vgdisplay -c main | cut -d: -f16) main/root
 +
ou  si vous avez installé votre sme en 7 RC
 +
lvresize -l +$(vgdisplay -c vg_primary | cut -d: -f16) vg_primary/lv_root
 +
 
 +
vous pouvez vérifier cela en tapant "df -h" si vous pouvez lire "/dev/mapper/vg_primary-lv_root" c'est la deuxième ligne que vous devez utiliser, sinon "/dev/mapper/main-root" c'est la première qui vous est utile.
 +
Attention  : [-l (L minuscule)]
 +
 
 +
 
 +
ext2online -C0 /dev/main/root
 +
ou
 +
ext2online -C0 /dev/mapper/vg_primary-lv_root
 +
attention  : [-C0 pour tiret C zero]
 +
==== ====
  
    * All of this can be done while the server is up and running with the exception of #1.
 
 
     * These instructions should work for any raid level you have as long as you have >= 2 drives
 
     * These instructions should work for any raid level you have as long as you have >= 2 drives
 
     * If you have disabled lvm  
 
     * If you have disabled lvm  
  
 
   1. you don't need the pvresize or lvresize command
 
   1. you don't need the pvresize or lvresize command
   2. the final line becomes ext2online -C0 /dev/md2 (or whatever / is mounted to)  
+
   2. the final line becomes ext2online -C0 /dev/md2 (or whatever / is mounted to)
 
+
 
+
  
 
== resize machine vmware ==
 
== resize machine vmware ==
  
 
d'abord:
 
d'abord:
  C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -x 8GB "F:\Documents\M
+
  C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -x 8GB "F:\Documents\My Virtual Machines\VMWP-SME7\sme7pre1.vmdk"
y Virtual Machines\VMWP-SME7\sme7pre1.vmdk"
+
 
  C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -c -s 8GB -a ide -t 1
 
  C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -c -s 8GB -a ide -t 1
 
  "F:\Documents\My Virtual Machines\VMWP-SME7\sme7pre2.vmdk"
 
  "F:\Documents\My Virtual Machines\VMWP-SME7\sme7pre2.vmdk"
Ligne 52 : Ligne 189 :
 
#Freeing /dev/sda:
 
#Freeing /dev/sda:
 
#First, removing all RAID1 partitions on /dev/sda:
 
#First, removing all RAID1 partitions on /dev/sda:
mdadm /dev/md1 --fail /dev/sda3 --remove /dev/sda3
+
mdadm /dev/md1 --fail /dev/sda3 --remove /dev/sda3
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
+
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
  
 
#Then, stopping the swapspace on /dev/sda:
 
#Then, stopping the swapspace on /dev/sda:
Ligne 59 : Ligne 196 :
  
 
#Then, altering the partition tables:
 
#Then, altering the partition tables:
fdisk /dev/sda
+
fdisk /dev/sda
 
   #entering 'w' at the end to write. This should go OK now.
 
   #entering 'w' at the end to write. This should go OK now.
  
 
#Start using the partitions again:
 
#Start using the partitions again:
swapon /dev/sda2
+
swapon /dev/sda2
mdadm /dev/md0 --add /dev/sda1
+
mdadm /dev/md0 --add /dev/sda1
mdadm /dev/md1 --add /dev/sda3
+
mdadm /dev/md1 --add /dev/sda3
  
 
# wait for both md devices to be fully synced
 
# wait for both md devices to be fully synced
Ligne 71 : Ligne 208 :
  
 
#same with /dev/sdb
 
#same with /dev/sdb
mdadm /dev/md1 --fail /dev/sdb3 --remove /dev/sdb3
+
mdadm /dev/md1 --fail /dev/sdb3 --remove /dev/sdb3
mdadm /dev/md0 --fail /dev/sdb1 --remove /dev/sdb1
+
mdadm /dev/md0 --fail /dev/sdb1 --remove /dev/sdb1
fdisk /dev/sdb
+
fdisk /dev/sdb
mdadm /dev/md0 --add /dev/sdb1
+
mdadm /dev/md0 --add /dev/sdb1
 
#don't add /dev/sdb3 yet, to have a spare copy while resize2fs-ing
 
#don't add /dev/sdb3 yet, to have a spare copy while resize2fs-ing
  
mdadm --grow /dev/md1 --size=max
+
mdadm --grow /dev/md1 --size=max
  
resize2fs /dev/md1
+
resize2fs /dev/md1
  
 
#If the resize2fs-ing went OK, we can now add /dev/sdb3:
 
#If the resize2fs-ing went OK, we can now add /dev/sdb3:
mdadm /dev/md1 --add /dev/sdb3
+
mdadm /dev/md1 --add /dev/sdb3
 +
 
 +
 
 +
== resize SME9 on proxmox with degraded raid 1 and LVM==
 +
 
 +
add a second virtual disk. If you choose virtio you will not need to reboot.
 +
 
 +
let's consider old drive /dev/sda, new drive /dev/vda
 +
 
 +
partitioning:
 +
sfdisk -d /dev/sda | sfdisk /dev/vda
 +
 
 +
then you can use cfdisk or fdisk to resize the last partition of cda to tak the whole size available.
 +
 
 +
 
 +
check your raid status, in order to be certain which one is boot (should be md0) and main system (should be md1)
 +
 
 +
cat /proc/mdstat
 +
 
 +
add new drive
 +
mdadm /dev/md0 --add /dev/vda1
 +
mdadm /dev/md1 --add /dev/vda2
 +
 
 +
wait for sync
 +
 
 +
watch cat /proc/mdstat
 +
 
 +
intiialize grub for vda
 +
 
 +
device (hd0) /dev/<font color="#FF0000">vda</font>
 +
root (hd0,0)
 +
setup (hd0)
 +
 
 +
 
 +
fails old drive out of raid
 +
  mdadm /dev/md1 --fail /dev/sda2 --remove /dev/sda2
 +
 
 +
 
 +
grow raid
 +
mdadm --grow /dev/md1 --size=max
 +
 
 +
grow lvm volume
 +
 
 +
pvresize /dev/md1
 +
 
 +
grow Logical volume root
 +
 
 +
lvresize -l +$(vgdisplay -c main | cut -d: -f16) main/root
 +
lvresize --extents 100%FREE --resizefs /dev/main/root
 +
 
 +
grow filesystem online
 +
resize2fs /dev/main/root
 +
 
 +
 
 +
test a reboot
 +
 
 +
 
 +
remove first drive totally
 +
 
 +
  mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
 +
 
 +
and remove it from proxmox side. or alternatively you can keep it by using console and the raid option to put it back after resizing it in proxmox
 +
 +
http://www.debian-administration.org/articles/424

Version actuelle en date du 28 juin 2016 à 02:25

grâce a lvm et raid1 par défaut sur sme vous pouvez gérer facilement les disques, voir même changer un disque ou deux et retoucher la taille des partitions.

voir http://forums.ixus.fr/viewtopic.php?t=38235&start=15 http://wiki.contribs.org/Raid#Upgrading_the_Hard_Drive_Size


Attention cette manipulation est réservée à des administrateurs qui sont à l'aise avec Linux. Vous devez être certain de ce que vous faites. En effet il est facile, si l'on est pas à l'aise de formater le lecteur contenant les données au lieu de votre nouveau disque.

Sur un serveur Physique

Installer le premier nouveau disque

Éteindre le serveur et installer un des nouveaux disques en débranchant un des anciens. Faites attention de débrancher tout disque USB qui ne serve à autre chose (comme pour faire une sauvegarde).

Relancez votre serveur.

Nous utiliserons ici sdb comme nom de disque ajouté a chaque étape en considérant que le disque précédemment ajouté passe sous le nom sda à l'étape suivante. Il est de votre responsabilité de vérifier quel est le bon nom de disque, et d'adapter le how to.

Ajout du premier nouveau disque dans l'array raid

Une fois redémarré vous pouvez constater que le raid focntionne en degradé :

cat /proc/mdstat

partitionner le disque

Avant tout vérifier la taille de la partition boot

df /boot

devrait retourner :

Sys. de fich.        1K-blocs       Occupé Disponible Capacité Monté sur
/dev/md1                101018     20802     75000  22% /boot

Vous devez ensuite créer les partitions raid

/!\ Attention sdb n'est peut être pas le nom de votre disque ajouté /!\

fdisk /dev/sdb

taper : p pour afficher la table de partition: celle-ci doit être vide si votre disque est neuf, si ce n'est pas le cas vous vous apprêtez probablement à détruire un des disques système !!!

taper: n p 1 puis 1 et +101018K pour la taille de la partition boot (a changer suivant votre cas)


ensuite deuxième partition: n p 2 puis compléter le disque avec la deuxième partition (taper sur entrer pour utiliser tout)


choisissez de mettre un système raid linux sur chacune des partitions: tapez t puis 1 puis fd choisissez de mettre un système raid linux sur chacune des partitions: tapez t puis 2 puis fd

ajouter le drapeau de boot : a puis 1

terminez en quittant fdisk en écrivant la table de partition: tapez w

ajouter les disques dans les array raid

En observant le raid avec cat /proc/mdstat vous pouvez constater qu'il y'a deux array (un pour le boot et un pour le systeme) il faut donc ajouter les partitions créées a ces deux array : (en admetant que md1 est le array boot et md2 est l'array système ce qui est à vérifier avec mdstat)

mdadm /dev/md1 --add /dev/sdb1
mdadm /dev/md2 --add /dev/sdb2

maintenant vos disques sont ajoutés et (a condition que les partitions soient au moins aussi grosses que les anciennes) les array vont synchroniser les données:

vérifiez l'avancée avec:

watch -n 3 cat /proc/mdstat

attendez que tout soit synchronisé

grub et la mbr

grub

puis dans la console grub (a condition que sdb soit bien le nom de votre lecteur):

device (hd0) /dev/sdb
root (hd0,0)
setup (hd0)

Installer le deuxième nouveau disque

éteindre le serveur retirer le deuxième ancien disque, ajouter le nouveau tout rebrancher et redémarrer.

ajouter le deuxième nouveau disque

partitioner le disque

D'abord verifier la taille de la partition boot

df /boot

devrait retourner :

Sys. de fich.        1K-blocs       Occupé Disponible Capacité Monté sur
/dev/md1                101018     20802     75000  22% /boot

Vous devez d'abord créer les partitions raid (attention sdb n'est pas forcement le nom de votre disque ajouté)

fdisk /dev/sdb

taper n p 1 puis 1 et 101018K pour la taille de la partition boot, a changer suivant votre cas)


ensuite deuxième partition: n p 2 puis compléter le disque avec la deuxième partition (taper sur entrer pour utiliser tout)


choisissez de mettre un système raid linux sur chacune des partitions: tapez t puis 1 puis fd choisissez de mettre un système raid linux sur chacune des partitions: tapez t puis 2 puis fd


ajouter le drapeau de boot : a puis 1

terminez en quittant fdisk en écrivant la table de partition: tapez w


alternativement tapez :

sfdisk -d /dev/sda | sfdisk /dev/sdb

grub et la mbr

grub

puis dans la console grub (a condition que sdb soit bien le nom de votre lecteur):

device (hd0) /dev/sdb
root (hd0,0)
setup (hd0)

ajouter les disques dans les array raid

En observant le raid avec cat /proc/mdstats vous pouvez constater qu'il y'a deux array (un pour le boot et un pour le système) il faut donc ajouter les partitions créées a ces deux array : (en admetant que md1 est le array boot et md2 est l'array système ce qui est à vérifier avec mdstats)

mdadm /dev/md1 --add /dev/sdb1
mdadm /dev/md2 --add /dev/sdb2

maintenant vos disques sont ajoutés et (a condition que les partitions soient au moins aussi grosses que les anciennes) les array vont synchroniser les données:

vérifiez l'avancée avec:

watch -n 3 cat /proc/mdstat

attendez que tout soit synchronisé

agrandir l'espace

D'abord augmenter la taille du raid :

mdadm --grow /dev/md1 --size=max
mdadm --grow /dev/md2 --size=max

Ensuite augmenter la taille du volume LVM

pvresize /dev/md1
pvresize /dev/md2

Enfin augmenter la taille du groupe de volume LVM.

lvresize -l +$(vgdisplay -c main | cut -d: -f16) main/root

ou si vous avez installé votre sme en 7 RC

lvresize -l +$(vgdisplay -c vg_primary | cut -d: -f16) vg_primary/lv_root

vous pouvez vérifier cela en tapant "df -h" si vous pouvez lire "/dev/mapper/vg_primary-lv_root" c'est la deuxième ligne que vous devez utiliser, sinon "/dev/mapper/main-root" c'est la première qui vous est utile. Attention  : [-l (L minuscule)]


ext2online -C0 /dev/main/root 

ou

ext2online -C0 /dev/mapper/vg_primary-lv_root

attention  : [-C0 pour tiret C zero]

   * These instructions should work for any raid level you have as long as you have >= 2 drives
   * If you have disabled lvm 
  1. you don't need the pvresize or lvresize command
  2. the final line becomes ext2online -C0 /dev/md2 (or whatever / is mounted to)

resize machine vmware

d'abord:

C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -x 8GB "F:\Documents\My Virtual Machines\VMWP-SME7\sme7pre1.vmdk"
C:\Program Files\VMware\VMware Server>vmware-vdiskmanager -c -s 8GB -a ide -t 1
"F:\Documents\My Virtual Machines\VMWP-SME7\sme7pre2.vmdk"

puis modifier le fichier de la machine pour ajouter le disque

ensuite meme chose que ajout de disque


  1. Freeing /dev/sda:
  2. First, removing all RAID1 partitions on /dev/sda:
mdadm /dev/md1 --fail /dev/sda3 --remove /dev/sda3
mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1
  1. Then, stopping the swapspace on /dev/sda:

swapoff /dev/sda2

  1. Then, altering the partition tables:
fdisk /dev/sda
 #entering 'w' at the end to write. This should go OK now.
  1. Start using the partitions again:
swapon /dev/sda2
mdadm /dev/md0 --add /dev/sda1
mdadm /dev/md1 --add /dev/sda3
  1. wait for both md devices to be fully synced
  2. (check /proc/mdstat)
  1. same with /dev/sdb
mdadm /dev/md1 --fail /dev/sdb3 --remove /dev/sdb3
mdadm /dev/md0 --fail /dev/sdb1 --remove /dev/sdb1
fdisk /dev/sdb
mdadm /dev/md0 --add /dev/sdb1
  1. don't add /dev/sdb3 yet, to have a spare copy while resize2fs-ing
mdadm --grow /dev/md1 --size=max
resize2fs /dev/md1
  1. If the resize2fs-ing went OK, we can now add /dev/sdb3:
mdadm /dev/md1 --add /dev/sdb3


resize SME9 on proxmox with degraded raid 1 and LVM

add a second virtual disk. If you choose virtio you will not need to reboot.

let's consider old drive /dev/sda, new drive /dev/vda

partitioning:

sfdisk -d /dev/sda | sfdisk /dev/vda

then you can use cfdisk or fdisk to resize the last partition of cda to tak the whole size available.


check your raid status, in order to be certain which one is boot (should be md0) and main system (should be md1)

cat /proc/mdstat

add new drive

mdadm /dev/md0 --add /dev/vda1
mdadm /dev/md1 --add /dev/vda2

wait for sync

watch cat /proc/mdstat

intiialize grub for vda

device (hd0) /dev/vda
root (hd0,0)
setup (hd0)


fails old drive out of raid

 mdadm /dev/md1 --fail /dev/sda2 --remove /dev/sda2


grow raid

mdadm --grow /dev/md1 --size=max

grow lvm volume

pvresize /dev/md1

grow Logical volume root

lvresize -l +$(vgdisplay -c main | cut -d: -f16) main/root
lvresize --extents 100%FREE --resizefs /dev/main/root

grow filesystem online

resize2fs /dev/main/root


test a reboot


remove first drive totally

 mdadm /dev/md0 --fail /dev/sda1 --remove /dev/sda1

and remove it from proxmox side. or alternatively you can keep it by using console and the raid option to put it back after resizing it in proxmox

http://www.debian-administration.org/articles/424