Outils pour utilisateurs

Outils du site


disk_raid

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
disk_raid [2011/02/11 16:00] thierrydisk_raid [2011/12/21 12:22] (Version actuelle) thierry
Ligne 1: Ligne 1:
 ====== Disks en RAID ====== ====== Disks en RAID ======
 ===== Accélérer la reconstruction ===== ===== Accélérer la reconstruction =====
-Lien: http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html+Liens: 
 +  *http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html 
 +  *http://www.admin-linux.fr/?p=5944
  
 ===== parfois ===== ===== parfois =====
Ligne 120: Ligne 122:
  
 ===== Shrink RAID ===== ===== Shrink RAID =====
 +
 +| :!: OUPS ! J'AI PETE MON RAID ! |
  
 Lien: http://www.howtoforge.com/how-to-resize-raid-partitions-shrink-and-grow-software-raid Lien: http://www.howtoforge.com/how-to-resize-raid-partitions-shrink-and-grow-software-raid
Ligne 246: Ligne 250:
                     2        0      active sync   /dev/sda2                     2        0      active sync   /dev/sda2
                    18        1      active sync   /dev/sdb2                    18        1      active sync   /dev/sdb2
- 
-Attribuer toute la place a LVM: 
-  % pvresize /dev/md127 
-  Physical volume "/dev/md127" changed 
-  1 physical volume(s) resized / 0 physical volume(s) not resized 
- 
-Vérifions: 
-  % pvs                 
-  PV         VG   Fmt  Attr PSize   PFree  
-  /dev/md127 vg0  lvm2 a-   360.00g 62.50g 
- 
-Ok. 
  
 Ce n'est que la couche "systeme de fichiers" en fait. Ce n'est que la couche "systeme de fichiers" en fait.
Ligne 270: Ligne 262:
   /dev/sda3 : start=        0, size=        0, Id= 0   /dev/sda3 : start=        0, size=        0, Id= 0
   /dev/sda4 : start=        0, size=        0, Id= 0   /dev/sda4 : start=        0, size=        0, Id= 0
 +
 +On remarque que :
 +  % echo $(( ( 779296768 * 512 ) / ( 1024 * 1024 * 1024 ) ))
 +  371
 +Ce qui est la taille en GIGA qu'on a pour la partition.
 +
 +On vise maintenant, pour 365 G: 
 +  % echo $(( ( 365 * 1024 * 1024 * 1024 ) / 512 ))
 +  765460480
 +
 +Ce qu'on mettre comme nouvelle taille de partition !
 +
 +Mais il faut demonter le disk de son RAID d'abord !
 +
 +Umount de LVM
 +  % /etc/init.d/lvm stop
 +
 +Puis arret du RAID:
 +  % mdadm --stop /dev/md126
 +  mdadm: stopped /dev/md126
 +  % mdadm --stop /dev/md127
 +  mdadm: stopped /dev/md127
 +
 +On recupere les confs:
 +  % sfdisk -d /dev/sda >sda.txt
 +  % sfdisk -d /dev/sdb >sdb.txt
 +On edite "sda.txt" et "sdb.txt" pour avoir a la fin:
 +  % cat sda.txt 
 +  # partition table of /dev/sda
 +  unit: sectors
 +  
 +  /dev/sda1 : start=     2048, size=   974848, Id=fd, bootable
 +  /dev/sda2 : start=   976896, size=765460480, Id=fd
 +  /dev/sda3 : start=        0, size=        0, Id= 0
 +  /dev/sda4 : start=        0, size=        0, Id= 0
 +
 +Et go!
 +  % cat sda.txt | sfdisk /dev/sda
 +  % cat sdb.txt | sfdisk /dev/sda
 +( Ajouter "--force" si nécessaire)
 +  % sync
 +Et voila ?
 +
 +Remonter le RAID:
 +  % mdadm --examine /dev/sda1
 +  /dev/sda1:
 +          Magic : a92b4efc
 +        Version : 1.2
 +    Feature Map : 0x0
 +     Array UUID : ac816ca9:98d73e89:a9ff5ea7:95e87521
 +           Name : k8:0  (local to host k8)
 +  Creation Time : Mon Feb  7 18:47:07 2011
 +     Raid Level : raid1
 +   Raid Devices : 2
 +  
 +   Avail Dev Size : 974824 (476.07 MiB 499.11 MB)
 +     Array Size : 974824 (476.07 MiB 499.11 MB)
 +    Data Offset : 24 sectors
 +   Super Offset : 8 sectors
 +          State : clean
 +    Device UUID : 0b78552d:51cabf56:74cc011f:7085a015
 +  
 +    Update Time : Fri Feb 11 15:23:26 2011
 +       Checksum : 285db283 - correct
 +         Events : 326
 +  
 +  
 +   Device Role : Active device 0
 +   Array State : AA ('A' == active, '.' == missing)
 +
 +  % mdadm /dev/md126 --assemble -u ac816ca9:98d73e89:a9ff5ea7:95e87521
 +
 +Et alors:
 +  % cat /proc/mdstat 
 +  Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
 +  md1 : active raid1 sda2[0] sdb2[2]
 +        377487360 blocks super 1.2 [2/2] [UU]
 +        
 +  md0 : active raid1 sda1[0] sdb1[2]
 +        487412 blocks super 1.2 [2/2] [UU]
 +        
 +  unused devices: <none>
 +Tout est monté ??? curieux...
 +
 +En fait, les RAID sont apparu en "md0" et "md1" (comme en prod en fait) ...
 +
 +Et donc:
 +  % mdadm --detail /dev/md1
 +  /dev/md1:
 +        Version : 1.2
 +  Creation Time : Mon Feb  7 18:47:19 2011
 +     Raid Level : raid1
 +     Array Size : 377487360 (360.00 GiB 386.55 GB)
 +  Used Dev Size : 377487360 (360.00 GiB 386.55 GB)
 +   Raid Devices : 2
 +  Total Devices : 2
 +    Persistence : Superblock is persistent
 +  
 +    Update Time : Fri Feb 11 16:08:54 2011
 +          State : clean
 +   Active Devices : 2
 +  Working Devices : 2
 +   Failed Devices : 0
 +    Spare Devices : 0
 +  
 +           Name : k8:1  (local to host k8)
 +           UUID : 35a2c269:40cdcca3:d63b29c2:7c9f4067
 +         Events : 49935
 +  
 +    Number   Major   Minor   RaidDevice State
 +                    2        0      active sync   /dev/sda2
 +                   18        1      active sync   /dev/sdb2
 +
 +
 +| :!: OUPS ! J'AI PETE MON RAID ! |
  
disk_raid.1297440023.txt.gz · Dernière modification : 2011/02/11 16:00 de thierry