Outils pour utilisateurs

Outils du site


disk_raid

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
disk_raid [2011/02/11 16:08] thierrydisk_raid [2011/12/21 12:22] (Version actuelle) thierry
Ligne 1: Ligne 1:
 ====== Disks en RAID ====== ====== Disks en RAID ======
 ===== Accélérer la reconstruction ===== ===== Accélérer la reconstruction =====
-Lien: http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html+Liens: 
 +  *http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html 
 +  *http://www.admin-linux.fr/?p=5944
  
 ===== parfois ===== ===== parfois =====
Ligne 120: Ligne 122:
  
 ===== Shrink RAID ===== ===== Shrink RAID =====
 +
 +| :!: OUPS ! J'AI PETE MON RAID ! |
  
 Lien: http://www.howtoforge.com/how-to-resize-raid-partitions-shrink-and-grow-software-raid Lien: http://www.howtoforge.com/how-to-resize-raid-partitions-shrink-and-grow-software-raid
Ligne 246: Ligne 250:
                     2        0      active sync   /dev/sda2                     2        0      active sync   /dev/sda2
                    18        1      active sync   /dev/sdb2                    18        1      active sync   /dev/sdb2
- 
-Attribuer toute la place a LVM: 
-  % pvresize /dev/md127 
-  Physical volume "/dev/md127" changed 
-  1 physical volume(s) resized / 0 physical volume(s) not resized 
- 
-Vérifions: 
-  % pvs                 
-  PV         VG   Fmt  Attr PSize   PFree  
-  /dev/md127 vg0  lvm2 a-   360.00g 62.50g 
- 
-Ok. 
  
 Ce n'est que la couche "systeme de fichiers" en fait. Ce n'est que la couche "systeme de fichiers" en fait.
Ligne 276: Ligne 268:
 Ce qui est la taille en GIGA qu'on a pour la partition. Ce qui est la taille en GIGA qu'on a pour la partition.
  
-On vise maintenant, pour 360 G:  +On vise maintenant, pour 365 G:  
-  % echo $(( ( 360 * 1024 * 1024 * 1024 ) / 512 )) +  % echo $(( ( 365 * 1024 * 1024 * 1024 ) / 512 )) 
-  754974720+  765460480 
 + 
 +Ce qu'on mettre comme nouvelle taille de partition ! 
 + 
 +Mais il faut demonter le disk de son RAID d'abord ! 
 + 
 +Umount de LVM 
 +  % /etc/init.d/lvm stop 
 + 
 +Puis arret du RAID: 
 +  % mdadm --stop /dev/md126 
 +  mdadm: stopped /dev/md126 
 +  % mdadm --stop /dev/md127 
 +  mdadm: stopped /dev/md127 
 + 
 +On recupere les confs: 
 +  % sfdisk -d /dev/sda >sda.txt 
 +  % sfdisk -d /dev/sdb >sdb.txt 
 +On edite "sda.txt" et "sdb.txt" pour avoir a la fin: 
 +  % cat sda.txt  
 +  # partition table of /dev/sda 
 +  unit: sectors 
 +   
 +  /dev/sda1 : start=     2048, size=   974848, Id=fd, bootable 
 +  /dev/sda2 : start=   976896, size=765460480, Id=fd 
 +  /dev/sda3 : start=        0, size=        0, Id= 0 
 +  /dev/sda4 : start=        0, size=        0, Id= 0 
 + 
 +Et go! 
 +  % cat sda.txt | sfdisk /dev/sda 
 +  % cat sdb.txt | sfdisk /dev/sda 
 +( Ajouter "--force" si nécessaire) 
 +  % sync 
 +Et voila ? 
 + 
 +Remonter le RAID: 
 +  % mdadm --examine /dev/sda1 
 +  /dev/sda1: 
 +          Magic : a92b4efc 
 +        Version : 1.2 
 +    Feature Map : 0x0 
 +     Array UUID : ac816ca9:98d73e89:a9ff5ea7:95e87521 
 +           Name : k8:0  (local to host k8) 
 +  Creation Time : Mon Feb  7 18:47:07 2011 
 +     Raid Level : raid1 
 +   Raid Devices : 2 
 +   
 +   Avail Dev Size : 974824 (476.07 MiB 499.11 MB) 
 +     Array Size : 974824 (476.07 MiB 499.11 MB) 
 +    Data Offset : 24 sectors 
 +   Super Offset : 8 sectors 
 +          State : clean 
 +    Device UUID : 0b78552d:51cabf56:74cc011f:7085a015 
 +   
 +    Update Time : Fri Feb 11 15:23:26 2011 
 +       Checksum : 285db283 - correct 
 +         Events : 326 
 +   
 +   
 +   Device Role : Active device 0 
 +   Array State : AA ('A' == active, '.' == missing) 
 + 
 +  % mdadm /dev/md126 --assemble -u ac816ca9:98d73e89:a9ff5ea7:95e87521 
 + 
 +Et alors: 
 +  % cat /proc/mdstat  
 +  Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]  
 +  md1 : active raid1 sda2[0] sdb2[2] 
 +        377487360 blocks super 1.2 [2/2] [UU] 
 +         
 +  md0 : active raid1 sda1[0] sdb1[2] 
 +        487412 blocks super 1.2 [2/2] [UU] 
 +         
 +  unused devices: <none> 
 +Tout est monté ??? curieux... 
 + 
 +En fait, les RAID sont apparu en "md0" et "md1" (comme en prod en fait) ... 
 + 
 +Et donc: 
 +  % mdadm --detail /dev/md1 
 +  /dev/md1: 
 +        Version : 1.2 
 +  Creation Time : Mon Feb  7 18:47:19 2011 
 +     Raid Level : raid1 
 +     Array Size : 377487360 (360.00 GiB 386.55 GB) 
 +  Used Dev Size : 377487360 (360.00 GiB 386.55 GB) 
 +   Raid Devices : 2 
 +  Total Devices : 2 
 +    Persistence : Superblock is persistent 
 +   
 +    Update Time : Fri Feb 11 16:08:54 2011 
 +          State : clean 
 +   Active Devices : 2 
 +  Working Devices : 2 
 +   Failed Devices : 0 
 +    Spare Devices : 0 
 +   
 +           Name : k8:1  (local to host k8) 
 +           UUID : 35a2c269:40cdcca3:d63b29c2:7c9f4067 
 +         Events : 49935 
 +   
 +    Number   Major   Minor   RaidDevice State 
 +                    2        0      active sync   /dev/sda2 
 +                   18        1      active sync   /dev/sdb2 
 + 
 + 
 +| :!: OUPS ! J'AI PETE MON RAID ! |
  
disk_raid.1297440507.txt.gz · Dernière modification : 2011/02/11 16:08 de thierry