Forum Linux.général reconstruire un raid avec mdadm

Posté par  .
Étiquettes : aucune
0
2
avr.
2008
Hello tous...

J'ai constaté que sur une de mes machines la partition sda2 sur un de mes 2 disque est en faulty removed! !!DEAD!!
Et je ne connais pas la marche a suivre pour reconstruire la partition. Faut savoir une chose est que le disque fonctionne parfaitement car les autre partition : sda1, 3 4 sont toujours active et opérationnelles.

Quelle est la marche a suivre la plus simple :
- essayer de reconstruire sda2 (la plus rapide)
- supprimer le raid formater sda et reconstruire a nouveau le RAID avec sda1,2,3,4 (la plus longue)?


cat /proc/mdstat
Personalities : [raid1] 
read_ahead 1024 sectors
Event: 4
md2 : active raid1 sdb1[1] sda1[0]
264960 blocks [2/2] [UU]

md3 : active raid1 sdb2[1]
8385856 blocks [2/1] [_U]

md0 : active raid1 sdb3[1] sda3[0]
4200896 blocks [2/2] [UU]

md1 : active raid1 sdb4[1] sda4[0]
22988928 blocks [2/2] [UU]

unused devices:


/sbin/mdadm --detail /dev/md3

/dev/md3:
Version : 00.90.00
Creation Time : Thu Apr 14 10:51:59 2005
Raid Level : raid1
Array Size : 8385856 (7.100 GiB 8.59 GB)
Device Size : 8385856 (7.100 GiB 8.59 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3
Persistence : Superblock is persistent

Update Time : Sun Oct 28 01:49:34 2007
State : dirty, no-errors
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0


Number Major Minor RaidDevice State
0 0 0 0 faulty removed
1 8 18 1 active sync /dev/sdb2
UUID : c993457f:661a421a:732dd792:69a1d481
Events : 0.21

/sbin/fdisk -l
Disk /dev/sda: 36.7 GB, 36703934464 bytes
255 heads, 63 sectors/track, 4462 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sda1 * 1 33 265041 fd Linux raid autodetect
/dev/sda2 34 1077 8385930 fd Linux raid autodetect
/dev/sda3 1078 1600 4200997+ fd Linux raid autodetect
/dev/sda4 1601 4462 22989015 fd Linux raid autodetect

Disk /dev/sdb: 36.7 GB, 36703934464 bytes
255 heads, 63 sectors/track, 4462 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdb1 * 1 33 265041 fd Linux raid autodetect
/dev/sdb2 34 1077 8385930 fd Linux raid autodetect
/dev/sdb3 1078 1600 4200997+ fd Linux raid autodetect
/dev/sdb4 1601 4462 22989015 fd Linux raid autodetect

df -h

Filesystem Size Used Avail Use% Mounted on
/dev/md3 7.9G 2.2G 5.4G 30% /
/dev/md2 251M 11M 228M 5% /boot
/dev/md1 22G 33M 21G 1% /data
none 2.0G 0 2.0G 0% /dev/shm
  • # reconstruction raid 1

    Posté par  (site web personnel) . Évalué à 1.

    sfdisk -d /dev/sdb > /tmp/out

    sfdisk /dev/sda < /tmp/out


    mdadm -a /dev/md3 /dev/sda2

    Système - Réseau - Sécurité Open Source

  • # Reconstruire sa matrice

    Posté par  . Évalué à 2.

    Pour remettre ta matrice, tu peux tenter de ré-introduire la partition défectueuse:

    mdadm /dev/md3 --add /dev/sda2

    Mais je te conseille fortement de regarder quelle est la cause de la perte de la partition; regarde dans les logs du système, dmesg, et regarde ce que dit smartctl (regarde en particulier Reallocated_Sector_Ct, Current_Pending_Sector...)

    Le fait que les autres partitions fonctionnent toujours montrent simplement qu'il n'y a pas eu d'erreurs dessus; mais si le disque est en train de lacher, ça ne va peut-être pas tarder.

    Si tu changes le disque; même principe, tu n'as qu'a ré-introduire les nouvelles partitions avec mdadm --add.

    Encore un détail: tes deux disques ont exactement la même géométrie; est-ce que se sont exactement les mêmes modèles, venant de la même série et du même carton ? Depuis quelques années maintenant, la bonne pratique est de mélanger les disques; parce que les modèles identiques ont tendance à avoir des durées de vie identiques, et que dans le RAID, le plus important est que tous les disques ne tombent pas en panne en même temps.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.