Forum Linux.général Problèmes avec Raid 05 MdAdm 2HD non reconnus

Posté par  .
Étiquettes :
0
31
mai
2010
Bonjour ,
J'ai quelques soucis avec mon serveur ubuntu depuis approx 1an et demi.

J'avais monté un serveur Ubuntu 8.04 si je me souviens bien dans un P4 3.0ghz.

Je travaille a l'extérieur (Baie-James - Nord du Québec) et un jour en revenant a la maison mon raid ne fonctionnais plus. Incapable d'assemblée le raid à nouveau.

Il ne semble pas avoir de défaillance sur aucun de mes disques.
SMART STATUS OK

J'ai décidé d'amener les 4 HD dans mes bagages et de les monté sur une machine VMware avec Ubuntu 10.4 64bits

J'ai monté le raid avec des disques partitionnés avec Gparted et Parted.

Présentement mes 2 premiers disques sont "illisible" par gparted ca me dit que ma Table de partition GPT est defectueuse et que le logiciel utilisera le backup qui semble correct.

Ma question est : j'aimerais restaurer la sauvegarde que Gparted utilise dans la table actuelle pour reactivé mon raid sans perdre mes donnés.

Informations Techniques :

Disques du Raid /dev/md0 :

/dev/sda Seagate 1TB ST31000340AS SATA
/dev/sdb Seagate 1TB ST31000340AS SATA
/dev/sdc Seagate 1TB ST31000340AS SATA
/dev/sdd Seagate 1TB ST31000340AS SATA

/dev/sde1 VMware Virtual HD 20Go

__________________________________

Gparted ou Parted :

Erreur pour
/dev/sda
/dev/sdb

Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.

Infomations mdadm
_______________________

________________________________________________
/dev/sda Seagate 1TB ST31000340AS SATA
________________________________________________

Code:

sudo mdadm --examine /dev/sda1
mdadm: cannot open /dev/sda1: No such file or directory

________________________________________________
/dev/sdb Seagate 1TB ST31000340AS SATA
________________________________________________

Code:

sudo mdadm --examine /dev/sdb1
mdadm: cannot open /dev/sda1: No such file or directory

________________________________________________
/dev/sdc Seagate 1TB ST31000340AS SATA
________________________________________________
Code:

sudo mdadm --examine /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : faf2e88b:2d99cdac:36ff68e3:360e8917
Creation Time : Mon Dec 15 21:51:00 2008
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0

Update Time : Sat Jan 31 01:18:07 2009
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : bcb9598 - correct
Events : 35798

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 8 1 0 active sync

0 0 8 1 0 active sync
1 1 8 17 1 active sync
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1

________________________________________________
/dev/sdd Seagate 1TB ST31000340AS SATA
________________________________________________

Code:

sudo mdadm --examine /dev/sdd1
/dev/sdd1:
Magic : a92b4efc
Version : 0.90.00
UUID : faf2e88b:2d99cdac:36ff68e3:360e8917
Creation Time : Mon Dec 15 21:51:00 2008
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0

Update Time : Sat Jan 31 01:18:07 2009
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : bcb95aa - correct
Events : 35798

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 1 8 17 1 active sync

0 0 8 1 0 active sync
1 1 8 17 1 active sync
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1

Informations TestDisk 6.11
________________________________________________
/dev/sda Seagate 1TB ST31000340AS SATA
________________________________________________

Disk /dev/sda - 1000 GB / 931 GiB - CHS 121601 255 63
Current partition structure:
Partition Start End Size in sectors

Bad GPT partition entries, invalid checksum.

________________________________________________
/dev/sdb Seagate 1TB ST31000340AS SATA
________________________________________________

Disk /dev/sdb - 1000 GB / 931 GiB - CHS 121601 255 63
Current partition structure:
Partition Start End Size in sectors

Bad GPT partition entries, invalid checksum.

________________________________________________
/dev/sdc Seagate 1TB ST31000340AS SATA
________________________________________________

Disk /dev/sdc - 1000 GB / 931 GiB - CHS 121601 255 63
Current partition structure:
Partition Start End Size in sectors

1 P Linux Raid 34 1953520064 1953520031

________________________________________________
/dev/sdd Seagate 1TB ST31000340AS SATA
________________________________________________

Disk /dev/sdd - 1000 GB / 931 GiB - CHS 121601 255 63
Current partition structure:
Partition Start End Size in sectors

1 P Linux Raid 34 1953520064 1953520031
  • # SMART

    Posté par  . Évalué à 1.

    Par curiosité, que te dit SMART sur tes différents disques ?
    # smartctl --all /dev/sda
    # smartctl --all /dev/sdb
  • # Ah, les retours de week end pour constater la santé fragile des matrice

    Posté par  . Évalué à 2.

    Si j'ai bien compris la situation :

    RAID5 de 4 disques, il t'en faudra donc 3 pour remonter la matrice.
    T'a perdu deux disques. Ou tout au moins leurs table de partition.

    La je te dirais qu'il faudrait savoir une chose en plus : dans quel ordre ca a pété? Les fois ou j'ai retrouvé mes matrices par terre, c'était toujours séquentiellement, et un mdadm sur chaque disque permet de voir celui qui a pété en premier (au moment ou il a été sorti de la matrice, il contenait encore la mention active sync sur le dernier disque ayant pété) et celui qui a pété en dernier.
    Ca aurait tout de suite aiguillé vers quel disque tu aurais du t'attaquer en premier (en considérant qu'après le foirage du premier disque, l'état de la matrice a du être modifié. Sauf si c'est les deux d'un coup, évidement.

    Enfin bref. Si le problème tiens juste au fait que les tables de paritions se sont effacées, pas besoin de sortir un backup, tu peut carrément remettre a zéro le MBR et recréer les partitions a l'identique sur le disque (facile, t'a deux autres exemples valides). Le contenu des partitions sera a ce moment de nouveau accessible, si tant est qu'il est dans un état cohérent.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.