Forum Linux.général Gestion Raid 5 avec mdadm

Posté par  . Licence CC By‑SA.
Étiquettes :
0
4
jan.
2016

Bonjour, bonne année, santé toussa

Après un update des capacités de stockage de mon serveur à tout faire (dont NAS), je souhaite utiliser la capacité de ma carte mère (asus Z87i-PRO) à faire du raid (semi logiciel ou fakeraid) techno intel si j'ai bien compris ce que j'ai lu sur le net.

J'ai donc créé un raid 5 avec 4 HD de 2 TO via le bios.

Une fois sous linux (mageia cauldron à jour) avec mdadm

[root@hyperion ~]# mdadm --detail-platform
       Platform : Intel(R) Rapid Storage Technology
        Version : 12.7.0.1936
    RAID Levels : raid0 raid1 raid10 raid5
    Chunk Sizes : 4k 8k 16k 32k 64k 128k
    2TB volumes : supported
      2TB disks : supported
      Max Disks : 6
    Max Volumes : 2 per array, 4 per controller
 I/O Controller : /sys/devices/pci0000:00/0000:00:1f.2 (SATA)
          Port0 : /dev/sda (WD-WMC4M1094238)
          Port1 : /dev/sdb (S0XYNEAC738864)
          Port2 : /dev/sdc (S377J9EG901115)
          Port3 : /dev/sdd (S377J9BG900223)
          Port4 : /dev/sde (S377J9BG900253)
          Port5 : - no device attached -
[root@hyperion ~]# mdadm --detail /dev/md126
/dev/md126:
      Container : /dev/md/imsm0, member 0
     Raid Level : raid5
     Array Size : 5860491264 (5589.00 GiB 6001.14 GB)
  Used Dev Size : 1953497216 (1863.00 GiB 2000.38 GB)
   Raid Devices : 4
  Total Devices : 4

          State : active, resyncing 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-asymmetric
     Chunk Size : 64K

  Resync Status : 6% complete


           UUID : 3b6a9eb7:478b9fcb:a0053ace:c3b3801e
    Number   Major   Minor   RaidDevice State
       3       8        0        0      active sync   /dev/sda
       2       8       32        1      active sync   /dev/sdc
       1       8       48        2      active sync   /dev/sdd
       0       8       64        3      active sync   /dev/sde

gdisk

[root@hyperion ~]# gdisk -l /dev/md126
GPT fdisk (gdisk) version 1.0.1

Partition table scan:
  MBR: not present
  BSD: not present
  APM: not present
  GPT: not present

Creating new GPT entries.
Disk /dev/md126: 11720982528 sectors, 5.5 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 9D066D42-3096-4ACB-9AD3-1C4CF7A4D4E6
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 11720982494
Partitions will be aligned on 2048-sector boundaries
Total free space is 11720982461 sectors (5.5 TiB)

Number  Start (sector)    End (sector)  Size       Code  Name

Après lecture sur différents forums, je désire donc créer une table partition gpt pour ensuite créer une unique partition en ext4 pour stockage.

J'ai donc essayé d'utiliser gparted par habitude qui n'a jamais fini avec une boite de dialogue freezée--> reboot après une dizaine d'heures

donc retour à la CLI avec parted

parted /dev/md126 mklabel gpt

qui semble ne rien faire non plus (ps : status D+)

A votre avis,est-ce la bonne procédure pour rendre mon raid tout neuf actif et utilisable ?

Avez vous une idée du temps que le parted mklabel gpt peut prendre ?

Le fait que le raid semble en resync (il y retourne à chaque reboot et prend des heures) pose-t-il problème ?

Bref un petit coup de main serait bien venu. J'épluche le net à ce sujet depuis 3 jours et je suis toujours coincé ce qui est assez vexatoire car je ne pensais pas galérer la-dessus.

  • # Du temps

    Posté par  (site web personnel) . Évalué à 3.

    La (re)construction, ça prend du temps vu la taille.

    Voir la vitesse de recontruction du raid dans /proc ou /sys

    Système - Réseau - Sécurité Open Source

    • [^] # Re: Du temps

      Posté par  . Évalué à 2.

      [root@hyperion ~]# cat /proc/mdstat
      Personalities : [raid6] [raid5] [raid4] 
      md126 : active raid5 sda[3] sdc[2] sdd[1] sde[0]
            5860491264 blocks super external:/md127/0 level 5, 64k chunk, algorithm 0 [4/4] [UUUU]
            [=====>...............]  resync = 29.1% (569402432/1953497216) finish=202.8min speed=113719K/sec
      
      md127 : inactive sde[3](S) sdc[2](S) sdd[1](S) sda[0](S)
            12612 blocks super external:imsm
      
      unused devices: <none>
      

      Cela impose donc de ne rien faire comme action sur le raid durant cette étape ?

      • [^] # Re: Du temps

        Posté par  . Évalué à 4.

        tu peux travailler, mais tu auras des performances dégradées
        et plus tu travailleras sur ce volume plus la synchronisation sera longue

        Envoyé depuis mon Archlinux

        • [^] # Re: Du temps

          Posté par  . Évalué à 0.

          Je dirai que dans son cas, il vaut mieux ne rien toucher pendant la reconstruction car son raid est fait de partition de 3 disques, dont l'un doit bien être utilisé par sa racine et l'autre pour son /home…

          • [^] # Re: Du temps

            Posté par  . Évalué à 3. Dernière modification le 05 janvier 2016 à 14:24.

            ou pas, sa machine comporte 5 disques

            Port0 : /dev/sda (WD-WMC4M1094238)
            Port1 : /dev/sdb (S0XYNEAC738864)
            Port2 : /dev/sdc (S377J9EG901115)
            Port3 : /dev/sdd (S377J9BG900223)
            Port4 : /dev/sde (S377J9BG900253)

            mais son raid n'en utilise que 4

            Number   Major   Minor   RaidDevice State
              3       8        0        0      active sync   /dev/sda
              2       8       32        1      active sync   /dev/sdc
              1       8       48        2      active sync   /dev/sdd
              0       8       64        3      active sync   /dev/sde

            le disque sdb est probablement celui qui contient son OS

            • [^] # Re: Du temps

              Posté par  . Évalué à 2.

              Exactement, un "petit" ssd pour le système.

              Bon, je vais attendre que le resync des disques soient terminé avant de relancer la commande pour créer la table de partition.
              A l'heure actuelle, chaque reboot le relance de zéro.

              Mon raid va donc me donner ~5.6 To utile, la création de la table va prendre longtemps à votre avis ? Pour l'instant, tous mes essais avec parted semble avoir freezé sans succès.

              • [^] # Re: Du temps

                Posté par  . Évalué à 2.

                La création de la table de partition est instantanée. C'est la création du système de fichiers qui est plus longue (quelques minutes).

                • [^] # Re: Du temps

                  Posté par  (site web personnel) . Évalué à 2.

                  Ou sinon partir sur du xfs, la création du FS est assez rapide (ou son agrandissement quand on est sur su lvm en dessous).
                  Mais AMA le temps de création pour un usage perso n'est pas un critère (xfs a l'inconvénient de ne pas pouvoir être réduit…).

                  Python 3 - Apprendre à programmer dans l'écosystème Python → https://www.dunod.com/EAN/9782100809141

                  • [^] # Re: Du temps

                    Posté par  . Évalué à 2.

                    Merci de ces infos… mais j'ai l'impression que le fakeraid fourni par la carte mère géré par mdadm (v3.3.4 - 3rd August 2015) sont incompatibles en l'état (j'ai essayé de nombreuses fois mais rien y fait, le mklabel de parted se plante directement (processus en D+), pas moyen de le killer.

                    J'ai aussi lu que ce ce genre de raid n'apporte pas beaucoup plus de perf que le raid soft et qu'en plus il complique la restauration du raid si la carte mère est morte (nécessité de retrouver la même techno sur la carte mère de remplacement).
                    Je pensais que utiliser le raid de la carte mère simplifierait la gestion mais cela ne semble pas être la cas (en tout cas, bien loin des véritables cartes raid)

                    Je pense donc partir sur du raid soft au final si je trouve le temps de le faire ce weekend.

                    • [^] # Re: Du temps

                      Posté par  . Évalué à 2.

                      j'ai lu partout qu'il faut toujours choisir :
                      - soit du vrai raid (tu ne vois alors plus qu'un seul disque apres avoir creer le raid avec tes 2 disques)
                      - soit du vrai raid soft (tu vois tous les disques et c'est ton OS qui gere ca.

                      le premier à l'avantage d'etre independant de l'OS
                      tu peux donc faire un raid1 et faire ensuite un multiboot windows/linux dessus comme si c'etait un seul disque.

                      le 2e sera uniquement linux (par exemple) pourra etre transferé dans une autre machine en cas de panne de la carte mere, etc

                      le "fakeraid" est une windowerie equivalente au raid soft linux mais s'appuyant sur des optimisations de la carte mere, via des pilotes specifiques.
                      bref un ni a embrouille pour savoir ou ca plante…

                      • [^] # Re: Du temps

                        Posté par  . Évalué à 2.

                        Le raid matériel à tous les avantages sauf le tarif.

                        Je n'ai pas de multiboot donc pas de problème pour le raid soft.
                        Merci de confirmer que le fakeraid c'est pas top … je n'avais jusque là jamais abordé ce truc. Mon avis est fait.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.