Gestion de volumes RAID avec LVM

Post√©¬†par¬† (site Web personnel) . √Čdit√© par Davy Defaud et ZeroHeure. Mod√©r√© par ZeroHeure. Licence CC¬†By‚ÄĎSA.
√Čtiquettes¬†:
51
24
mai
2019
Administration système

Vous connaissez déjà LVM, le gestionnaire de volumes logiques qui permet d’agréger et de subdiviser librement vos périphériques de stockage. Eh bien, depuis quelques années, LVM permet également de définir des volumes en RAID.

LVM et RAID, version traditionnelle

Pour utiliser LVM avec du RAID, on utilise d’habitude LVM et MD, qui est l’implémentation du RAID logiciel de Linux. Pour cela, on les empile :

  • soit en agr√©geant ses p√©riph√©riques de stockage en un volume RAID, qu‚Äôon utilise ensuite comme un volume LVM physique¬†: il s‚Äôagit de LVM au‚Äźdessus de RAID‚ÄĮ;
  • soit, √†¬†l‚Äôinverse, ce qui est plus compliqu√©, en agr√©geant en¬†RAID des volumes LVM logiques soigneusement d√©finis¬†: il s‚Äôagit donc de RAID par¬†dessus¬†LVM.

Manque de souplesse

Outre le c√īt√© un peu artificiel de cet empilement, cette solution manque de souplesse pour au moins un cas d‚Äôusage. En¬†effet, sur un ordinateur disposant de plusieurs p√©riph√©riques de stockage, on peut vouloir redonder une partie du syst√®me de fichiers en¬†RAID, tout en laissant une autre partie sans redondance pour minimiser son utilisation du stockage. Parmi les usages qui ne m√©ritent pas forc√©ment une telle redondance¬†: des films qu‚Äôon a par¬†ailleurs sur DVD, les nouvelles Usenet ou encore des caches de divers logiciels.

Bref, ce cas d’usage passe mal. Avec du LVM sur RAID, c’est tout simplement infaisable. On peut toujours partitionner ses périphériques de stockage pour en utiliser une partie en RAID et l’autre sans, mais on retrouve alors un partitionnement statique. Avec du RAID sur LVM, c’est faisable, mais c’est une solution compliquée à gérer.

Cela passe encore plus mal avec GRUB, qui peut ne pas appr√©cier cet empilement et ne pas r√©ussir √† lire le syst√®me de fichiers o√Ļ il doit aller chercher le noyau √† d√©marrer. On se retrouve alors √† utiliser une partition statique d√©di√©e √† /boot.

Nous en arrivons donc à cette fonctionnalité de RAID intégrée à LVM.

Rappel sur LVM

Avec LVM, on commence par formater ses périphériques de stockage pour en faire des volumes physiques LVM, ou PV pour physical volumes : ce sont des périphériques bloc, visibles dans /dev, qu’on confie simplement à LVM.

# J’ai deux périphériques, sda et sdb, avec une première partition
# système EFI, et une seconde partition avec l’essentiel de l’espace,
# qui sera utilisé avec LVM
pvcreate /dev/sda2 /dev/sdb2

On agrège ensuite un ou plusieurs volumes physiques pour former un groupe de volumes, ou VG pour volume group : contrairement aux volumes physiques, les groupes de volumes ne sont qu’une abstraction de LVM et n’ont, autant que je sache, pas d’existence dans /dev.

# Je donne à mes groupes de volume le même nom que l’ordinateur
vgcreate vg-camembert /dev/sda2 /dev/sdb2

On définit ensuite des volumes logiques ou LV pour logical volumes, qui sont des périphériques bloc émulés par LVM, apparaissant dans /dev et prêts à être formatés et montés pour héberger un système de fichiers.

lvcreate --size 10G --name root vg-camembert
mkfs.ext4 -L root /dev/vg-camembert/root
lvcreate --size 50G --name home vg-camembert
mkfs.ext4 -L home /dev/vg-camembert/home

Lorsqu‚Äôon cr√©e un volume logique, on doit √©videmment indiquer dans quel groupe de volumes il sera mis en Ňďuvre, mais on peut √©galement pr√©ciser au besoin, sur quel volume physique en particulier ‚Ästmembre de ce groupe de¬†volumes¬†‚Äď il sera effectivement stock√©. Cette possibilit√© est d√©j√† utile pour diverses raisons, par¬†exemple si les volumes physiques ont des caract√©ristiques diff√©rentes‚ÄĮ; typiquement pour stocker des films sur un gros disque dur lent et son syst√®me d‚Äôexploitation sur un petit SSD tr√®s rapide, le tout sous LVM avec un seul groupe de volumes.

# sda est petit et rapide, parfait pour héberger /
lvcreate --size 10G --name root vg-camembert /dev/sda1
# sdb est gros et moins rapide, ce qui me convient pour /home
lvcreate --size 50G --name home vg-camembert /dev/sdb1

RAID intégré à LVM

Au moment de créer un volume logique, on peut donc également indiquer qu’il s’agit d’un volume RAID, en précisant le niveau de RAID et la redondance souhaitée :

# Mieux vaut mettre / en RAID1
# Le --nosync sert à éviter l’inutile synchronisation des données
# initialement présentes
lvcreate --size 10G --name root --type raid1 --nosync vg-camembert
# Soyons fous, /home en RAID0
lvcreate --size 50G --name home --type raid0 vg-camembert

On peut aussi convertir un volume logique existant en RAID, ou √†¬†l‚Äôinverse, convertir un volume logique RAID en classique, c‚Äôest‚Äź√†‚Äźdire lin√©aire ‚ÄĒ¬†c‚Äôest leur vrai nom, ce qui peut √™tre utile en vue d‚Äôun changement de p√©riph√©rique par¬†exemple.

La page de manuel de lvmraid(7) donne toute les informations utiles, en particulier les commandes permettant de lancer une procédure de vérification de la correspondance des données dupliquées :

lvchange --syncaction check vg-camembert/root

Avantages

L‚Äôutilisation de la fonctionnalit√© de RAID int√©gr√©e √† LVM a l‚Äôavantage d‚Äô√™tre simple √† mettre en Ňďuvre, il n‚Äôest ainsi plus n√©cessaire de se demander dans quel ordre empiler LVM et MD, ou comment organiser tout¬†cela¬†: il suffit d‚Äôutiliser LVM comme d‚Äôhabitude, avec quelques options en¬†plus, le fait d‚Äô√™tre en RAID ou non √©tant simplement une caract√©ristique de chaque volume logique, qui peut m√™me √™tre chang√©e a¬†posteriori.

Les volumes logiques de type RAID sont également pris en charge par GRUB, de sorte qu’il n’est pas nécessaire de mettre en place une partition /boot séparée.

Aller plus loin

  • # dm-cache?

    Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

    bonjour,
    merci pour le billet, je viens d'ententre parler de dm-cache pour agréger des ssd + dd mecanique, avez vous des retours d'expérience dessus?
    ++
    PS: sans avoir beaucoup chercher non plus, il ne me semble pas y avoir une GUI pour lvm, depuis le temps..

    • [^] # Re: dm-cache?

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3.

      Jamais essayé, non, mais dans le même genre, avec LVM, il y a les volumes logiques de type cache-pool, cf lvmcache(7).

      • [^] # Re: dm-cache?

        Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

        J'ai déjà utilisé lvm-cache, cela marche bien, l'impact en terme de performances est important.
        Par contre j'avais essay√© d'utiliser lvm-cache sur un LV en RAID0 LVM et √ßa n'avait pas fonctionn√©, LVM ne semble pas supporter ce genre d'empilement. J'avais d√Ľ recourir √† md-raid pour impl√©menter le RAID0.

    • [^] # Re: dm-cache?

      Post√©¬†par¬† . √Čvalu√©¬†√†¬†4.

      PS: sans avoir beaucoup chercher non plus, il ne me semble pas y avoir une GUI pour lvm, depuis le temps..

      Les distributions incluent en général, dans leur phase d'installation, un GUI pour LVM. Certes, sorti de l'installation, exit aussi l'interface graphique.

      • [^] # Re: dm-cache?

        Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3.

        Je vais parler de ce que je connais : avec Mageia, l'interface graphique pour les disques de l'installeur est aussi disponible apr√®s dans le Centre de Contr√īle Mageia. Il g√®re tous les exotismes tels LVM, MD, et autres syst√®mes de fichiers exotiques tels NTFS¬†;-)

        ‚öď √Ä g'Auch TOUTE! http://afdgauch.online.fr

        • [^] # Re: dm-cache?

          Post√©¬†par¬† . √Čvalu√©¬†√†¬†3.

          √áa a l'air plut√īt sexy. C'est limit√© √† Mag√©ia, je suppose? En tout cas, je trouve pas √ßa dans portage (Gentoo). Ou alors c'est inclus dans d'autres outils que je ne connais pas‚Ķ

          • [^] # Re: dm-cache?

            Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†2.

            Oui, c'est aussi l'outil qui est utilisé par l'installeur Classique ou Live, donc très lié à la nébuleuse des forks Mandriva…

            ‚öď √Ä g'Auch TOUTE! http://afdgauch.online.fr

    • [^] # Re: dm-cache?

      Post√©¬†par¬† . √Čvalu√©¬†√†¬†2. Derni√®re modification le 25/05/19 √† 19:43.

      Tu ne veux pas plut√īt parler de bcache¬†? √áa permet effectivement d'acc√©l√©rer des disques m√©caniques avec des SSD utilis√©s comme cache, et sans atteindre les perfs du SSD en usage direct, √ßa donne une bonne acc√©l√©ration du boot, du lancement de pas mal d'applications, et de tout ce qui n√©cessite l‚Äôacc√®s √† de nombreux petits fichiers en g√©n√©ral (la taille est param√©trable)

      LVM fournit aussi un mécanisme de cache similaire, mais les tests de Phoronix semblent indiquer de moins bonnes performances, mais ça reste très théorique. Tu peux utiliser BCache sur un volume LVM sans problème, en tous cas…

      Au passage, je découvre un bug inquiétant sur le même site avec le noyau 5.0 et GCC9 présent sur la Fedora 30 qui incite à un peu de prudence avec les noyaux récents et ce genre de techno…

      • [^] # Re: dm-cache?

        Post√©¬†par¬† . √Čvalu√©¬†√†¬†2.

        Je me répond à moi-même avec un peu de retard… effectivement, dm-cache semblent être une alternative intéressante à bcache et lvmcache, et les perfs ont l'air meilleurs, mais il faut un disque supplémentaire pour les métadonnées. Je serais aussi intéressé d'en savoir plus si quelqu'un a déjà testé

  • # √áa tombe √† pic

    Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3.

    Merci pour ce billet, qui tombe à pic pour moi vu que j'avais du RAID à réinstaller.

    Du coup, est-ce que Grub comprend tous les types de RAID LVM ? Je pense notamment au RAID 6 (de mémoire, ce n'est pas évident de faire du RAID6 mdadm pour /boot).

    Je regrette qu'on ne puisse pas avoir plus de deux disques de parité en RAID6, mais ce n'est pas mieux avec mdadm.

    • [^] # Re: √áa tombe √† pic

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3.

      Petite question subsidiaire : peut-on LUKSer les partitions avant le LVM ?

      • [^] # Re: √áa tombe √† pic

        Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3.

        Oui, on peut, c'est ce que je fais sur mes portables. En revanche, ça ajoute un empilement que GRUB n'apprécie pas trop. De toute façon, lire du LUKS avec GRUB, je n'ai jamais essayé et pas vraiment envie de le faire.

        • [^] # Re: √áa tombe √† pic

          Post√©¬†par¬† . √Čvalu√©¬†√†¬†4.

          Grub est parfaitement capable de lire un volume LUKS version 1, il y a plusieurs articles sur le net qui détaillent comment placer la partition /boot sur un volume LUKS.
          Par contre j'insiste bien sur LUKS version 1, de nombreuses distributions commencent à introduire la version 2 par défaut.

    • [^] # Re: √áa tombe √† pic

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†4.

      Je ne suis pas s√Ľr de ce que GRUB prend vraiment en charge : pour le RAID1, j'en suis certain, mais pour le reste, il faudrait vraiment essayer.

      RAID6, c'est avec deux disques de parité en effet.

  • # tags LVM

    Post√©¬†par¬† . √Čvalu√©¬†√†¬†8.

    mais on peut √©galement pr√©ciser au besoin, sur quel volume physique en particulier ‚Äď membre de ce groupe de volumes ‚Äď il sera effectivement stock√©.

    On peut aussi associer un tag à un volume physique, par ex. @rapide pour un SSD et @lent pour un magnétique, ce qui permet d'éviter de devoir se souvenir du nom précis du device

  • # BTRFS aussi

    Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†4.

    Le raid sous LVM est effectivement un tr√®s bonne chose. Je n'avais pas trop investigu√© quand j'ai fait mon NAS perso en LVM au dessus de RAID (md) l'ann√©e derni√®re, mais j'aurais probablement d√Ľ, √ßa aurait √©t√© plus souple effectivement.

    Après pour aller plus loin il y a aussi BTRFS. En effet ce "système de fichier" (peut-on encore l'appeler ainsi ???) permet :
    - d'être déployé sur plusieurs disques,
    - de mettre en place du RAID (0, 1 et 10 réputés fiables ; 5 et 6 encore incertains - voir https://btrfs.wiki.kernel.org/index.php/Using_Btrfs_with_Multiple_Devices et https://btrfs.wiki.kernel.org/index.php/RAID56)
    - de créer des sous-volumes, limités ou non par des quotas de volumétrie
    - de créer des snapshots

    Utilisant du BTRFS depuis quelques temps dans un autre contexte, la fiabilité actuelle (hors RAID et disques multiples, non testé) me semble bonne et les dernières mises à jours ont amélioré l'utilisation de l'espace disque par les métadonnées.
    Reste les performances qui restent souvent en dessous d'EXT4 ou XFS (voir benchmark sur Phoronix : https://www.phoronix.com/scan.php?page=article&item=linux-50-filesystems). Donc à arbitrer en fonction de ses besoins.

    • [^] # Re: BTRFS aussi

      Post√©¬†par¬† . √Čvalu√©¬†√†¬†10. Derni√®re modification le 24/05/19 √† 16:02.

      Btrfs marche bien jusqu'a ce qu'il ne marche plus du tout. Et quand ça ne marche pas, btrfs check ne vous sauvera sans doute pas. Pour réparer une partition BTRFS, ne comptez pas sur la doc officielle. Vous allez ajouter votre cas aux dizaines de cas non résolus sur stack overflow et compagnie.
      Et si vous avez l'idée de chercher des solutions aux problèmes rencontrés, si votre partition n'est plus montable vous avez perdu.

      Les features sont chouettes, mais j'en suis à la 3 ème partition pas récupérable et à 10 To de perdus. Ça n'est pas aux fonctionnalités qu'on reconnait un bon système de fichiers, c'est aux possibilités de restauration quand quelque chose part en sucette.

      • [^] # Re: BTRFS aussi

        Post√©¬†par¬† . √Čvalu√©¬†√†¬†6. Derni√®re modification le 24/05/19 √† 18:36.

        √Čnervement √† part, btrfs restore a l'air de faire le taf. La doc de btrfsck √©tait pas aussi bonne la derni√®re fois que j'avais regard√©.
        Mais reste qu'apr√®s 10 ans √† faire de l'administration syst√®me Linux pour mes loisirs, le seul filesystem o√Ļ j'ai eu √† me prendre la t√™te pour des restauration lors de simples pannes d'√©lectricit√© ou des pannes disque partielles c'est btrfs et c'√©tait sur du Debian stretch. Et je parle pas des donn√©es en cours d'√©criture lors de la panne de courant mais de la partition elle m√™me.

    • [^] # Re: BTRFS aussi

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†3. Derni√®re modification le 27/05/19 √† 12:46.

      Sauf que btrfs raid1 dégradé (avec un dique dur en panne) passe en lecture seule au deuxième boot ce qui rend le changement de disque dur et la resynchronisation beaucoup plus complexe que nécessaire. Il semble qu'il y ai maintenant une solution[1] que je n'avais pas trouvée à l'époque. En tout cas ça m'avait fait revenir à mdadm.

      [1] https://unix.stackexchange.com/questions/334228/btrfs-raid1-how-to-replace-a-disk-drive-that-is-physically-no-more-there/496853#496853

  • # ZFS

    Post√©¬†par¬† . √Čvalu√©¬†√†¬†3.

    ZFS le permet aussi (https://zfsonlinux.org/). Surtout il supporte la compression. Du coup j'abandonne progressivement lvm…

    • [^] # Re: ZFS

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†9. Derni√®re modification le 24/05/19 √† 17:47.

      De mon c√īt√© j'utilise ZFS √©galement car :
      - performances en ZRAID largement supérieures à mdadm et au RAID de LVM
      - avoir trouze milles instantanés ne ralentis pas du tout ZFS, alors que ça met LVM à genoux
      - compression
      - les sous-volumes sont ultra faciles à gérer : il n'y a rien à gérer. Ils se partagent l'ensemble de l'espace de stockage donc on n'a pas à se préoccuper du fait que l'un est trop petit et l'autre trop gros (on peut leur appliquer une limite de taille si besoin, ça prend 10 secondes)
      - si j'ai des disques-durs et des SSD √ßa se d√©brouille tout seul pour que les lectures soient r√©parties en fonction de la rapidit√©/disponibilit√© des disque (donc majoritairement depuis les SSD). Je crois que mdadm le fait d√©sormais, sinon il faut l'option ¬ę¬†write-mostly¬†¬Ľ mais c'est moins parfait. Je ne sais pas pour LVM
      - la duplication vers une autre machine (aka sauvegarde via des instantanés, via logshipping) est juste magique : ça ne transfert que les données modifiées sans avoir à lire tous les fichiers, donc souvent très rapide. TOUTES les données modifiées, quels que soient les changements, même si on a restauré un fichier avec une date et une taille identique, même si on a modifié une métadonnée. Et ça ne bloque pas comme rsync sur les gros fichiers de disques virtuels
      - ça fait une vérification de l'intégrité des données chaque semaine (sur Debian au moins) et ça répare tout seul sans marquer un volume physique comme HS tel que le fait mdadm

      Il y a probablement des inconvénients, je ne suis pas encore tombé dessus

      • [^] # Re: ZFS

        Post√©¬†par¬† . √Čvalu√©¬†√†¬†2.

        Le petit plus que j'avais noté en montant un raid 1 de 3To avec zfs : 10s (pour deux disques de 3 To, oui) de formatage et c'était bon pour la prod, et ca fait sacré bon bout de temps* que ça dure …

  • # Outils en cas de probl√®me

    Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†4.

    Quels outils sont à la disposition de l’admin sys pour comprendre et monitorer ce qu’il se passe et pour réparer quand c’est cassé ?

    Parce que mdadm est l√† depuis suffisamment longtemps pour que tout le monde soit au courant d‚Äôo√Ļ regarder, c‚Äôest beaucoup moins le cas pour LVM, BTRFS ou ZFS (qu‚Äôon se comprenne, je dis pas qu‚Äôil ne faut pas utiliser ces FS, je les utilise moi m√™me).

    • [^] # Re: Outils en cas de probl√®me

      Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†2.

      Si tu as un LVM sur un raid, le remontage en cas de casse est au niveau du RAID. Donc pas de différence avec l'usage de mdadm sans LVM.

      Adhérer à l'April, ça vous tente ?

      • [^] # Re: Outils en cas de probl√®me

        Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

        Je ne comprends pas trop. Dans le cas d'un raid logiciel md linux habituel, mdadm permet d'investiguer. mdadm --examine --scan, fait le taf. Il Il est aussi assez facile de retrouver dans le superblock quel disque était à quelle position dans le raid avec mdadm et de retrouver les traces des RAIDs passés. La question était au sujet des outils équivalents du monde LVM. Vu que c'est un raid LVM, ça n'est pas mdadm qui va permettre de l'investiguer, non ?

        • [^] # Re: Outils en cas de probl√®me

          Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

          Il me semble qu'une partie du code RAID d'LVM est partagé avec mdadm, donc les outils sont peut-être portable si ce n'est pas déjà fait. Jamais testé, cependant. Je suis plus à l'aise avec le sandwich classique LVM over mdadm…

          • [^] # Re: Outils en cas de probl√®me

            Post√©¬†par¬† . √Čvalu√©¬†√†¬†2.

            La doc sur Debian Stretch est au poil et √ßa a l'air plut√īt simple √† manipuler. Il semble que c'√©tait √† √©viter √† l'√©poque de Wheezy et encore jeune sous Jessie. Avec Debian Buster qui pointe son nez, √ßa doit √™tre mature depuis le temps.

            • [^] # Re: Outils en cas de probl√®me

              Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

              Effectivement, √ßa √† l'air plus agr√©able √† lire que la page de manuel. Je vais y jeter un Ňďil. Merci pour le lien

              • [^] # Re: Outils en cas de probl√®me

                Post√©¬†par¬† . √Čvalu√©¬†√†¬†2.

                Heu, c'est la page de manuel, le lien donné par damaki pointe vers manpages.debian.org

                • [^] # Re: Outils en cas de probl√®me

                  Post√©¬†par¬† . √Čvalu√©¬†√†¬†1. Derni√®re modification le 27/05/19 √† 07:49.

                  Très juste, j'avais lu en diagonale au milieu des infos pour les élections, désolé. Je pensais à la page du manuel principale de LVM, en fait…

                  • [^] # Re: Outils en cas de probl√®me

                    Post√©¬†par¬† . √Čvalu√©¬†√†¬†2.

                    Une petite discussion en anglais sur les pour et contre du RAID LVM (in english) : https://unix.stackexchange.com/questions/150644/raiding-with-lvm-vs-mdraid-pros-and-cons

                    En pratique, il semble que mdadm est utilisé en sous-main par LVM pour gérer le RAID. Mais qu'à l'époque de cet échange (il y a deux ans environs), les outils d'administrations de mdadm n'étaient pas utilisables en direct… ça a peut-être évolué. A tester !

                    • [^] # Re: Outils en cas de probl√®me

                      Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

                      J'étais effectivement tombé sur cet article pour parler de la maturité des raid lvm. C'est à prendre avec de grosses pincettes vu que l'analyse se base sur Debian Jessie. Ensuite, le scénario catastrophe qu'ils décrivent à la fin se passe à peine mieux en raid 1 avec mdadm sur une debian stretch.
                      J'ai encore eu le cas pas plus tard qu'hier sur un serveur sur lequel un disque dur se retrouve √† refuser les lectures et les √©critures (sans doute soucis de cablage ou de contr√īleur sas). mdadm --re-add a refus√© de fonctionn√© √† chaque fois pour remettre le raid sur les rails et j'ai du me fader une reconstruction int√©grale les 3 fois avec mdadm --add o√Ļ √ßa s'est produit.

                    • [^] # Re: Outils en cas de probl√®me

                      Post√©¬†par¬† . √Čvalu√©¬†√†¬†3.

                      Cet article raconte des conneries¬†: √ßa n'est pas dmraid qui est utilis√© en sous-main, LVM a son propre syst√®me de m√©ta-donn√©es diff√©rent de dmraid, d'o√Ļ l'incompatibilit√© des outils d'administration. Cependant, les deux technologies utilisent les devices multiples (MD) du kernel, √† travers le device-mapper (DM) pour LVM‚ÄĮ; oui, c'est pas pratique d'avoir des noms qui sont juste l'inversion de deux lettres. Bref, les algorithmes sous-jacents des diff√©rents types d'assemblage sont la m√™me impl√©mentation, mais la gestion ¬ę¬†haut-niveau¬†¬Ľ est faite par des outils diff√©rents.

                      C'est assez courant dans le kernel, afin de ne f√Ęcher personne et de ne pas trop lancer de flamewar¬†: les choses assez bas niveau sont plus consensuelles que les d√©cisions plus haut niveau, en plus g√©n√©ralement plus li√©es √† l'userspace.

  • # Packages Grub pour Debian

    Post√©¬†par¬† (site Web personnel) . √Čvalu√©¬†√†¬†2.

    Hello,

    J'avais joué à ça il y a quelques temps, les packages que j'avais recompilé pour avoir le support du RAID1 sont là (version jy) :
    http://www.lenhof.eu.org/grub_debian/

    L'installateur Debian ne supportait pas ça… Donc j'avais créé avec un seul PV, puis recompiler les packages grub, mis ces packages là en hold au niveau dpkg, et puis ensuite mirroré et là cela fonctionnait.

    Les quelques bugs reports que j'avais créé à l'époque :
    https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=783089
    https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=868268

    Et ces 2 là ont été résolus depuis :
    https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=782580
    https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=782591

    Si quelqu'un a le courage de rebosser sur le sujet et de patcher l'installateur (j'ai un gros doute que cela ait été fait)

    A votre bon cŇďur,

  • # Pas mal‚Ķ

    Post√©¬†par¬† . √Čvalu√©¬†√†¬†1.

    Ces nouvelles fonctionnalités sont intéressantes dans certains cas de figures mais ne sont pas révolutionnaire. Le mirroring LVM (équivalent RAID-1) existe déjà depuis longtemps et fonctionne bien, y compris en mode cluster sur un stockage partagé.

    La souplesse de LVM permet déjà de faire presque tout. Par exemple j'ai un setup avec 3 HDD en RAID5 avec md et 1 SSD tout seul. En mettant ces deux PV dans le même VG, je peux déplacer mes données entre le RAID5 et le SSD très facilement avec pvmove.

    D'apr√®s mes tests, la gestion des erreurs et la reconstruction des donn√©es est plut√īt efficace avec MD, a voir si √ßa marche aussi bien avec le raid int√©gr√© √† LVM. En cas de pertes des m√©tadonn√©es, LVM¬†peut √™tre tr√®s capricieux.

  • # Et faisable en ligne

    Post√©¬†par¬† . √Čvalu√©¬†√†¬†5.

    Autre avantage de LVM non cit√©¬†: la conversion en RAID peut se faire en ligne sur un LV d√©j√† existant‚ÄĮ! Ainsi, on peut passer en RAID sans downtime, en live.

    Par contre, pour ce qui est gestion dans GRUB, ça fait longtemps que j'ai laissé tomber d'essayer de jouer avec le feu : je le fais à l'ancienne avec un /boot en ext{2,3,4} séparé dans une bonne vieille partition, et tout le reste en LVM. Toutes les distros gèrent ça bien depuis des lustres, et ça évite bien des problèmes.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n’en sommes pas responsables.