Forum Linux.général [Résolu] Gérer baie de stockage HP avec un serveur linux

Posté par  . Licence CC By‑SA.
Étiquettes :
-1
16
jan.
2014

Bonjour,

J'ai dans l'idée de gérer une baie de stockage HP Bay StorageWorks avec un serveur Linux.
Le serveur sera un IBM x3650.
Etant totalement novice dans le domaine des stockages de ce type, j'ai besoin de renseignements.

Premièrement, cela est-il possible ?
Puis-je utiliser du Red Hat ou du Debian ?
Quels paquets faut-il installer sur le serveur pour utiliser la baie ?

J'aurai certainement d'autres questions qui viendront en suivant :)

Merci !

  • # materiel

    Posté par  . Évalué à 8.

    avant de parler de logiciel, il faut surement se poser la question du materiel

    StorageWorks est une gamme de produits, il faudrait deja savoir quel produit tu penses utiliser, pour savoir s'il y a une intelligence dedans, ou si c'est juste un tiroir de disques durs.

    dans le cas du serveur avec intelligence (cpu, ram, disques)
    pourquoi aurais-tu besoin d'un serveur pour gerer celui là ?

    dans le cas de la baie de disques (disques seules)
    comment comptes-tu raccorder une baie de disques HP avec un serveur IBM ?
    je sais bien que le SATA/SAS/FC est normalisé

    une fois que tu es sur de pouvoir brancher les 2 produits ensembles, probalement que tu ne geres pas la baie elle meme, mais qu'elle dispose d'un firmware pour allouer les LUNs, ensuite seulement tu accedes à ces "morceaux" de baies dans ton linux.

    mais là encore ca va dependre de comment se fait la communication entre les deux machines.

    • [^] # Re: materiel

      Posté par  . Évalué à 1.

      J'ai retrouvé tant bien que mal le modèle exact de ma baie : c'est une HP Storageworks 4314.
      Pour le serveur qui gèrera la baie, je vais finalement utiliser un HP Proliant DL380G6 sur lequel je vais installer une debian.
      Concernant la connectique elle se fera par câble SCSI.

      Pour l'instant, je sais que mon serveur HP est 100% pris en charge par debian.
      Ce que je ne sais pas encore, c'est si debian va correctement reconnaître ma baie..

      • [^] # Re: materiel

        Posté par  . Évalué à 3.

        si la baie est scsi, c'est comme si les disques etaient DANS ton Proliant380G6
        donc y a pas de raison que ton OS pose des soucis,

        le Proliant va fournir la carte raid qui va piloter la baie et ses disques, et presenter un ou plusieurs volumes raid à ton linux.

        • [^] # Re: materiel

          Posté par  . Évalué à 1. Dernière modification le 05 février 2014 à 16:15.

          Pour l'instant j'ai installé Debian (pas de soucis d'install à part le driver de la carte réseau) sur mon serveur Proliant ML350 G4. J'ai encore changé de serveur car la carte PCI gérant les baie ISCSI ne passe sur mes autres serveurs HP, sauf si je rajoute une carte adaptateur que je n'ai pas !

          J'ai une question avant de commencer à brancher ma baie sur le serveur :

          Comment être sûr que la carte PCI gérant la baie ISCSI ( U320 PCI-X-133 ) fonctionne correctement sur ma Debian ?

          En téléchargeant le paquet pciutils et en tapant la commande [b]lspci -nn [/b] j'obtiens ceci :

          00:00.0 Host bridge [0600]: Intel Corporation E7520 Memory Controller Hub [8086:3590] (rev 0c)
          00:02.0 PCI bridge [0604]: Intel Corporation E7525/E7520/E7320 PCI Express Port A [8086:3595] (rev 0c)
          00:04.0 PCI bridge [0604]: Intel Corporation E7525/E7520 PCI Express Port B [8086:3597] (rev 0c)
          00:06.0 PCI bridge [0604]: Intel Corporation E7520 PCI Express Port C [8086:3599] (rev 0c)
          00:1c.0 PCI bridge [0604]: Intel Corporation 6300ESB 64-bit PCI-X Bridge [8086:25ae] (rev 02)
          00:1d.0 USB controller [0c03]: Intel Corporation 6300ESB USB Universal Host Controller [8086:25a9] (rev 02)
          00:1d.1 USB controller [0c03]: Intel Corporation 6300ESB USB Universal Host Controller [8086:25aa] (rev 02)
          00:1d.4 System peripheral [0880]: Intel Corporation 6300ESB Watchdog Timer [8086:25ab] (rev 02)
          00:1d.5 PIC [0800]: Intel Corporation 6300ESB I/O Advanced Programmable Interrupt Controller [8086:25ac] (rev 02)
          00:1d.7 USB controller [0c03]: Intel Corporation 6300ESB USB2 Enhanced Host Controller [8086:25ad] (rev 02)
          00:1e.0 PCI bridge [0604]: Intel Corporation 82801 PCI Bridge [8086:244e] (rev 0a)
          00:1f.0 ISA bridge [0601]: Intel Corporation 6300ESB LPC Interface Controller [8086:25a1] (rev 02)
          00:1f.1 IDE interface [0101]: Intel Corporation 6300ESB PATA Storage Controller [8086:25a2] (rev 02)
          01:02.0 Ethernet controller [0200]: Broadcom Corporation NetXtreme BCM5705_2 Gigabit Ethernet [14e4:1654] (rev 03)
          01:04.0 System peripheral [0880]: Compaq Computer Corporation Device [0e11:00d7] (rev 01)
          02:02.0 PCI bridge [0604]: Intel Corporation 21152 PCI-to-PCI Bridge [8086:b152]
          02:03.0 SCSI storage controller [0100]: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI [1000:0030] (rev 08)
          02:03.1 SCSI storage controller [0100]: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI [1000:0030] (rev 08)
          03:00.0 VGA compatible controller [0300]: Advanced Micro Devices [AMD] nee ATI Rage XL [1002:4752] (rev 27)
          03:01.0 System peripheral [0880]: Compaq Computer Corporation Advanced System Management Controller [0e11:a0f0]
          03:02.0 Memory controller [0580]: Compaq Computer Corporation Remote Insight II board - Lights-Out [0e11:005a]
          03:04.0 Memory controller [0580]: Compaq Computer Corporation Remote Insight II board - PCI device [0e11:00b1] (rev 01)
          05:00.0 PCI bridge [0604]: Intel Corporation 6700PXH PCI Express-to-PCI Bridge A [8086:0329] (rev 09)
          05:00.2 PCI bridge [0604]: Intel Corporation 6700PXH PCI Express-to-PCI Bridge B [8086:032a] (rev 09)
          06:01.0 PCI bridge [0604]: IBM PCI-X to PCI-X Bridge [1014:01a7] (rev 03)
          07:04.0 RAID bus controller [0104]: Compaq Computer Corporation Smart Array 64xx [0e11:0046] (rev 01)
          09:01.0 Ethernet controller [0200]: Broadcom Corporation NetXtreme BCM5703 Gigabit Ethernet [14e4:16c7] (rev 10)

          On voit bien les lignes :

          02:03.0 SCSI storage controller [0100]: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI [1000:0030] (rev 08)
          02:03.1 SCSI storage controller [0100]: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI [1000:0030] (rev 08)

          Cela suffit-il à dire que mon système gère bien cette carte ?

          • [^] # Re: materiel

            Posté par  . Évalué à 3.

            ca veut dire que ton OS la voit, pas qu'il la gere

            pour savoir s'il la gere, je ferais plutot un lshw en filtrant plus ou moins, tu dois retrouver la carte, et savoir si y a un module qui lui correspond,

            là ca voudrait dire que ton linux voit ET gere la carte.

            par contre dans ton exemple tu parles d'une carte ISCSI, mais la sortie de ta commande nous parle de carte SCSI (sans le I devant)

            ce detail va avoir son importance pour la suite.
            dans un cas, tu configures tes grappes de disques via le bios de la carte SCSI, puis ton linux va voir autant de "disques" que de grappes, et cela avec un simple fdisk -l

            dans l'autre, c'est de la config aussi dans le firmware, mais ta machine doit alors communiquer en iSCSI avec le "serveur iscsi" pour aller chercher ses disques

  • # lshw

    Posté par  . Évalué à 1.

    Voici ce que j'obtiens :

               *-scsi:0
                    description: SCSI storage controller
                    produit: 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI
                    fabriquant: LSI Logic / Symbios Logic
                    identifiant matériel: 3
                    information bus: pci@0000:02:03.0
                    version: 08
                    bits: 64 bits
                    horloge: 66MHz
                    fonctionnalités: scsi pm msi pcix bus_master cap_list
                    configuration: driver=mptspi latency=72 maxlatency=18 mingnt=17
                    ressources: irq:24 portE/S:4000(taille=256) mémoire:fbee0000-fbefffff mémoire:fbec0000-fbedffff
               *-scsi:1
                    description: SCSI storage controller
                    produit: 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI
                    fabriquant: LSI Logic / Symbios Logic
                    identifiant matériel: 3.1
                    information bus: pci@0000:02:03.1
                    version: 08
                    bits: 64 bits
                    horloge: 66MHz
                    fonctionnalités: scsi pm msi pcix bus_master cap_list
                    configuration: driver=mptspi latency=72 maxlatency=18 mingnt=17
                    ressources: irq:25 portE/S:4400(taille=256) mémoire:fbea0000-fbebffff mémoire:fbe80000-fbe9ffff

    On voit bien mes deux cartes SCSI.

    Donc ça sent plutôt bon ;)

    Effectivement je me suis trompé, il s'agit bien de cartes SCSI.

    • [^] # Re: lshw

      Posté par  . Évalué à 3.

      donc si c'est du SCSI,
      il faut pendant la phase de boot, appuyer sur une touche (ou une combinaison de touche) pour entrer dans le bios de la carte SCSI et ainsi configurer les grappes raid que tu veux avoir.

      ensuite ca reboote, et ton linux ne voit que les "grappes" comme etant des disques (/dev/sda, /dev/sdb, etc)
      et non plus les disques individuels.

      ex: une baie de 10 disques, on l'on cree 2 raid5 de 5 disques,
      ton linux ne verra que 2 "disques", correspondant chacun à tes raid5.

      sinon pour repondre à quelqu'un il faut cliquer sur "repondre" sous son post,
      plutot que sur "envoyer un commentaire" qui donne l'impression que tu reponds à ton post d'origine.

      • [^] # Re: lshw

        Posté par  . Évalué à 1.

        Histoire d'être bien sûr que mes cartes SCSI étaient bien reconnues j'ai vérifié que j'avais le bon driver (mptspi) : http://cateee.net/lkddb/web-lkddb/FUSION.html

        Et effectivement c'est le bon :)

        Merci pour l'info, prochaine étape : branchement de la baie et me familiariser avec la gestion/configuration de la baie.

        • [^] # Re: lshw

          Posté par  . Évalué à 1.

          J'ai branché ma baie et voici ce que j'obtiens avec fdisk -l :

          Disk /dev/cciss/c0d0: 8589 MB, 8589803520 bytes
          255 heads, 32 sectors/track, 2056 cylinders, total 16776960 sectors
          Units = sectors of 1 * 512 = 512 bytes
          Sector size (logical/physical): 512 bytes / 512 bytes
          I/O size (minimum/optimal): 512 bytes / 512 bytes
          Disk identifier: 0xb9b0b9b0
          
                     Device Boot      Start         End      Blocks   Id  System
          /dev/cciss/c0d0p1   *        2048    15988735     7993344   83  Linux
          /dev/cciss/c0d0p2        15990782    16775167      392193    5  Extended
          /dev/cciss/c0d0p5        15990784    16775167      392192   82  Linux swap / Solaris
          
          Disk /dev/cciss/c0d1: 64.2 GB, 64243875840 bytes
          255 heads, 32 sectors/track, 15377 cylinders, total 125476320 sectors
          Units = sectors of 1 * 512 = 512 bytes
          Sector size (logical/physical): 512 bytes / 512 bytes
          I/O size (minimum/optimal): 512 bytes / 512 bytes
          Disk identifier: 0x000e141d
          
                     Device Boot      Start         End      Blocks   Id  System
          
          Disk /dev/cciss/c0d2: 4294 MB, 4294901760 bytes
          255 heads, 32 sectors/track, 1028 cylinders, total 8388480 sectors
          Units = sectors of 1 * 512 = 512 bytes
          Sector size (logical/physical): 512 bytes / 512 bytes
          I/O size (minimum/optimal): 512 bytes / 512 bytes
          Disk identifier: 0x111f3d73
          
                     Device Boot      Start         End      Blocks   Id  System
          /dev/cciss/c0d2p1   *          32     8192639     4096304    7  HPFS/NTFS/exFAT
          
          Disk /dev/cciss/c0d3: 869.8 GB, 869768429568 bytes
          255 heads, 63 sectors/track, 105743 cylinders, total 1698766464 sectors
          Units = sectors of 1 * 512 = 512 bytes
          Sector size (logical/physical): 512 bytes / 512 bytes
          I/O size (minimum/optimal): 512 bytes / 512 bytes
          Disk identifier: 0x466df1ea
          
                     Device Boot      Start         End      Blocks   Id  System
          /dev/cciss/c0d3p1              63    62910539    31455238+   7  HPFS/NTFS/exFAT
          /dev/cciss/c0d3p2        62910540   884988719   411039090    7  HPFS/NTFS/exFAT
          /dev/cciss/c0d3p3       884988720  1698761294   406886287+   7  HPFS/NTFS/exFAT

          Ma baie est bien détectée, il me reste à supprimer les anciennes partitions (à la base cette baie servait à un server Windows 2003).
          Par contre j'ai une question concernant la ligne :
          ruby
          /dev/cciss/c0d2p1 * 32 8192639 4096304 7 HPFS/NTFS/exFAT

          Puis-je la supprimer, ou bien est-elle indispensable au bon fonctionnement de la baie, auquel cas je n'y touche pas ?

          • [^] # Re: lshw

            Posté par  . Évalué à 3. Dernière modification le 14 février 2014 à 22:38.

            Puis-je la supprimer, ou bien est-elle indispensable au bon fonctionnement de la baie, auquel cas je n'y touche pas ?

            comme dit dans mes posts precedents, c'est une baie SANS intelligence.
            tu peux virer toutes les partitions et les refaire.

            1°) depuis le bios de la carte raid pour (re)definir les grappes raid
            2°) puis depuis ta ligne de commande pour partitionner les grappes (meme si ca ne me semble pas pertinent, je ferais plutot une partition sur une grappe)

            dans ton cas, je dirais que tu as un connecteur (c0)
            4 grappes (d0 à d3)
            puis des partitions dans certaines grappes. (p1…)

            mefiance quand meme, tu as peut-etre installé ton linux sur un disque SCSI dans le serveur,
            faudrait pas le supprimer par erreur
            car on voit bien du linux du c0d0p1, c0d0p2 et c0d0p5

            • [^] # Re: lshw

              Posté par  . Évalué à 1.

              J'ai supprimé les partitions et avant d'en recréer d'autres, j'aimerai installer les outils HP pour gérer ma baie :

              http://downloads.linux.hp.com/SDR/project/mcp/

              N'ayant pas d'accès internet sur mon serveur je suis obligé de télécharger un par un les fichiers deb ainsi que leurs dépendances…

              http://downloads.linux.hp.com/SDR/repo/mcp/pool/non-free/

              Je bloque à l'installation du module hp-health :

              dpkg -i hp-health_9.4.0.1.7-5._amd64.deb
              (Lecture de la base de données... 83780 fichiers et répertoires déjà installés.)
              Préparation du remplacement de hp-health 9.4.0.1.7-5. (en utilisant hp-health_9.4.0.1.7-5._amd64.deb) ...
                Trying to identify the Product Name...
                ERROR: This server is NOT supported!
                Error: No supported management controller found
              invoke-rc.d: initscript hp-health, action "stop" failed.
              dpkg : avertissement : le sous-processus ancien script pre-removal a retourné une erreur de sortie d'état 1
              dpkg: tentative d'exécution du script du nouveau paquet à la place...
                Trying to identify the Product Name...
                ERROR: This server is NOT supported!
                Error: No supported management controller found
              invoke-rc.d: initscript hp-health, action "stop" failed.
              dpkg: erreur de traitement de hp-health_9.4.0.1.7-5._amd64.deb (--install) :
               le sous-processus nouveau script pre-removal a retourné une erreur de sortie d'état 1
                Trying to identify the Product Name...
                ERROR: This server is NOT supported!
                Error: No supported management controller found
              invoke-rc.d: initscript hp-health, action "start" failed.
              dpkg : erreur lors du nettoyage :
               le sous-processus script post-installation installé a retourné une erreur de sortie d'état 1
              Des erreurs ont été rencontrées pendant l'exécution :
               hp-health_9.4.0.1.7-5._amd64.deb

              A priori mon serveur n'a pas l'air supporté et pourtant je suis persuadé du contraire.

              Si quelqu'un a une idée :)

              J'ai posté sur le forum HP en espérant en savoir plus :

              http://h30499.www3.hp.com/t5/System-Administration/hp-health-install-doesn-t-work-on-Debian-7-Wheezy/td-p/6380893

              • [^] # Re: lshw

                Posté par  . Évalué à 2.

                peut-etre parce qu'il faut avoir une carte de remote control.

                No supported management controller found

                • [^] # Re: lshw

                  Posté par  . Évalué à 1.

                  Ou que mon contrôleur RAID (Compaq Smart Array 6400 raid card controller) n'est pas supporté :(

                  J'ai réussi quand même réussi à installer HPACUCLI qui permet de voir l'état des disques de la baie.
                  HP-HEALTH envoie des informations sur le matériel de la baie (Températures, vitesse des ventilo etc..) mais je m'en passerai pour l'instant.

                  Je passe donc le sujet en résolu et je pars donc sur la suite de mon projet de sauvegarde avec Bacula !

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.