Forum général.cherche-logiciel Gestion de parc informatique (20 postes)

Posté par  (site web personnel) .
Étiquettes : aucune
1
7
sept.
2010
Cher furom,

Un responsable d'une PME d'une vingtaine de personnes m'a parlé de son parc informatique. Il est du genre paranoïaque pour sa gestion car les données qu'il conserve sont évidemment compliquées à recréer...

... et que les incidents ont toujours lieu la veille d'une grosse échéance.

Son problème doit être sensiblement le même que toute entreprise :
1. D'un côté, il y a un serveur. Ce serveur n'est à ma connaissance qu'un bon gros serveur de fichiers type "samba", mais je suppose qu'il utilise un système alternatif (genre windows 200x server).

Ce serveur fait aujourd'hui l'objet de toute l'attention : il est répliqué 2 fois par jour :
A. Une fois sur support externe type cartouche ou je ne sais quoi, qui est crachée vers 20h tous les soirs.
B. Une fois sur "internet".

Ce serveur me semble presque bien géré : il est peu probable que la cartouche de la veille, stockée hors des locaux par une des deux personnes en charge de cette mission ET l'hébergement en ligne ET le serveur aient une panne.

Toutefois, ce qui me gène est que la sauvegarde n'est pas incrémentale. Si un fichier est sauvagement corrompu (par un crash d'application, ou par une initiative volontaire) il sera gentiment intégré aux sauvegardes...

et donc si on ne s'en aperçoit pas immédiatement, on ne peut plus revenir en arrière !

Première question : existe-t-il un système de fichier / système de sauvegarde qui soit :
A. Utilisable sous windows. (parce que les progiciels de compta utilisés sont sur cet OS).
B. Incrémental, "type cvs" : on pourrait voir les modifications "étape par étape" (jour par jour) et on pourrait revenir à des versions...
C. Paramétrable : pour éviter de stocker 2 To de données inutiles, pouvoir purger des versions pour ne garder que le "annuel/trimestriel/mensuel/5*hebdo/7*quotidien" de chaque fichier. (par exemple...)

Ma solution, ne connaissant pas de solution triviale à ce problème, consiste à faire des sauvegardes quotidiennes et à avoir un script de nettoyage des sauvegardes à conserver/virer.
I.e : le 10 septembre, on efface la sauvegarde du 3. Hier on avait déjà viré celle du 2, mais on garde toujours celle du premier... Rien de bien méchant...



L'autre impératif est de pouvoir remonter le système informatique rapidement en cas de crash/incendie. Le serveur répond aujourd'hui à cet impératif : on rachète un nouveau serveur, on restaure la sauvegarde et "pif/paf/poof".

En revanche, les postes de chaque utilisateur (20 personnes) ne sont pas gérés de cette façon là. Il faudrait donc, en cas d'incendie dans le cabinet, installer les 20 postes, puis 20 fois MS Office, 20 fois BiduleCompta2010, etc.

On arrive donc à la seconde question :
Quelle méthodologie utiliser pour pouvoir gérer 20 "ghosts" sachant que je suppose, chaque poste a une licence spécifique pour ses logiciels...

Comment ré-installer très rapidement 20 postes de configuration équivalente, aux licences près ?

Rapidement = à peu près une journée, grand maximum.

J'ai pu utiliser (pas administrer) NAL (zenworks/Novell) dans une entreprise, ça me semblait être une bonne solution, mais est-ce vraiment pertinent pour 20 postes ? (prix/facilité de maintenance/...)

J'ai pensé aussi utiliser un système type virtualisation pour que chaque poste physique soit connecté à un poste virtuel plus facile à sauvegarder... mais j'ai peur que cela devienne trop parano : pour un problème qui arrive statistiquement une fois tous les 10 ans et fait perdre 2 jours maximum (réinstallation de 20 postes), il est absurde de faire "perdre 1 minute par jour" à 20 personnes, soit 60 jours par an...

Bref, quelles solutions utilisez-vous, chez vous ?
J'ai cherché un peu sur google, mais je ne tombe que sur des logiciels de suivi de parcs informatiques... pas d'installation de logiciels centralisée !

Par avance, merci.
  • # Bacula

    Posté par  . Évalué à 3.

    Le système de sauvegarde Bacula peut répondre à ces besoins, il tourne sous Linux ET Microsoft
    • [^] # Re: Bacula

      Posté par  (site web personnel) . Évalué à 1.

      Merci pour le tuyau. Effectivement, à lire
      http://www.bacula.org/fr/dev-manual/etat_actuel_Bacula.html cet outil est capable de centraliser les sauvegardes, et de plannifier le hebdo/quotidien/mensuel.

      Cet outil résout donc mon problème de serveur à sauvegarder, avec une visibilité meilleure que la solution aujourd'hui déployée.
      • [^] # Re: Bacula

        Posté par  . Évalué à 2.

        Et aussi Backuppc [http://backuppc.sourceforge.net/]
        Sauvegarde tout système. J'utilise avec bonheur...
        ( à chaque question sur le sujet ce sont les deux qui reviennent...)
        • [^] # Re: Bacula

          Posté par  (site web personnel) . Évalué à 2.

          En analyse minute, le site web de backuppc le met mieux en valeur. Il semble plus simple, vu mon besoin.
          • [^] # Re: Bacula

            Posté par  . Évalué à 2.

            Les avantages de Bacula :
            - Sauvegarde sur disque, bandes, librairies de bandes,...
            - Un directeur centrale vous permet de sauvegarder les serveurs clients sur des disque ou bandes qui peuvent être sur différents PCs.

            C'est ce qui m'avait fait pencher vers celui-ci
            • [^] # Re: Bacula

              Posté par  (site web personnel) . Évalué à 2.

              C'est effectivement un avantage, mais relativement inutile dans mon cas puisque je n'ai aucune donnée à stocker sur les PC connectés.

              (seules leurs données perso, mais genre vraiment perso... donc a priori, personne ne pleurera si c'est perdu... ce qui vaut le coup d'être rappelé quand même ^^).
  • # Ghost initial commun / ghost individuel

    Posté par  (site web personnel) . Évalué à 3.

    Sur du matériel identique, tu peux partir sur un socle commun à tous les postes, puis les sauvegarder de nouveau une fois les logiciels spécifique à chaque poste.
    Une gestion centralisée c'est bien quand tu as besoin de déployer le même logiciel sur plusieurs postes. C'est assez lourd à mettre en place. ( packaging, déploiement, ... )

    Système - Réseau - Sécurité Open Source

    • [^] # Re: Ghost initial commun / ghost individuel

      Posté par  (site web personnel) . Évalué à 1.

      C'est clair : une bonne gestion de parc commence par la mise en place de matériel homogène, ou avec le moins de divergence possible.

      Dans les outils de clonage les plus utilisés on trouve Symantec Ghost (propriétaire). Il existe aussi CloneZilla, mais je n'ai pas eu l'occasion de l'utiliser.

      http://www.clonezilla.org/

      Après reste le déploiement de logiciels spécifique à tel ou tel poste. Si les applications supportent une exécution depuis un serveur, tu dois pouvoir mettre en place un serveur avec partage Samba limité aux utilisateurs concernés. Ce qui réduit de déploiement à l'accès à un partage de fichiers.

      Avantage de Symantec Ghost par rapport à CloneZilla (sauf erreur de ma part) est qu'il permet de déployer des fichiers et d'exécuter des scripts sur les postes clients ; ce qui veut dire que pour les applications les plus simples, il est possible de faire du télé-déploiement. Il doit être possible de le faire via des outils libres, mais ce sera avec un peu plus de temps et de compétence.

      Et par ailleurs il existe aussi le logiciel GLPI (Gestionnaire Libre de Parc Informatique) qui pourrait répondre à certains des besoins.

      http://www.glpi-project.org/

      Il est généralement couplé à OCS Inventory, qui devrait aussi pouvoir t'apporter des éléments utiles en terme de gestion de parc.

      http://www.ocsinventory-ng.org/index.php?page=French
      • [^] # Re: Ghost initial commun / ghost individuel

        Posté par  (site web personnel) . Évalué à 2.

        Clonezilla répond à certains besoins...

        J'ai vu un mode "création de ghosts" où je peux créer des DVDs qui permettent de restaurer les postes un par un.

        J'ai vu un mode "server edition" qui boot sur le réseau et semble capable de gérer une installation de la même image sur tous les PCs à la fois, ce qui semble sympathique :-)

        Je pense que le mode "ultime", de mon point de vue est :
        1. Installer un serveur NFS (ou équivalent) sur un "serveur" qui stockera les images des PC.
        2. Créer un CD de boot clonezilla.

        Puis, pour chaque "PC-de-Robert" dans "PCs-la-boite"
        A. Boot sur le CD de clonezilla
        B. Montage du NFS
        C. sauvegarde de l'empreinte disque sur le serveur as robert.savg

        Sauvegarder les images comme je stocke les fichiers du serveur.

        Si catastrophe nucléaire demain :
        A. Boot sur CD de clonezilla
        B. Montage NFS sur le serveur (s'il a survécu) ou un nouveau serveur qui contient les ISO que j'avais stockées ailleurs.
        C. Restauration du PC de robert.

        5 minutes de manip par poste pour la sauvegarde, pareil pour la restauration, puis quelques heures de DL/install je suppose.

        Ceci me semble satisfaisant :-)

        Côté serveur, je pense déployer Bacula avec 2 sauvegardes (disques + internet).

        Je suis un peu "déçu" du fait que le serveur clonezilla ne semble pas capable de stocker les images disque de façon automagique et de devoir passer par NFS... mais j'ai peut-être juste loupé un fonctionnalité...
  • # archivage des bandes & clonezilla

    Posté par  . Évalué à 2.

    pour le problème du backup non incrémental, une rotation des bandes fait l'affaire, avec une sortie régulière pour archivage:

    4 bandes pour la semaine (1 par jour sauf le vendredi, qui passe dans le WE), 4 pour le mois (1 par WE), et 1 par mois.

    en cas de corruption fichier, il est retrouvable dans une archive...

    Pour faire suite aux commentaires précédents, Bacula gère très bien cette rotation de bandes.

    Pour ce qui est des postes de travail à re-déployer rapidement, la solution simple est:

    - rien de critique sur les postes de travail, tous les fichiers sur le serveur de fichiers (et pourquoi pas les espaces utilisateurs aussi, via une conf samba ou windows de type domaine/active directory)
    - clonezilla pour déployer une image vierge sur tous les postes très rapidement
    - re-personnalisation des postes à la mano sur le reste de la journée.
  • # Samba + rsync

    Posté par  . Évalué à 3.

    J'utilise ca depuis des années : le top du top :

    http://www.ibiblio.org/pub/Linux/docs/LDP/linuxfocus/Francai(...)

    A. samba
    B. rsync+ création de répertoire par jours
    C. voir lien ci-dessus.

    a+
    • [^] # Re: Samba + rsync

      Posté par  (site web personnel) . Évalué à 2.

      C'est la méga-classe, ce script. Effectivement, Rsync était mon option préjugée de base, mais je n'imaginais pas qu'il existe le "backup" dans cette commande...


      ... vive les outils *NIX ^^

      Merci :-)
      • [^] # Re: Samba + rsync

        Posté par  (site web personnel, Mastodon) . Évalué à 1.

        + rsnapshot

        tu peut mettre rsync sur un pc windows (je l'ai déjà fait avec cygwin).
        Si le serveur sur internet est sous linux, ben tu fait une sauvegarde avec rsnapshot des données que le serveur windows upload.
        Rsnaphot travail avec des liens en dur sur les fichiers qui ont pas été modifié entre deux sauvegarde, donc ça bouffe moins d'espace disque.
  • # rdiff-backup

    Posté par  . Évalué à 3.

    Toutefois, ce qui me gène est que la sauvegarde n'est pas incrémentale. Si un fichier est sauvagement corrompu (par un crash d'application, ou par une initiative volontaire) il sera gentiment intégré aux sauvegardes...

    Ça se rapproche alors plus d'une synchro (afin d'avoir un miroir pas trop vieux) que d'une vraie sauvegarde (pouvoir remonter x jour/jour/mois dans le passé).

    J'utilise rdiff-backup depuis plusieurs année : c'est un rsync amélioré (en python).
    * C'est simple et donc pour les backups il n'y a rien de mieux : testable, facile à mettre en place, aucun doute sur la backup (hash...).
    * C'est scriptable.

    Et on peut le faire passer par n'importe quoi : ssh... Pour l'anecdote, j'ai mis en place une backup de tous les serveurs de fichier windows : une debian dans un coin montait avec smbfs tous les dossiers partagés et rdiff-backup faisait le reste.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.