Forum général.général La meilleure sauvegarde....

Posté par  .
Étiquettes : aucune
0
24
juil.
2008
Bonjour à tous, j'aurais besoin de votre avis...

J'ai deux serveurs dans ma petite entreprise qui sont séparés géographiquement (2 bâtiments séparés par une route.

J'avais envisagé et programmé mes sauvegardes toutes les nuits comme tel; tar.gz des données sur le serveur général; copie des données sur le deuxième serveur de sauvegarde.
Si bien que j'avais une sauvegarde de la veille.
Pour finir d'un poste client ayant un port firewire; je connectais un disque dur externe et copiais via samba les données du deuxième serveur de sauvegarde chaque semaine et emmenais le HDD externe loin.

Malheureusement, j'ai constaté que les données avec les années se sont multipliées. Désormais elle représente 40 Go; le serveur général sauvegarde toute la journée et que le temps de copie de mes données sur le disque dur externe est énorme...

Donc voici mes questions si quelqu'un pouvait m'aider:
- Je soupçonne que la bande passante du réseau soit surchargée; comment vérifier ça?
- Est-ce que le disque dur externe est le meilleur moyen de sauvegardes? le lecteur de bande n'a-t-il pas une vitesse d'écriture plus importante.
- J'ai des données en tar.gz de plus de 3Go; sont-elles exploitables?

Et pour finir que pensez-vous de mon système et qu'elles seraient les premières choses à faire?

Merci beaucoup...
  • # rsync ?

    Posté par  (site web personnel) . Évalué à 3.

    tu peux gagner un peu de temps avec rsync.

    Il y a aussi l'utilisation combiner de "cp -l" qui copie en faisant des liens pour gérer des versions sans prendre de la place.

    "La première sécurité est la liberté"

    • [^] # Re: rsync ?

      Posté par  . Évalué à 1.

      Je ne comprend pas cp -l; si je crée un lien vers un fichier au lieu de le copier, ça veut dire que je ne le sauvegarde pas non?
      • [^] # Re: rsync ?

        Posté par  (site web personnel) . Évalué à 2.

        Tu créer un premier backup complet. Tu le dupliques avec "cp -l" et tu rsync ton original sur cette copie. tu peux recommencer autant de fois que tu veux. Seul les nouveaux fichiers sont dupliqués. Cela fait une mini gestion de version.

        Il me semble qu'il existe des outils script qui fonctionnent ainsi.

        "La première sécurité est la liberté"

        • [^] # Re: rsync ?

          Posté par  . Évalué à 1.

          Excuses -moi si je suis un peu bouché mais quel est l'intérêt de faire cp -l.
          On pourrait très bien faire le backup puis rsync directement entre le backup et la source car là c'est comme s'il y avait doublon, non?

          De plus, ne vaudrait-il pas mieux faire cp -rl pour la récursivité?
          • [^] # Re: rsync ?

            Posté par  (site web personnel) . Évalué à 2.

            L'idée est de conservé un historique sans perdre trop de place avec les doublon. Une copie "brutale" est le meilleur moyen de perdre des données effacées ou modifiées par erreur mais ensuite copié par le backup.

            "La première sécurité est la liberté"

    • [^] # Re: rsync ?

      Posté par  . Évalué à 2.

      Je plussois pour rsync car :
      - Il ne copiera que ce qui a changé (gain énorme en bande passante et en temps processeur et en temps tout court)
      - Tu peux avoir des backups des versions précédentes de tes fichiers.
      • [^] # Re: rsync ?

        Posté par  . Évalué à 1.

        Tu peux avoir des backups des versions précédentes de tes fichiers.

        Comment ça? avec rsync?

        Si je comprends bien tu préconises un rsync des deux serveurs puis sur le serveur de sauvegardes faire un archivage des données pour pouvoir les mettre sur le disque dur externe...
        • [^] # Re: rsync ?

          Posté par  . Évalué à 2.

          Si je t'ai bien compris tu as
          - 2 serveurs en exploitation séparés géographiquement
          - 1 serveur de sauvegarde
          - Des postes client dont un avec disque-dur externe sur lequel tu peux copier les sauvegardes.

          Ce que je te propose c'est ça http://www.lalitte.com/rsync.html#increm depuis les serveurs en exploitation vers le serveur de sauvegarde.
          Puis en journée du serveur de sauvegarde vers le disque-dur externe de ton poste client et toujours avec rsync afin de ne pas te trimbaler d'énormes fichiers tar.gz
      • [^] # Re: rsync ?

        Posté par  . Évalué à 1.

        pour ma part, je me suis tourné vers une surcouche de rsync (ou plutôt de librsync) : rdiffbackup : http://www.nongnu.org/rdiff-backup/

        C'est simple à utiliser, ça gère l'historisation et le backup en remote est lisible et l'utilisation est à mon sens plus simple que rsync.
      • [^] # Re: rsync ?

        Posté par  . Évalué à 1.

        Ouai enfin sur des répertoires contenants des dizaines de milliers de fichier croit moi que niveau utilisation cpu, rsync il en bave :) (bon je sais c'est pas une bonne pratique)
    • [^] # BackupPC

      Posté par  . Évalué à 1.

      Et sinon, tu peux installer BackupPC (1) sur ton serveur de sauvegarde. Il utilise rsync, permet de faire des backups incrémentiels, de garder plusieurs versions et ne garde sur disque qu'une copie d'un même fichier.
      De plus, tu peux restaurer fichier par fichier. Donc fini les gros tar.gz de 3 Go.

      (1) http://backuppc.sourceforge.net/
  • # Unison ?

    Posté par  . Évalué à 1.

    Unison est un petit utilitaire qui permet aussi ce genre de chose, on peut synchroniser deux répertoires distant via ssh, il a une interface graphique simple à utiliser. Je m'en sers pour des répertoire de plus de 10Go sans probleme avec plusieurs milliers de fichiers. Il met quelques secondes pour repérer ce qui n'est pas à jour entre les deux cibles et ensuite il ne copie que ce qui est nouveau ou différent, mais il faut etre présent pour valider les copie. Il marche aussi en ligne de commande mais je ne connais pas.
    Si ca peut servir...
    • [^] # Re: Unison ?

      Posté par  . Évalué à 1.

      Moi j'utilise JFileSync pour une synchronisation entre le disque local et un serveur samba, et FullSync pour une synchronisation entre le disque local et un serveur FTP. Ils marchent tous deux très biens et disposent d'IHM biens faites.
      (Pour FullSync et le FTP toutefois, il faut activer une option cachée pour baser la synchronisation sur la taille des fichiers et non le timestamp qui n'est pas conservé sur mon serveur FTP)

      A noter, je les lance manuellement : je préfère avoir la maîtrise de la synchronisation et savoir quels fichiers sont copiés.

      Le volume que je traite est voisin du Go, mais c'est très rapide pour l'instant.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.