Journal Serveurs de fichiers

Posté par .
Tags : aucun
3
6
oct.
2009
Salutations à tous,

J'écris ce premier journal pour vous faire part d'un projet (enfin pour l'instant ce n'est qu'une idée de projet) que j'aimerais faire adopter par ma direction si les tests s'avèrent concluants.

La situation actuelle :
Au boulot, trois sites distant (dans des villes différentes, avec des plages IP également différentes) qui ont de vieux serveurs de fichiers sous NT4.0 (si si, ça existe malheureusement toujours). De plus ces serveurs sont sauvegardés sur cassettes DAT que les utilisateurs ne changent pratiquement jamais.

Ce qui est programmé :
En 2008 :
nous (le service info) - Nous voudrions changer 3 serveurs qui sont à l'agonie, et que l'on nous avait déjà promis l'année dernière.
direction - Ok, mais pas cette année, on vous inscrit ça sur le budget de l'année prochaine.

En 2009 :
direction - La crise, réduction de budget, tout ça. Est-ce possible techniquement que les autres sites viennent sur notre serveur ?
nous - Théoriquement oui, mais vu le débit de leur LS, ça va leur faire drôle ; d'ailleurs ils se connectent déjà sur nos serveurs pour certaines appli. et ils se plaignent (à raison) que c'est très lent.
direction - Ok c'est possible donc on fait comme ça, de toute façon on n'a plus les moyens d'acheter des serveurs (et pas que ça d'ailleurs, mais c'est une autre histoire).

Mon idée :
D'abord, pour avoir fait quelques tests, cela me semble tout à fait inconfortable de travailler dans ces conditions (on passe quand même d'une liaison 100 Mb/s à 512 kb/s).
Ensuite, ça va encore nous retomber sur le dos, car de toute façon c'est toujours de la faute du service informatique.
Et enfin, les utilisateurs, trouvant le serveur de fichier trop lent, finiront par laisser leurs documents sur leur disque dur, ils ne seront alors plus sauvegardés, et en cas de crash d'un disque dur, ce sera encore de notre faute s'ils ont tout perdu.
Il y a également le fait que je cherche au maximum à faire adopter linux au boulot, mais ça, chut, il ne faut pas le dire.

Je souhaiterais donc utiliser des PC normaux à la place des serveurs, avec samba au lieu de 2003/8 server et avec sauvegarde simplement sur un second disque. Déjà là, ça fait bien baisser la facture, mais ça ne règle pas le problème des sauvegardes en cas de désastre et puis ce n'est pas particulièrement transcendant. Mon idée est que les trois (voire quatre car je pourrais en mettre un chez nous) PC pourraient se synchroniser entre eux. Ainsi, chacun en se sauvegardant, sauvegarde également les fichiers des autres sites. Et comme il y a peu de chances pour que tous les disques durs de toutes les machines tombent en panne en même temps ou qu'il y ait un incendie, une innondation... sur tous les sites, la sauvegarde globale sera alors beaucoup plus fiable que ce que nous avons actuellement (surtout si je rajoute un 4e PC chez nous qui sera intégré dans notre système de sauvegarde).
La cerise sur le gâteau serait que les utilisateurs puissent accéder aux données de leur serveur samba local, et qu'en cas de panne ils soient dirigés (de façon transparente si possible, mais ce n'est pas une obligation) sur l'un des autres serveurs de fichiers. Ainsi ils auraient un mode de fonctionnement dégradé (en terme de vitesse) mais pourraient quand même accéder à leurs données ; ce qui serait un vrai plus par rapport à la situation actuelle. C'est d'autant plus important, que les délais d'interventions peuvent être de plusieurs jours sur ces sites.

Je n'ai pas encore eu le temps d'étudier sérieusement le truc, mais si je veux la cerise il faudra certainement un deuxième ordinateur par site (oups, la facture ré-augmente, mais je puis peut-être utiliser des PC d'occasion). Petite précision, je n'ai pas accès à la configuration des routeurs. Je me disais que le serveur SAMBA pourrait être sur un poste qui prendrait la décision de récupérer les données sur un ordinateur local ou sur un des autres ordinateurs distant en cas de non réponse du premier. Ou éventuellement avoir SAMBA sur l'ordinateur qui a les données, et le second poste ne s'occupe que du routage. Pour la synchronisation des données, je ne sais pas encore si ce sera du temps réel ou une synchro uniquement aux heures creuses. Ce sera plutôt en fonction de la bande passante utilisée, je verrai cela au cours d'essais ; car il ne faut pas que je pourrisse encore plus, le peu de bande passante disponible.

Voila en gros ce à quoi j'avais pensé, et que j'aimerais bien expérimenter afin de proposer (en cas de succès) une alternative à la décision prise qui ne va vraiment pas dans le sens des utilisateurs (pour nous c'est moins grave, nous avons l'habitude de nous faire taper dessus). Pensez-vous que ce soit jouable, ou que je vais perdre mon temps, ou que je m'y prends comme un pied et qu'il y a beaucoup plus simple comme méthode ; avez-vous eu à mettre en place quelque chose de similaire ?
Je suis ouvert à toute suggestion.
Merci de m'avoir lu, en espérant avoir été clair.
  • # Au secours

    Posté par . Évalué à 4.

    Tu dois vraiment être désespéré pour poster ça en journal plutôt que sur le forum.

    Sinon, ta sauvegarde entre les sites, elle risque pas de prendre trop longtemps si elle doit traverser un pauvre 512kbps ?
    • [^] # Re: Au secours

      Posté par . Évalué à 1.

      Le problème c'est surtout de se retrouver avec des mirroirs désynchronisés (un fichier modifié dans la journée sur 2 serveurs).
      • [^] # Re: Au secours

        Posté par . Évalué à 1.

        Les sites n'échangent pas de données (en fait si, mais pas sur leur serveur de fichiers) donc normalement il n'y a pas ce problème. À moins que tu parles en cas de panne du serveur local ?
    • [^] # Re: Au secours

      Posté par . Évalué à 5.

      Désespéré ? Il ne faut pas pousser, si je n'arrive à rien, il y a la solution demandée par la direction, ce ne sera pas terrible pour les utilisateurs des sites, mais ça marchera et ce sera bien sauvegardé.

      Je me suis posé la question forum/journal, et en fait je trouve que le forum c'est plutôt lorsque l'on attend une réponse rapide, voire une solution clef en main. Moi j'ai plutôt envie de tester plusieurs trucs, et monter le projet de A à Z. Avec de la chance, les serveurs tiendront bien encore quelques mois. J'y vois surtout une possibilité de me sortir un peu des pannes, des installations de postes, des mots de passe oubliés... du quotidien.

      La première synchro risque d'être longue, mais par la suite, si ne transite que les différences, cela devrait aller. Ce ne sont pas des sites avec beaucoup de personnes (<30).
  • # Commentaire supprimé

    Posté par . Évalué à 10.

    Ce commentaire a été supprimé par l'équipe de modération.

    • [^] # Re: Bon, plusieurs problèmes

      Posté par (page perso) . Évalué à 3.

      Malheureusement l'entreprise ou je suis est dans la même situation (même si un budget a enfin été dégagé cette année). Et ils ne considèrent pas les risques tant qu'il n'est pas trop tard, et là c'est la faute du service informatique.
    • [^] # Re: Bon, plusieurs problèmes

      Posté par . Évalué à -2.

      Si tu veux faire ce que tu envisages, tu peux regarder du coté de openafs ( http://www.openafs.org/ ), le coté partage de fichier sera plus ou moins résolu mais il faut penser à upgrader les lignes internet car 512kb/s car c'est un peu court.

      Euh ouais...

      Due to data loss issues present in all versions of OpenAFS prior to 1.5.62 and believed to be in IBM AFS, all Windows users are urged to upgrade.

      On va dire que ca donne pas super confiance...
      • [^] # Re: Bon, plusieurs problèmes

        Posté par (page perso) . Évalué à 5.

        ah tiens, tu la ramènes même avec SMB2 (*) ?
        Pour OpenAFS, tu parles d'une version de développement si tu avais quoté les bonnes parties :
        1.5.65 is also the most recent in the series of releases intended to provide new experimental features
        Il y a une version 1.4.11 http://www.openafs.org/release/latest.html qui correspond à la version stable (moins risquée).

        (*) http://linuxfr.org//~Dabowl_92/28752.html ya pas à dire SMB2 : vous l'éteignez pour ne pas être vulnérable, c'est pratique pour un serveur de fichiers (à fuir... pas mal d'entreprises n'étant pas en seven encore...). Pratique pour ceux ayant migré prématurément en vista...
        • [^] # Re: Bon, plusieurs problèmes

          Posté par . Évalué à 1.

          ah tiens, tu la ramènes même avec SMB2 (*) ?

          Oh c'est sur que je la ramenes, entre un bug quand tu envoies qqe chose de malforme et un FS qui n'ecrit pas correctement des donnees il y a un monde de difference.

          Pour OpenAFS, tu parles d'une version de développement si tu avais quoté les bonnes parties :
          1.5.65 is also the most recent in the series of releases intended to provide new experimental features
          Il y a une version 1.4.11 http://www.openafs.org/release/latest.html qui correspond à la version stable (moins risquée).


          C'est quelle partie de Due to data loss issues present in all versions of OpenAFS prior to 1.5.62 que tu as ratee ?

          (*) http://linuxfr.org//~Dabowl_92/28752.html ya pas à dire SMB2 : vous l'éteignez pour ne pas être vulnérable, c'est pratique pour un serveur de fichiers (à fuir... pas mal d'entreprises n'étant pas en seven encore...). Pratique pour ceux ayant migré prématurément en vista...

          Et quand Apache(ou autre soft) il est vulnerable, tu fais quoi pour pas etre vulnerable a par l'eteindre ? Surtout que cela n'empeche absolument pas l'echange de fichiers vu que SMB1 est encore la.

          Mais bon, j'oubliais qu'il est absolument impensable d'oser critiquer un projet libre sans se prendre qqe chose en retour, j'ai blesse l'amour propre de certains visiblement en signalant un probleme dans un projet libre !
          • [^] # Re: Bon, plusieurs problèmes

            Posté par (page perso) . Évalué à 4.

            Pas de source : ça n'a jamais existé !

            Mais c'est pas le client Windows qui est impacté uniquement : http://www.openafs.org/pipermail/openafs-announce/2009/00030(...)

            "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

          • [^] # Re: Bon, plusieurs problèmes

            Posté par (page perso) . Évalué à 3.

            Je soulignais simplement que le stockage est une question suffisamment importante pour qu'une réponse appropriée soit apportée :
            - tu remarqueras que les petits gars de OpenAFS préconisent la dernière version qui corrige le tout (bon ce serait bien qu'ils backportent un correctif tout de même sur la version de maintenance, mais c'est mon avis), avec une analyse sensée et factuelle
            - je relevais que ce point n'a pas été traité avec le sérieux approprié (àmha) par ta société qui propose d'acheter ou de migrer vers la dernière version ou de se passer de la fonctionnalité pour ne plus être exposé (ce qui n'est pas ce qui est attendu par des clients qui paient et attendent une réponse appropriée pour _leur_ cas, dans des délais raisonnables)
            Il se trouve que - dans ce cas - le libre répond mieux àmha, mais tu peux garder un avis un peu biaisé^Wdifférent.

            Sur http://www.openafs.org/pipermail/openafs-announce/2009/00030(...) tu vois que le souci 1 est corrigé par la nouvelle version (et touchait tout le monde de toute façon, ça a marché jusqu'à maintenant - par chance peut-être - pourquoi ça ne marcherait plus ?) et que le problème 2 ne touche que les versions expérimentales (hypothèse que j'avais prise, une version stable ou de maintenance étant moins risquée pour utilisation en prod' àmha, ce en quoi j'avais raison).
            • [^] # Re: Bon, plusieurs problèmes

              Posté par . Évalué à 3.

              tu remarqueras que les petits gars de OpenAFS préconisent la dernière version qui corrige le tout (bon ce serait bien qu'ils backportent un correctif tout de même sur la version de maintenance, mais c'est mon avis), avec une analyse sensée et factuelle

              Je l'ai bien remarque oui, et je me demandes comment un truc aussi gros a mis aussi longtemps a etre demasque, ce qui me fait dire que leurs procedures de test ne sont pas au point et qu'il est peu utilise. Parce que pour le demasquer il n'y avait rien de specifiquement exotique a faire hein, des softs qui ecrivent ailleurs qu'a un offset de 4K c'est hyper frequent(suffit qu'un soft update un fichier a un offset particulier plutot qu'en creer un).

              - je relevais que ce point n'a pas été traité avec le sérieux approprié (àmha) par ta société qui propose d'acheter ou de migrer vers la dernière version ou de se passer de la fonctionnalité pour ne plus être exposé (ce qui n'est pas ce qui est attendu par des clients qui paient et attendent une réponse appropriée pour _leur_ cas, dans des délais raisonnables)

              Ah bon j'etais pas au courant ? Le patch sur lequel on bosse doit etre uniquement dans mon imagination alors.

              Sur http://www.openafs.org/pipermail/openafs-announce/2009/00030(...) tu vois que le souci 1 est corrigé par la nouvelle version (et touchait tout le monde de toute façon, ça a marché jusqu'à maintenant - par chance peut-être - pourquoi ça ne marcherait plus ?) et que le problème 2 ne touche que les versions expérimentales (hypothèse que j'avais prise, une version stable ou de maintenance étant moins risquée pour utilisation en prod' àmha, ce en quoi j'avais raison).

              J'ai bien compris qu'ils l'ont corrige merci, le probleme c'est que ce probleme ait tout simplement existe. C'est un FS hein, l'ecriture des donnees c'est genre sa fonction principale avec la lecture. C'est un bug enorme, le fait qu'ils s'en soient rendu compte que maintenant ne donne certainement pas confiance vis a vis du logiciel, le recommander comme solution pour assurer la sauvegarde de donnees c'est pas franchement une bonne idee si tu veux mon avis.
              • [^] # Re: Bon, plusieurs problèmes

                Posté par (page perso) . Évalué à 2.

                ah mais, à te lire, nous sommes donc d'accord, SMB2 est du même acabit, avec 2 modes de gestion de la perte de données, l'un respectueux des utilisateurs et transparent, l'autre moins.

                perso, j'aurais plutôt proposé un GFS aka Global_File_System histoire d'avoir un truc éprouvé ou sinon un bête rsync (qui demande un peu plus de mise en oeuvre), en plus de samba permettant d'avoir une solution interopérable, même avec des postes-clients sous un OS défaillant.
                • [^] # Re: Bon, plusieurs problèmes

                  Posté par . Évalué à 0.

                  ah mais, à te lire, nous sommes donc d'accord, SMB2 est du même acabit, avec 2 modes de gestion de la perte de données, l'un respectueux des utilisateurs et transparent, l'autre moins.

                  Tu me montres comment SMB2 perd tes donnees en usage normal ? Ca m'interesse.

                  ou sinon un bête rsync (qui demande un peu plus de mise en oeuvre), en plus de samba permettant d'avoir une solution interopérable, même avec des postes-clients sous un OS défaillant.

                  Personne t'oblige a utiliser Linux hein. (les phrases stupides ca peut aller dans les 2 sens tu sais)
                  • [^] # Re: Bon, plusieurs problèmes

                    Posté par . Évalué à 4.

                    Personne t'oblige a utiliser Linux hein.

                    Heureusement, par contre, on nous colle Win dans les pattes sans nous demander notre avis... mais c'est un autre débat...

                    (les phrases stupides ca peut aller dans les 2 sens tu sais)

                    Dans ce cas précis, c'était vraiment une phrase stupide, en effet.
              • [^] # Re: Bon, plusieurs problèmes

                Posté par (page perso) . Évalué à 4.

                Donc d'après le source d'informations c'est uniquement le client Windows qui a des problèmes, pas openAFS. C'est une des ces implémentations qui subit un problème.

                ce qui me fait dire que leurs procedures de test ne sont pas au point et qu'il est peu utilise.

                Oui alors non ... Là quand même tu vas un peu fort, une procédure de test qui loupe un problème sur _une_ implémentation (sur un système d'exploitation particulier qui plus est) d'un système de fichier relativement complexe est sûrement plus au point qu'une procédure de test qui loupe une erreur comme celle de SMB2 ... Faut pas comparer la tour Eiffel à la cabane sur l'arbre que j'ai construit quand j'avais dix ans !
                Il y a donc un _sérieux_ problème de procédure de test chez Microsoft pour laisser passer des énormités comme le bug SMB2, c'est la préhistoire de l'informatique les "ping-of-death" et Co.

                "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                • [^] # Re: Bon, plusieurs problèmes

                  Posté par . Évalué à 0.

                  Oui alors non ... Là quand même tu vas un peu fort, une procédure de test qui loupe un problème sur _une_ implémentation (sur un système d'exploitation particulier qui plus est) d'un système de fichier relativement complexe est sûrement plus au point qu'une procédure de test qui loupe une erreur comme celle de SMB2 ... Faut pas comparer la tour Eiffel à la cabane sur l'arbre que j'ai construit quand j'avais dix ans !

                  On compare le probleme :

                  a) OpenAFS sur Windows :

                  Un soft qui ouvre un fichier et qui ecrit dedans a un offset autre que multiple de 4Ko corrompt le fichier

                  --> Scenario extremement frequent que nombre de softs font (edition d'attributs, remplacement d'elements, etc...)

                  Si ils n'ont pas trouve ce bug, c'est donc qu'ils n'ont jamais teste que la version Windows pouvait correctement modifier le contenu d'un fichier

                  b) SMB2 :

                  Un paquet structure de maniere invalide, mais dont le format est tres specifique, n'est pas gere correctement et crashe le systeme

                  --> Trouver ce probleme implique de tester (et donc generer) une variete enorme de traffic non-valide sur un protocole complexe, et esperer que le cas precis est parmis eux
                  • [^] # Re: Bon, plusieurs problèmes

                    Posté par (page perso) . Évalué à 4.

                    Scenario extremement frequent que nombre de softs font (edition d'attributs, remplacement d'elements, etc...)

                    C'est encore plus fréquent de mettre un 0x26 au lieu de 0x00 dans un champs d'entête SMB2 ...
                    Non mais n'importe quoi ... OpenAFS est un projet qui se développe depuis presque dix ans avec une jolie quantité d'utilisateurs[1]. Ça fait environ 5 ans que la version Windows existe. Donc depuis 5 ans des gens perdent des données ? Et personne ne c'est rendu compte ?
                    Ou alors "extrêmement fréquent" c'est un terme qui veut "presque jamais".

                    Je veux bien que c'est un problème grave, mais il faut aussi mettre en perspective. Le problème arrive sur un système d'exploitation atypique avec un système de fichier réseau ayant un bonne réputation dans l'ensemble.
                    Je crois pas que c'est un problème de "procédure de test". Ça le devient que si le but est d'attaquer un mode de développement logiciel qui ne plaît pas.

                    [1]http://www.openafs.org/pages/success.html

                    PS: Généralement les programmes lisent le fichier en entier en mémoire et ré-écrivent le fichier complet (oui sauf les bases de données, mais ça c'est explicitement statuer qu'AFS ne convient pas pour les bases de données, et sauf peut-être les applications multimédia, mais la taille des fichiers ne convient pas à un système de fichier réseau).

                    "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                    • [^] # Re: Bon, plusieurs problèmes

                      Posté par . Évalué à 1.

                      C'est encore plus fréquent de mettre un 0x26 au lieu de 0x00 dans un champs d'entête SMB2 ...

                      Ben tu vas me montrer une implementation SMB2 qui le faisait il y a 3 mois alors ?

                      Non mais n'importe quoi ... OpenAFS est un projet qui se développe depuis presque dix ans avec une jolie quantité d'utilisateurs[1]. Ça fait environ 5 ans que la version Windows existe. Donc depuis 5 ans des gens perdent des données ? Et personne ne c'est rendu compte ?
                      Ou alors "extrêmement fréquent" c'est un terme qui veut "presque jamais".


                      Jolie quantite d'utilisateurs ? Moi quand je vois leur liste je vois que c'est minuscule, c'est genre 10'000 utilisateurs. MS a lui tout seul en interne a 10x ca.

                      Quand au fait que personne ne s'en rendait compte, c'est justement ce que je te dis, ca fait peur, car OUI ecrire au milieu d'un fichier est une operation extremement courante, tu prends Office par exemple, il fait ca constamment, les softs qui jouent avec la video et autres mp3 aussi(c'est des frames ecrites les unes apres les autres le plus souvent, suffit de les rajouter/couper), etc...

                      Il est assez clair que ce FS est :
                      a) pas teste pour servir de FS generaliste
                      b) utilise en pratique dans des scenarios tres limites(tu vois les noms des utilisateurs, c'est tres oriente recherche)

                      PS: Généralement les programmes lisent le fichier en entier en mémoire et ré-écrivent le fichier complet (oui sauf les bases de données, mais ça c'est explicitement statuer qu'AFS ne convient pas pour les bases de données, et sauf peut-être les applications multimédia, mais la taille des fichiers ne convient pas à un système de fichier réseau).

                      Non certainement pas, je t'ai donne une liste plus haut, il y en a plein d'autres, et c'est encore plus justifiable en reseau, parce que reecrire tout le fichier est plus lent qu'en reecrire une partie. Sinon, les fichiers multimedia c'est certainement pas un probleme pour un systeme de fichiers reseau, on n'est plus a l'epoque des reseaux 10mb/s hein, on a ca en interne depuis des annees ici et ca marche tres bien.
                      • [^] # Re: Bon, plusieurs problèmes

                        Posté par (page perso) . Évalué à 3.

                        Qu'il y ait beaucoup d'utilisateurs de SMB, c'est normal, vu que Windows :
                        - est imposé ;
                        - ne sait parler ni NFS, ni SFTP, ni WebDAV (enfin, si, il sait, mais c'est très mal fichu), ni… bref, ne sait faire que du SMB.
                        • [^] # Re: Bon, plusieurs problèmes

                          Posté par . Évalué à 2.

                          C'est con parce que NFS c'est oui, et Webdav c'est oui
                          • [^] # Re: Bon, plusieurs problèmes

                            Posté par (page perso) . Évalué à 0.

                            NFS c'est presque oui, l'installe par défaut non, tu ajoutes le "unix services pack" et tu as NFS.

                            Et sur la page "success" du projet, il n'y a pas _tout_ les utilisateurs, par contre on voit que c'est des installations qui vont généralement de 100 à 1000 utilisateurs simultanés.

                            Et pour revenir sur la gravité de la faute, vu que Ms en a 10x plus (en même temps "pas de source : Microsoft n'a pas 10x plus d'utilisateurs"), ils doivent faire 10x plus attention ... Mais comme d'habitude, vu qu'il traite les clients comme de la merde, ils ont fait 100x moins que le plus part des projets qui existent (même le type qui se fait un script shell pour envoyer un mail automatiquement à 10H34 va faire une batterie de test plus complète que Ms pour sortir un nouveau protocole).

                            "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                            • [^] # Re: Bon, plusieurs problèmes

                              Posté par . Évalué à 1.

                              http://www.samba.org/samba/security/CVE-2008-1105.html

                              C'est drole hein, ca n'arrive pas qu'a nous...
                              • [^] # Re: Bon, plusieurs problèmes

                                Posté par (page perso) . Évalué à 2.

                                Non, ça arrive à tout le monde. Y'en a qui on des bugs qui valent des k$ et d'autres pas.

                                En fait ce que tu essaies de critiquer c'est le mode de développement open source (en insinuant que les procédures de tests sont mauvaises). Mais ce que j'essaie de montrer c'est qu'un logiciel open source ne t'offre pas plus, ni moins de garanties qu'un logiciel closed source à beaucoup de k$.

                                En fait il y a des bugs partout, la question c'est juste de savoir combien de k$ coûte le bug ...

                                "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                • [^] # Re: Bon, plusieurs problèmes

                                  Posté par . Évalué à 1.

                                  En fait ce que tu essaies de critiquer c'est le mode de développement open source (en insinuant que les procédures de tests sont mauvaises). Mais ce que j'essaie de montrer c'est qu'un logiciel open source ne t'offre pas plus, ni moins de garanties qu'un logiciel closed source à beaucoup de k$.

                                  Ah bon ? Tu m'as vu critiquer la securite de Samba, kernel Linux ou autre en disant qu'ils etaient absolument incapable de tester leur produit correctement ?

                                  Non, je l'ai fait dans dans les cas ou ca se merite : ici avec OpenAFS, Ubuntu quand ils ont sorti une update qui plante le serveur graphique dans la majorite des cas, etc...

                                  En fait il y a des bugs partout, la question c'est juste de savoir combien de k$ coûte le bug ...

                                  Pas vraiment, ca en dit plus sur le nombre d'utilisateurs qu'autre chose. Un bug de securite dur a trouver sur un systeme utilise par 1 milliard de gens ca sera toujours plus cher qu'un bug facile a trouver sur un soft utilise par 10 personnes
                                  • [^] # Re: Bon, plusieurs problèmes

                                    Posté par (page perso) . Évalué à 2.

                                    Dans le cas d'openAFS c'est pas mérité du tout. C'est mon avis et je ne le changerais pas.

                                    ca en dit plus sur le nombre d'utilisateurs qu'autre chose

                                    Non je parlais en dollars investit par les sociétés comme Microsoft, Apple, ... Elles investissent des k$ pour ne pas arriver à une vrai différence de qualité au niveau du produit final (pour moi une vrai différence de qualité c'est de dire "Garantie que ceci, cela"). Ça me désole dans le sens ou le code professionnel ne se distingue pas du code amateur ...

                                    "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                    • [^] # Re: Bon, plusieurs problèmes

                                      Posté par (page perso) . Évalué à 1.

                                      Pas tellement amateur, je pense, le code de Linux et de Samba. :-)
                                    • [^] # Re: Bon, plusieurs problèmes

                                      Posté par . Évalué à 2.

                                      Tu compares quoi ? Le code du noyau Windows ecrit par MS par rapport au code du noyau Linux ecrit par IBM, Redhat, Oracle, etc... ?

                                      Quelle bande d'amateurs ces IBM, Redhat, Oracle, ... quand meme !
                                      • [^] # Re: Bon, plusieurs problèmes

                                        Posté par (page perso) . Évalué à 2.

                                        Il a des pros et il y a des amateurs, genre ces derniers temps on parlait de BFS, écrit par un amateur complet (Con Kolivas) qui a beaucoup codé le noyau Linux (scheduler), par exemple.

                                        Il faut arrêter de ramener tout vers Oracle, IBM, Redhat, ... Ils sont là parce que ça marche, ils n'ont pas fait fonctionner ni Linux, ni Samba (mais pour AFS (sujet original), c'est IBM qui a racheté une entreprise et libérer le code, donc ils sont à l'origine). Ils sont arrivés, il y avait un truc fonctionnel, ils ont apporté leur contribution et un jour, suivant l'évolution du marché, ils partiront. Les projets étaient là avant eux et seront là après eux.

                                        Donc oui les contributions des grosses boîtes sont importantes et permettent de faire avancer le noyau (ou autres projets), mais elles ne sont pas les briques de base du noyau.

                                        Ensuite quand je reçois de la pub pour un "Storage System" d'IBM, il y a des pingouins plein le catalogue.

                                        "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                        • [^] # Re: Bon, plusieurs problèmes

                                          Posté par . Évalué à 0.

                                          Il faut arrêter de ramener tout vers Oracle, IBM, Redhat, ... Ils sont là parce que ça marche, ils n'ont pas fait fonctionner ni Linux, ni Samba (mais pour AFS (sujet original), c'est IBM qui a racheté une entreprise et libérer le code, donc ils sont à l'origine). Ils sont arrivés, il y avait un truc fonctionnel, ils ont apporté leur contribution et un jour, suivant l'évolution du marché, ils partiront. Les projets étaient là avant eux et seront là après eux.

                                          Presque.

                                          Ils n'ont pas cree les projets, et les auteurs initiaux des projets ont du cree le mouvement initial seuls oui.

                                          Mais le saut de qualite de Linux, OOo, ... il a ete du a ces entreprises qui ont amene des processus de qualite.
                                          Linux niveau perfs, niveau qualite de code avant IBM, Redhat et autres c'etait pas vraiment comparable a un OS d'entreprise.
                                          • [^] # Re: Bon, plusieurs problèmes

                                            Posté par . Évalué à 3.

                                            tu parles de l'époque où en face de linux/minix/*bsd il y avait msdos et mswindows 3.x ? et les windows 9x c'était épique, aussi…
                                            • [^] # Re: Bon, plusieurs problèmes

                                              Posté par . Évalué à 0.

                                              Non, je parles plutot de l'epoque ou Linux s'est pris une baffe en voyant les resultats du benchmark MindCraft, l'epoque NT4
                                              • [^] # Re: Bon, plusieurs problèmes

                                                Posté par (page perso) . Évalué à 1.

                                                l'époque NT4 ... Une fois par jour, redémarrer le serveur parce que y'a quelque chose qu'avait planté ... après avoir changer tout les éléments réseaux, on s'était rendu compte que c'était bien le serveur qui pouvait pas en avant ... Mes débuts dans le monde des serveurs, après j'ai découvert des systèmes fiables. Windows 2003 Server a été le dernier Windows que j'ai touché sur un serveur ...

                                                J'espère ne plus avoir à retrouver cet univers : tu cliques sur ok d'une fenêtre de dialogue, t'as le truc "redémarrer maintenant pour faire les mises à jour" qui s'interposent ... On a planté une école grâce à ça ...

                                                "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                                • [^] # Re: Bon, plusieurs problèmes

                                                  Posté par . Évalué à 0.

                                                  l'époque NT4 ... Une fois par jour, redémarrer le serveur parce que y'a quelque chose qu'avait planté ...

                                                  Ca ca n'avait rien a voir avec l'OS, il y a largement assez d'exemples de serveurs NT4 qui tournent sans probleme pour s'en rendre compte.
                                                  • [^] # Re: Bon, plusieurs problèmes

                                                    Posté par (page perso) . Évalué à 2.

                                                    Non c'est vrai, c'était Dr. Watson ...

                                                    Je trollerais bien avec toi sur NT4, mais je crois c'est pas la bonne place, il faut que tu fasses un journal genre "Google fait tourner ces serveurs sur NT4", après c'est départ ...

                                                    "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                                    • [^] # Re: Bon, plusieurs problèmes

                                                      Posté par . Évalué à 1.

                                                      Chacun son truc hein, tu me racontes que vos serveurs crashent tous les jours sans etre capable de montrer que le probleme vient de l'OS, et j'ai des millions d'exemples de serveurs NT4 qui ne crashent pas tous les jours loin de la, et de nombreux exemples de boites qui utilisent encore cet OS aujourd'hui car il remplit la fonction qu'elles lui ont assignees sans trop de problemes.

                                                      Alors bon... Si tu veux etre credible, apporte des elements techniques montrant que l'OS n'est pas capable de tenir debout plus de 24h, sans ca tu es aussi credible que ma chaussette gauche.
                                                      • [^] # Re: Bon, plusieurs problèmes

                                                        Posté par (page perso) . Évalué à 1.

                                                        Rhôôô ... T'es pas drôle. Premièrement ta chaussette gauche est sûrement très crédible, deuxièmement les serveurs NT4 que j'ai connu doivent être morts et enterrés à l'heure actuelle, troisièmement NT4 il ne me reste que mes souvenirs, quatrièmement je vais pas troller sur NT4 ce soir.

                                                        "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                          • [^] # Re: Bon, plusieurs problèmes

                            Posté par (page perso) . Évalué à 1.

                            Je n'ai jamais dit que ça ne prenait pas en charge WebDAV, juste que c'était super mal fichu, il faut aller dans les dossiers web, cliquer quarante fois…
                            • [^] # Re: Bon, plusieurs problèmes

                              Posté par . Évalué à 1.

                              C'est sur que si tu ne sais pas l'utiliser on n'y peut rien hein...
                              • [^] # Re: Bon, plusieurs problèmes

                                Posté par (page perso) . Évalué à 2.

                                Flagrant délit de mauvaise foi. Sur Windows 2k et XP (pas certain pour le dernier), tu pouvais juste entrer l'adresse du partage WebDAV dans IE (ou cliquer sur un lien) et hop ça marchait. Maintenant c'est vrai qu'il faut une procédure complexe (pour l'utilisateur lambda c'est complexe, j'ai dû le leur expliquer, ben c'était vraiment la galère) pour y arriver.

                                Maintenant je sais pas pourquoi ce changement a eu lieu, mais j'ai entendu dire (oui c'est vague, mais c'est la seule info que j'ai) qu'il s'agissait d'une question juridique.

                                "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                • [^] # Re: Bon, plusieurs problèmes

                                  Posté par (page perso) . Évalué à 1.

                                  Ben, dans GNOME, tu tapes dav://machin et ça roule. Dans Windows Explorer, tu dois passer pas un menu tout sauf évident à trouver, avec un assistant à étapes multiples.
                                • [^] # Re: Bon, plusieurs problèmes

                                  Posté par . Évalué à -1.

                                  SharePoint fait un usage massif de WebDAV et les utilisateurs n'ont absolument rien besoin de faire, j'ai du mal a voir quel est le probleme.
                                  • [^] # Re: Bon, plusieurs problèmes

                                    Posté par (page perso) . Évalué à 1.

                                    Et bien vas-y, écris-moi une procédure pour charger des photos sur un Gallery 2. Ça se fait en WebDAV. La procédure pour GNOME, elle fait trois lignes. Celle pour Windows, une douzaine.
                                    • [^] # Re: Bon, plusieurs problèmes

                                      Posté par . Évalué à 1.

                                      Je me fous royalement de Gallery 2 , a voir leur site ( http://codex.gallery2.org/Gallery2:Modules:webdav ) leur support WebDAV n'est pas encore trop au point.

                                      T'as le choix entre:

                                      net use X: http://bob.com/folder user password

                                      ou

                                      start menu -> right click sur Computer -> map network drive

                                      Mais comme d'hab ta meconnaissance totale de Windows te fait croire que c'est soit impossible ou plus complique que cela ne l'est
                                      • [^] # Re: Bon, plusieurs problèmes

                                        Posté par (page perso) . Évalué à 2.

                                        Non mais oui, mais tu saurais pas pourquoi, avant, ça le faisait directement depuis IE et maintenant il faut faire un chemin plus compliqué ? C'est quoi la raison sous-jacente ?
                                        Avant c'était plus simple, maintenant plus compliqué !

                                        "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

                                      • [^] # Re: Bon, plusieurs problèmes

                                        Posté par (page perso) . Évalué à 1.

                                        Ok, map network drive je ne savais pas que ça pouvait faire ça (et non, ce n'est pas du tout intuitif). Je constatais juste que, sous un bureau bien fait, on pouvait accéder à du WebDAV simplement en donnant l'URL à l'explorateur.
                                      • [^] # Re: Bon, plusieurs problèmes

                                        Posté par (page perso) . Évalué à 2.

                                        Au passage, c'est tout à fait au point pour ce qu'on lui demande, la prise en charge WebDAV de Gallery. On peut naviguer dans les albums et déposer des fichiers, les récupérer, les renommer, les déplacer et en retirer. Pour un gestionnaire d'albums photos, c'est plutôt bien. Sachant que la tâche essentielle de cette prise en charge de WebDAV, c'est de déposer des fichiers, rien de plus.

                                        Mais bon, ce n'est qu'un exemple. Pertinent, parce que c'est un cas où WebDAV apporte réellement quelque chose : un protocole générique et ouvert pour déposer des fichiers en masse.
                                  • [^] # Commentaire supprimé

                                    Posté par . Évalué à 3.

                                    Ce commentaire a été supprimé par l'équipe de modération.

                                    • [^] # Re: Bon, plusieurs problèmes

                                      Posté par . Évalué à 0.

                                      Il y a Kerberos aussi hein, quand aux problemes d'incompatibilite, de ce que j'en sais ils testent SharePoint specifiquement avec Firefox, donc ca devrait pas etre un probleme.
                  • [^] # Re: Bon, plusieurs problèmes

                    Posté par (page perso) . Évalué à 1.

                    Un paquet structure de maniere invalide, mais dont le format est tres specifique, n'est pas gere correctement et crashe le systeme

                    Trouver ce probleme implique de tester (et donc generer) une variete enorme de traffic non-valide sur un protocole complexe, et esperer que le cas precis est parmis eux


                    Non, c'est une possibilité pour trouver le problème, mais ce n'est pas la seule méthode ...
                    Une étude du code peut aussi permettre de trouver le bug.
                    Au passage, il est beaucoup plus facile de détecter un crash de tout le système qu'une corruption de fichier, donc je ne m'avancerai ni d'un côté ni de l'autre pour dire qu'un problème est plus excusable que l'autre.
                    • [^] # Re: Bon, plusieurs problèmes

                      Posté par . Évalué à 3.

                      Non, c'est une possibilité pour trouver le problème, mais ce n'est pas la seule méthode ...
                      Une étude du code peut aussi permettre de trouver le bug.


                      Oui tout a fait, le truc etant que par experience, le fuzzing a bcp plus de chances de trouver ce genre de problemes que les revues de code.

                      Au passage, il est beaucoup plus facile de détecter un crash de tout le système qu'une corruption de fichier, donc je ne m'avancerai ni d'un côté ni de l'autre pour dire qu'un problème est plus excusable que l'autre.

                      Detecter le crash certainement, le probleme, c'est le creer quand tu ne sais pas ce apres quoi tu cours.
    • [^] # Re: Bon, plusieurs problèmes

      Posté par (page perso) . Évalué à 4.

      Si tu veux faire ce que tu envisages, tu peux regarder du coté de openafs

      Mouais. Kerberos, donc usine à gaz. Et ça réinvente la roue, permissions, utilisateurs et tout, complètement décorrellé de ce qui existe sur le système hôte, visiblement. Pas franchement dans l'esprit KISS, tout ça.
    • [^] # Re: Bon, plusieurs problèmes

      Posté par . Évalué à 2.

      Actuellement, les serveurs sont sauvegardés, donc en cas de panne, on récupère la dernière cassette et on restaure chez nous ; ils aurons simplement perdu leur serveur local. Le problème c'est plutôt le fait que les cassettes sont changées une ou deux fois par mois au lieu de tous les jours. Donc lorsque quelqu'un nous téléphone pour nous demander de restaurer un fichier de la semaine précédente, il arrive souvent que ce soit impossible. Mais ça on leur a expliqué plusieurs fois, c'est leur problème s'ils ne veulent pas comprendre. Par contre j'aimerais m'arranger pour qu'ils n'aient plus de manip. à faire dans le futur.

      ...êtes-vous prêt à prendre ce risque en ne renouvellant pas les serveurs ?
      La réponse est bien sûr non, mais ils ont une solution pour ne pas les renouveler, c'est d'héberger les autres sites chez nous. Ce sera juste (très) lent, mais ça ils s'en foutent.
  • # Sécurité des données

    Posté par . Évalué à 2.

    Je pense que tu peux tout à fait faire tes sauvegardes avec sshfs ou rsync. Présente à ta direction l'intérêt de ta solution, en précisant bien que seul le coût d'un matériel neuf standard sera à acheter (ils ne sont pas à 800 euros par machines quand même, non ?)

    Le truc à faire je pense, c'est de choisir des disques de marque différentes. En effet, les pannes consécutives d'une même série sont courantes et comme tout est basé sur la bonne santé des disques des machines...

    Qu'en penses-tu ?
    • [^] # Re: Sécurité des données

      Posté par (page perso) . Évalué à 3.

      Je pensais aussi à rsync, mais c'est le côté "temps réel" qu'il souhaiterais avoir. Et si il s'agit juste de copier un fichier quand l'utilisateur le modifie, je penses que le couple inotify et ssh peuvent faire des miracles.
      Et ça devrait être même faisable en bash avec inotifywait ...

      "It was a bright cold day in April, and the clocks were striking thirteen" - Georges Orwell

    • [^] # Re: Sécurité des données

      Posté par (page perso) . Évalué à 3.

      Surtout que bon si les serveurs en place fonctionnent avec NT4, ils fonctionneront sous GNU/Linux aussi...
      Autant les garder temporairement et ajouter un serveur complémentaire, à 900 euros t'as du RAID 1 qui assure le miroir et résiste à un disque cassé (j'ai bien dit un serveur, pas un pc de bureau de récup' qui reste du bidouillage que ne peut pas recommander un admin digne de ce nom s'il a un tant soi peu d'estime de son boulot...).

      Ajouter de la supervision voire du capacity planning pour le même prix c'est savoir justifier les invests pour la suite, mettre un SLA aka Service_Level_Agreement - au pire interne - c'est au mini : identifier combien coûte la perte des données, pour 1 jour, 1 mois, 3 mois voire 6 mois si le temps d'appro est vraiment long, ça demande 1 page à justifier.
    • [^] # Re: Sécurité des données

      Posté par . Évalué à 1.

      Si c'est pour 2 machines (un master et un slave/backup) sur un reseau local drbd me semble plus approprié: en gros c'est un raid 1 en réseau, tu peux le desynchroniser, l'utiliser pour faire du master slave etc...
  • # Gère ta direction

    Posté par (page perso) . Évalué à 5.

    Bonsoir,

    une autre solution: provoque des pannes qui de toute façon vont arrivés dans les mois à venir, et tu l'auras ton budget ;)

    Autre solution: j'ai 2-3 serveurs qui sont en fait des PC assemblés, coute seulement 167€HT, et niveau fiabilité c'est pas si mal... Yen a un
    ça fait 2 ans qui tourne 24/7 et je n'ai eu aucun problème !
    • [^] # Re: Gère ta direction

      Posté par . Évalué à 3.

      une autre solution: provoque des pannes...
      Désolé, ce n'est pas le genre de la maison, car au final, c'est l'utilisateur qui trinque. Pour l'instant, les serveurs fonctionnant, nous préférerions une migration en douceur.
      ...et tu l'auras ton budget ;)
      Comme il faudra travailler dans l'urgence, à mon avis ce sera plutôt direct un hébergement chez nous, pas le temps d'attendre d'acheter et de configurer un serveur.

      ...et niveau fiabilité c'est pas si mal... Yen a un ça fait 2 ans qui tourne...
      les serveurs à changer ont une douzaine d'années, on en reparle dans 10 ans ;)
  • # Economie de bout de chandelles...

    Posté par . Évalué à 6.

    ...un grand classique.

    sans faire de publicité pour un constructeur ou un autre,
    http://h10010.www1.hp.com/wwpc/fr/fr/sm/WF06b/15351-15351-24(...)
    un petit serveur d'entrée de gamme coute 320€HT.

    J'ai testé compaq, hp, dell, fujitsu...dans la moyenne gamme. Je peux t'assurer que ce sera toujours plus fiable qu'une station recyclée ou reconditionnée...après, à tes directeurs de voir combien coûte à l'entreprise une panne de 4 heures (le temps de déplacement, de réparation du disque dur) ...je ne parle même pas du risque de perte définitive de données, qui peut être fatal à l'activité.

    - pour les sauvegardes :
    que ce soit une station ou un serveur, les sauvegardes peuvent se faire sur disques externes usb, si la ls est insuffisante en débit, avec le concours des employés du site.

    - pour le fonctionnement en mode dégradé, ou l'ouverture de fichiers sur site distant :
    j'ai déjà testé le travail sur fichiers au travers de 512k (non garanti, certes)...ben...on a le temps de prendre un café entre deux clics.
    Monter ce genre de dispositif décridibilise complètement le service informatique aux yeux des utilisateurs concernés.
    Mieux vaut creuser la piste d'accès "bureau distant", type TSE ou autre, et prévenir les gens que l'impression sera très très lente.

    - concernant les économies, j'ai déjà travaillé dans des sites où les employés, lassés qu'on leur refuse pendant plusieurs années l'achat d'une imprimante, ont acheté plusieurs imprimantes à 40€ chacune au magasin du coin avec leurs propres deniers...finalement, l'entreprise est bien obligée d'acheter les consommables (et bien sur pas les moins chers, coùt bas d'achat oblige).bien sûr, coté maintenance, ça devient ingérable (pas de document, pas de suivi de garantie, de renouvellement, hétérogénéité du matos, etc).

    bon courage, j'ai vécu ça, je compatis.
    • [^] # Re: Economie de bout de chandelles...

      Posté par . Évalué à 3.

      Je n'appelle pas ça un serveur, il n'y a même pas de double-alim et même si le controlleur en est capable, il n'y a pas de slot hotplug pour les disques.
      • [^] # Re: Economie de bout de chandelles...

        Posté par . Évalué à 3.

        Les petits HP ML110/115 sont très bien pour faire un simple serveur de fichiers, on ne parle
        pas ici d'applications nécessitant une disponibilité 24h/24h.


        Pour les backups je propose rdiff-backup: http://rdiff-backup.nongnu.org/

        Qui permet de faire des backup incremental simplement.

        En combinaison avec backupninja un petit frontend ncurse pour
        utiliser rdiff-backup encore plus simplement :)
  • # Codafs ?

    Posté par (page perso) . Évalué à 2.

    Je poste juste comme ça après avoir lu un ou deux trucs sur ce système de fichier, j'ai jamais utilisé, mais peut-être que pour ton usage, ça pourrait coller?
    http://coda.cs.cmu.edu/ljpaper/lj.html
  • # mouais

    Posté par (page perso) . Évalué à 7.

    Tel que je comprends, tu vas tenter de mener une solution perso, avec de la config spécifique, du temps passer à la rechercher, à la monter, à la documenter (ben oui, quand même), à la tester, à la passer en production, à la maintenir (vu que c'est du spécifique, ça sera certainement pas parfait du premier coup) ... pour éviter de payer des seveurs quelques centaines ou mêmes quelques milliers d'euros ?

    Même économiquement ça ne tient pas. Tu vas très rapidement passer plusieurs jours rien qu'à étudier la solution et monter ton proto. En comptant la mise en oeuvre, la doc, la maintenance et le surcout du "c'est spécifique" tu arriveras probablement à deux semaines / homme facile rien qu'à cause de ce choix.

    Bref, un demi salaire mensuel, et je suis gentil en ne prenant pas en compte les risques associés et en considérant que tu n'auras pas besoin de plusieurs tentatives pour trouver une solution réaliste. Tu les payes combien tes serveurs moyen de gamme pour du simple échange de fichier ? sur que ça vaut le coup ?
    • [^] # Re: mouais

      Posté par . Évalué à 2.

      La différence, c'est que mon salaire est budgétisé, il fait parti des frais fixes. Les serveurs n'étant pas en panne, c'est du préventif, et en période de réduction de budget, c'est toujours ce qui dégage en premier (même si c'est une mauvaise idée sur le long terme, mais c'est impossible de faire comprendre ça à des gens qui ont une vision à court terme). Je n'ai pas le temps pour l'instant pour tester quoi que ce soit et pour au moins les 2 mois à suivre, mais ce n'est pas toujours le cas, il y a bien des périodes où il y a moins de boulot. Les serveurs n'étant pas en panne, je n'ai pas le couteau sous la gorge, donc pour l'instant je réfléchis aux solutions possibles, et lorsque les projets en cours seront terminés, j'expérimenterai au fur et à mesure du temps disponible. Ça peut me prendre 6 mois s'il le faut, ce n'est pas grave. Et d'ici là, peut-être que nous aurons un budget plus conséquent si l'année 2010 est plus favorable.
  • # DRDB + LVM + Bacula

    Posté par . Évalué à 3.

    Salut,

    Je pencherai sur une solution à base de LVM avec une couche de DRDB (comme déjà suggéré plus haut), si on peut mettre LVM sous DRDB (à vérifier, je pense que oui, mais pas testé).

    Tu formates le disque en LVM et tu installes DRDB par dessus (sur la partition qui sert au serveur de fichier) sur chacun des sites de ta société. DRDB te fait un RAID1 par le réseau, niveau débit je ne sais pas ce que ça peut donner avec du 512 kbps, mais ça devrait aller vu qu'on parle bloc et non fichier à chaque modification.

    Donc tu as tes 3 sites distants qui synchronisent avec ton serveur maître dans tes locaux. En cas de pannes, le RAID1 "émulé" par DRDB prend le relai, avec les lenteurs réseaux que ça implique.

    Il ne te reste qu'à sauvegarder ton site local qui contient les données de tes sites distants. Pour cela tu génères un instantané de ta partition avec LVM et tu sauvegardes cet instantané avec Bacula, sur un disque USB par exemple, voire sur disque ET sur bande. Rapide et efficace. Tu peux même investir dans un disque USB externe sur chaque site que tu piloteras par Bacula (partie director chez toi en local) avec un storage node local à chaque site, comme ça en cas de restauration, les données seront déjà sur site distant et restaurables de ton site.

    Cout:
    - 3 machines + 3 disques externes USB pour chaque site distant
    - 1 machine (?) + 1 disque externe USB pour le site local
  • # j'ai pas tout lu mais...

    Posté par . Évalué à 4.

    DEBITS :
    à moins que tes sites soit au fin fond de l'aveyron ou de la coreze, une ligne ADSL decente fournit 1024Kbps en debit montant, ce serait deja plus rapide et aussi fiable que ta liaison louée.

    au besoin tu peux avoir du SDSL à 1024/2048....
    ca coute peut-etre moins cher qu'une LS est ca te fournit un debit symetrique ideal donc pour les connexions intersites.

    enfin pour la fibre optique, ici à paris j'avais eu 100euros/km/mois pour relier 2 sites
    et c'etait une fibre optique 100Mbps

    SERVEURS :
    une fois resolu le probleme de bit, tu peux envisager un VPN entre tes sites et ton serveur au siege central, ca devient transparent en terme de reseau et tres pratiques.

    tu peux aussi faire du cross-vpn afin de laisser les serveurs locaux mais qu'ils soient accessibles depuis le siege et inversement.

    REPLICATION/SAUVEGARDE :
    il existe plein de solution mais qui dependront principalement du DEBIT (cf pllus haut)
    rsync permet de synchroniser uniquement ce qui à changer, donc peut etre lourd au premier lancement, puis leger les fois d'apres

    tu peux alors synchroniser site1 et site2 sur siege, site1 et siege sur site2....
    et faire un backup uniquement sur siege ou tu maitrises la rotation des DAT/CD/DVD/disques externes

    les autres solutions (NDB/DRDB...) permettent de faire du "raid over reseau" ou du "clone temps réel (modulo la durée de l'upload)" a ce moment là il vaut quand meme mieux avoir une connexion reseau stable
    • [^] # Re: j'ai pas tout lu mais...

      Posté par (page perso) . Évalué à 1.

      C'est clair, une LS c'est bien joli quand on a des trucs vraiment critiques parce qu'on est bien content d'avoir une GTR quand ça tombe en panne, mais un VPN via des lignes ADSL classiques ça suffit largement pour des trucs moins importants comme recopier un backup sur un site distant ou permettre aux utilisateurs d'aller sur facebook.
      Et niveau débit et prix, y'a pas photo.
    • [^] # Re: j'ai pas tout lu mais...

      Posté par . Évalué à 2.

      C'est bien beau de considéré de solutions à base de rsync pour répliquer et sauvegarder entre 2 sites distants sur du bas débit, mais le jour ou ça crash, ce n'est pas juste des petits bouts, mais tout qu'il faudra restaurer.

      Et la ça ira probablement plus vite de prendre la voiture, l'avion ou le train pour aller copier les données.

      La question donc à se poser, ce n'est pas juste la durée qu'on juge acceptable pour sauvegarder la machine distante, mais qu'elle est l'indisponibilité acceptable en cas de panne complète (y'a t-il du hardware en spare, rappatriement + restoration des données, etc...). Je pense que l'auteur du journal se rendra rapidement compte qu'avoir les serveurs de fichiers à double sur chaque site sera déjà un pas important si les utilisateurs ne sont pas près à attendre une demi journée voire une journée d'arrêt de travail.
    • [^] # Re: j'ai pas tout lu mais...

      Posté par . Évalué à 1.

      Je ne suis pas au fin fond de la Corrèze, mais pas loin :).

      Pour les LS, je ne peux rien faire, c'est la maison mère qui négocie un contrat au niveau national pour l'ensemble des sites du groupe, avec un débit dépendant de la taille du site. Donc on peut signaler que le monde évolue et qu'il faudrait penser à faire évoluer tout ça, mais c'est tout. Et de toute façon, pas de solution avant que le contrat actuel n'arrive à son terme.
      • [^] # Re: j'ai pas tout lu mais...

        Posté par . Évalué à 2.

        ben c'est alors un besoin à remonter à la maison mere, y compris la problematique des serveurs, des sauvegardes ...

        mais je suppose que tu travailles deja pour la maison mere.

        et le contrat, ca doit etre pour se faire fournir une connexion, pas pour avoir uniquement une LS à 512Kbps pendant 5 ans.

        ou alors il faut renegocier vos contrats, car un contrat qui ne prevoit pas d'evolution (dans un sens ou dans l'autre), c'est ballot
        • [^] # Re: j'ai pas tout lu mais...

          Posté par . Évalué à 1.

          La maison mère ne s'occupe pas de ces broutilles, ils peuvent aider sur des projets de quelques centaines de milliers de brousoufs, mais pas pour juste quelques milliers (et je ne travaille pas pour elle, contrat local).

          Les contrats sur les liaisons sont pour 1 an, mais encore faut-il qu'ils demandent plus, et comme ils estiment que pour moins de 30 personnes, il n'y a pas besoin de plus... (enfin, jusqu'à maintenant, pour l'année prochaine il y aura peut-être une augmentation, mais bon, je préfère ne pas compter dessus tout le temps que ce ne sera pas effectif).
  • # unison / dropbox / ubuntu one

    Posté par . Évalué à 1.

    salut, t'as unison qui permet de syncer plusieurs machines ensembles

    sinon pkoi pas utiliser un truc qui stocke dans un cloud et les gens s'inscrivent
    pour avoir un miroir d'un certain répertoire sur leur dd ?.. genre à la dropbox où à chaque fois qu'il y a un changement à un fichier, c'est répandu au serveur principal et à toutes les machines inscrites aux fichiers.

    du coup un truc genre ubuntu one / eucalyptus pourrait être cool, hosté dans ton entreprise bien sûr.

    c'est une réponse de débutant peut être mais voilà....
    • [^] # Re: unison / dropbox / ubuntu one

      Posté par (page perso) . Évalué à 0.

      Un truc dans les nuages, et allez… C'est une entreprise, là, pas un particulier qui n'en a rien à cirer de sa vie privée et de la maîtrise de ses données. Sinon, au passage, autant louer un serveur dans n'importe quel datacentre et y mettre un serveur de fichiers.
      • [^] # Re: unison / dropbox / ubuntu one

        Posté par . Évalué à 2.

        Ah oui c'est connu, pleins de particuliers on un compte Amazon EC2. Et jamais une entreprise n'ouvrirait son système d'information à un prestataire...
  • # Simplicité

    Posté par . Évalué à 0.

    Je suis surpris des réponses avec openafs, smb2 et autres. Sans troller c'est quand même réservé aux geeks dans un coin de leur appartement ou à des super-experts en attente de performances spécifiques. Plutôt que de poser la cerise sur la gateau, ma réponse serait plus directe: il faut faire au plus simple tout en étant pro !

    Par exemple faire les backups en rsync via ssh (ou smb sur un vpn) backuppc gèrera très bien cette affaire, sans se prendre la tête car c'est simple de configuration.

    Après plusieurs choix en exemple:
    un central fait des backups (journalier par ex) de toutes les machines clients une par une (il sait faire!)
    un central fait des backups d'un serveur précis sur chaque site : cela peut peut-être déjà être fait avec les stations NT
    chaque site rsync l'ensemble des fichiers des autres sites

    Certes cela ne t'offre pas la cerise mais c'est économique,et les données seront sauvegardées de manière professionnelle !
  • # Ca me fait penser...

    Posté par . Évalué à 3.

    Ce genre de cas se présente assez régulièrement au boulot, quoique chez des entreprise peut être un peu plus aisées financièrement (mais pas trop non plus).

    Le but est souvent de centraliser les données sur le site principal (facilité de backup, d'admin, de maintenance des bécanes, externalisation des backups garantie, etc...) sans pour autant ni payer une ligne 10Mb par site (un bras le bout), ni que les utilisateurs distants ne meurent de vieillesse avant l'ouverture d'un document.

    Du coup, on se retrouve à installer des solution proprio (et oui) d'optimisation WAN.
    En gros ça consiste en une appliance à chaque bout en bypass devant le routeur, qui se causent entre elles et optimisent les transferts de plusieurs façons :
    - cache de données global (quel que soit le protocol) et dédupliqué (en mode bloc et pas fichier, sinon c'est pas drôle)
    - TCP maison (les boîtes parlent la même langue, et se causent directement, du coup pas mal de trucs genre slow start peuvent sauter)
    - négociation des cessions client en local, transfert du paquet et négociation côté serveur à l'autre bout
    - ...

    Du coup, on arrive selon les utilisations à gratter 90-95% de la bande passante qui serait nécessaire, et donc à faire tenir 50 personnes sur une ligne 1Mb sans rien en local.

    Voilà pour la théorie. Dans la pratique, ça marche, mais ça a un coût certain.

    Grande question après cette petite explication, y'a-t'il un projet ou une alternative libre visant à faire la même chose ?

    *Sano*

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.