Journal On vient de passer un seuil économique pour la sauvegarde en ligne !

Posté par (page perso) . Licence CC by-sa
35
28
mar.
2015

Hello,

ces derniers jours, plusieurs annonces de baisse de prix sur le stockage en ligne viennent de nous faire passer un cap en ce qui concerne la sauvegarde.

En effet, Amazon a annoncé un service de stockage illimité pour 60$ par an.

Aujourd'hui, OVH annonce 10 To pour 50€/an sur son service Hubic. L'ancien prix était de 120€ par an.

Ces niveaux de prix sont maintenant plus compétitifs que de nombreuses solutions de sauvegardes à la maison. Faisons un rapide calcul avec un petit exemple de solution simple à mettre en place pour un administrateur système averti…

Nous voulons un dispositif de sauvegarde qui permette de sauvegarder 10 To avec un niveau de service qui peut approcher celui des deux fournisseurs évoqués plus haut. Concrètement, cela revient à mettre en place un serveur physique dédié équipé de plusieurs disques en RAID (1 ou 10 pour un cas simple). Le RAID permet de pallier rapidement à une déficience d'un ou de plusieurs disques. Mais cette solution n'est pas suffisante: en cas de sinistre complet sur le serveur, les données sont perdues. Il faut donc également un dispositif d'externalisation qui prendra la forme de disque(s) externe(s) sur lesquels on réalise à une fréquence donnée (1 fois par trimestre ou par mois selon le niveau de sécurité exigé) une copie complète des données du serveur (cela peut prendre la forme d'une copie différentielle par exemple). Pour ma part, l'externalisation est véritablement indispensable si l'on veut pouvoir approcher (sans l'égaler bien sûr mais avec un niveau de service acceptable) le niveau de service des deux fournisseurs sus-cités. En termes de durée de vie, nous allons considérer que les disques seront en fin de vie au bout de 5 ans (c'est parfois la durée de la garantie constructeur).

En étudiant rapidement les prix des disques durs du marché, on se rend compte que le meilleur coût au To est situé dans les disques durs de 3To qui sont à peu près à 100€ pièce. A ce niveau, on peut envisager d'obtenir une capacité protégée par un RAID6 avec 5 disques durs (6 disques pour du RAID10). On obtient 9To disponibles, ce qui est un peu inférieur aux 10To mais qui permet de limiter les coûts d'achats (mes calculs veulent juste montrer raisonnablement que même en rognant sur de nombreux postes, les offres des fournisseurs sont plus avantageuses). Avec 6 disques on obtient une capacité protégée de 12To ce qui dépasse ce qu'offre Hubic. Je mets de côté le problème du nombre de connecteurs SATA indispensables à la mise en oeuvre physique de ce stockage.

Pour l'externalisation, on retiendra 3 disques de 3To chacun. Au total, on doit disposer de 8 disques dur de 3To à 100€ chacun, ce qui donne un total de 800€ environ pour l'achat des disques.

Il faut également considérer la consommation électrique du serveur. Nous allons prendre une machine qui consomme peu. Elle peut prendre la forme d'un plugcomputer ou une carte SOC telle que le BeagleBone Black ou le RaspBerry Pi, à la condition qu'ils disposent de suffisamment de connecteurs disques (ce qui n'est pas gagné). Sur une autre forme, on peut envisager la récupération d'une machine normale (desktop) qui dispose souvent de plusieurs connecteurs SATA. En allumant la machine uniquement pour la sauvegarde, on peut tout à fait maîtriser le coût de l'énergie. Mon calcul montre que la consommation électrique d'une machine de 100W qui fonctionne 3h par semaine (le temps de faire une sauvegarde hebdomadaire d'au moins 500Go de données modifiées depuis la dernière sauvegarde) monte à près de 16kWh/an. A 14,4 centimes d'€ le kWh (tarif de base EDF), on obtient un coût électrique d'environ 2,3 € ce qui est (presque) marginal. Disons que le coût d'acquisition de la machine se situe aux alentours de 200€ (CM+RAM+CPU+Alim).

  • Achat des disques: 800 €
  • Boiters d'externalisation: 3x20 € = 60€
  • Achat du serveur: 200€
  • Consommation électrique annuelle: 2,3 €

Si on fait la somme sur 5 ans on obtient les chiffres suivants:

  • Sauvegarde à la maison (coût total d'achat): 1060 €
  • Sauvegarde à la maison (consommation d'énergie sur 5 ans): 11,5 € (on peut sans doute augmenter ce poste)
  • Sauvegarde à la maison (total): 1071,5 €
  • OVH Hubic: 50€ * 5 = 250 €
  • OVH Hubic (anciens tarifs): 120€ * 5 = 600 €
  • Amazon: 60€ * 5 = 300 €

D'un point de vue purement économique, Hubic et Amazon sont bien largement en dessous de ce qu'on peut faire chez soi, à capacité presque équivalente. De plus les calculs simplifiés ne prennent pas en compte les cas de pannes: changer un seul disque dur demande de rajouter 100€.

On peut néanmoins diminuer le poste de sauvegarde à la maison en jouant sur plusieurs tableaux. Par exemple, on peut avoir besoin de stocker moins que 10To. Pour stocker 3To de données, par exemple, il faudra beaucoup moins de matériel (3 disques de 3To au lieu de 8) et on peut également envisager de recycler une machine périmée à condition qu'elle dispose d'au moins 2 connecteurs SATA (ce qui est généralement le cas). Pour ma part, j'arrive à un coût quasi-minimal de 325€ pour une solution de stockage de 3To avec externalisation en utilisant une machine recyclée qui m'a coûté 10€. On voit que même ce montant est supérieur à ce que propose OVH et Amazon, ce qui n'était pas le cas avant (600€ pour l'ancien tarif d'Hubic).

Je reste sincèrement et éthiquement partisan de l'auto-hébergement mais, ma conclusion est que, d'un point de vue purement économique, l'auto-hébergement d'une solution de sauvegarde pour particulier n'est plus du tout rentable depuis ces derniers jours…

On peut néanmoins aller un peu plus loin en essayant d'évaluer quels sont les avantages qui restent d'une solution de sauvegarde auto-hébergée par rapport aux offres des fournisseurs sus-cités ?

J'en vois rapidement un qui me semble majeur: pour les personnes disposant d'un accès à Internet avec un débit montant faible (typiquement l'ADSL), le temps de chargement initial sera forcément très long.
Un rapide calcul montre qu'avec un débit montant de 100ko/s (c'est le débit de crête de mon abonnement par exemple), le chargement de 10 To prendra environ 1240 jours (soit environ 3 ans et demi).
Un débit montant 10 fois plus rapide mettra environ 4 mois, ce qui reste très long. A l'inverse, un débit montant de 50Mbits/s (débit montant typique de la fibre) permettra de réaliser le chargement complet au bout de 19 jours ce qui est beaucoup plus raisonnable.

Le temps de restauration doit également être pris en compte. Avec mon abonnement ADSL, j'ai un débit descendant de 500ko/s et la restauration des 10To devrait me prendre environ 8 mois. Avec la fibre, on descend à des temps bien inférieurs (12 jours environ).

Bien entendu, ces temps correspondent à la mobilisation de toute l'offre (celle d'Hubic au moins) ce qui n'est pas forcément le cas de figure de tout le monde. Pour ma part, mes besoins de sauvegarde se situent aux alentours de 3To ce qui comprend le stockage des données sur plusieurs sauvegardes (4 sauvegardes hebdomadaires et 6 sauvegardes mensuelles conservées en permanence). Sur mon abonnement ADSL, mes temps de sauvegarde totale et de restauration sont respectivement d'un peu plus d'un an et d'un peu plus de 2 mois, ce qui reste très long. Avec une sauvegarde à la maison, je peux monter jusqu'à un débit de 70Mo/s ce qui prend respectivement 12h à sauvegarder et 12h à restaurer. Ces temps sont déjà beaucoup plus intéressants.

Un autre point d'intérêt de la solution de sauvegarde "à la maison", c'est le fait qu'on puisse dédupliquer le contenu des sauvegardes permettant de diminuer sensiblement la quantité d'espace disque utilisée pour stocker des données qui sont redondantes. Par exemple, le système des sauvegardes hebdomadaires et mensuelles sur un espace disque dédupliqué consommera vraiment peu d'espace car les ratios de déduplication observés pour ce genre de sauvegardes qui stockent souvent la même chose à un delta près sont vraiment très bons (facteur de 1 à 10). Il existe maintenant de nombreux logiciels libres qui gère la déduplication (ZFS, Obnam, Attic, etc.).

Enfin, et pour rester sur l'aspect sécurité, disposer d'une sauvegarde à la maison c'est également une meilleure assurance pour lutter contre l'arrêt brutal d'un service. Effectivement, il est possible (même si j'en doute fortement) que ces tarifs soient uniquement des offres d'appel destinées à attirer le chaland et qu'ils vont augmenter par la suite. Peut-être encore, qu'Amazon ou OVH peuvent suspendre assez sèchement votre compte pour de nombreuses raisons (le compte a été piraté; il est utilisé pour stocker des choses répréhensibles par la loi; vous stockez finalement trop de données, pas en "bon père de famille", etc.). Enfin, on peut penser qu'à ce niveau de prix, si l'offre rencontre un réel succès et qu'une grande majorité de comptes stocke à la limite de la capacité, le fournisseur révise sa politique de prix ou limite le nombre de nouveaux abonnements.

Pour conclure sur ce sujet, je pense que l'on vient de franchir un seuil économique. Si jusqu'à présent, sauvegarder physiquement à la maison était souvent plus rentable, ce n'est maintenant plus du tout le cas. D'ailleurs, mes calculs mettent clairement de côté le facteur de temps humain. Même si on dispose d'une solution entièrement automatisée, je pense qu'administrer une machine de sauvegarde reste plus long (et nécessite plus de compétences) qu'utiliser un compte de service de sauvegarde externe. Je pense aussi qu'il est fort possible que ces tarifs baissent à l'avenir, sans doute, plus rapidement encore que les tarifs d'achat des disques durs.

Le cap est franchi, reste à voir quelles seront les conditions d'évolution de ces offres sur du moyen et du long terme (car la sauvegarde est bien un sujet de long terme)…

  • # Autres avantages à la maison

    Posté par (page perso) . Évalué à 10.

    Le débit de 70 Mio/s en montant/descendant est stable, et devrait s'améliorer de plus en plus, bien avant que la fibre soit disponible partout (USB 3.1 commence à arriver par exemple).

    Néanmoins, même si ton compte n'est pas fermé, tu ne contrôles absolument pas tes données, ce qui signifie qu'il faille nécessairement les chiffrer de manière forte. Chez toi, c'est moins nécessaire.

    • [^] # Re: Autres avantages à la maison

      Posté par (page perso) . Évalué à 7.

      Hello,

      je n'en ai pas parlé mais bien entendu, la sauvegarde chez-soi doit être chiffrée ! En effet, un simple cambriolage permet de se faire voler des données qui sont hautement sensibles. En général, on sauvegarde toute notre vie numérique. En 2015, il y a des choses qui nous tiennent à coeur, par exemple notre collection de photos personnelles ou des copies de documents administratifs de haute importance (genre ceux qui permettent d'usurper une identité). Le chiffrement du stockage de la sauvegarde sur le serveur dédié est donc indispensable. De plus, le simple fait d'externaliser impose de chiffrer: je place ma sauvegarde chez un tiers sur lequel je n'ai pas de contrôle. Rien ne l'empêche de lire le contenu ou de le copier. De même il peut également se faire cambrioler ces disques durs… Donc le chiffrement est un pré-requis. Il l'est également sur une solution de sauvegarde externe type Hubic ou Amazon.

      Pour le débit de 70Mo/s je parlais d'un minimum pour le SATA sur des disques assez récents (moins de deux ans), sans RAID et sans chiffrement (ce qui divise les perfs par 2 ou 3). Bien sûr, si on prend du matériel plus performant, type SAS ou SCSI, on peut augmenter le débit mais le coût augmente également sensiblement, du coup la solution chez soi devient carrément chère.

      • [^] # Re: Autres avantages à la maison

        Posté par (page perso) . Évalué à 7.

        sans RAID et sans chiffrement (ce qui divise les perfs par 2 ou 3)

        Qu'est-ce qui divise les perfs ? Le RAID ou le chiffrement ?
        En ce qui concerne le chiffrement j'ai fait des tests sur ma machine (qui possède un CPU ayant les instructions AES-NI) et le delta de perfs est complètement négligeable.

        • [^] # Commentaire supprimé

          Posté par . Évalué à 6.

          Ce commentaire a été supprimé par l'équipe de modération.

        • [^] # Re: Autres avantages à la maison

          Posté par . Évalué à 0.

          Si tu veux des perfs au top, tu peux utiliser un petit disque SSD qui servira de cache pour ton RAID ;)

          • [^] # Re: Autres avantages à la maison

            Posté par (page perso) . Évalué à 0.

            Lors que tu as un volume de données à transférer beaucoup plus gros que le cache (par exemple 20 fois plus gros), le cache n'apporte presque rien.

            • [^] # Re: Autres avantages à la maison

              Posté par . Évalué à 0.

              Oui cela va de soit, mais par exemple avec un SSD de 64Go il va être assez rare de la dépasser… et 64Go de nos jours c'est 45€ donc rien de bien méchant.

            • [^] # Re: Autres avantages à la maison

              Posté par . Évalué à 2.

              C'est pas le but non plus , c est plutôt pour faire du prefetch des données les plus utilisées et optimiser les écritures sur le disque , quand la ram ne suffit plus.

              • [^] # Re: Autres avantages à la maison

                Posté par (page perso) . Évalué à 2.

                En relisant mon commentaire, je ne vois pas à quoi il se rapporte. J'ai cru qu'on parlait de transférer de gros volumes de données d'un coup.
                Donc cachez ce commentaire :-)

  • # Crashplan

    Posté par . Évalué à 2.

    Bonjour,

    Cela fait déjà plusieurs années que Crashplan propose du stockage illimité pour 60$ l'année, voir moins si vous prenez sur 2,3 ou 4 ans… Donc rien de nouveau.

    • [^] # Re: Crashplan

      Posté par (page perso) . Évalué à 6.

      Hello,

      effectivement, il y avait déjà d'autres offres intéressantes à des prix assez compétitifs mais les offres d'Amazon et OVH sont plutôt orientées particuliers. L'offre de Crashplan est plutôt orientée entreprise.

      Il existe depuis quelques années déjà l'offre de BackBlaze qui est très sérieuse: 5$/mois pour de l'illimité. Ils documentent d'ailleurs très bien ce qu'il font avec leurs PODs qu'ils construisent eux-mêmes. Par ailleurs, ils publient également leurs statistiques sur les disques durs qu'ils utilisent.

      Le seul problème c'est qu'ils n'ont pas de client sous GNU/Linux et c'est ce qui m'a refroidi d'aller chez eux…

      • [^] # Re: Crashplan

        Posté par (page perso) . Évalué à 3.

        L'offre de Crashplan est plutôt orientée entreprise

        Faux, il y a toujours eu une offre particuliers, avec d'ailleurs un segment "Famille" qui te permettait de sauvegarder plusieurs ordinateurs dans le nuage (l'offre payante de base ne permet d'en sauvegarder qu'un seul) et un côté "Amis" qui te permettait de faire des sauvegardes sur un autre ordinateur (que ce soit ton NAS ou la machine de quelqu'un d'autre à travers internet).

        • [^] # Re: Crashplan

          Posté par . Évalué à 1.

          Je rajouterai même que d'un PC à un autre c'est gratuit avec leur client, étant donné qu'on utilise pas leurs serveurs.

          Le client est lui compatible Windows, MacOSX, Linux, Solaris, iOS, Android et Windows Phone. Un client peut-être configuré pour superviser le client installé sur une autre machine. Par exemple personnellement, je supervise le client Crashplan de mon serveur Debian (qui backup chez eux) via le client Crashplan de mon PC et de mon téléphone.

  • # Qualité de service

    Posté par . Évalué à 7.

    Perso je n'ai pas besoin d'une qualité de service type OVH ou autre. J'ai mes données, et une sauvegarde tous les mois, manuelle. Si je perds mes données du dernier mois, ben tanpis.

    Donc perso j'ai ma machine, et deux disques, qui tournent, un chez moi, un chez mes parents, aucun besoin de serveur qui tourne 24x24, pas de maintenance particulière.

    Si je refais ton calcul, 2 disques 3To : 200 €. La durée de vie fait tout le reste : si mes disques tiennent deux ans, je suis perdant, s'ils tiennent 10 ans, je suis gagnant. En puis en pratique j'ai moins de 500 Go, donc c'est encore plus facile.

    • [^] # Re: Qualité de service

      Posté par (page perso) . Évalué à 2.

      Le véritable avantage de ces services c'est qu'en cas de catastrophe (incendie, inondation, autres), tu as une sauvegarde en lieu sûr. C'est plus dur à avoir ça chez soi (il faudrait éventuellement le faire chez la famille en distant ou dans sa boîte si elle est pas trop près).

      • [^] # Re: Qualité de service

        Posté par . Évalué à 3.

        tu peux avoir deux disques par exemple : l'un chez toi. Lorsque tu va chez une autre personne (ami, famille), tu l'échange avec un deuxième disque.

        Donc tu auras une partie des sauvegardes sur un disque, l'autre partie sur un autre disque. En cas d'incendie ou de vol, effectivement tu ne pourras pas récupérer des données trop récentes. Après tout dépend à quelle fréquence tu échanges les disques…

  • # externalisation <=> compétences

    Posté par (page perso) . Évalué à 3.

    C'est certain qu'il est toujours moins chère de mutualiser chez des gens dont c'est le coeur de métier plutôt que de le faire soi même à la maison. Il est plus "pragmatique" économiquement de concentrer l'activité dans un centre d'activité qui aura des infras adaptées que d'éparpiller les centres de production sur le territoire. Au niveau comptable recette-dépense c'est bien plus intelligent.

    Maintenant il y a des considérations hors bilan que l'on peut prendre en compte et qui font changer l'indice bénéfice-coût, au niveau aménagement du territoire la concentration amène la pollution car la zone de nature réduite n'est pas à même de traiter la pollution, le cas de paris grande couronne est l'exemple, en france, type : une bulle de chaleur, une très grande pollution due au déplacement des personnes venant travailler, un plus grande pollution due aux livraison des millions de tonnes de bouffe pour alimenter….

    Pour le cas de la sauvegarde en interne, on peut aussi considérer la thésaurisation de la compétence née de la mise en place et de l'entretien, le développement économique de l'achat des machines/serveurs/disques peut être chez un revendeur proche, peut être un bout de contrat qui gère le temps pour le faire. Et puis pas de connexion : pas de sauvegarde montante, ni de restauration descendante, mauvaise connexion : c'est la chierie. Il faut une absolue confiance dans le prestataire, j'ai connu des crashs disque chez un hébergeur, tu as que Lisieux pour pleurer (tu dois faire tes sauvegardes, lol c'est lui la sauvegarde).

    Enfin, même du point de vue économique, l'étude est déséquilibrée à 5 ans, mais sur un serveur de sauvegarde qui sert une fois par semaine ou par quinzaine, tu peux le couper entre 2 sauvegardes et ne l'allumer que lorsque besoin, ça diminue la conso (mais c'est un poste peanuts), mais ça multiplie par 20 ou 30 sa durée de vie. Ainsi on peut penser que le disque peut vivre 20 ans puisqu'il ne sert que 5 heures par semaine, dès lors sur 20 ans : coût 1100,00, chez amazone 1200.

    Bon une machine… 20 ans… je n'y crois guère, y aura toujours quelqu'un pour la remplacer parce qu'elle est trop vieille. mais ton coût est fixe, tu ne sais pas chez amazone quel sera le coût dans 5 ans. Mais ce qui est certain c'est que c'est économiquement abordable pour une petite structure.

    • [^] # Re: externalisation <=> compétences

      Posté par . Évalué à 3.

      Pour une vraie sauvegarde, il faut que celle-ci soit fait sur un site externe. Ce qui permet de pallier les catastrophes naturelles, accident, incendie, sur-tension et j'en passe.

      Si la sauvegarde est fait dans la pièce d'à côté, elle ne sert strictement à rien en cas de gros pépins…

    • [^] # Re: externalisation <=> compétences

      Posté par . Évalué à 5.

      au niveau aménagement du territoire la concentration amène la pollution car la zone de nature réduite n'est pas à même de traiter la pollution, le cas de paris grande couronne est l'exemple, en france, type : une bulle de chaleur, une très grande pollution due au déplacement des personnes venant travailler, un plus grande pollution due aux livraison des millions de tonnes de bouffe pour alimenter….

      1. C'est très largement discutable. Tu dis que Paris et la grande couronne sont très pollués à cause de la concentration. Je ne suis pas certain que la pollution soit réduite si tu dois multiplier les distances à cause de l'éparpillement de la population. Par contre, on la voit moins, cette pollution. Est-ce l'objectif?
      2. Si tous les particuliers qui habitent dans des régions très denses ont leur solution à eux chez eux, on augmente localement la quantité d'énergie consommée à cet effet. Si l'hébergeur met son centre en rase campagne, on répartit subitement la consommation entre la zone densément peuplée et la campagne. Avec plusieurs centres à plusieurs endroits désert, le tour est joué!

      Pour le cas de la sauvegarde en interne, on peut aussi considérer la thésaurisation de la compétence née de la mise en place et de l'entretien, le développement économique de l'achat des machines/serveurs/disques peut être chez un revendeur proche, peut être un bout de contrat qui gère le temps pour le faire.

      Je doute qu'on arrive à développer toutes ces compétences avec des prestataires qui y consacrent 10% de leur temps, et je ne parle pas des particuliers.

      Et puis pas de connexion : pas de sauvegarde montante, ni de restauration descendante, mauvaise connexion : c'est la chierie.

      Franchement, même une mauvaise connexion, pour un particulier, ça fait quoi, retarder la sauvegarde de quelques jours. La fin du monde? Si la connexion tombe, je peux toujours dégainer mon disque externe et faire une sauvegarde ponctuelle.

      Il faut une absolue confiance dans le prestataire, j'ai connu des crashs disque chez un hébergeur, tu as que Lisieux pour pleurer (tu dois faire tes sauvegardes, lol c'est lui la sauvegarde).

      Alors qu'un crash disque dans ta maison, tu retrouves tout sans problème? Là on peut même parler de catastrophe naturelle chez le fournisseur et argumenter que du coup, c'est moins risqué à la maison. Ça n'a aucun sens!

      Enfin, même du point de vue économique, l'étude est déséquilibrée à 5 ans, mais sur un serveur de sauvegarde qui sert une fois par semaine ou par quinzaine, tu peux le couper entre 2 sauvegardes et ne l'allumer que lorsque besoin, ça diminue la conso (mais c'est un poste peanuts), mais ça multiplie par 20 ou 30 sa durée de vie.

      Ce n'est même pas sûr que ça multiplie d'autant la durée de vie. Le test le plus dur à passer pour des composants électroniques, ce sont les cycles de température, par une expo prolongée à haute température. Tu parlais plus haut de fiabilité du fournisseur qui perd tes données, mais tu serais prêt à faire tes sauvegardes critiques sur des disques qui ont 10ans sans te poser de question?

      Ainsi on peut penser que le disque peut vivre 20 ans puisqu'il ne sert que 5 heures par semaine, dès lors sur 20 ans : coût 1100,00, chez amazone 1200.

      Parce que forcément, Amazon va garder son prix constant dans les 20 prochaines années, voire l'augmenter à cause de la crise et la fin de la loi de Moore…
      Nan, franchement, je n'y crois pas une petite seconde.
      Et quand bien même Amazon augmente ses prix, il s'agit de sauvegardes, ils ne peuvent pas me mettre un couteau sous la gorge et me menacer de tout liquider si je ne paie pas: je peux toujours aller voir ailleurs!

      Du reste, tu oublies également que la quantité de données personnelles augmente elle aussi rapidement avec les années. Ton disque de sauvegarde, dans 10ans, ne sera sans doute plus suffisant pour tes besoins!

      Vois-tu, je m'intéresse de plus en plus à ce genre d'offre, et je ne vois rien dans ma maison qui puisse y faire de l'ombre.

      • [^] # Re: externalisation <=> compétences

        Posté par (page perso) . Évalué à 4.

        Tu ne vois rien dans ta maison, parce que tu considères que rien ne peut l'égaler. Tu pars du résultat pour justifier que tu arrives au même résultat. Tu regardes la solution en ligne, tu cherches ce que le local ne te propose pas et tu considères que c'est important/primordial et effectivement rien ne peut l'égaler puisque c'est l'axiome.

        Par exemple tu imagine que ton disque ne sera plus suffisant dans 10 ans, mais en ce cas, ton espace amazone non plus, il faudra l'agrandir et donc le prix aussi.

        Pour ton disque, s'il tourne pas, je ne pense pas qu'il monte en température, mais je ne suis pas un spécialiste, ce qui voudrait dire qu'il ne s'use pas. Bon bien entendu si j'ai une inondation (bon pour chez moi il n'y aurait que l'arche de noë pour me sauver dans ce cas, ou un incendie, ce ne sont pas les photos ou les sauvegardes de documents texte/tableurs/scripts…. qui me manqueront le plus, mais le reste de la maison partie en fumée.

        Maintenant on n'a peut être pas les même choses à sauvegarder. Je suis persuadé avoir chez moi des disques de plus de 10 ans et je n'ai pas de soucis dessus : ils ne sont pas en plein soleil, ils sont dans une "vieille" machine que l'on allume peut être une fois par mois (parfois moins) pour monter des trucs dessus. C'est sur qu'un jour on va migrer vers un disque plus gros (2To) parce que ce sera plus simple que de mettre un deuxième côte à côte. Mais les sauvegardes c'est un peu comme les trucs que tu gardes au cas ou et le jour ou tu déménages tu les jettes parce que ce n'est plus si utile que cela si tu dois payer/travailler pour les changer de place. Certains sont utiles et d'autres non. Et il arrive qu'en bossant tu crashes un fichier "important" avec 3/6 heures de taff c'est méga chiant mais pas mortel. Il ne faut pas oublier qu'il y a moins de 5 ans, les machines avaient pas un disque de 3 To, mais plutôt 80 Go. J'ai connus des ordis ou les disque se comptaient en Mo et l'unité était la centaine. Je ne dis pas que c'est inutile, je dis qu'affirmer que c'est la solution pour tous est un peu péremptoire.

        Tu diminues pas forcément la quantité d'énergie consommée par la concentration, parce que ta sauvegarde que tu utilises une fois par mois, ton prestataire il laisse tourner ton disque 24/24, sur une machine allumé 24/24, derrière des nœuds réseaux allumés 24/24. Alors oui un site web est toujours accessible et probablement que sa machine est plus optimisée conso que la tienne, mais pour une sauvegarde c'est moins évident. Il n'y a pas de granulométrie de l'utilisation donc on ne peut pas comparer on ne peut que supputer. Mais si tu fais juste de la sauvegarde, pas besoin d'écran, pas besoin d'interface graphique, pas besoin de milliers de process qui tournent, pas besoin de refroidissement de ouff parce c'est la seule machine et que ta pièce ventile naturellement…. On peut y réfléchir, à première vue, au doigt mouillé c'est pas évident que ça consomme plus, dans le cas de la sauvegarde que tu allumes seulement de temps en temps.

        Maintenant sur l'aménagement je suis certain de ce que j'avance. La nature traite la pollution sans soucis jusqu'à une certaine dose. tu roules avec ta voiture en campagne, le CO2 est filtré par les feuilles des arbres, la pluie ramène des particules dans l'herbes et les fossés qui les filtrent et les désagrègent. Cela ne marche pas si tu as 120 véhicules heure pendant 8 heures et il faut plus que 3 platanes étêtées tous les ans.

        Donc si tu réparties tes zones de production (c'est de l'aménagement de territoire) tu augmentes la surface d'absorption des polluants par véhicule. Ensuite la concentration des zone de production oblige à un étalement des zones d'habitat et des trajets individuels plus long. Lorsque les lieux de productions (et de magasins) sont disséminés au milieu des zones d'habitats tu réduis les trajets individuels, tu réduis la distance nécessaire pour approvisionner (on parle de local, pas de faire venir tes fraises du portugal lorsque tu habites lille.) L'avenir de l'urbanisme c'est ce que l'on met petit à petit en place avec les éco-quartier ; un mélange d'habitation, magasins et lieux de travail. La concentration des zones par type : travail/loisir/commerce/habitat est ce qui augmente le plus les trajets et est anti-écologique. Il y a toute une littérature la dessus qui part de l'exemple de la ville américaine.

        Lorsque je vois que le plan de développement du triangle soissons/St quentin/Chateau Thierry c'est la N2 pour aller taffer sur Paris, je rigole, avec l'augmentation du coût/kilomètre dans 5-10 ans ça va couter de l'argent d'aller travailler sur paris si tu ne gagnes pas plus de 2500 euros. (là ce sont des chiffres un peu au doigt mouillé). Les calculs de rentabilités c'est très compliqué, ceux qui parlent de pollution, consommation encore plus, il y a des tonnes de facteurs et parfois le facteur qui semble insignifiant à plus de poids qu'on ne pense. Et il y a en plus toute la propagande que l'on a subit qui ancre des idées toutes faites qui sont parfois pas mal fausses.

        • [^] # Re: externalisation <=> compétences

          Posté par (page perso) . Évalué à 6.

          Par exemple tu imagine que ton disque ne sera plus suffisant dans 10 ans, mais en ce cas, ton espace amazone non plus, il faudra l'agrandir et donc le prix aussi.

          Comment tu agrandi l'illimité ?

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

          • [^] # Re: externalisation <=> compétences

            Posté par . Évalué à 10.

            Si tu regardes dans ton filtre antispam, tu as sans doute au moins 10 mails par jour qui t'expliquent comment faire :)

          • [^] # Commentaire supprimé

            Posté par . Évalué à 6.

            Ce commentaire a été supprimé par l'équipe de modération.

            • [^] # Re: externalisation <=> compétences

              Posté par . Évalué à -2.

              Faut arrêter de se sentir persécuter… Tu as aussi des services qui te fournissent ce qu'ils te vendent. Chez Crashplan c'est illimité et sans petite ligne, ils te parlent même de To de données si ça te fait plaisir de les mettre…

              • [^] # Commentaire supprimé

                Posté par . Évalué à 5.

                Ce commentaire a été supprimé par l'équipe de modération.

                • [^] # Re: externalisation <=> compétences

                  Posté par . Évalué à 0. Dernière modification le 30/03/15 à 08:28.

                  Je crois surtout que tu ne comprends pas le fait que ce soit illimité mais que quasiment personne ne s'en sert en illimité. Donc au final peu d'utilisateur le font et se sont donc ceux qui ne s'en servent pas en illimité qui payent pour les autres en quelque sorte.

                  Un petit exemple, je prends 10 utilisateurs avec la formule illimitée. Je vais avoir par exemple 8 utilisateurs qui vont venir stocker 2To chacun et puis 2 qui eux vont venir stocker sans limite. Donc au final j'ai 8 utilisateurs qui payent pour les 2 autres. C'est le jeu.

                  Par exemple dans mon cas je dois utiliser environ 600Go, donc petit consommateur au final, mais ça leur laisse de la marge pour les très gros utilisateurs.

                  Je pensent qu'ils ont dû faire quelques études et calculs de moyenne avant de se lancer dans de telles offres ;)

                  • [^] # Re: externalisation <=> compétences

                    Posté par (page perso) . Évalué à 4.

                    Et en complément, les "petits" utilisateurs n'ont pas à s’inquiéter de dépasser un quota qui entraînerait des coûts supplémentaires. Ça rassure niveau budgétaire.

                    Python 3 - Apprendre à programmer en Python avec PyZo et Jupyter Notebook → https://www.dunod.com/sciences-techniques/python-3

                  • [^] # Re: externalisation <=> compétences

                    Posté par (page perso) . Évalué à 3.

                    Je crois que tu n'as pas compris son assertion.
                    Si une personne fait réellement de l'illimité, ça veut dire que l'entreprise en face a une quantité d'espace, d'énergie et de finance illimité. Cela est bien entendu faux. Il y a une limite réelle, que l'entreprise ne divulgue pas.

                    Beaucoup d'entreprises jouent sur le fait que n > seuil, alors c'est une offre illimité.

                    • [^] # Re: externalisation <=> compétences

                      Posté par . Évalué à 1.

                      Sur ce genre d'offre je pense que la limite concrète vient du débit montant maximum vers les serveurs, qui lui n'est pas forcément spécifié par le contrat.
                      En prenant un cas extrême: 10Mo/s en continu → 300To de donnés par an, si ~1% des utilisateurs se permettent ce genre de pratiques ça reste viable. Réellement quel est l'intérêt de bourrer un serveur de centaines de To de donnés aux quelles on ne peut pas donné un accès libre par une URL donnée? à part de la sauvegarde et une utilisation comme stockage directe je ne vois pas, partant de là combien d'utilisateurs ont la connexion nécessaire et la volonté d'utiliser de telles quantité d'espace de stockage? pas énormément je pense.

                      • [^] # Re: externalisation <=> compétences

                        Posté par (page perso) . Évalué à 2.

                        Cela ne répond pas à la question.
                        Ce que tu dis rejoint la pratique commerciale des entreprises : c'est illimité pour un usage raisonnable (en gros, quand tu n'es plus raisonnable, ce n'est plus illimité, donc quand tu l'es, ce n'est pas illimité non plus car sinon tu n'es plus raisonnable CQFD).

                        Aucune entreprise ne peut te vendre un réel illimité qui par essence est impossible à atteindre. Et dans ce cas je pense que la limite peut $être atteignable facilement.

                        • [^] # Re: externalisation <=> compétences

                          Posté par . Évalué à -3.

                          c'est du pinaillage quand même, l'entreprise ici te promet de ne pas poser de limite à la quantité de donnés que tu peux stocker chez elle en faisant une estimation préalable du comportement des clients et des solutions techniques possible.
                          Bien sur elle ne peut pas te fournir quelque chose de matériellement impossible, mais le fait est que si le client ne peut pas non plus physiquement lui fournir trop de donné, je ne voie pas le problème.
                          Ton problème est avec l'utilisation du mot 'illimité', dans certain cas il est évidemment abusif (cas des clauses 'en bon père de famille', etc) mais si c'est juste pour dire qu'il n'y a pas d'autre limite que celle que du client, et si dans le cas du débit des limites sont mentionnées que trouve tu à redire? pour l'immense majorité des gens promettre un stockage en ligne illimité ou de X Petaoctets c'est virtuellement la même chose.
                          Si l'argument est de dire que si tout les clients utilisaient pleinement l'offre le service ne serait pas tenable alors on peut aussi dire de même d'à peut près tout ce qui est basé sur des estimations probabilistes, que ferait les assurances si tout leurs assurés avaient un accident en même temps, si chaque jour il y avait un seul joueur de Loto est qu'il gagnait,…

                          • [^] # Re: externalisation <=> compétences

                            Posté par (page perso) . Évalué à 5.

                            si c'est juste pour dire qu'il n'y a pas d'autre limite que celle que du client, et si dans le cas du débit des limites sont mentionnées que trouve tu à redire?

                            Je suis pas Renault mais je suis d'accord avec lui: dire "illimité, puis on verra en tant voulu" c'est mettre des règles a la tête du client. Une limite dite explicitement, même absurde, est plus honnête qu'une limite qui n'est pas dite.

          • [^] # Re: externalisation <=> compétences

            Posté par . Évalué à 2.

            Comment tu agrandi l'illimité ?

            ça me fait bien marrer "l'illimité" dans un monde fini…

        • [^] # Re: externalisation <=> compétences

          Posté par (page perso) . Évalué à 2.

          Pour la pollution, tu oublies de faire la distinction entre limite locale, et limite globale. Je pense que c'est sur la deuxième partie qu'il causait.

          Éparpiller les sources de pollutions nivelle la destruction globale de l'environnement : cela diminue les disparités, et tu ne te retrouves pas avec des zones cramés, et d'autres vierges. En outre, tu favorises l'étalement urbain, ce qui a un impact sur la biodiversité, les surfaces agricoles, et la capacité de traitement de la pollution des espaces naturels.

          Mais plus de pollution, c'est plus de destruction, éparpillée ou pas. À niveau de service équivalent, la solution de sauvegarde chez soi pollue plus, éparpillée ou pas, alors ce n'est guère une bonne idée.

          Après, on pourrait bien imaginer avoir des data centres dans les déserts (énergie solaire, environnement local déjà pas super, etc.).

          Bref.

          • [^] # Re: externalisation <=> compétences

            Posté par . Évalué à 3.

            Éparpiller les sources de pollutions nivelle la destruction globale de l'environnement : cela diminue les disparités, et tu ne te retrouves pas avec des zones cramés, et d'autres vierges.

            Non. Une bonne partie des pollutions sont traitables par l'environnement et c'est uniquement leur concentration qui fait qu'elles dépassent ces capacités de traitement (et s'accumulent), capacités de traitement d'ailleurs réduites à peau de chagrin dans les zones les plus urbanisées/concentrées. De plus, certaines de ces pollutions sont générées uniquement du fait des grandes villes (des grandes agglomérations, plutôt) : c'est là qu'on trouve normal de passer 2 heures chaque jour à faire tourner son véhicule, alors que dans une petite ville, soit on peut tout faire à pied ou à vélo, soit on passe 5 mn dans son véhicule. C'est là aussi que le rapport entre l'espace pris, artificialisé et imperméabilisé par la voiture et ses infrastructures et l'espace total est le plus élevé.

            En outre, tu favorises l'étalement urbain, ce qui a un impact sur la biodiversité, les surfaces agricoles, et la capacité de traitement de la pollution des espaces naturels.

            Non plus. L'étalement urbain est dû à un mode de vie : principalement la civilisation de la bagnole, suivi du besoin de voir un peu d'herbe autour de chez soi (que l'on peut trouver hors de chez soi dans un village ou une petite ville, mais pas dans une grande ville où on l'a chez soi ou nulle part) à n'importe quel prix, du zonage, du rapport aux autres1 et enfin de la France-de-propriétaire. Et ça se passe principalement autour des grandes villes qui en quelque sorte là encore « concentrent l'étalement » : quand c'est 500 m autour d'une petite ville, ce n'est pas formidable, mais ça passe ; quand c'est une nappe quasi-continue de 20 km de rayon autour d'une grande ville…

            Mais plus de pollution, c'est plus de destruction, éparpillée ou pas.

            Toujours pas et pas toujours.

            À l'inverse, dans les villes du nord de l'Europe, très étalées, la verdure est partout hormis l'hypercentre (et encore), camouflant pas mal et jouant ses divers rôles. Nous on a allié les deux modèles en prenant le pire des deux.


            1. comparer deux villes, une espagnole et une française. Si je prend ma « capitale » locale, elle doit faire 7 km de diamètre (et encore, plutôt 10 ou 15 km vu que maintenant elle rejoint les communes adjacentes le long des routes principales…) pour 7 à 8000 habitants (un noyau et des km de pavillons/villas et de zones artisanales/commerciales immondes). De l'autre côté des Pyrénées, autre « capitale » locale, 50000 habitants. Celle-ci fait 4 km de diamètre (peu de différence entre le noyau et les constructions modernes, pas de transition pavillonnaire entre ville et campagne, assez peu de ZAC merdiques) : même si tu es au centre du centre du centre, tu peux atteindre les champs en marchant, tu peux aller te balader à vélo, bref tu peux t'aérer, avoir ta dose d'herbe en quelques minutes sans avoir besoin d'en privatiser un bout. 

  • # aucun intérêt pour les petites connexions

    Posté par . Évalué à 10.

    Ne résidant pas en France, mon ADSL 156/320 (c'est exprimé en kilobits par seconde…) me permettra d'envoyer mes 10 To (en comptant les téraoctets "modestes": 10 puissance 12 octets) en 16-17 ans. Mais pour les récupérer, ça ne prendra que 8 ans! J'espère juste qu'il ne faudra pas reprendre le téléchargement à zéro en cas de déconnexion intempestive…

    • [^] # Re: aucun intérêt pour les petites connexions

      Posté par . Évalué à 2.

      Chez OVH la bande passante est limitée à 10 Mbit/s en montant et descendant, donc même avec une grosse connexion ce n'est pas toujours intéressant.

      • [^] # Re: aucun intérêt pour les petites connexions

        Posté par . Évalué à 2.

        Cette limitation de hubiC n'existe plus. D'ailleurs de chez moi (fibre Orange), je télécharge à plus de 80Mb/s et je téléverse à plus de 45Mb/s (j'ai une connexion 100/50Mbps). Ca me parait pas si mal :)

        • [^] # Re: aucun intérêt pour les petites connexions

          Posté par . Évalué à 3.

          Cette limitation est toujours présente dans les conditions générales, voir la fin de l'article 2 à la page 2:

          La bande passante est limitée à 10 Mbit/s en montant et descendant.

          Le débit que tu annonces n'est donc pas pérenne (il peut par exemple être lié à la charge de leurs liens et utiliser de la QOS entre différents services pour laisser plus de bande passante disponible à hubiC quand elle n'est pas utilisée par ailleurs).

  • # Tarsnap

    Posté par (page perso) . Évalué à 7.

    Difficile de faire mieux : on paye à l’usage, et c'est sécurisé.
    Cf. Tarsnap.

  • # Accès via FTP / SFTP ?

    Posté par . Évalué à 1.

    Ces deux offres semblent (au minimum) réticentes à fournir l'accès via SFTP/FTP pour privilégier leurs propres logiciels clients.

    Quelqu'un a testé ou connait des offres permettant l'accès via SFTP (ou FTP) ?

    • [^] # Re: Accès via FTP / SFTP ?

      Posté par (page perso) . Évalué à 2.

      rsync.net propose un accès FTP et SFTP, en plus de quelques commandes bien pratiques pour le transfert et le backup. Par contre on est clairement dans une autre gamme de prix, et a mon avis dans une utilisation plus proche de ce qui t’intéresse, a savoir un bête accès distant que tu utilises avec tes propres outils, contrairement a hubiC qui est clairement oriente alternative a dropbox, avec son logiciel dédié et son interface web.

  • # Combinaison des deux

    Posté par . Évalué à 3.

    Il existe une solution qui consiste à combiner local + cloud. En clair, un petit NAS prêt à l'emploi à la maison, qui se débrouille tout seul pour se sauvegarder sur un ou plusieurs fournisseur de cloud (amazon, google, hubic, crashplan…). De ce que j'en connais, les nas synology peuvent faire tout ça, et simplement (interface web, bonne aide en ligne, zéro ligne de commande nécessaire), donc accessible à pas mal de monde à mon avis.

    L'intérêt c'est que la sauvegarde est faite très vite en réseau local, et ensuite le NAS prendra tout le temps nécessaire pour se sauvegarder sur un service sur internet, ce qui retire le problème de la sauvegarde qui ne finit jamais parce qu'on doit éteindre et/ou emmener l'ordinateur portable.

    • [^] # Re: Combinaison des deux

      Posté par . Évalué à 1.

      C'est exactement comme ça que j'ai monté mon install. Tous mes clients PC, tablette, téléphone… se sauvegarde sur mon NAS qui lui même se sauvegarde sur Crashplan. La 1ère synchro à pris du temps (vive l'adsl :D) mais maintenant tout roule et tout est transparent niveau client ;)

  • # Manque l'option restore to door

    Posté par . Évalué à 4.

    Pour être compétitif face à des solutions comme crashplan ou carbonite, il manque quand même une option de restore to door, c'est à dire qu'en cas de sinistre important on puisse t'envoyer par la poste un disque dur avec le contenu des tes sauvegardes. Parce que bon récupérer x TB via le réseau, ce n'est pas forcément très rapide. Autant pour la maison et les photos de vacances ce n'est pas hyper grave, autant pour les besoins professionnels d'un indépendant ça peut être gênant.

    Pour ma part et après des tests j'ai abandonné (pour l'instant) le backup décentralisé via réseau. J'ai du haut débit mais le transfert est beaucoup trop long pour être intéressant. Pour diverses raisons je ne souhaite pas garder une machine up 24h/24 7j/7 hormis un NAS qui est relativement silencieux. Je décentralise en clonant le NAS de temps en temps sur un disque usb que j'emmène au bureau. Un rappel dans l'agenda m'insulte si j'oublies de le faire. L'idéal serait d'avoir deux disques pour éviter la loi de murphy (sinistre spécifiquement le jour où j'ai ramené le disque à la maison).

  • # Offres persos vs. offres pros

    Posté par . Évalué à 1.

    Attention à bien distinguer les offres de stockage "perso" et "pro".

    Dans le premiers cas, c'est du type "drive" pour M. toutlemonde, typiquement pour remplacer des disques durs USB collés derrière un PC. Propose de base : la synchronisation, l'intégration à l'OS, le partage avec d'autres utilisateurs, etc.
    L'accès privilégié se fait souvent soit par le logiciel fourni, soit via l'interface Web avec fonctionnalités avancées (prévisualisation, etc).
    Il y a parfois des API néanmoins, plus ou moins bas niveau (Hubic permet du Swift par exemple).
    Et c'est dans ce type d'offres uniquement qu'on parle "d'illimité".

    Dans le cas des offres pros, ce n'est plus le même objectif : on vous vend du stockage brut, sans interface de gestion ou presque. À charge de passer via l'API, bien plus complète et officielle que dans le cas des "drive".
    En contrepartie, c'est plus cher et, chose qui n'est jamais évoquée pour les offres grand public, on paye le stockage et le transfert.

    L'auteur du journal parlait de nouveautés dans ce domaine, pour ce que j'ai vu moi, Google a dernièrement annoncé une offre Google Cloud Storage à $0.01/GB/mois, en mode "nearline". Donc $10/TB/mois sans compter les frais de transfert.
    Amazon Glacier offrait également du stockage à ce prix, mais avec davantage de contrainte pour sa récupération notamment.

  • # Déduplication

    Posté par . Évalué à 1.

    Pour rebondir sur ce passage :

    Un autre point d'intérêt de la solution de sauvegarde "à la maison", c'est le fait qu'on puisse dédupliquer le contenu des sauvegardes permettant de diminuer sensiblement la quantité d'espace disque utilisée pour stocker des données qui sont redondantes. Par exemple, le système des sauvegardes hebdomadaires et mensuelles sur un espace disque dédupliqué consommera vraiment peu d'espace car les ratios de déduplication observés pour ce genre de sauvegardes qui stockent souvent la même chose à un delta près sont vraiment très bons (facteur de 1 à 10). Il existe maintenant de nombreux logiciels libres qui gère la déduplication (ZFS, Obnam, Attic, etc.).

    En effet, certains systèmes de fichier gèrent directement la "déduplication". Et encore, le terme est un peu vague et recouvre plusieurs concepts selon ce que tu décrivais.

    ZFS, pour celui que je connais, gère la déduplication à proprement parler (évite de stocker 2 blocs qui contiennent la même donnée). Mais en pratique les perfs sont abyssales et il est fortement recommandé de ne pas utiliser cette fonctionnalité.

    À contrario, des fonctionnalités incroyablement pratiques et puissantes sont comme tu disais les snapshots qui permettent des sauvegardes différentielles et des restaurations très rapides.

    Même si l'API des services tels que S3 et Google Cloud Storage ne le permet pas de base, on peut se servir d'une couche logicielle intermédiaire pour recréer ces fonctionnalités avancées.
    Il y a par exemple le programme S3QL, dont la doc mentionne notamment : "Transparency, Dynamic Size, Compression, Encryption, Data De-duplication, Immutable Trees, Copy-on-Write/Snapshotting".
    Évidemment il y a des contraintes (nœud de passage obligé pour les transferts de données, dépendance à un logiciel, etc).
    Et surtout il faut faire gaffe à la garantie qu'offre le fournisseur cloud en terme de "consistency" : Amazon S3 dans la zone US est connue pour se comporter en "eventual consistency", au contraire des autres régions ou bien de Google Cloud Storage qui est (quasiment) complètement "immediate consistency".

    Au-delà d'applications telles que S3QL qui masquent complètement le service cloud sous-jacent, j'ai l'idée qui me trotte dans la tête de concevoir un proxy HTTP qui prendrait en charge toutes ces opérations de compression, snapshot, etc.
    J'ai cherché partout sur Internet mais je n'ai rien trouvé qui s'en approche…

    • [^] # Re: Déduplication

      Posté par (page perso) . Évalué à 2.

      • [^] # Re: Déduplication

        Posté par . Évalué à 0.

        Euh, je ne suis pas vraiment sûr que camlistore corresponde à ce que je recherche.
        Je vais être plus précis donc :-)

        Imagine que tu as un bucket "bucket1" sur S3 ou GCS, rempli de centaines de Go de données, qui est utilisé comme backend de stockage par une application qui utilise l'API officiel du fournisseur correspondant.
        Là, tu testes une nouvelle version de ton appli et tu voudrais faire un snapshot de "bucket1" en un nouveau "bucket1-test", sans dès le départ copier aucune donnée évidemment.
        Cela serait le rôle du proxy de ne stocker, au fur et à mesure des opérations, uniquement le différentiel des opérations réalisées depuis le moment où le snapshot est créé.

        Bref, une abstraction au dessus d'une API cloud mais dans un proxy HTTP, histoire que tout soit transparent pour l'appli cliente.

        • [^] # Re: Déduplication

          Posté par (page perso) . Évalué à 2.

          Mes excuses, je pensais que tu te servais de S3 ou de GCS comme d'un bête espace de stockage brut, et que la logique sur les données pouvait se faire côté client ou côté proxy. Dans ce cas-là, camlistore aurait pu t'être utile: en implémentant un blobserver.Storage, tu peux décider où sont lus et où sont écrits les bouts de données, ce qui te permettrait de lire depuis "bucket1" et d'écrire dans "bucket1-test". Note que par défaut Camlistore déduplique déjà automatiquement les données (ce qui fait que les blobs stockés dans S3/GCS n'auraient aucun sens en tant que tel), et que tu peux rajouter par dessus la compression, le chiffrement, le cache…
          Ça aurait été, à mon avis, beaucoup plus simple que de faire un proxy HTTP de 0.

          Effectivement si la hiérarchie de l'organisation dans S3/GCS compte, camlistore ne peut pas t'aider. Mais je continue de penser qu'il est mauvais de faire trop confiance à un fournisseur de stockage dans les nuages, et qu'il vaudrait mieux les considérer comme un fournisseur de stockage brut.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.