Journal Du stockage en ligne (encore)

Posté par  . Licence CC By‑SA.
Étiquettes :
7
3
mai
2016

Bonsoir tous,

Il a déjà été question des solutions de sauvegarde/synchro dans le nuage (sr. en fin de message).

Voici un inventaire auquel j'en ajoute quelques-unes que je n'ai pas vues sur LFR. Ceci pour demander des retours sur toutes ces solutions et partager ma maigre expérience.

Si on s'en tient au prix, quelques-uns se distinguent :

  • Mega, c'est louche.

  • Hubic : pas chiffré, pas libre mais imbattable. Pour le chiffrement : avec True/VeraCrypt & Fuse comme l'on déjà rapporté certains ici.

  • TarSnap : pas libre mais dit y contribuer, chiffré de bout-en-bout. Même dédupliqué cela reste relativement cher (à partir des exemples donnés sur le site)

  • Amazon Glacier : pas libre, chiffré

  • Giga.gg : société française, Gigatribe, déjà à l'origine d'un précurseur de Wuala, 6€/mois pour de l' "illimité" alias 10 To, 500 Go gratuit (avec débit limité). Pas de synchro pour l'instant. La copie récursive de répertoire ne se fait que par Chrom(e|ium). Bon débit en "illimité". L'intérêt réside dans le partage avec d'autres comptes, sous forme de réseau social. De plus, on peut lire directement musique et vidéo. Il y a une image fixe d'aperçu en icône et cela fait un proxy aussi pour les formats Raw des APN (NEF, PEF, etc.). Le chiffrement n'est pas bout en bout, le chiffrement se faisant sur le serveur. Le partage du contenu chiffré se fait ensuite par les clés publiques partagées entre comptes. Giga dit ne pas pouvoir déchiffrer… Ils annoncent collaborer avec Interpol pour ne pas contribuer à la diffusion de contenus pédopornographiques grâce aux hashes ( Dropbox fait la même chose mais avec les éditeurs). Pas libre mais on peut saluer la clarté de Giga : "Comme avec n'importe quelle solution de chiffrement, seule la bonne foi de l'éditeur sert de garantie. La seule autre alternative consiste à utiliser des logiciels libres que l'on est capable d'analyser et de compiler soi même. GiGa.GG s'engage à retirer de son site web le présent paragraphe si l'entreprise n'est plus en mesure d'assurer le respect de la vie privée de ses utilisateurs.".

  • Tahoe-LAFS : stockage distribué, problème : faut le maintenir. Je ne sais pas s'il y a des implémentations pour des NAS de type Synology ou Qnap. De plus, il semble qu'il faille une petite dizaine de nœuds pour assurer débits et surtout redondance suffisante.

  • LeastAuthority.com : un des fondateurs de Tahoe-LAFS propose S4, un hébergement proposant du Tahoe-LAFS reposant sur du… S3. Limitations : pas de suppression à moins de périmer le fichier. Taille de fichier limitée à <3 Gio.

  • Storj.io : propose un stockage cloud facturé au Go (0,015 Go/mois) et la bande passante (0,05 €/Go). Cela revient relativement cher. Il y a une comparaison avec S3 et MS Azure (0,03 Go/mois). Mais il y a surtout une échange de stockage local, un peu comme feu Wuala et là cela peut devenir intéressant, je n'ai pas fait le calcul.
    Les transactions se font par du Bitcoins version Storj : le StorJCoinX (SJCX). Storj est FOSS.

Journaux :

  • # spideroak

    Posté par  (site web personnel) . Évalué à 4.

    C'est tout chiffré sur ton poste donc normalement, la NSA n'a rien : https://spideroak.com

    • [^] # Re: spideroak

      Posté par  (site web personnel) . Évalué à 1.

      Sauf si la NSA accède à ton poste et peut casser le chiffrement.

    • [^] # Re: spideroak

      Posté par  . Évalué à 10. Dernière modification le 04 mai 2016 à 01:30.

      À même temps si tu chiffre en local, tu peut balancer l'archive sur n'importe-quel service après, ils se vaudrons tous.

      Personnellement la question ne se pose pas, au boulot on a nos propres Dedibox ST et à la maison j'ai pas le débit pour envisager des sauvegardes distantes.

      Mais si je devait mettre ça en place, je chiffrerai tout moi-même en local puis choisirai le cloud avec le meilleur rapport prix/utilisabilité.

      Par utilisabilité j’entends la facilité d'uploader un gros volume de données préalablement chiffrés, donc le gros client kikoulol et les fonctionnalités d’aperçus en ligne RàF.

      La sécurité alléguée aussi RàF, en balançant ça à un tiers, je sait pertinemment que mon chiffrement constitue la seule ligne de défense.

  • # glacier

    Posté par  (site web personnel) . Évalué à 10.

    Amazon Glacier c'est pour du stockage long terme, pas de la synchronisation. La récupération des données est très longue (plusieurs heures) et un accès fréquent aux données reviendra très cher. C'est plus destiné à des archives ou une copie de sauvegarde de secours.

    • [^] # Re: glacier

      Posté par  . Évalué à 2.

      Voir par exemple cet article.

    • [^] # Re: glacier

      Posté par  (site web personnel) . Évalué à 5.

      Pour du stockage avec un accès fréquent, le service Amazon idoine serait S3 plutôt que Glacier, qui comme son nom l'indique est une sorte de congélateur pour données longue conservation! :)

  • # Hubic on a laissé tomber

    Posté par  (site web personnel) . Évalué à 4. Dernière modification le 04 mai 2016 à 07:51.

    Hubic imbattable … sur le papier
    Dans la vrai vie cela ne fonctionne pas au dela de 50 Go
    Mon collègue et moi avons perdu de nombreuses heures a tenter d'utiliser les 10 To promis sans succès.

    Ce que nous voulions faire : faire des rsync sur une VM dédiée entre HubicFuse et des partages NFS
    cela presque marche.
    Au bout de 50 Go (51.49 exactement) la synchro ne fonctionne plus
    Sans explications, ni logique …

    quelques tentatives (sympas) de comprendre avec la hotline.
    Sans résultat, j'ai même tenté le bluff et le menace comme quoi j'allais inonder le net avec le résultat de nos tests … ils n'ont même pas eu peur

    Bref on a écumé le net sur la résolution du problème, on n'arrive pas à passer cette barrière de 50 Go

    Le problème vient forcément de HUBIC, car maintenant on utilise plusieurs comptes Mega gratuit de 50 Go sans problème

    Par contre on n'utilise pas les mega tools car au vu de notre bande passante pourrie on est parfois obligé de mettre les transferts en pause et cela seul le client web de Mega le permet.

    Donc Mega c'est louche mais au moins cela fonctionne bien (avec le plugin Firefox)

    Hubic c'est pas louche mais cela ne fonctionne pas … dommage

    • [^] # Commentaire supprimé

      Posté par  . Évalué à 8.

      Ce commentaire a été supprimé par l’équipe de modération.

    • [^] # Re: Hubic on a laissé tomber

      Posté par  . Évalué à 4.

      j'ai aussi eu des blocages sur hubic depuis un NAS synology utilisant cloudsync. en fait ça ne venait pas de la volumétrie mais de fichiers mal nommés (caractères incorrects)

      après renommage des fichiers en question c'est reparti. pour le mmoment presque 800Go sans soucis.

    • [^] # Re: Hubic on a laissé tomber

      Posté par  . Évalué à 2.

      Hubic, moi aussi j'ai laissé tomber.

      Un client linux au fonctionnement capricieux, en beta perpétuelle, bref du linux de façade, ça montre bien la considération pour les clients de seconde zone que nous sommes. Dommage, car j'étais prêt à payer (si ça marchait correctement et simplement).

      Depuis, je suis passé chez la mère Zaclys avec owncloud (sur une offre avec adhésion et mutualisée) et j'en suis satisfait, à la fois pour le stockage et les outils associés à ownCloud qui me permettent de synchroniser agendas et contacts notamment.

      Le seul bémol, c'est que pour l'offre mutualisée, il n'y a pas encore de chiffrement des données possible côté serveur.

    • [^] # Re: Hubic on a laissé tomber

      Posté par  . Évalué à 2.

      Je profite de ton commentaire pour répondre à ton précédent journal, au sujet de Mega. Je n'ai qu'un compte gratuit et je n'ai pas (pour le moment) l'intention d'acheter la version "pro".
      En tout cas j'ai trouvé d'autres moyens de paiement pour Mega : depuis l'appli mobile, ils proposent google wallet. Et le "bon mega" (traduction un peu bizarre), ça s'achète en fait auprès d'autres vendeurs, par exemple http://www.hosting.co.uk/mega qui propose l'achat via CB. Je pense que ça fera moins de frais qu'un virement, mais je n'ai pas testé. Après, c'est facile d'acheter des bitcoins (paymium par exemple) et de payer par ce biais également…
      Le client, natif linux, fonctionne plutôt bien mais parfois c'est arrivé que ça ne synchronise plus alors qu'il est encore actif, il m'a suffit de le quitter et le redémarrer.

      J'utilise chez moi Owncloud mais j'ai eu des trucs bizarres avec, mais ce n'est pas forcément de la faute de owncloud mais de mon utilisation, genre j'ajoute un nouveau tel portable que je synchronise avec foldersync (appli android), et cela m'efface la moitié de mes données (j'avais prévu le coup et sauvegardé mon dossier owncloud juste auparavant). Mais même en utilisation normale, avec le client desktop officiel, j'ai parfois des trucs bizarre, genre ça décide de retélécharger l'intégralité de mon owncloud (clients avec des versions différentes ?). Sans compter les mises à jour hasardeuses du serveur.

      Suite au journal sur Syncthing (dernier lien du présent journal), je l'ai installé sur différents ordinateurs, ça semble bien et ne pas prendre trop de ressources sous Android, mais c'est encore en phase de test. Parfois j'ai l'impression que ça a du mal à trouver les autres machines, mais lorsque ça le fait, ça fonctionne bien.

      Je vais donc moduler mon usage de ces divers logiciels en fonction des besoins : mega pour les trucs qui prennent de la place ou qui utilisent beaucoup de petits fichiers et qui ne sont pas trop importants ni confidentiels (certains logiciels, roms de jeux etc), owncloud pour les créations plus personnelles (mais si je ne le surcharge pas trop ça sera plus facile de gérer et détecter s'il se passe des trucs bizarres), et syncthing à l'essai.

      « Le pouvoir des Tripodes dépendait de la résignation des hommes à l'esclavage. » -- John Christopher

    • [^] # Re: Hubic on a laissé tomber

      Posté par  (site web personnel) . Évalué à 1.

      Je serais plus pour un petit serveur avec pas trop de cpu mais de gros dd avec une installation basique, filtré. Un ptit owncloud installé et pour faire les synchro entre ton archi et owncloud rsync puis un petit script qui lance la commande qui va bien pour mettre à jour owncloud (https://doc.owncloud.org/server/9.1/admin_manual/configuration_server/occ_command.html#file-operations-label). Ensuite tu peux choisir qui accède à quoi et partage avec qui.

      Born to Kill EndUser !

  • # Dedikam

    Posté par  (site web personnel) . Évalué à 1.

    Et personne ne parle de Dedikam ?

    • [^] # Re: Dedikam

      Posté par  . Évalué à 2.

      ou de seafile en libre ou en saas…

      • [^] # Re: Dedikam

        Posté par  . Évalué à -1.

        Je n'avais pas oublier SeaFile mais cela reste relativement cher, 20€/mois pour 4 To.

    • [^] # Re: Dedikam

      Posté par  . Évalué à 2.

      faut comparer ce qui est comparable.
      4000€/an pour 5To avec une réplication….

      c'est surement valable dans un contexte entreprise (encore que la même chose sur S3 coute dans les 1780$ pour la même durée, sans compter les options infrequent access ou reduced redondancy qui peuvent diviser par 2 ce prix)

      pour un particulier c'est sans commune comparaison avec hubic.
      même un kimsufi ou dedibox est beaucoup plus compétitif.

  • # bande passante montante ?

    Posté par  . Évalué à 6.

    Rassurez-moi, vous faîtes ça dans un cadre professionnel, ou vous faites partie des chanceux qui ont la fibre optique ? Parce que pour le commun des mortels, l'upload doit être autour d'un Mb/s, alors le stockage en ligne ça n'a guère de sens non ?

    La gent féminine, pas la "gente", pas de "e" ! La gent féminine ! Et ça se prononce comme "gens". Pas "jante".

    • [^] # Re: bande passante montante ?

      Posté par  (Mastodon) . Évalué à 9.

      Ça a du sens pour de l'archivage.
      Si tu envoies toutes tes photos sur un service en ligne, tu es à l'abri d'un crash disque chez toi, ou même d'un cambriolage.
      Tu n'as pas besoin d'y accéder, tu peux tout conserver localement chez toi, mais tu as un backup ailleurs.
      Donc si l'envoi se fait en tâche de fond, même si en rentrant de vacance tu en as pour 24h d'upload, ce n'est pas grave, l'objectif sera quand même atteint.

      Et un jour tu devras peut-être tout rapatrier, ce qui te prendra peut-être une semaine, mais ça ne sera pas perdu, et c'est ce qui compte.

      Yth.

      • [^] # Re: bande passante montante ?

        Posté par  . Évalué à 5.

        En fait j'ai à peu près 2 To. À 1 Mb/s (128 Kilo Octets par seconde), j'avais calculé que j'en prenais pour 6 mois.

        Hu Hu, vivement la fibre :-)

        La gent féminine, pas la "gente", pas de "e" ! La gent féminine ! Et ça se prononce comme "gens". Pas "jante".

        • [^] # Re: bande passante montante ?

          Posté par  (site web personnel) . Évalué à 2.

          Pour un transfert ponctuel, tu peux peut–être aller dans un endroit avec une bonne connexion (il doit bien il y avoir quelqu'un qui propose ce genre de services, j'espère) ou bien envoyer tes données sur support physique (cela existe pour certains services de stockage en ligne.)

        • [^] # Re: bande passante montante ?

          Posté par  (site web personnel) . Évalué à -10.

          Tu produits 2 To en 6 mois, vraiment? C'est le cas de tout le monde?
          Voila, tu montres toi-même que même pour toi ça passe (au pire si tu es pressé par le début, tu fait un saut à un endroit avec une bonne connexion, il y a en a).

          Bref, ce n'est pas le soucis pour 99.9% des gens.

          • [^] # Re: bande passante montante ?

            Posté par  . Évalué à 8.

            Hou la la, j'ai dit ça moi ?

            Non, j'ai 2 To chez moi, après… pfiou, plus de 30 ans à bouiner avec des ordinateurs, pas 6 mois.

            Je me pose donc la question de sauvegarder tout ça, et la sauvegarde distante de toutes ces sornettes mobilisera ma ligne pendant plus de 6 mois : donc j'ai choisi de ne pas faire jusqu'à maintenant.

            Et, si tu veux tout savoir, j'ai de la famille à proximité qui a accès à la fibre optique depuis peu, et j'envisage effectivement d'aller dumper mon nas chez hubic à partir de chez eux. Mais ça ne résoudra pas le problème qu'à chaque fois que je copierai la carte mémoire de l'APN sur le NAS (4 GB je crois), je repartirai pour plusieurs jours de backups mobilisant tout mon upload.

            La gent féminine, pas la "gente", pas de "e" ! La gent féminine ! Et ça se prononce comme "gens". Pas "jante".

            • [^] # Re: bande passante montante ?

              Posté par  (site web personnel) . Évalué à -7. Dernière modification le 04 mai 2016 à 11:33.

              Mais ça ne résoudra pas le problème qu'à chaque fois que je copierai la carte mémoire de l'APN sur le NAS (4 GB je crois), je repartirai pour plusieurs jours de backups mobilisant tout mon upload.

              4 GB = 10 heures à 128 kB/s.
              Les jours font 24 heures…

              Bref, ton cas d'utilisation est parfaitement faisable avec ta ligne.
              Je suis certes moinser, mais la seule chose que je dis est que ça marche très bien avec ce que tu as, et que plein de monde le fait déjà.

              plus de 30 ans à bouiner

              30 ans sans crash de disque ou problème à la maison? Tu devrais jouer au loto…

              • [^] # Re: bande passante montante ?

                Posté par  . Évalué à 10. Dernière modification le 04 mai 2016 à 11:44.

                4 GB = 10 heures à 128 kB/s.
                Les jours font 24 heures…

                Pas faux, ça peut tourner la nuit sans être trop pénible.

                30 ans sans crash de disque ou problème à la maison? Tu devrais jouer au loto…

                Mais où ai-je écrit ça nom de dieu ? C'est un peu fatigant cette façon de bondir dans tous les sens sur des trucs que tu t'inventes. Prends un peu de repos, bois un verre d'eau, mais fais quelque chose.

                La gent féminine, pas la "gente", pas de "e" ! La gent féminine ! Et ça se prononce comme "gens". Pas "jante".

          • [^] # Re: bande passante montante ?

            Posté par  . Évalué à 7.

            Après il a prêtre autre chose à foutre que saturer son lien montant, laisser sa machine tourner pendant 6 mois non stop, tout en vérifiant de temps à autres que le transfert à pas foire.
            Et pour 99.9% des gens, baby-sitter un transfert pendant 6 à 8 mois, c'est un soucis, oui.

            Linuxfr, le portail francais du logiciel libre et du neo nazisme.

    • [^] # Re: bande passante montante ?

      Posté par  . Évalué à 2.

      Rassurez-moi, vous faîtes ça dans un cadre professionnel, ou vous faites partie des chanceux qui ont la fibre optique ? Parce que pour le commun des mortels, l'upload doit être autour d'un Mb/s, alors le stockage en ligne ça n'a guère de sens non ?

      Juste pour le plaisir de pinailler, mais la montee en debit peut se faire autrement qu'avec la fibre optique. Certains ont par exemple un acces vdsl avec un upload correct (5Mb et +), moi j'avais le cable (autour de 10 Mb d'upload effectif). Il existe également des pays avec des abonnements 4G illimites a des prix competitifs, l'upload peut aller autour de 50 Mb.

      Bref, des alternatives existent au tout fibre optique a tel point qu'on peut se demander si les déploiements actuels sont vraiment pertinents.

      • [^] # Re: bande passante montante ?

        Posté par  (site web personnel) . Évalué à 2.

        Le routeur 4G pour un cout de 99€/mois chdez bouygues
        à l'air intéressant, et ils proposent 15 jours de tests
        Par contre attention en fonction de la situation géographique les débits changent

        Ex: nous on a droit à 12mb/s et 3,5Mb/s (d'après un test sur un tel)

        j'attends la proposition pour le test de ce routeur

      • [^] # Re: bande passante montante ?

        Posté par  . Évalué à 7.

        Il existe également des pays avec des abonnements 4G illimites a des prix competitifs, l'upload peut aller autour de 50 Mb.

        C'est ce que j'ai en Finlande : 4G illimitée pour 20€/mois. Upload à 50Mbps. À la campagne, c'est encore plus rapide vu que c'est partagé entre moins de personnes. Je peux d'ailleurs emporter le modem en vacances. L'inconvénient, c'est que je n'ai pas d'adresse IP publique donc c'est du Minitel ultra rapide. L'ADSL est très peu développé car le réseau téléphonique a quasiment disparu dans les années 90 avec le passage massif au téléphone portable.

        Cette signature est publiée sous licence WTFPL

    • [^] # Re: bande passante montante ?

      Posté par  (site web personnel) . Évalué à 2. Dernière modification le 04 mai 2016 à 10:14.

      Oui c'est dans un cadre professionnel
      Le but : la diffusion d'image ISO contenant des logiciels / patchs etc …

      Une image ISO peut être utilisé même des années après sa publication officiel de l'éditeur
      pour la réinstallation d'environnement de Test de Dev etc …

      4Go peuvent mettre 40 à 60 heures pour s'uploader via Mega

    • [^] # Re: bande passante montante ?

      Posté par  . Évalué à 3.

      Ben perso j'ai la fibre et pour stocker un bon Tera de données je me suis posé la question de louer un espace de stockage voire un serveur dédié. Le problème c'est qu'il n'y a qu'en France que les tarifs sont raisonnables donc c'est mort, pas envie que la moitié du gouvernement aille piocher dans mes données discrètement. Ajouter une couche de chiffrement oui pourquoi pas mais le problème c'est Windows, il n'y a pas tellement de solutions Windows pour chiffrer des répertoires encore moins s'il faut que ce soit compatible Linux. Du coup, NAS.

      • [^] # Re: bande passante montante ?

        Posté par  . Évalué à 1.

        Ajouter une couche de chiffrement oui pourquoi pas mais le problème c'est Windows, il n'y a pas tellement de solutions Windows pour chiffrer des répertoires encore moins s'il faut que ce soit compatible Linux. Du coup, NAS.

        Si tu prends owncloud server et que tu actives l'option chiffrement côté serveur, puis que tu utilise davfs2 (tuto pour win7 drop sur google), tes fichiers sont chiffré peu importe ton OS non?

        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

    • [^] # Re: bande passante montante ?

      Posté par  (site web personnel) . Évalué à 2.

      Perso, pour l'upload initial d'une quantité non négligeable, au lieu de passer par mon petit adsl tout lent, j'ai pris mon portable sous le bras et j'ai profité des capacités en upload du wifi du centre Pompidou (plusieurs Mo/s).

    • [^] # Re: bande passante montante ?

      Posté par  . Évalué à 2.

      J'ai 1Mbps upstream sur mon ADSL et j'utilise Owncloud pour de la synchro/sauvegarde. Comme c'est au fil de l'eau, ça marche très bien.
      Bien sûr, je ne synchronise que de la bureautique et des phots, pas de vidéo par ex.

  • # Tahoe-LAFS

    Posté par  . Évalué à 1.

    Merci pour le partage.
    Je ne connaissais pas "Tahoe-LAFS", c'est stable comme technologie?
    Si vous avez des infos à propos de cette techno, hésitez pas à partager (je suis en train de zieuter google, y a plein de tuto mais assez peu qui explique les capacités de ce logiciel (genre peut-on configurer la Bande passante, ubuntu-fr parle même de RAID (lequel? on peut faire un RAID10 stable?)))

    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

    • [^] # Re: Tahoe-LAFS

      Posté par  . Évalué à 1.

      Tu as plus d'infos sur le site de Tahoe-LAFS avec une FAQ qui, je pense, répond à tes questions.

      • [^] # Re: Tahoe-LAFS

        Posté par  . Évalué à 1. Dernière modification le 04 mai 2016 à 13:31.

        Je ne l'avais pas vu merci. Par contre le fait qu'elle soit réservée aux anglophones complique :(
        Donc si j'ai bien compris la FAQ:
        -on ne peut pas faire directement de JBOD ni raid0, on peut éventuellement faire un JBOD manuel (pas stable) et demander à tahoe de s'en servir comme $basedir. Donc le RAID10 on l'oublie (pas grave pour les non pro), mais on peut peut-être faire un raid 2 + JBOD quoi qu'instable (JBOD logiciel à tendance à crash)
        -"Tahoe-LAFS comes with an SFTP server​. If you point ​sshfs at the SFTP server then you have access to Tahoe-LAFS through FUSE." il y à un SSH dans le logiciel? Quid du SSH déjà installé sur la machine?
        -"Is there a way to disable the encryption for content which isn't secret? Won't that save a lot of CPU cycles?" ils parlent de quel chiffrement, les fichiers stockés où l'échange sur le réseau?
        -"The current solution is: do lease-renewal every month or so, and delete any files that nobody has lease-renewed in more than a month or so." => "La solution actuelle est: faire la location-renouvellement tous les mois, et supprimer tous les fichiers que personne n'a bail renouvelé en plus d'un mois ou plus." Donc si je comprends bien le dossier photo d'enfance qu'on a besoin une fois tout les 3 ans va s'auto supprimer au bout d'un mois? (exemple)

        J'ai aussi trouvé ce tuto qui va me servir de base pour essayer.

        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

        • [^] # Re: Tahoe-LAFS

          Posté par  . Évalué à 0.

          LeastAuthority propose aussi du "RAIC" : Redundant Array of Independent Cloud.

          • [^] # Re: Tahoe-LAFS

            Posté par  . Évalué à 1. Dernière modification le 04 mai 2016 à 20:30.

            Il y a l'air d'y avoir ça aussi : GlusterFS (ah, y a un tuto sur linuxfr ^ ^ )
            Je suis en train de voir se qu'on peut faire avec.(j'aimerais protéger un owncloud de façon propre contre les pannes et pourquoi pas utiliser un système distribué pour augmenter les perfs en lecture :) voir, on peut rêver, compenser une panne du serveur central )

            Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

  • # Giga ça a l'air bien

    Posté par  (site web personnel) . Évalué à 2.

    Je suis en cours de test et cela a l'air bien … au bout de 1/2h
    et j'ai gagné 25 Go en parrainant qqun :)

    A suivre …

    • [^] # Re: Giga ça a l'air bien

      Posté par  . Évalué à 1.

      J'ai au bas mot 4 To (des années de photos Raw sans mitrailler comme un fou, beaucoup de musique en Flac et un peu de vidéos).

      Pour hubiC, j'ai plusieurs échos contradictoires, je connais quelqu'un qui a rempli deux comptes sans problème (BP, synchro). Par contre, j'ai quelqu'un qui, sur un volume bien moindre, a eu quelques corruptions.

      Du coup, j'hésite entre Giga quand ils auront la synchro, Storj avec un NAS, hubiC + chiffrement et Mega + chiffrement (VeraCrypt, TrueCrypt ou EncFS ?).

      Il y a aussi Backblaze, 5$/mois, "illimité" mais le débit était faible et il y a seulement des clients OSX et Windows.

      Crashplan : 5$/mois. Client OSX, Win et Linux. Chiffré mais pas libre. Le débit était faible (Boulogne).

  • # Nearline

    Posté par  . Évalué à 1.

    Google propose un truc très prometteur, même tarif que Glacier (1cent/go/mois) mais avec un temps d'accès de quelques secondes.
    https://cloud.google.com/storage-nearline/

    • [^] # Re: Nearline

      Posté par  . Évalué à 0.

      10$/To/mois, c'est plus cher que Crashplan cité juste au dessus, par exemple (et dont le client linux marche bien).

      • [^] # Re: Nearline

        Posté par  . Évalué à 0.

        Au cours actuel du dollar, jusqu'à 434go c'est moins cher chez Google

        • [^] # Re: Nearline

          Posté par  . Évalué à 1.

          Ouai… mais de là à dire que cette nouvelle offre de Google est très prometteuse, il y a une légère exagération, non ?

          • [^] # Re: Nearline

            Posté par  . Évalué à 1.

            Je ne vois pas ce qui est gênant dans l'expression que j'utilise au point où ça mérite d'être relevé.
            L'offre de Google est moins chère que celle que tu proposes dès lors qu'on a moins de 430go à archiver. Par ailleurs les données archivées sont accessibles en quelques secondes, contrairement à Amazon Glacier où il faut attendre plusieurs heures pour récupérer ses données.
            Tout ça me semble prometteur dans le sens où c'est un service récent et qu'il se démarque de la concurrence sur le couple prix-disponibilité.

    • [^] # Re: Nearline

      Posté par  . Évalué à 2. Dernière modification le 04 mai 2016 à 20:58.

      poua 1 centime d'euro du Go, plus de 3X moins chers que le prix d'un disque dur. (les plus rentable que j'ai trouvé sont a 0,03475€ du Go et ce sans compter l’électricité) Faut même pas demander se qu'ils font des données ^ ^

      Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

      • [^] # Re: Nearline

        Posté par  . Évalué à 5.

        Oui mais c'est par mois, donc au bout de quelques mois ils font du bénéfice.

        « Le pouvoir des Tripodes dépendait de la résignation des hommes à l'esclavage. » -- John Christopher

  • # tarsnap

    Posté par  (site web personnel) . Évalué à 4.

    TarSnap : pas libre mais dit y contribuer, chiffré de bout-en-bout. Même dédupliqué cela reste relativement cher (à partir des exemples donnés sur le site)

    Heu, je te conseille d'approfondir un peu ce point.

    Derrière tarsnap, il y a Colin Perecival, qui est l'un des contributeurs historique majeur de FreeBSD. Il maintient par ailleurs toutes les images FreeBSD que tu peux installer sur amazon. Tarsnap (l'entreprise) est sponsor de la FreeBSD Fundation.

    Enfin l'ensemble du client comme des composants serveur sont libres.

    https://github.com/Tarsnap

    • [^] # Re: tarsnap

      Posté par  . Évalué à 0.

      Je me fiais à cette page. Merci de la précision.

  • # Dédié

    Posté par  . Évalué à 4.

    Je préfère encore utiliser un nuage perso dans le coin d'un dédié (chez online pour ma part).
    C'est comme ça qu'a démarré amazon s3, ils ont utilisé leur architecture existante pour louer l'espace disponible. Et finalement je crois que c'est ce qui leur rapporte le plus maintenant.
    La seule contrainte que je vois c'est que la capacité est moins flexible. En revanche ça permet de faire tout un tas de vérifications et stats des données sur le serveur lui-même.

    On peut même se monter son propre s3, c'est ce que je suis entrain de m'amuser à faire avec https://minio.io + https://restic.github.io/
    Mis à part qu'il est clairement indiqué en rouge "Minio server is under active development. Do not deploy in production." ça marche et c'est vraiment très simple à déployer. Presque trop simple, on n'a pas du tout envie de tenir compte de cette note !

    • [^] # Re: Dédié

      Posté par  (site web personnel) . Évalué à 1.

      un dédié

      Super tu as fait la moitié.
      Maintenant il reste l'autre moitié à faire (le serveur miroir), un backup sur un seul serveur n'était pas du tout la même chose qu'un backup sur S3 (qui est redondé, lui).

      C'est comme ça qu'a démarré amazon s3, ils ont utilisé leur architecture existante pour louer l'espace disponible.

      Ouais, mais jamais avec un unique dédié.

      • [^] # Re: Dédié

        Posté par  . Évalué à 2.

        Évidement oui, je ne me contente pas d'un seul dédié, c'est juste pour le côté "cloud". Mais je n'aurai pas non plus confiance en un seul S3. Pas tant que le support ne soit pas fiable, mais du fait que ma propre config d'upload puisse avoir des failles, humaines (par exemple sauvegarder un mauvais dossier).

        Du coup je préfère multiplier les méthodes de sauvegardes plutôt que les sauvegardes elles mêmes. D'où mon journal sur zpaq qui complète un rsync + cp -al etc.

        • [^] # Re: Dédié

          Posté par  . Évalué à 3.

          Mais je n'aurai pas non plus confiance en un seul S3.

          Ça n'existe pas. Si tu utilise S3, tu as forcément 3 répliquas (si je ne m'abuse).

          Pas tant que le support ne soit pas fiable, mais du fait que ma propre config d'upload puisse avoir des failles, humaines (par exemple sauvegarder un mauvais dossier).

          Euh… ? Tu envisage de te tromper sur la conf de ta sauvegarde une fois mais de ne pas te tromper de la même façon les autres fois ? Autant je peux comprendre que tu considère que l'upload peut avoir un problème (une différence entre ce que tu envoie et ce qui est reçu), mais ça c'est géré par les checksum (c'est fait pour et S3 le calcul pour toi).

          D'où mon journal sur zpaq qui complète un rsync + cp -al etc.

          zpaq est très bien même avec S3 :) (avec une toolchaine, genre tar + zpaq + s3put)

          Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

          • [^] # Re: Dédié

            Posté par  . Évalué à 2.

            Je disais un seul s3 dans le sens seulement sur un s3…

            J'ai rarement eu de problème à cause d'un matériel défaillant, la plupart du temps les problèmes de sauvegardes viennent d'une mauvaise configuration, le mauvais répertoire indiqué, un exclude trop vaste, un lien non suivi etc. Pour ça je préfère multiplier les méthodes plus que les supports. Par exemple j'ai une sauvegarde intégrale mais avec peu d'historique, une autre avec de l'historique sur les parties plus critiques etc.

            Tu utilises zpaq régulièrement, depuis longtemps ? La seule chose qui m'inquiète un peu c'est le dev qui a l'air un peu de considérer que c'est son jouet pour faire des expériences (d'après ce que je vois sur le forum).

        • [^] # Re: Dédié

          Posté par  . Évalué à 3.

          Tu devrais zieuter GlusterFS, ça permet de faire du Raid réseau avec/sans réplication et avec gestion des instantanés, etc

          Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.