Journal Transfert de fichiers

Posté par  (site web personnel) .
Étiquettes : aucune
0
4
mai
2004
Cher journal.

Je cherche depuis quelques temps un petit logiciel multiplateforme de transfert de fichiers de poste à poste.

Le FTP c'est gentil mais comme se sont de gros fichiers et que les vitesses d'upload sont encore basses en France, je voulais un équivalent de FTP mais avec conservation de ce qui a été transféré, un peu comme les logiciels de p2p ou de rapatriement depuis le web.

Le but étant d'avoir un petit soft, comme un ICQ/MSN/... mais qui reprend les transferts dès que l'utilisateur en face est pret à recevoir.

Merci.
  • # Désolé.

    Posté par  (site web personnel) . Évalué à -1.

    Désolé, j'ai encore oublié de décocher cette p###n de case pour afficher les journaux en page principale/secondaire.

    Un jour libre ?

  • # heu ?

    Posté par  . Évalué à 5.

    si tu veux parler de la fonction "resume" qui permet de reprendre un download/upload là où tu en étais, la plupart des clients "modernes" (ncftp, gftp, iglooftp, etc) le gèrent. il suffit que ton serveur soit configuré pour accepter le resume
    • [^] # Re: heu ?

      Posté par  (site web personnel) . Évalué à 1.

      Le but est en fait, qu'une appli tourne en tache de fond et qu'il interrompe automatiquement l'upload (ou le download) quand le client distant se déconnecte (ou que la même appli distante est fermée) et qu'il reprenne automatiquement quand c'est possible.

      Effectivement les FTP modèrnes ont des pause/resume et meme des caches qui évitent des problèmes lors de déconnexions courtes. Mais là, il s'agit de transférer des fichiers de 1Go sur plusieurs jours avec des déconnexions relativement longues.

      Un jour libre ?

      • [^] # Re: heu ?

        Posté par  (site web personnel) . Évalué à 2.

        La taille et la duree ne changent rien : le FTP resume tres bien si le serveur le supporte et que le client le gere correctement.
        Un simple script perl avec un [b]use Net::FTP;[/b] devrait faire l'affaire
        • [^] # Re: heu ?

          Posté par  . Évalué à 3.

          Un avantage par contre que je vois à la plupart des systèmes p2p sur le ftp, c'est les checksum par petits morceaux. Entre 2 connections adsl, avoir un bit de travers sur 1Go n'est pas une chose si rare que ça (enfin bon, j'ai pas de stat, mais ça arrive), et le ftp ne permet pas de corriger ça sans tout retélécharger, ce qui est très lourd.

          Ou bien alors il faut utiliser le ftp sur un fichier fractionné, avec un petit script qui prépare tout ça (fichiers+md5sums) côté serveur, et un autre côté client pour tout télécharger/vérifier/rabouter.
      • [^] # Re: heu ?

        Posté par  . Évalué à 1.

        Du p2p en local : waste : http://sourceforge.net/projects/waste/(...)
        Mais peut-etre que ca ne fait pas exactement ce que tu veux.

        Sinon ce projet a-t-il resolu ses problemes de licences ?
      • [^] # Re: heu ?

        Posté par  . Évalué à 1.

        Ton serveur ftp passera en idle quand le client sera deconnecte...
        Surtout pour des fichiers de 1go le plus simple est de passer par ftp...

        Pour un client qui reprenne le download automatiquement à l'ouverture de session (ou au lancement de connection internet) par contre j'en connais pas (gftp ?)
  • # wget

    Posté par  . Évalué à 3.

    wget ---tries=inf --continue

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.