Forum Linux.général Limiter/gérer la bande passante utilisée par un programme

Posté par .
Tags : aucun
0
3
jan.
2005
Bonjour

Je suis à la recherche d'un programme capable de limiter la bande passante que consomme un programme, un peu comme la commande "nice" pour gérer la priorité d'un processus sur un système.

Par exemple, quand j'ai besoin de télécharger de gros fichiers (comme les sources du noyau Linux en ce moment), j'utilise wget, qui permet facilement de reprendre le téléchargement au cours de plusieurs connexions.
Malheureusement, ça a tendance à prendre toute la bande passante disponible, ralentissant tous les autres programmes (navigation ordinaire, mail ...).

On peut gérer la qualité de service (QoS), mais cela marche par type de service. Hors, ces téléchargement passent par le http, donc le même service que la navigation web.

Il me faudrait donc un moyen d'appliquer des restrictions à un programme, comme cela se fait avec la commande nice.

Si quelqu'un connait un truc dans le genre, merci.
  • # trickle

    Posté par (page perso) . Évalué à 5.

    Tout est dans le titre :)
    ]$ trickle -d taux_en_kb/s ton_prog_qui_dl

    Autrement wget sait gérer tout seul la bande passante :
    ]$ wget --limit-rate taux_en_kb/s url_de_ton_noyaux_adoré

    Pour plus d'infos :
    man trickle
    man wget
  • # pour wget

    Posté par (page perso) . Évalué à 5.

    si c'est juste pour wget que tu as un problème, tu as l'option :
    wget --limit-rate=30k
    qui te permet de limiter le download de wget à 30k par exemple.

    bon, d'accord, c'est fixe pour une même exécution de wget, mais au moins, ça permet de limiter la bande passante...
    • [^] # Re: pour wget

      Posté par . Évalué à 4.

      bon, d'accord, c'est fixe pour une même exécution de wget, mais au moins, ça permet de limiter la bande passante...

      Ben tu mets dans ton .shellrc un truc du genre alias wget='wget --limit-rate=30k' c'est porc mais normalement ca marche.
      • [^] # Re: pour wget

        Posté par (page perso) . Évalué à 3.

        y a moins porc tout de même, dans ton .wgetrc :
        limit-rate=30k
      • [^] # Re: pour wget

        Posté par (page perso) . Évalué à 2.

        en fait, je voulais dire, c'est fixe et ça ne peut plus bouger pour la commande en cours (ça peut être pratique de pouvoir faire évoluer ce taux sur un gros download qui prend plus que quelques minutes).

        par contre, merci pour l'info (surtout le .wgetrc donné en dessous !), je n'y avais pas pensé ! ça m'évitera de faire un ctrl+c et de recommencer quand j'oublie ;-)
        • [^] # Re: pour wget

          Posté par (page perso) . Évalué à 3.

          Tu peux dire à wget de reprendre un éléchargement interrompu donc si tu veux changer la vitesse d'un téléchargement en cours, tu peux tuer wget et le relancer avec -c. Bon évidemment le plus propre c'est quand même d'utiliser trickle.

          pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

    • [^] # Re: pour wget

      Posté par . Évalué à 3.

      si c'est juste pour wget que tu as un problème, tu as l'option :
      wget --limit-rate=30k
      qui te permet de limiter le download de wget à 30k par exemple.


      Bien vu ! Merci !

      J'avais regarder la page de man, mais je n'avais pas trouvé ça. Et pour cause, ça n'apparait que dans la page de man en anglais !! Ce n'est pas la première fois que je constate des manques dans la traduction :/
      • [^] # Re: pour wget

        Posté par (page perso) . Évalué à 2.

        oui, ce n'est effectivement pas dans la page de man en fr...

        par contre, c'est également affiché par la commande :
        wget --help
      • [^] # Re: pour wget

        Posté par . Évalué à 1.

        au passage,
        comment on fait pour choisir la langue dans les pages de man ?
        merci.
        • [^] # Re: pour wget

          Posté par (page perso) . Évalué à 2.

          $ man man
          :)

          pertinent adj. Approprié : qui se rapporte exactement à ce dont il est question.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.