• # Re: Contrôler la taille critique des répertoires

    Posté par  (site web personnel) . Évalué à 2.

    Il manque l'option '-s' pour du, sinon la ligne retourne les 10 plus gros répertoires et sous répertoires.
  • # Fichier caché

    Posté par  (site web personnel) . Évalué à 1.

    Ca ne gère pas les fichier cachés ...

    du * .[!.]* -x --block-size=1024k |sort -nr | head -10
  • # dans la même veine

    Posté par  . Évalué à 1.

    Pour faire ce genre de choses, j'avais autrefois fait un script :
    
    #!/bin/bash
    
    if [ $# -eq 0 ]; then
            dossier=.
    else
            dossier=$1
    fi
    
    touch /tmp/gros.$$
    
    du -a -h --max-depth=1 $dossier > /tmp/gros.temp.$$
    
    cat /tmp/gros.temp.$$ |grep '[0-9]k' | sort -bn >> /tmp/gros.$$
    cat /tmp/gros.temp.$$ |grep '[0-9]M' | sort -bn >> /tmp/gros.$$
    cat /tmp/gros.temp.$$ |grep '[0-9]G' | sort -bn >> /tmp/gros.$$
    
    cat /tmp/gros.$$ | tail
    
    rm /tmp/gros*$$
    
    
    L'essayer, c'est l'adopter ! Pour la petite histoire: j'ai fait ce script quand j'étais à l'ensimag, où on avait des comptes assez étroits, et je n'avais pas de ligne pour les giga-octets. ce n'est qu'en utilisant ce script chez moi que je me suis rendu compte du hic : il ne rendait pas compte de mes vastes répertoires de mp3 (dont je possède bien sûr tous les originaux). j'ai donc rajouté la ligne avec 'G'. Il faudra donc penser, un jour, à rajouter une ligne avec 'T' le jour où le besoin s'en fera sentir (poil au cuir)
  • # Ah?

    Posté par  . Évalué à 3.

    Chez moi ça serait plutôt ça:
    du --max-depth=1 | sort -nr | head -10

    Et pour la même chose en mégaoctect, il faut ajouter l'option -m à du
    • [^] # Re: Ah?

      Posté par  . Évalué à 1.

      Personnellement j'utilise l'option -h. Ca permet de présenter les quantités avec une unité compréhensible.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.