Forum général.général Effacer un disque dur

Posté par .
Tags : aucun
0
30
août
2007
Bonjour,

J'ai l'habitude de "nettoyer" les disques durs que je dois rendre au fabricant en faisant un :
dd if=/dev/zero of=/dev/sda count=noerror bs=2048

(si je dit pas de connerie le conv=noerror ne sert à rien car il ne peut pas y avoir d'erreur en lecture si on lit /dev/zero ?)

Bref,

Là je dois le faire sur un disque qui a des secteurs foireux. Donc dd s'arrete à cause d'une "write error" et je suis obligé de regarder combien de "records" ont été écrits pour recommencer mon dd en ajoutant un seek=n avec n=records/bs

J'ai du recommencer plusieurs fois (en ajoutant records/bs au seek precedent...) pour faire tout le disque et je voulais savoir s'il n'existait pas un outil pour faire ça d'une traite...

Je pensais aussi à écrir un script bash mais je suis pas une flêche en bash...
  • # je vais dire une connerie...

    Posté par . Évalué à -1.

    mais un simple rm des fichiers
    puis une effacement des partitions, ca ne suffirait pas ?

    sinon il doit y avoir des options à dd pour qu'il saute les erreurs ou decale automatiquement...
    • [^] # Re: je vais dire une connerie...

      Posté par . Évalué à 2.

      Je sais pas trop quel niveau de sûreté il veut, mais en faisant ça (rm + effacer les partitions), un outil comme testdisk et photorec, permet récupérer plein de fichiers que tu croyais perdus.
    • [^] # Re: je vais dire une connerie...

      Posté par (page perso) . Évalué à 6.

      rm retire la référence vers les données, mais les données restent sur le disque dur, dans le formalisme du système de fichier. Tant que les données ne sont pas réécrites, alors elles sont récupérables.
      Il en est de même concernant la suppression de la table de partition.

      Adhérer à l'April, ça vous tente ?

  • # mode mega parano on....

    Posté par (page perso) . Évalué à 4.

    J'utilise plutôt /dev/urandom que /dev/zero mais plutôt du genre
    cat /dev/urandom > toto

    Comme ca il me fait un fichier toto qui prend tout l'espace et les secteur foireux sont gérer par le système de fichier je pense.

    Ensuite si t'es vraiment parano, faut faire ça au moins 7 fois pour rendre les recuperations vraiment difficiles
  • # shred est fait pour ça

    Posté par . Évalué à 4.

    DESCRIPTION
    Overwrite the specified FILE(s) repeatedly, in order to make it harder for even very expensive hardware probing to recover the data.

    Le fichier passé en paramètre peut être un device. Dans ce cas c'est toute la partition ou le disque correspondant qui est traité.

    Mais je ne sais rien quant à sa tolérance aux erreurs d'écriture (ce qui semble être le fond de la question...).

    [ http://www.linux.com/articles/52258 ]

    Sous debian, il est dans le package coreutils.

    Il y a peut-être un moyen bourrin :
    * tu refais une table de partition avec une seule partition qui prend toute la place.
    * Tu la configures en ext2 (par exemple)
    * Un petit fsck pour virer les blocs défectueux
    * Un dd pour remplir avec un seul gros fichier de zéros
    * Enfin un shred sur le fichier ainsi obtenu.

    Sinon un bon coup de masse sur le disque...
    • [^] # Re: shred est fait pour ça

      Posté par (page perso) . Évalué à 4.

      Je pense que la commande dd n'est pas nécessaire, avec par exemple:
      shred -n 2 -z -v /dev/sda

      shred va remplacer 3 fois le contenu de /dev/sda: 2 fois par du random et la dernière fois par des zero (argument -z).
  • # Le pourquoi du comment

    Posté par . Évalué à 3.

    Si tu veux savoir un peu plus : http://www.cs.auckland.ac.nz/~pgut001/pubs/secure_del.html

    Utile pour savoir combien de ré-écriture suffit (10, 25, 100 fois ?).
    • [^] # Re: Le pourquoi du comment

      Posté par . Évalué à 2.

      On peut se passer de la lecture de la totalité du document pour ne retenir que l'épilogue que je trouve plutôt rassurant :

      For any modern PRML/EPRML drive, a few passes of random scrubbing is the best you can do. As the paper says, "A good scrubbing with random data will do about as well as can be expected". This was true in 1996, and is still true now.
      (...)
      Conversely, with modern high-density drives, even if you've got 10KB of sensitive data on a drive and can't erase it with 100% certainty, the chances of an adversary being able to find the erased traces of that 10KB in 80GB of other erased traces are close to zero

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.