Voilà mon problème : j'ai des sites (utilisant divers CMS) dont le contenu ne sera plus jamais mis à jour et je voudrais les archiver sous forme de pages HTML statiques.
Il me faut donc un programme qui :
- récupère toutes les pages du site
- avec toutes les images, feuilles de style et documents liés
- et également les images et documents déclarés dans les CSS !
- qui retouche les liens pour que le site archivé soit naviguable
- qui reste sur le domaine et ne va pas récupérer des documents certes liés mais appartenant à d'autres sites.
J'ai essayé HTTrack, qui me récupère trop de choses et plante de toute façon avant la fin, et wget avec les options qui vont bien, qui fait des erreurs dans les liens et ne va pas chercher les images déclarées dans les CSS... Connaissez-vous un programme qui fasse l'affaire ?
# Curl
Posté par Bernez . Évalué à 1.
# HTTrack
Posté par Ymage . Évalué à 3.
Avec les bonnes options pour ne pas en récupérer trop; comme tu dis.
Et question plantage, je n'y ai pas été confronté.
Une nouvelle tentative avec apprentissage peut-être ....
Si vous n'aimez pas ce commentaire c'est qu'il est ironique.
[^] # Re: HTTrack
Posté par Nerdiland de Fesseps . Évalué à 1.
Mon dernier essai était avec
httrack -D -c1 http://monsite.tld
# Commentaire supprimé
Posté par Anonyme . Évalué à 2.
Ce commentaire a été supprimé par l’équipe de modération.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.