Bonjour à tous,
J'ai besoin de votre aide pour télécharger plusieurs fichiers en même temps sans devoir cliquer sur chacun des fichier un après l'autre.
À cette adresse "http://trs-80.com/sqlsearch.htm" inscrire la lettre "a" dans la section "Description" et dans la section "Model", choisir "Model III" ensuite cliquer sur "Search".
Vous arrivez sur un page avec plusieurs fichiers à télécharger qui ne font que quelques ko et j'aimerais télécharger tous ces fichiers sans devoir cliquer sur chacun d'eux.
Quelqu'un pourrais m'aider à réussir cette exploit?
Je suis sous Mandriva avec Firefox. J'ai essayé l'extension "DownThemAll" sous Firefox mais ça ne fonctionne pas et pourtant ça déjà fonctionné. Je ne sais pas ce que le gars a fait à sont site pour que ça ne fonctionne plus.
Merci de m'aider car ça fait beaucoup de fichiers à télécharger.
# wget
Posté par Gabriel . Évalué à 0.
-r pour y aller récursivement
-np pour no-parent, sinon tu risques potentiellement de télécharger l'ensemble des pages web de l'Internet
-A zip parce qu'il n'y a que les .zip qui t'intéressent ...
[^] # Re: wget
Posté par gtr . Évalué à 0.
Merci quand même.
# Plusieus solutions...
Posté par dood . Évalué à 0.
Perso, "DownThemAll" j'ai jamais réussi à la faire marcher (mais je ne l'utilise que sous Win).
Guilhelm
[^] # Re: Plusieus solutions...
Posté par gtr . Évalué à 0.
Sur un autre forum on m'a donné cette commande mais je ne comprend par tou et ça ne fonctionne pas chez moi. Je ne sais pas ce que c'est "trs-80$", un fichier, répertoire, ou autre..
Bon, j'ai enregistré la page de résultats sous mozilla:
processsqlsearch.php.html
La chaîne de commandes suivantes semble faire l'affaire:
(j'ai limité mes chargements aux dix premiers liens (suprimmer head -10), et il faudrait améliorer l'expression régulière de egrep (autres types de liens de chargement)
egrep -o '/cgi-bin/newmangle3.pl\?[^"]*"' processsqlsearch.php.html | tr -d '"' |sed -e 's/^/http:\/\/trs-80.com/' |head -10|wget --referer="http://trs-80.com/processsqlsearch.php" --input-file -
explications pour wget
Il faut ajouter le referrer car le serveur vérifie la provenance du lien
--input-file : tous les liens sont lus depuis un fichier, ici l'entrée standard
Mon output
johand@horus:~/downloads/trs-80$ egrep -o '/cgi-bin/newmangle3.pl\?[^"]*"' processsqlsearch.php.html | tr -d '"' |sed -e 's/^/http:\/\/trs-80.com/' |head -2 |wget --referer="http://trs-80.com/processsqlsearch.php" --input-file -
--07:14:34-- http://trs-80.com/cgi-bin/newmangle3.pl?pictur3d.zip
=> `newmangle3.pl?pictur3d.zip'
Résolution de trs-80.com... 82.165.130.211
Connexion vers trs-80.com|82.165.130.211|:80...connecté.
requête HTTP transmise, en attente de la réponse...302 Found
Emplacement: http://www.classiccmp.org/trs80/model3/pictur3d.zip [suivant]
--07:14:35-- http://www.classiccmp.org/trs80/model3/pictur3d.zip
=> `pictur3d.zip'
Résolution de www.classiccmp.org... 209.145.140.57
Connexion vers www.classiccmp.org|209.145.140.57|:80...connecté.
requête HTTP transmise, en attente de la réponse...200 OK
Longueur: 1150 (1.1K) [application/zip]
100%[=================================================================>] 1150 --.--K/s
07:14:35 (22.38 MB/s) - « pictur3d.zip » sauvegardé [1150/1150]
johand@horus:~/downloads/trs-80$ file pictur3d.zip
pictur3d.zip: Zip archive data, at least v2.0 to extract
# Dowload Them All
Posté par liberforce (site web personnel) . Évalué à 2.
Installe la version disponible ici...
http://extensions.geckozone.org/DownThemAll/
Puis va sur ta page, fais un clic droit -> "Download Them All", fixe le répertoire où tu veux sauvegarder les fichiers, et fais un filtre personnalisé en .zip
Après arme toi de patience, vu que c'est super long (+de 900 fichiers), et que Download Them All ralentit considérablement firefox à l'usage... Donc compte pas pouvoir te servir du PC en même temps, va boire un café.
Sinon, essaie de voir dans man wget si tu peux pas juste enregistrer ta page à partir de firefox, et lui faire bouffer par wget -i tarecherche.html. Il me semble que wget peut extraire automatiquement les liens d'une page...
[^] # Re: Dowload Them All
Posté par gtr . Évalué à 0.
Merci
[^] # Re: Dowload Them All
Posté par liberforce (site web personnel) . Évalué à 2.
2. Télécharger les fichiers (man wget):
wget -i ref.html -F --referer http://trs-80.com/processsqlsearch.php
Sans l'option referer, il te filera juste un fichier contenant un message disant qu'il faut télécharger les fichiers à partir du site. Tu simulers ce comportement avec cette option.
3. Nettoyer en retirant les fichiers en trop:
rm -rf tr\?*
En fait je devais télécharger de la m***e avec DTA, mais sans m'en rendre compte (je pense pas qu'il ait utilisé l'astuce du referer)...
CQFD, testé et approuvé...
[^] # Re: Dowload Them All
Posté par gtr . Évalué à 0.
On m'a proposé un peu la même chose sur un autre forum don voici la commande :
egrep -o '/cgi-bin/newmangle3.pl\?[^"]*"' processsqlsearch.php.html | tr -d '"' |sed -e 's/^/http:\/\/trs-80.com/' |head -10|wget --referer="http://trs-80.com/processsqlsearch.php" --input-file -
Et ça fonctionne très bien.
Merci
[^] # Re: Dowload Them All
Posté par gtr . Évalué à 0.
Merci bien.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.