bonjour'
sur mes serveurs j'ai souvent besoin d'appeler des urls our lancer des taches' sans avoir besoin de récupérer la sortie.
pour cela j'utilise actuellement des crons
1. wget "http://monurl.com?action=true" -O foo.html --delete-after
ou
2. curl -s 'http://monurl.com?action=true'
mais je me demande la différence et pourquoi choisir l'un ou l'autre?
# la difference est flagrante
Posté par NeoX . Évalué à 3. Dernière modification le 26 avril 2016 à 10:10.
dans la premiere tu utilises wget
dans la seconde tu utilises curl
:D
ca depend :
- de ce qui est dispo sur la machine
- si tu as un proxy à traverser, avec ou sans authentification
optimisation, tu dois pouvoir faire le wget -O /dev/null
[^] # Re: la difference est flagrante
Posté par Pouetpouet . Évalué à 1.
C'est-à-dire ?
C'est pas plutôt:
[^] # Re: la difference est flagrante
Posté par NeoX . Évalué à 3.
non parce que curl peut aussi faire :
- sans authentification
- NTLM
- kerberos
# sInon
Posté par -=[ silmaril ]=- (site web personnel) . Évalué à 4.
Tu peut directement faire:
wget "http://monurl.com?action=true" --quiet -O /dev/null
Tu a aussi "GET" issu de LWP (libwww-perl)
# philosophie
Posté par steph1978 . Évalué à 8.
Ces commandes sont philosophiquement différentes et plus ou moins explicite dans leurs noms.
wget est plus conçu pour télécharger en http. Par exemple, il supporte le récursif, et les patterns d'url (http://monservice/monrepertoire/image[0-9].png).
curl est plus conçu pour interagir avec un serveur web. Par exemple il peut faire du POST, du PUT, du HEAD, et toutes les opérations prévues en HTTP et bien utiles en architecture REST.
Donc en théorie ton besoin correspond plus à curl. Mais en pratique les deux font très bien le job pour toi. IMHA, utilise celui qui est présent de base sur ton système.
[^] # Re: philosophie
Posté par gotcha5832 . Évalué à 1.
Merci bien à vous
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.