Forum général.cherche-logiciel Mesurer le temps de réponse d'une page web complète (code html, images, son, ...)

Posté par  .
Étiquettes :
1
3
fév.
2009
Bonjour à tous,

En ce moment, je travail sur un projet pour lequel j'ai besoin de mesurer les temps de réponse de diverses pages web. Mais pour ce faire, il faut que l'outil qui télécharge la page ne se limite pas aux codes html, mais récupère toute la page (les images, le son (s'il y en a), les données flash, ...) un peu comme le fait firefox. J'ai déjà regardé du côté de wget et de AB, sans succès. J'ai même voulu écrire un script perl mais mon PC ne tient pas la charge.

Ce site web (http://tools.pingdom.com/) fait ce que veux mais je ne peux pas récupérer les résultats pour les exporter dans mon nagios. Je suis certain de ne pas être le premier à vouloir réaliser ce type de test, mais impossible de mettre la main sur un soft qui réalise toutes ces tâches.

Connaîtriez-vous un soft ou une commande "magique" ?

En vous remerciant,
  • # firebug

    Posté par  . Évalué à 4.

    c'est un module pour firefox qui fait ça très bien.
  • # Performance web

    Posté par  (site web personnel) . Évalué à 3.

    En fouillant un peu ce blog (au demeurant passionnant), tu pourras peut-être trouver ton bonheur :
    http://performance.survol.fr/
  • # Pistes

    Posté par  (site web personnel) . Évalué à 1.

    Bien le bonjour,
    Il y a Woozweb (http://www.woozweb.com) qui est un service gratuit de Smile qu permet de faire cela, mais je ne pense pas non plus que tu puisses exporter les données vers ton nagios.
    Il y a webinject qui peut faire ce que tu souhaites, mais je ne suis plus sur :
    http://nagios-fr.org/wiki/webinject
    Bonne recherche ;)
  • # Commande magique

    Posté par  . Évalué à 2.

    Et bien, ce ne fut pas simple, mais je pense avoir trouver la commande magique

    wget -E -H -k -K -p http://<site>/<document>


    Finalement, je fais un retour aux origines, lol

    Je teste ça et je vous confirme que ça fonctionne.
    • [^] # Re: Commande magique

      Posté par  . Évalué à 2.

      J'allais justement te demander pouquoi wget ne convient pas :-)

      Pour une automatisation en vue d'alimenter des statistiques je te conseille d'ajouter:
      --tries=xxx
      et surtout
      --timeout=yyy
      • [^] # Re: Commande magique

        Posté par  . Évalué à 1.

        Cool merci, j'ai déjà écrit le script avec wget et il fonctionne. Je vais ajouter le --tries qui me manquait!!!
    • [^] # Re: Commande magique

      Posté par  . Évalué à 1.

      Un des problèmes que j'ai avec wget est qu'il ne parallélise pas les téléchargements et n'est donc pas comparable aux délais qu'on a avec un navigateur récent.

      De plus il ne prend pas tous les objets de la page ( comme le flash ), cela ne convient donc pas à tous les sites.
      • [^] # Re: Commande magique

        Posté par  . Évalué à 1.

        Zut !!!! Il faut que j'analyse l'influence que cela peut avoir !!! Merci pour l'info
  • # Un article sympa sur le sujet

    Posté par  . Évalué à 4.

    http://sixrevisions.com/tools/faster_web_page/

    L'article liste une quinzaine d'outils pour mesurer et optimiser le poids de ses pages web.

    BeOS le faisait il y a 20 ans !

  • # C'est bon

    Posté par  . Évalué à 1.

    Merci à tous pour vos réponses et votre aide. Finalement, j'utilise wget et je fais :

    wget --proxy=off --tries=1 -O /dev/null --dns-cache=off -T 60 -q -E -H -k -K -p site_web

    et j'utilise time pour calculer le temps de réponse.
    • [^] # Re: C'est bon

      Posté par  . Évalué à 1.

      Sinon,

      tu as firebug dans firefox qui te donne le temps de chargement total, le temps de chargement par éléments (image, js, flash, css etc ). Je m'en suis servi pour trouver le goulot d'étranglement d'un site.

      L'interface visuelle est très pratique pour "voir" l'élément qui prends plus de temps dans l'ensemble.

      hope that helps.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.