Journal Un peu d'aide

Posté par  .
Étiquettes : aucune
0
30
déc.
2003
Bonjour à toutes et à tous, j'aimerai faire un script qui permette, avec une url en paramètre,
de lancer un navigateur (peu importe lequel) , charge l'url et une fois que l'url est chargée totalement , me génère un screenshot.
Mais un problème me bloque : Comment savoir si la page a complètement été chargé avant de lancer mon screenshot ???
Si quelqu'un a une idée lumineuse

Merci.
  • # Re: Un peu d'aide

    Posté par  (site Web personnel) . Évalué à 2.

    la première idée qui me vient à l'esprit (un peu naïve j'avoue...) un petit timer genre

    ton_navigateur $URL &
    j'attend xx secondes
    pouf_screenshot!

    sinon autre idée, tu télécharge la page avec wget, tu affiche la pages dans ton navigateur (ce qui en local devrait être quasi immédiat) et pouf screenshot.

    http://damien.pobel.fr

    • [^] # Re: Un peu d'aide

      Posté par  . Évalué à 1.

      Ouais j'avais pensé a ca mais le pb du delay de xx secondes c'est que tu n'es pas sure a 100% que ta page est chargée (en plus c pas super optimisé) .
      Mais peut etre que wget -r -l x peut effectivement marcher.

      Danke
    • [^] # Re: Un peu d'aide

      Posté par  (site Web personnel) . Évalué à 2.

      avec wget tu aura des soucis de liens avec les images qui on un chemin écrit en absolu à partir de la racine du site web => marchera pas à cent 100%

      M.
      • [^] # Re: Un peu d'aide

        Posté par  . Évalué à 4.

        Ah non ! Au nom des auteurs de wget, je conteste :o)

        wget ne sert pas qu'à télécharger un seul fichier, il sait faire plein de chose, aspirer des sites entre autres (avec conversion des liens et tout).

        Pour plus d'infos, man wget.

        C'est vrai que c'est assez compliqué toutes les options quand même, il faut l'avouer (c'est pour ça que je donne pas les options qui faut ici ;-)

        Bonne chance en tout cas
        • [^] # Re: Un peu d'aide

          Posté par  (site Web personnel) . Évalué à 2.

          et bien simple test : fait un wget -r -l2 www.free.fr/index.html et va voir le contenu => y'a des problèmes avec les images....

          à moins d'avoir oublier des options, c'est pas fiable à 100%...

          M.
          • [^] # Re: Un peu d'aide

            Posté par  . Évalué à 2.

            httrack existe en ligne de commande je crois, ya moyen de faire ce qu'on veux avec je pense.
          • [^] # Re: Un peu d'aide

            Posté par  . Évalué à 3.

            aha, je t'ai pris en flagrant délit de n'avoir pas consulté la page man ;)

            il y a écrit à un endroit (lire la section à propos de l'option --page-requisites qui est très bien écrite) que télécharger la page et pouvoir la lire localement, il faut :
            wget -E -H -k -K -p url

            et là, ça marche bien
            • [^] # Re: Un peu d'aide

              Posté par  . Évalué à 2.

              un petit rajout :
              ajouter l'option -nd peut être utile (ça stocke tous les fichiers dans le même répertoire au lieu de faire une arborescence compliquée)
  • # Re: Un peu d'aide

    Posté par  . Évalué à 2.

    Links supporte l'option -dump qui fait cela en mode texte.
    Je sais bien que depuis quelques temps, links fait également le mode graphique, il faudrait voir s'il ne possède pas cette option -dump en mode graphique.
  • # Re: Un peu d'aide

    Posté par  . Évalué à 2.

    Si t'a rien d'autre qui tourne sur le pc, si t'es capable de detecter le traffic resau, quand y'a plus de traffic ben c'est que ta page est chargee...
    a+
    • [^] # Re: Un peu d'aide

      Posté par  . Évalué à 1.

      Moi j'avais pensé à vérifier l'activité processeur du navigateur : quand il consomme plus, c'est qu'il a fini.

      mais c'est vrai que s'il y a des trucs à la con sur la page qui le font travailler, c'est raté.
  • # Re: Un peu d'aide

    Posté par  (site Web personnel) . Évalué à 9.

    Pourquoi tu n'utilises pas directement kwebdesktop ? Ca fait exactement ce que tu veux.
    kwebdesktop --help pour plus d'info
    • [^] # Re: Un peu d'aide

      Posté par  . Évalué à 2.

      Je n'utilise pas parceque je ne le connaissais pas .Mais effectivement ca fait exactement ce que je cherche, comme quoi, je dirais plus jamais du mal de KDE :)

      Merci a tous
  • # Re: Un peu d'aide

    Posté par  . Évalué à 1.

    Simple: tu charges la page en local avec wget, dans un fichier, puis tu affiches le fichier avec ton navigateur, puis tu fais un screenshot avec la commande que tu veux (import ?)
  • # Re: Un peu d'aide

    Posté par  . Évalué à 5.

    #!/bin/sh
    galeon 'http://linuxfr.org/~raouldegeu/8050.html'(...)
    while netstat -t | grep linuxfr.org |grep ESTABLISHED >/dev/null
    do
    sleep 1
    done
    import -window root root.jpeg

    l'idee est de regarder les connections vers le site linux-fr et d'arreter des que c fini
    apres, tu peux ameliorer en recuperanr l'ip de ton galeon-bin et en jouant avec grep et l'option -p de netstats..

    a+
    Pierre

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n’en sommes pas responsables.