Forum général.cherche-logiciel Surveiller les mises à jour des sites web

Posté par  .
Étiquettes : aucune
0
2
mar.
2006
Bonjour à tous!!

Je suis depuis peu newseur sur un site. Pour me faciliter un peu la tache j'aurai besoin d'un logiciel qui surveille mes diverses sources d'info sur le web, et me prévienne quand les pages sont modifiées.
Sous windows il y en a quantité (des sharewares pour la plupart mad) : alleycat, Copernic tracker, URLy warning, website watcher etc...

Je n'arrive pas à trouver d'équivalent sous Linux.

Connaitriez-vous un (des?) logiciel qui pourrait correspondre à mes besoins??

Merci beaucoup!
  • # apt-cache search check web update

    Posté par  . Évalué à 3.

    après avoir trouvé les mots clés (check semble préféré à watch) :
    samidare :
    Samidare makes it easy to keep up with your favorite weblogs or webpages in general.
    It will monitor updates to those sites and list their last modified time.
    It generate HTML file which list URLs (links) to monitor from template.

    faut voir ce que cela vaut maintenant ...
    • [^] # Re: apt-cache search check web update

      Posté par  . Évalué à 3.

      Ca pourait peut-être faire l'affaire...Merci!

      Sinon j'ai cherché de mon coté et j'ai découvert Web Secretary : http://baruch.ev-en.org/proj/websec/

      Ca fonctionne à merveille. Il suffit de planifier les vérifs avec cron, le logiciel va checker les pages et envoie les pages modifiées (avec les modifs en surbrillance) par mail (via postfix).

      Génial!!
      • [^] # Re: apt-cache search check web update

        Posté par  (site web personnel) . Évalué à 3.

        t'as regardé à d'abord prendre les flux rss (s'ils existent) ?
        http://fr.wikipedia.org/wiki/Really_Simple_Syndication

        parce que bon scanner un suite en entier, c'est un peu consommateur en ressources (surtout si ça parcoure le site en profondeur)
        • [^] # Re: apt-cache search check web update

          Posté par  . Évalué à 3.

          Il n'y a pas de flux RSS sur 98% des sites qu'il faut que je vérifie...

          Ensuite je n'ai pas besoin de scanner le site entier (heureusement!), mais seulement la page d'accueil ou la page des téléchargements...

          Le logiciel que j'ai trouvé (programmé en perl) fait parfaitement l'affaire.
          Il va voir un première fois la page, l'enregistre dans un coin, puis ensuite quand je le relance il va voir la page et la compare avec celle enregistrée (comparaison au niveau du code html sans doute) . S'il y a modif il m'envoie la page en html par mail avec les modifs en surbrillance.

          Niveau ressources ça va, j'ai planifié les verifs avec cron, quand je ne me sert pas de mon ordi...

          Problème résolu...A moins que vous connaisiez des alternatives à ce logiciel...
  • # moi aussi

    Posté par  . Évalué à 1.

    je cherche éxactement la même chose

    charger un html ou un RSS, c'est pas très loin niveau bande passante... il ne sagit pas d'aspirer des sites entiers

    samidare, pas facile, il me demande un fichier de configuration, il n'y a pas de man, le --help ne dit rien...
    on trouve un WiKi mais... en japonais ! comme celui-ci
    http://ashitani.jp/wiki/index.rb?p=samidare
    problème, mon japonais est quelque peu limité :=) si quelqu'un arrive à me trouver l'email de l'auteur, je pourrais demander la création d'un WiKi en anglais
    arigato gazaimasu... desu ne :=)

    WebSec je vais éssayer

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.