URL:     https://linuxfr.org/users/savepnp/journaux/seogard-monitoring-seo-et-geo-en-temps-reel
Title:   SEOGARD — monitoring SEO et GEO  en temps réel
Authors: savepnp
Date:    2026-05-05T16:05:13+02:00
License: CC By-SA
Tags:    spam, monitoring, busl, seo et open_source
Score:   -19


Bonjour à tous,

Je viens partager un projet que j'ai publié récemment ~~en open-source~~ (NdM: la licence BSL utilisée n'est pas une licence Open Source au sens OSI ou libre au sens FSF) : SEOGARD.

C'est un outil de monitoring SEO et GEO (Generative Engine Optimization) qui surveille en
continu les pages d'un site web et alerte quand quelque chose casse : metas disparues, SSR
cassé, noindex accidentel, canonical foiré, llms.txt manquant, robots.txt qui bloque
GPTBot/ClaudeBot par accident.

Ce qui le différencie : il est le seul outil qui compare en continu le HTML brut (ce que
Google indexe) et le rendu JavaScript (ce que voit l'utilisateur), sur chaque page. C'est
ce qui détecte les régressions SSR/CSR invisibles aux outils classiques (Oncrawl, Lumar,
ContentKing, Botify).

Côté technique :
  - Stack : Nuxt 4 (SSR), MongoDB, Redis 7, Playwright headless Chromium
  - Crawler distribué : 60 workers Docker, ~22 pages/sec
  - 60+ règles SEO et GEO
  - Webhook CI/CD pour bloquer les déploiements régressifs
  - Notifications Email, Slack, Teams, Jira avec auto-résolution
  - Auth : email/password, OAuth (Google, GitHub, Microsoft), SSO/SAML

Côté licence et hébergement :
  - BSL 1.1 (devient Apache 2.0 en avril 2029)
  - Self-hosted gratuit via Docker Compose
  - Cloud à 0,007 €/mois/page (trial 14 jours sans CB)
  - Hébergement UE (Hetzner Allemagne), conforme RGPD
  - Éditeur français : SAVEPNP SAS

L'origine du projet : un site français a perdu 200K clics et 160K€ de revenus sur 3
semaines à cause d'un SSR cassé qu'aucun outil de monitoring n'avait détecté. J'ai
construit SEOGARD pour que ça n'arrive plus.

Le code est ici : https://github.com/seogard-software/seogard
Le site : https://seogard.io

Toute critique technique ou suggestion est la bienvenue. Si vous voyez des optimisations
possibles dans le crawler ou les règles, ouvrez une issue, je réponds.

Bonne journée
