Journal ELY - Un agent IA auto-hébergé conforme RGPD avec anonymisation native

-20
14
mai
2026

Bonjour à tous,

Avis à tous ceux qui vont hurler sur un projet vibe codé mais pour ceux qui veulent tester et que ça intéresse, j'ai créé ELY. Un agent IA auto-hébergé que je développe depuis plusieurs mois et même si j'ai fait ça avec Claude Code, croyez moi, je n'ai pas eu qu'à dire "Fais moi ceci, comme cela, qui fait çi et qui fait ça…". C'est le fruit de week-end et de soirées, voire nuits, à imaginer, tester, échanger jusqu'à ce que le résultat me convienne.

La particularité — et la raison d'être du projet — est un pipeline d'anonymisation des données personnelles qui s'exécute AVANT tout appel à un LLM, qu'il soit local ou cloud.

L'écosystème des agents IA a beaucoup grandi en 2025-2026 (OpenClaw, Hermes, et bientôt Google Remy à I/O 2026), mais aucun n'adresse sérieusement le cas des organisations soumises au secret professionnel ou au RGPD strict. ELY essaie de combler ce vide.

Quand un avocat copie une note de synthèse dans ChatGPT, ou qu'un expert-comptable demande à Claude de résumer un compte de résultat client, les noms, IBAN, SIRET, montants — tout part en clair vers des serveurs aux États-Unis. C'est documenté, c'est connu, c'est pourtant fait quotidiennement par des centaines de milliers de professionnels en France.

Les agents auto-hébergés actuels (Hermes, OpenClaw, Aider) règlent le problème de la "boîte noire" en mettant le code à disposition, mais ne résolvent pas le problème des données : si l'agent appelle Claude ou GPT-5 en backend, les données partent quand même.

ELY ajoute une couche d'anonymisation déterministe en amont : avant toute construction de prompt, un SecurityFilter détecte et remplace les PII (emails, IBAN, SIRET, numéros de téléphone, jetons API…) par des placeholders. Le LLM voit [EMAIL_0], [IBAN_0]. Les valeurs réelles sont restaurées localement quand la réponse revient à l'utilisateur. Le LLM ne voit jamais la donnée brute.

Architecture

ELY est construit sur :
- FastAPI + LangGraph (backend Python)
- Next.js 16 (frontend)
- Apps natives iOS (SwiftUI) et Android (Kotlin/Compose)
- Daemon Go pour l'automatisation desktop
- Qdrant pour la mémoire vectorielle locale, SQLite FTS5 pour le keyword
- Docker Compose pour le déploiement

Le routage LLM se fait par "tier de complexité" (Tier A rapide / B standard / C profond / IMG / SYS). L'utilisateur assigne un modèle à chaque tier dans les Settings — local (Ollama, LM Studio) pour les tâches simples, cloud (Mistral privilégié, ou Anthropic, OpenAI, Gemini, DeepSeek, Qwen, etc… selon préférence) pour les complexes. Tout est configurable sans redémarrage.

HITL (Human In The Loop) structurel

Toute action irréversible — envoi de mail, suppression, commande SSH, partage — passe par une validation explicite. Trois choix : autoriser une fois, refuser, ou bannir définitivement (la décision persiste entre toutes les sessions futures).

C'est différent des "confirmations" qu'on trouve sur les agents cloud type ChatGPT Operator, où le HITL est une UX optionnelle. Chez ELY, c'est structurel — désactiver HITL demande une modification du code source, ce qui est explicitement interdit par la licence.

Licence

ELY est sous licence PolyForm Strict 1.0 — source-available, gratuit pour usage personnel/familial/éducatif, licence commerciale annuelle pour les entreprises.
C'est un choix conscient, je l'assume :
l'open-source au sens OSI ne permettait pas de pérenniser le projet sans capital-risque, et la licence MIT/Apache aurait permis à un acteur cloud US de forker pour son SaaS sans aucune contrepartie (J'ai déjà donné…).
Ce modèle source-available est devenu courant (Sentry, Grafana, Elastic) et fonctionne bien pour les projets entre solo-dev et fondation.

Démarrage

git clone https://github.com/franckolv-dev/ElyAgent.git
cd ElyAgent
cp .env.example .env
make up

Trois commandes, 30 minutes pour le scénario "POC local" avec une clé API Gemini gratuite. Documentation et scénarios de déploiement plus avancés (Cloudflare Tunnel, Tailscale, multi-canaux) dans docs/START_HERE.md.

Discussions et critiques bienvenues

C'est un projet personnel développé en parallèle de mon activité professionnelle (je suis directeur technique chez un gros intégrateur Français, spécialisé webtoprint). Le code est ouvert, les choix architecturaux documentés. Toutes les critiques techniques sont les bienvenues, c'est ce qui fait monter le niveau, du moment que c'est constructif.

GitHub : https://github.com/franckolv-dev/ElyAgent
Site : https://agent-ely.fr

  • # Bonjour

    Posté par  . Évalué à 10 (+9/-0). Dernière modification le 14 mai 2026 à 15:40.

    Est-ce que tu as lu les journaux précédents au sujet des journaux générés par IA ?

    Si oui, qu'en as-tu conclu ?

  • # Regarde maman, un agent de la NSA !

    Posté par  (Mastodon) . Évalué à 10 (+9/-0). Dernière modification le 14 mai 2026 à 15:51.

    ELY - Un agent IA auto-hébergé conforme RGPD avec anonymisation native

    Pourquoi pas, il y a une bonne intention.

    Cependant, je vois un truc pas très très catholique dans les instructions sur la démo :

    Trois commandes, 30 minutes pour le scénario "POC local" avec une clé API Gemini gratuite

    Mais, attendez, Gemini AI, c'est bien un truc proprio de Alphabet coincé dans un nuage sous la coupe de l'Agent Orange qui cherche à détricoter le RGPD ?

    C'est.

    donc.

    Un.

    PIÈGE !!!

    * Pousse un long hululement inhumain qui fait sursauter tout un openspace *

  • # un jeudi férie, c'est aussi un trolldi

    Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0). Dernière modification le 14 mai 2026 à 19:34.

    ELY est sous licence PolyForm Strict 1.0 — source-available, gratuit pour usage personnel/familial/éducatif,

    Donc ça n'est pas vraiment un logiciel libre. Par exemple, une association n'aurait pas le droit de s'en servir ?

    désactiver HITL demande une modification du code source, ce qui est explicitement interdit par la licence.

    Donc, ça n'est absolument pas un logiciel libre, tu devrais plutôt aller poster ton annonce dans LinkedIn ou GitHub, deux filiales d'un géant spécialisé dans le non libre.

    la licence MIT/Apache aurait permis à un acteur cloud US de forker pour son SaaS sans aucune contrepartie (J'ai déjà donné…).

    Ah, je pensais depuis longtemps que la licence MIT permettait de fourcheter quasiment sans limite à part la citation de l'auteur. Mais comme tu as « déja donné », ton cas précis mérite d'être cité pour qu'on en discute demain qui sera le vrai trolldi.

    déploiement plus avancés (Cloudflare Tunnel

    Et paf le RGPD, et paf la privacy !

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.