Début 2026, Anthropic a suspendu des milliers de comptes pour utilisation de Claude avec des outils tiers. Pas des comptes piratés ou abusifs — des développeurs qui avaient branché leur abonnement Claude sur OpenClaw ou des outils similaires. Compte bloqué, sans avertissement, sans recours clair.
Quelques semaines plus tard, le créateur d'OpenClaw (145K étoiles GitHub, le framework d'agents IA le plus utilisé au monde) a été recruté par OpenAI. Le projet est toujours sur GitHub, mais personne ne sait vraiment ce que ça signifie pour la suite.
Je raconte ça parce que ça m'a poussé à sortir un projet sur lequel je travaillais depuis un moment.
Je suis développeur basé en France. Je travaille depuis plusieurs années sur Aleph Cloud, un réseau de calcul décentralisé — des nœuds indépendants qui fournissent de la puissance de calcul sans passer par AWS, GCP ou Azure. Quand j'ai vu les suspensions Anthropic et le rachat OpenClaw, la question que je me posais déjà est devenue urgente : est-ce qu'on peut faire tourner des agents IA sur une infrastructure que personne ne contrôle seul ?
La réponse est oui, et c'est ce que fait LiberClaw.
Comment ça marche concrètement
Chaque agent tourne dans sa propre VM sur un nœud Aleph Cloud (CRN). Pas un conteneur partagé — une vraie machine virtuelle avec son système de fichiers et ses processus isolés. L'agent est un programme Python qui a accès à un ensemble d'outils : lecture/écriture de fichiers, navigation web, exécution de commandes shell, appels API. On décrit ce qu'il doit faire dans un fichier SKILL.md (un format texte compatible avec celui d'OpenClaw, donc si vous en avez déjà écrit, ça marche directement).
L'inférence passe par LibertAI, qui fait tourner des modèles ouverts (Qwen3.5 35b-a3n, 27b et 122b-a10b selon les besoins…). Pas de clé API OpenAI. Pas de clé API Anthropic. L'agent utilise des modèles libres, point (et ils sont, pour ces cas d'usage aussi efficaces que les modèles anthropic/openai).
Côté sécurité, on a essayé de ne pas faire n'importe quoi :
- Les secrets de chaque agent sont chiffrés avec Fernet, une clé unique par agent. Personne d'autre que l'agent n'a accès à ses credentials.
- L'authentification utilise des JWT avec rotation : access token de 15 minutes, refresh token de 30 jours. Pas de token permanent qui traîne.
- Les commandes bash passent par des filtres regex avant exécution. L'agent ne peut pas faire
rm -rf /ou exfiltrer des données vers l'extérieur sans passer les gardes.
Je précise ça parce que l'écosystème OpenClaw a eu des problèmes réels sur ce plan : des instances exposées sans authentification sur Internet, des skills malveillants qui pouvaient exécuter du code arbitraire. On a construit LiberClaw en ayant ces cas en tête.
Après, c'est votre agent… donc si vous lui demandez quelque chose de bête, ce n'est pas infaillible et il le fera. C'est votre VM et vous êtes seul dessus.
Pourquoi pas juste un VPS ?
C'est la question évidente, et elle est légitime. Pourquoi se compliquer la vie avec de l'infrastructure décentralisée quand on peut louer un VPS à 5€/mois ?
Parce que le VPS, c'est OVH, Hetzner, ou AWS. Et OVH peut décider de fermer votre compte. AWS peut décider que votre usage viole ses conditions. On est en train de construire des outils qui tournent 24h/24, qui prennent des décisions, qui interagissent avec des APIs — et tout ça repose sur la bonne volonté d'un hébergeur.
Sur Aleph Cloud, les nœuds sont indépendants. Il n'y a pas d'interrupteur central. Personne ne peut décider unilatéralement d'éteindre votre agent. C'est le même principe que ce qui rend le réseau intéressant pour d'autres usages, mais appliqué aux agents IA.
Pour ceux qui suivent les discussions sur la souveraineté numérique en France (et vu le journal récent sur JemaOS, je sais que vous êtes quelques-uns), c'est un enjeu concret : vos agents IA ne dépendent pas d'une entreprise américaine pour fonctionner.
État actuel
La plateforme est en production. Plus de 99 agents tournent en ce moment: des agents de revue de code, des assistants de recherche, des agents de monitoring. L'interface est disponible en 11 langues dont le français (pas juste un Google Translate, les pages sont réellement localisées). Le tier gratuit donne 2 agents (et suffisamment de crédits d'inférence pour commencer à s'amuser).
Le code des agents est sur GitHub : github.com/Libertai/liberclaw-agent. Si il y a des demandes pour le code de la plateforme web qui lance les agents, je peux la libérer aussi.
- Landing : liberclaw.ai/fr
- App : app.liberclaw.ai
Si vous avez des questions sur l'architecture, les choix techniques ou si vous voulez juste me dire que c'est nul, je suis dans les commentaires.
# Un point oublié mais important
Posté par Misc (site web personnel) . Évalué à 4 (+1/-0). Dernière modification le 24 mars 2026 à 11:00.
Alors, c'est pas parce qu'Anthropic est américaine que les comptes ont été suspendus, mais parce qu'ils n'ont pas respecté les Terms of Services du dit service.
Je sais que ça peut sembler surprenant de demander à faire respecter ce qui est globalement l'équivalent d'un contrat au moins en droit US (si quelqu'un veut le vérifier, y a une playlist de 80 vidéos sur le sujet mis à dispo par Yale), mais ça me semble assez naturel.
Je pourrais rappeler que le meilleur moyen de ne pas se faire fermer un compte pour violation des conditions d'usage est de rester dans les clous, mais le respect des autres, c'est rarement ce qui étouffe les fans d'IA sur tellement de point de vue.
Et l'autre meilleur moyen, c'est d'avoir un contrat en bonne et due forme avec des garanties justement sur la non fermeture, une négociation avec le fournisseur, etc, mais ça, c'est loin d'être gratuit.
[^] # Re: Un point oublié mais important
Posté par Jonathan Schemoul (site web personnel) . Évalué à 1 (+1/-0).
Je suis d'accord sur ce point. Les gens prennent un abonnement pour utiliser Claude, et l'utiliser sur leur interface web ou claude code, ou sur un openclaw ne change pas fondamentalement l'usage d'assistant personnel ou d'agent produisant du code.
Et là on parle de personnes individuelles qui ont commencé à utiliser leur produit en payant leur abonnement ($200 tout de même sur un abo max). Une entreprise peut prendre un compte API et payer les requetes API au volume (ça chiffre vite avec openclaw) et avoir un contrat effectivement.
Ensuite, le point est plus important : sur une plateforme décentralisée ces limites n'existent pas. Tu as une api key, tu l'utilise. Je ne peux pas venir voir ce que tu fais et dire si c'est cohérent avec des conditions générales ou non.
A la limite, un noeud peut suspendre ta VM liberclaw car tu fais du DDOS avec, et d'autres t'accepteront (ou pas si ils se passent le mot que tu es un trouble-fête, mais c'est un autre problème).
# Quelques questions
Posté par Andréas Livet . Évalué à 3 (+1/-0).
Merci pour le partage de cette initiative, ça semble intéressant et à la lecture je me pose pas mal de question :
- Si les agents ne tournent pas sur des VPS sur quoi ils tournent ? Si c'est des "vraies" VM, elles tournent tout de même chez un fournisseur de service genre OVH ou autre, qu'est ce qui les empêchent de l'arrêter si elle viole les conditions de service ? Note : il y a peut-être des subtilités entre VPS et VM barebone que je ne connais pas.
- Je vois que l'inférence passe par LiberAI, donc la VM c'est que pour l'agent qui ne doit pas prendre beaucoup de ressource. En gros, on pourrait avoir un agent sur sa machine, comme OpenClaw c'est ça ? L'avantage c'est qu'on peut lancer "autant" d'agents (et d'argent :) qu'on veut et les laisser tourner 24/24.
- Sur LibertAI, j'ai vu que c'est un projet connexe, sans doute créé par tes soins aussi, ça loue des infras GPU et exécute des modèles a poids libres avec un chiffrement de bout en bout c'est ça ?
L'idée est pertinente vis à vis de la situation actuelle en tout cas.
Perso, je n'ai pas encore exploré ces outils, la quantité de token qu'ils utilisent m'effraie un peu, l'écolo et le techos en moi pleure quand je vois les machines qu'il faut pour faire tourner ces modèles et la quantité d'énergie nécessaire aussi.
Ce qui est très frustrant c'est de ce dire qu'il est aujourd'hui très onéreux, voir impossible, de faire tourner ce genre de modèle sur une machine locale. J'ai l'impression qu'on est revenu au temps des mainframes où nos ordinateurs ne sont que des terminaux. Vous me direz, c'est déjà le cas avec tous les services cloud et les GAFAM, mais je peux faire tourner un peertube, un serveur mail etc. sur ma vieille bécanne sans qu'elle bronche. Certes, si je dois servir des milliers d'utilisateurs en même temps, ça va galérer, mais là même pour un seul utilisateur c'est impossible !
[^] # Re: Quelques questions
Posté par Jonathan Schemoul (site web personnel) . Évalué à 0 (+0/-0).
Merci pour les questions, je vais essayer de répondre à tout.
Sur les VMs et les fournisseurs :
Les CRNs (Compute Resource Nodes) d'Aleph Cloud sont des machines opérées par des opérateurs indépendants, pas un seul hébergeur. Certains sont sur du bare metal chez eux, d'autres louent chez Hetzner ou ailleurs, mais le point c'est qu'il n'y a pas un seul interlocuteur qui décide pour tout le réseau. Si un opérateur coupe ta VM, tu peux la redéployer sur un autre nœud. Le réseau est conçu pour ça.
C'est différent d'un VPS classique où si OVH te ferme le compte, c'est terminé, il faut recommencer de zéro ailleurs.
Sur la séparation agent / inférence :
Oui, ce sont deux choses distinctes. La VM de l'agent n'a pas besoin de GPU; c'est une VM avec un programme Python léger qui exécute des tâches (lire des fichiers, naviguer le web, exécuter des commandes). Quand l'agent a besoin de "réfléchir", il fait un appel API à LibertAI qui fait tourner les modèles sur des GPUs dédiés (partagés pour toutes les demandes des utilisateurs). L'avantage par rapport à OpenClaw sur ta machine, c'est que tu peux lancer plusieurs agents sans que ça consomme les ressources de ta machine (ou sur OpenClaw des API de gros providers comme OpenAI, etc.) et qu'ils sont bien isolés. Chaque agent a sa propre VM isolée, il n'a accès que à ce qu'il lui faut.
Imagine que tu as des travailleurs/assistants séparés, chacun a sa machine, il est root et peut installer ce qu'il veut sans détruire le travail des autres (ou le tien sur ta machine).
Sur LibertAI :
Oui, c'est un projet lié. LibertAI gère l'infrastructure GPU et expose les modèles ouverts via une API. Les modèles tournent sur des nœuds avec GPU, le trafic est chiffré en transit. Ce n'est pas du chiffrement de bout en bout au niveau de l'inférence elle-même (le nœud qui fait tourner le modèle voit forcément le prompt), mais les communications entre ton agent et l'API sont chiffrées. Sur l’inférence en TEE (trusted execution evironment) c'est un peu différent, la ram est chiffrée également, mais plus lent.
Sur la consommation d'énergie :
C'est une vraie question et je ne vais pas prétendre que c'est neutre. Faire tourner de l'inférence IA consomme de l'énergie, point. Ce qu'on peut dire, c'est que les modèles utilisés (Qwen3.5 35b par exemple) sont beaucoup plus légers que les gros modèles type GPT-4. Et un agent qui tourne 24/7 ne fait pas de l'inférence en continu: il attend la plupart du temps et ne consomme des tokens que quand il a une tâche à traiter. Mais oui, si on multiplie les agents par milliers, la question de l'empreinte se pose.
Sur une stack comme celle de LibertAI, en gros selon les modèles, au moment de l'inférence tu consomme entre 50 et 100w pour ta requête (il y a des pool et les GPU font plusieurs inférences en parallèle, avec un GPU seulement sur ces modèles)… si tu rapporte à 5 minutes d'inférence totale par jour en moyenne pour un agent tu arrives à 3kwh par an d'inférence ((100wh/(60min/5min))*365=3041wh), ce qui est assez raisonnable.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.