Début 2026, Anthropic a suspendu des milliers de comptes pour utilisation de Claude avec des outils tiers. Pas des comptes piratés ou abusifs — des développeurs qui avaient branché leur abonnement Claude sur OpenClaw ou des outils similaires. Compte bloqué, sans avertissement, sans recours clair.
Quelques semaines plus tard, le créateur d'OpenClaw (145K étoiles GitHub, le framework d'agents IA le plus utilisé au monde) a été recruté par OpenAI. Le projet est toujours sur GitHub, mais personne ne sait vraiment ce que ça signifie pour la suite.
Je raconte ça parce que ça m'a poussé à sortir un projet sur lequel je travaillais depuis un moment.
Je suis développeur basé en France. Je travaille depuis plusieurs années sur Aleph Cloud, un réseau de calcul décentralisé — des nœuds indépendants qui fournissent de la puissance de calcul sans passer par AWS, GCP ou Azure. Quand j'ai vu les suspensions Anthropic et le rachat OpenClaw, la question que je me posais déjà est devenue urgente : est-ce qu'on peut faire tourner des agents IA sur une infrastructure que personne ne contrôle seul ?
La réponse est oui, et c'est ce que fait LiberClaw.
Comment ça marche concrètement
Chaque agent tourne dans sa propre VM sur un nœud Aleph Cloud (CRN). Pas un conteneur partagé — une vraie machine virtuelle avec son système de fichiers et ses processus isolés. L'agent est un programme Python qui a accès à un ensemble d'outils : lecture/écriture de fichiers, navigation web, exécution de commandes shell, appels API. On décrit ce qu'il doit faire dans un fichier SKILL.md (un format texte compatible avec celui d'OpenClaw, donc si vous en avez déjà écrit, ça marche directement).
L'inférence passe par LibertAI, qui fait tourner des modèles ouverts (Qwen3.5 35b-a3n, 27b et 122b-a10b selon les besoins…). Pas de clé API OpenAI. Pas de clé API Anthropic. L'agent utilise des modèles libres, point (et ils sont, pour ces cas d'usage aussi efficaces que les modèles anthropic/openai).
Côté sécurité, on a essayé de ne pas faire n'importe quoi :
- Les secrets de chaque agent sont chiffrés avec Fernet, une clé unique par agent. Personne d'autre que l'agent n'a accès à ses credentials.
- L'authentification utilise des JWT avec rotation : access token de 15 minutes, refresh token de 30 jours. Pas de token permanent qui traîne.
- Les commandes bash passent par des filtres regex avant exécution. L'agent ne peut pas faire
rm -rf /ou exfiltrer des données vers l'extérieur sans passer les gardes.
Je précise ça parce que l'écosystème OpenClaw a eu des problèmes réels sur ce plan : des instances exposées sans authentification sur Internet, des skills malveillants qui pouvaient exécuter du code arbitraire. On a construit LiberClaw en ayant ces cas en tête.
Après, c'est votre agent… donc si vous lui demandez quelque chose de bête, ce n'est pas infaillible et il le fera. C'est votre VM et vous êtes seul dessus.
Pourquoi pas juste un VPS ?
C'est la question évidente, et elle est légitime. Pourquoi se compliquer la vie avec de l'infrastructure décentralisée quand on peut louer un VPS à 5€/mois ?
Parce que le VPS, c'est OVH, Hetzner, ou AWS. Et OVH peut décider de fermer votre compte. AWS peut décider que votre usage viole ses conditions. On est en train de construire des outils qui tournent 24h/24, qui prennent des décisions, qui interagissent avec des APIs — et tout ça repose sur la bonne volonté d'un hébergeur.
Sur Aleph Cloud, les nœuds sont indépendants. Il n'y a pas d'interrupteur central. Personne ne peut décider unilatéralement d'éteindre votre agent. C'est le même principe que ce qui rend le réseau intéressant pour d'autres usages, mais appliqué aux agents IA.
Pour ceux qui suivent les discussions sur la souveraineté numérique en France (et vu le journal récent sur JemaOS, je sais que vous êtes quelques-uns), c'est un enjeu concret : vos agents IA ne dépendent pas d'une entreprise américaine pour fonctionner.
État actuel
La plateforme est en production. Plus de 99 agents tournent en ce moment: des agents de revue de code, des assistants de recherche, des agents de monitoring. L'interface est disponible en 11 langues dont le français (pas juste un Google Translate, les pages sont réellement localisées). Le tier gratuit donne 2 agents (et suffisamment de crédits d'inférence pour commencer à s'amuser).
Le code des agents est sur GitHub : github.com/Libertai/liberclaw-agent. Si il y a des demandes pour le code de la plateforme web qui lance les agents, je peux la libérer aussi.
- Landing : liberclaw.ai/fr
- App : app.liberclaw.ai
Si vous avez des questions sur l'architecture, les choix techniques ou si vous voulez juste me dire que c'est nul, je suis dans les commentaires.
# Un point oublié mais important
Posté par Misc (site web personnel) . Évalué à 7 (+4/-0). Dernière modification le 24 mars 2026 à 11:00.
Alors, c'est pas parce qu'Anthropic est américaine que les comptes ont été suspendus, mais parce qu'ils n'ont pas respecté les Terms of Services du dit service.
Je sais que ça peut sembler surprenant de demander à faire respecter ce qui est globalement l'équivalent d'un contrat au moins en droit US (si quelqu'un veut le vérifier, y a une playlist de 80 vidéos sur le sujet mis à dispo par Yale), mais ça me semble assez naturel.
Je pourrais rappeler que le meilleur moyen de ne pas se faire fermer un compte pour violation des conditions d'usage est de rester dans les clous, mais le respect des autres, c'est rarement ce qui étouffe les fans d'IA sur tellement de point de vue.
Et l'autre meilleur moyen, c'est d'avoir un contrat en bonne et due forme avec des garanties justement sur la non fermeture, une négociation avec le fournisseur, etc, mais ça, c'est loin d'être gratuit.
[^] # Re: Un point oublié mais important
Posté par Jonathan Schemoul . Évalué à 3 (+3/-0).
Je suis d'accord sur ce point. Les gens prennent un abonnement pour utiliser Claude, et l'utiliser sur leur interface web ou claude code, ou sur un openclaw ne change pas fondamentalement l'usage d'assistant personnel ou d'agent produisant du code.
Et là on parle de personnes individuelles qui ont commencé à utiliser leur produit en payant leur abonnement ($200 tout de même sur un abo max). Une entreprise peut prendre un compte API et payer les requetes API au volume (ça chiffre vite avec openclaw) et avoir un contrat effectivement.
Ensuite, le point est plus important : sur une plateforme décentralisée ces limites n'existent pas. Tu as une api key, tu l'utilise. Je ne peux pas venir voir ce que tu fais et dire si c'est cohérent avec des conditions générales ou non.
A la limite, un noeud peut suspendre ta VM liberclaw car tu fais du DDOS avec, et d'autres t'accepteront (ou pas si ils se passent le mot que tu es un trouble-fête, mais c'est un autre problème).
[^] # Re: Un point oublié mais important
Posté par Pol' uX (site web personnel) . Évalué à 10 (+10/-0).
Est de n'avoir pas de compte.
Adhérer à l'April, ça vous tente ?
# Quelques questions
Posté par Andréas Livet . Évalué à 7 (+5/-0).
Merci pour le partage de cette initiative, ça semble intéressant et à la lecture je me pose pas mal de question :
- Si les agents ne tournent pas sur des VPS sur quoi ils tournent ? Si c'est des "vraies" VM, elles tournent tout de même chez un fournisseur de service genre OVH ou autre, qu'est ce qui les empêchent de l'arrêter si elle viole les conditions de service ? Note : il y a peut-être des subtilités entre VPS et VM barebone que je ne connais pas.
- Je vois que l'inférence passe par LiberAI, donc la VM c'est que pour l'agent qui ne doit pas prendre beaucoup de ressource. En gros, on pourrait avoir un agent sur sa machine, comme OpenClaw c'est ça ? L'avantage c'est qu'on peut lancer "autant" d'agents (et d'argent :) qu'on veut et les laisser tourner 24/24.
- Sur LibertAI, j'ai vu que c'est un projet connexe, sans doute créé par tes soins aussi, ça loue des infras GPU et exécute des modèles a poids libres avec un chiffrement de bout en bout c'est ça ?
L'idée est pertinente vis à vis de la situation actuelle en tout cas.
Perso, je n'ai pas encore exploré ces outils, la quantité de token qu'ils utilisent m'effraie un peu, l'écolo et le techos en moi pleure quand je vois les machines qu'il faut pour faire tourner ces modèles et la quantité d'énergie nécessaire aussi.
Ce qui est très frustrant c'est de ce dire qu'il est aujourd'hui très onéreux, voir impossible, de faire tourner ce genre de modèle sur une machine locale. J'ai l'impression qu'on est revenu au temps des mainframes où nos ordinateurs ne sont que des terminaux. Vous me direz, c'est déjà le cas avec tous les services cloud et les GAFAM, mais je peux faire tourner un peertube, un serveur mail etc. sur ma vieille bécanne sans qu'elle bronche. Certes, si je dois servir des milliers d'utilisateurs en même temps, ça va galérer, mais là même pour un seul utilisateur c'est impossible !
[^] # Re: Quelques questions
Posté par Jonathan Schemoul . Évalué à 7 (+7/-0).
Merci pour les questions, je vais essayer de répondre à tout.
Sur les VMs et les fournisseurs :
Les CRNs (Compute Resource Nodes) d'Aleph Cloud sont des machines opérées par des opérateurs indépendants, pas un seul hébergeur. Certains sont sur du bare metal chez eux, d'autres louent chez Hetzner ou ailleurs, mais le point c'est qu'il n'y a pas un seul interlocuteur qui décide pour tout le réseau. Si un opérateur coupe ta VM, tu peux la redéployer sur un autre nœud. Le réseau est conçu pour ça.
C'est différent d'un VPS classique où si OVH te ferme le compte, c'est terminé, il faut recommencer de zéro ailleurs.
Sur la séparation agent / inférence :
Oui, ce sont deux choses distinctes. La VM de l'agent n'a pas besoin de GPU; c'est une VM avec un programme Python léger qui exécute des tâches (lire des fichiers, naviguer le web, exécuter des commandes). Quand l'agent a besoin de "réfléchir", il fait un appel API à LibertAI qui fait tourner les modèles sur des GPUs dédiés (partagés pour toutes les demandes des utilisateurs). L'avantage par rapport à OpenClaw sur ta machine, c'est que tu peux lancer plusieurs agents sans que ça consomme les ressources de ta machine (ou sur OpenClaw des API de gros providers comme OpenAI, etc.) et qu'ils sont bien isolés. Chaque agent a sa propre VM isolée, il n'a accès que à ce qu'il lui faut.
Imagine que tu as des travailleurs/assistants séparés, chacun a sa machine, il est root et peut installer ce qu'il veut sans détruire le travail des autres (ou le tien sur ta machine).
Sur LibertAI :
Oui, c'est un projet lié. LibertAI gère l'infrastructure GPU et expose les modèles ouverts via une API. Les modèles tournent sur des nœuds avec GPU, le trafic est chiffré en transit. Ce n'est pas du chiffrement de bout en bout au niveau de l'inférence elle-même (le nœud qui fait tourner le modèle voit forcément le prompt), mais les communications entre ton agent et l'API sont chiffrées. Sur l’inférence en TEE (trusted execution evironment) c'est un peu différent, la ram est chiffrée également, mais plus lent.
Sur la consommation d'énergie :
C'est une vraie question et je ne vais pas prétendre que c'est neutre. Faire tourner de l'inférence IA consomme de l'énergie, point. Ce qu'on peut dire, c'est que les modèles utilisés (Qwen3.5 35b par exemple) sont beaucoup plus légers que les gros modèles type GPT-4. Et un agent qui tourne 24/7 ne fait pas de l'inférence en continu: il attend la plupart du temps et ne consomme des tokens que quand il a une tâche à traiter. Mais oui, si on multiplie les agents par milliers, la question de l'empreinte se pose.
Sur une stack comme celle de LibertAI, en gros selon les modèles, au moment de l'inférence tu consomme entre 50 et 100w pour ta requête (il y a des pool et les GPU font plusieurs inférences en parallèle, avec un GPU seulement sur ces modèles)… si tu rapporte à 5 minutes d'inférence totale par jour en moyenne pour un agent tu arrives à 3kwh par an d'inférence ((100wh/(60min/5min))*365=3041wh), ce qui est assez raisonnable.
[^] # Re: Quelques questions
Posté par Andréas Livet . Évalué à 2 (+0/-0).
Merci pour les réponses, ce que je comprends c'est qu'en fait tout ton réseau ne dépends pas d'un seul provider contrairement a des architecture uniquement basées sur AWS ou OVH par exemple, mais si t'as plein de VM chez OVH et qu'il les coupe, faut quand même les recréer ailleurs. Juste que t'as prévu le projet pour ça.
Concernant les modèles que tu utilises, Qwen 3.5 35b c'est du "petit" dans le domaine, utilisable en quantifié sur une bonne carte graphique ou un pc avec beaucoup de VRAM en archi unifié. Quels sont tes retours qualitatifs ? Est-ce que les agents fonctionnent bien avec ça ? C'est pas un peu léger pour la partie raisonnement ?
Pour la conso, à ce que j'ai compris, un agent ne fait pas que 5 minutes d'inférence par jour, mais souvent bien plus si on lui demande de coder un app ou un truc comme ça.
Si c'est pour faire des petites tâches, j'avoue je n'ai pas trop compris toute la hype autour d'OpenClaw. Pour moi, lire, trier mes emails ou prendre un billet de train, j'ai pas besoin d'un agent pour ça :).
En tout cas, tu sembles avoir monter quelque chose de chouette qui pourrait intéresser du monde a priori. Bonne continuation !
[^] # Re: Quelques questions
Posté par Jonathan Schemoul . Évalué à 3 (+3/-0).
Qwen3.5 il y en a plusieurs: de 4b à 397b, des modèles "denses" (tout dans un seul llm) ou des experts (plusieurs petits modèles assemblés dans un gros, et à un instant T que certains actifs: ca prend de la vram mais c'est plus rapide qu'un seul dense de cette taille là).
Le 27B est très bien pour de l'agentic et du code (réflexion profonde), mais moins bon en "connaissance générale", il n'a que 27B total. 122b-a10b est plus rapide (10b actifs seulement), un peu moins "deep" en raisonnement ("que" 10b) mais a beaucoup plus de connaissances (tous les experts ont 122b au total). Dans les faits, selon les usages on prend un modèle ou un autre et le résultat est tout à fait honnête et même bon d'ailleurs.
Aujourd'hui le plus important c'est la selle que tu met sur les modèles: la mémoire, les outils dispo, etc. Les informations il peut les trouver sur internet (d'ailleurs tout le système de recherche sur le web de liberclaw pourrait faire l'objet d'un article ! c'est un swarm de VM sur aleph aussi qui vont chercher les infos depuis des IP résidentielles). Un modèle bon en appel d'outils et paf ça fait des chocapic.
Merci!
[^] # Re: Quelques questions
Posté par Andréas Livet . Évalué à 3 (+1/-0).
Je suis tout de même étonné, car un modèle dense de 27B c'est aujourd'hui très "petit" (par rapport au modèles commerciaux j'entends) et un modèle en MoE avec 10B actifs c'est aussi assez petit.
Je n'ai pas assez expérimenté avec ces tailles de modèles, mais il me semble que c'est bien limité. Il y a aussi la fenêtre de contexte qui joue beaucoup.
Comment ces modèles se comportent sur des tâches complexes ? Est-ce qu'il arrive a garder le cap sur des prompts longs avec plein de contraintes ?
Le peu que j'ai essayé des modèles de ce genre, ils n'étaient pas très doués. Si ton prompt système contient plein de contraintes, il va finir par en zapper quelques unes etc.
[^] # Re: Quelques questions
Posté par steph1978 . Évalué à 2 (+0/-0).
J'ai pas de benchmarks fiables (en existe-t-il ?) mais j'ai une question de programmation que je pose régulièrement aux LLM.
Aujourd'hui la réponse d'un GPT5.2 est bluffante bien que comportant des fautes. Gemini est un chouillat en dessous mais je n'ai pas accès à la v3. Je n'ai pas essayé les modèles d'Anthropic car je n'ai pas de compte.
Je l'ai posé au modèle libertai/light et j'ai bien rigolé : "attention c'est un malware" :)
Par contre libertai/megamind est largement au niveau de GPT5.2 si ce n'est même un tout petit peu plus pertinent.
Partant de là, je lui ai aussi fait faire un portage d'un parser écrit en python vers javascript. Et pareil, il s'en sort très bien.
Je dirai donc en première approximation que c'est largement utilisable pour coder.
[^] # Re: Quelques questions
Posté par Andréas Livet . Évalué à 2 (+0/-0). Dernière modification le 25 mars 2026 à 14:50.
J'imagine que le "megamind" utilise pas Qwen 35b, mais sans doute 397b ;).
[^] # Re: Quelques questions
Posté par Jonathan Schemoul . Évalué à 2 (+2/-0). Dernière modification le 25 mars 2026 à 15:14.
megamind (deep-claw) utilise 122b actuellement…
claw-flash utilise 35b, claw-core utilise 27b
[^] # Re: Quelques questions
Posté par Jonathan Schemoul . Évalué à 1 (+1/-0).
Sur l'interface de chat libertai ça fonctionne comme un chatgpt, mais sur liberclaw c'est un agent à part entière (le toolset change la donne).
Tu peux lui donner accès à github, et il peut regarder les issues, les PR, en faire etc.
Il peut cloner un repo, faire les changements demandés et créer une PR lui-même.
[^] # Re: Quelques questions
Posté par steph1978 . Évalué à 3 (+1/-0).
chatgpt aussi a son agent, ça s'appelle codex mais je n'y ai pas accès. Donc je compare ce à quoi j'ai accès : des chatbots.
# données
Posté par Nicolas Boulay (site web personnel) . Évalué à 3 (+0/-0).
Donc si tu envois des fichiers sur ton agents tes fichiers se retrouvent chez un inconnu ?
"La première sécurité est la liberté"
[^] # Re: données
Posté par Jonathan Schemoul . Évalué à 3 (+3/-0).
Cela dépend du type de VM, les VM basiques oui (sur le tier gratuit), les VM confidentielles se retrouvent dans des TEE où la ram et le disque sont chiffrés et totalement inaccessibles aux opérateurs.
Cela dit, la selection est random + efficacité des noeuds avec des pool de VM préactivées et prêtes pour rotation, c'est difficile pour un opérateur de savoir si il va avoir des VM liberclaw ou pas, et si il en a, de qui.
[^] # Re: données
Posté par Nicolas Boulay (site web personnel) . Évalué à 3 (+0/-0).
Le code tournant les vm ne peut pas etre modifier pour ça ?
"La première sécurité est la liberté"
[^] # Re: données
Posté par Jonathan Schemoul . Évalué à 3 (+3/-0).
Le code est opensource et dispo sur github, donc meme si dans l'absolu oui, l'utilisateur peut à tout moment redéployer son agent sur cette vm ou une autre sur une autre machine en un clic et dans ce cas la version upstream est réécrite par dessus.
Il suffit de demander à son agent de faire une comparaison de son code avec l'upstream github pour en avoir le coeur net :) (et il peut ajouter ça dans son heartbeat d'ailleurs, sorte de prompt en cron dispo aux utilisateurs)
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.