Né en novembre 2025, Clawd, un projet open source IA, a été renommé Moltbot sous la pression juridique de Anthropic (Claude), puis OpenClaw rapidement.
Nous passerons en revue dans cet article la chronologie des faits, les enjeux techniques, juridiques et éthiques, dans un monde open source, projet dont la diffusion a explosé pour bien des raisons…

Sommaire
- Chronologie
- OpenClaw
- Succès communautaire et médiatique
- Aspects juridiques et légaux
- Sécurité et vie privée
- Impact et enjeux de l'IA
- Prisme du logiciel et IA libre et open source
- Liens
Chronologie
ClawdBot de novembre 2025 au 27 janvier 2026
Le projet débute en novembre 2025 sous le nom de Clawdbot, lancé par l'ingénieur autrichien Peter Steinberger, développeur autrichien et fondateur de PSPDFKit. Ce prototype de « WhatsApp Relay » connecte l'IA aux applications de messagerie pour automatiser des tâches système. Le succès est immédiat avec 60 000 étoiles GitHub en seulement trois jours. Le nom fait initialement référence à l'outil Claude d'Anthropic. En outre, le nom et le logo évoquent le homard, symbole repris dans l’identité visuelle du projet.
ClawdBot connaît une adoption rapide dès sa publication sur GitHub. Le projet vise explicitement une alternative locale et contrôlée aux assistants IA centralisés.
MoltBot du 27 au 29 janvier 2026
Le 27 janvier 2026, la firme Anthropic demande un changement de nom pour éviter toute confusion avec sa marque « Claude ». Peter Steinberger rebaptise alors le projet Moltbot, évoquant la mue du crustacé. Ce changement intervient dans un contexte de couverture médiatique maximale. La transition est techniquement précipitée, et elle met en lumière les fragilités organisationnelles liées à une croissance trop rapide. On voit apparaître des clones, des faux dépôts et des tentatives d’escroquerie, par exemple le vol de comptes sociaux par des escrocs et le lancement d'un faux jeton de cryptomonnaie nommé $CLAWD.
OpenClaw depuis 30 janvier 2026
Le 30 janvier 2026, le projet adopte son identité définitive : OpenClaw. Une vérification juridique préalable est effectuée. Les domaines et identités associées sont sécurisés. Ce nouveau nom souligne l'ancrage dans le logiciel libre tout en conservant l'hommage au homard d'origine. La transition est cette fois sécurisée par des recherches de marques et le blocage des noms de domaines. Le projet se stabilise et dépasse rapidement les 124 000 étoiles GitHub.
La phase OpenClaw marque une stabilisation. Plusieurs correctifs de sécurité sont publiés. La gouvernance s’ouvre à de nouveaux mainteneurs issus de la communauté.
OpenClaw
Description et définition
OpenClaw est un assistant IA personnel appartenant à la catégorie des agents autonomes. Il est conçu pour être installé et s'exécuter sur la machine de l'utilisateur (auto-hébergé). Contrairement aux chatbots classiques, il peut prendre des décisions et effectuer des actions concrètes sur un système d'exploitation sans supervision humaine constante. Le logiciel agit comme une couche d’orchestration entre modèles IA et services locaux. Il vise un usage personnel ou organisationnel. L’autonomie fonctionnelle est au cœur de sa proposition de valeur.
Le site web décrit OpenClaw de cette manière :
OpenClaw
The AI that actually does things.
Clears your inbox, sends emails, manages your calendar, checks you in for flights.
All from WhatsApp, Telegram, or any chat app you already use.
Installation
L'installation se passe en ligne de commande : téléchargement, puis lancement de la procédure d'installation, choix du LLM, choix du chat, et voilà.
One-liner
# Works everywhere. Installs everything. You're welcome. 🦞
curl -fsSL https://openclaw.ai/install.sh | bash
npm
# Install OpenClaw
npm i -g openclaw
# Meet your lobster
openclaw onboard
Hackable
# For those who read source code for fun
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Fonctionnalités
L'agent exécute des commandes shell, lit et écrit des fichiers locaux, ou gère les courriels et agendas. Il peut piloter un navigateur web pour remplir des formulaires ou effectuer des recherches. Le système dispose d'une mémoire persistante lui permettant de conserver le contexte des conversations à long terme (context window). Il peut également initier des interactions de manière proactive via des notifications.
Architecture
Le logiciel repose sur Node.js et TypeScript. Son architecture est divisée en trois couches : une passerelle locale (Gateway), un agent qui gère le raisonnement (découpage et séquencement), et le moteur d'IA (LLM). Il utilise des protocoles WebSocket pour la communication bidirectionnelle entre ses composants. Les interactions s'effectuent via des applications tierces comme WhatsApp, Telegram, Slack ou Discord. Il connecte des modèles IA à des applications tierces. Le système est extensible via plugins. Plus de cinquante intégrations sont disponibles. L’architecture privilégie la modularité plutôt que l’intégration verticale.
Licence
OpenClaw est distribué sous la licence MIT. Cette licence permissive, reconnue par l’Open Source Initiative et la Free Software Foundation, autorise l'utilisation, la modification et la distribution du code, y compris à des fins commerciales. La seule obligation est d'incorporer la notice de licence et de copyright dans toutes les copies.
Dépendances
Le projet combine des briques libres et propriétaires. Les dépendances libres incluent Node.js, Puppeteer et Ollama pour l'exécution locale (inférence d'IA). En revanche, le fonctionnement optimal nécessite souvent des API propriétaires comme celles d'Anthropic (Claude) ou d'OpenAI (GPT). L'utilisation de ces services externes entraîne des coûts d'abonnement pour l'utilisateur, et l'envoi et éparpillement de données sur des clouds étrangers (pouvant être soumis aux lois extra-territoriales).
Succès communautaire et médiatique
Dynamiques et amplifications
Le projet a bénéficié d'un engouement lié au mouvement du « vibe coding » (développement assisté par IA). Des figures influentes comme Andrej Karpathy ont soutenu publiquement l'initiative.
Les réseaux sociaux et médias amplifient le phénomène. Des contributeurs rejoignent le dépôt en masse. Des usages spectaculaires sont massivement partagés. Une véritable sous-culture est née autour de l'achat de serveurs Mac mini dédiés pour faire tourner l'agent 24h/24. La mascotte du « homard spatial » devient un mème.

Métriques
La croissance a été l'une des plus rapides de l'histoire de l'open source:
- Le dépôt GitHub atteint une visibilité exceptionnelle avec plus de 100 000 étoiles GitHub en une semaine.
- Le projet a attiré plus de 2 millions de visiteurs en sept jours.
- La communauté a développé plus de 500 extensions ou « skills » partagées sur Clawhub.
Des milliers d’instances sont déployées en quelques semaines. Un réseau social Motlbook dédié aux agents autonomes sans humains est créé, et plus de 2 100 agents y sont recensés en 48 heures.
La popularité précède largement la maturité technique.
Aspects juridiques et légaux
Licences
La licence MIT ne pose pas de contrainte juridique majeure. Elle ne protège cependant ni le nom ni l’image du projet. L'utilisateur est responsable de l'installation et des conséquences de l'exécution de l'agent.
Cette licence n’encadre pas l’usage des modèles sous-jacents : bien que le code d'OpenClaw soit libre, les modèles d'IA qu'il appelle restent pour la plupart régis par les conditions d'utilisation strictes de leurs éditeurs respectifs. Cela limite l’indépendance réelle du projet. La licence du code ne garantit pas la liberté de l’ensemble de la chaîne.
Marques
La saga démontre la vigilance des entreprises face à la proximité phonétique des noms de projets. Anthropic a exercé son droit de marque pour protéger l'intégrité de son produit Claude. L’absence d’intention commerciale n’est pas déterminante. Peter Steinberger a dû consulter OpenAI avant le renommage final pour éviter de nouveaux conflits. Ce renommage illustre l’asymétrie entre acteurs : les projets libres restent vulnérables aux marques déposées.
Cadre réglementaire : RGPD et Cloud Act
Paradoxalement, l'auto-hébergement de la chaîne entière favorise la conformité au RGPD et la souveraineté, car les données restent sous le contrôle direct de l'utilisateur (responsable du traitement). Cela permet également d'éviter les risques du CLOUD Act américain en évitant le stockage et la transmission de données sur des serveurs étrangers. Toutefois, l'usage possible des services tiers et clouds publics de l'agent peut classer le système comme « à haut risque » selon l'AI Act européen, les données passant par des clouds soumis aux réglementations extra-territoriales.
Sécurité et vie privée
Stockage et fuite
L'architecture initiale stockait les clés d'API et l'historique des conversations en texte clair sur le disque. Des chercheurs ont identifié des milliers d'instances exposées sur Internet, divulguant des données sensibles. La concentration d'informations locales crée un point de défaillance unique (SPOF) en cas de compromission de la machine.
Authentification
Les premières versions ne requéraient pas d'authentification forte par défaut. Des interfaces d'administration étaient accessibles publiquement à cause de proxies/pare-feux mal configurés. Des correctifs récents ont supprimé les modes de connexion sans authentification pour durcir le système.
Injection de prompts
L'injection de prompts est la menace la plus critique et reste un problème non résolu dans l'industrie. Un attaquant peut insérer des instructions malveillantes dans un courriel ou un site web consulté par l'agent. L'IA peut alors exécuter des ordres indésirables, comme l'exfiltration de fichiers, en croyant obéir à son propriétaire.
Contrôle et privilèges
OpenClaw agit comme un super-utilisateur virtuel avec des accès profonds au système : l’agent dispose de privilèges élevés, il peut exécuter des commandes système, et il agit parfois avec des droits excessifs. Il combine l'accès aux données privées, l'exposition à des contenus non vérifiés et la capacité de communication externe. La séparation des privilèges est insuffisante par défaut, l’isolation reste complexe, et le risque augmente avec l’autonomie. Ce mélange de privilèges et autonomie transforme l'assistant en un vecteur d'attaque puissant s'il est détourné.
Durcissement et mitigation
Des correctifs ont été publiés après coup, nombre de commits concernent la sécurité, et la documentation actuelle reconnaît l’absence de configuration parfaite. La communauté recommande donc l'utilisation de conteneurs Docker pour isoler les sessions de l'agent. L'accès à distance doit être sécurisé par des tunnels comme Tailscale ou VPN. L'usage des droits « root » est désormais désactivé par défaut et nécessite une activation explicite (principe du moindre privilège).
Ces pratiques restent encore peu suivies, car difficiles à appliquer pour des non-experts, dans un contexte de déploiement rapide. La sécurité et la vie privée dépendent fortement du niveau technique de l’utilisateur, ne sont pas encore des acquis structurels.
Impact et enjeux de l'IA
Court terme
OpenClaw accélère la productivité en éliminant les tâches de manipulation de données entre applications, en automatisant et en autonomisant les processus via IA et agents. Cependant, il introduit un risque d'IA fantôme (Shadow AI) dans les entreprises où les employés déploient l'outil sans supervision de la direction informatique, ou d'alignement à une charte. La vitesse de diffusion a largement dépassé la maturité des mesures de sécurité initiales.
OpenClaw démocratise les agents autonomes : il rend accessibles rapidement et facilement des capacités jusque-là expérimentales, et il remet en cause d'une certaine manière le monopole des plateformes centralisées. Il expose aussi des utilisateurs non avertis à des risques élevés, la diffusion foudroyante dépasse la capacité de montée de connaissances. Le projet agit comme un révélateur.
Moyen terme
On peut amplement anticiper que le succès rapide du projet pourrait influencer la régulation et une standardisation des protocoles avancés d'agents, pour rendre ces assistants interchangeables. Le cadre réglementaire européen (voire mondial ?) obligera probablement à des certifications de sécurité plus strictes. Les grandes entreprises et organisations gouvernementales pourraient publier des versions sécurisées et certifiées du logiciel pour leurs besoins internes.
Ces nouveaux agents autonomes posent des questions inédites et à grande échelle. La sécurité pourrait devenir une obligation normative. Des outils d’audit spécialisés émergent, les pratiques de durcissement se structurent, OpenClaw sert de cas d’école.
Long terme
L'IA agentique pourrait redéfinir la souveraineté numérique en permettant à chacun de posséder son propre assistant local. Les agents autonomes pourraient devenir les principaux utilisateurs des systèmes numériques, rendant obsolètes certaines tâches manuelles de gestion. Cela transforme l’organisation du travail. L'enjeu éthique et social majeur sera l'imputabilité légale en cas de préjudice causé par une décision autonome de l'IA. La dépendance technologique augmente. La gouvernance devient centrale.
Prisme du logiciel et IA libre et open source
Ouverture
Le code source d'OpenClaw est totalement ouvert et auditable, respectant les critères du logiciel libre. Toutefois, l'ouverture est limitée par la dépendance aux modèles propriétaires dont les poids, les données et processus d'entraînement restent secrets et privateurs. Par exemple, le code ne contient à ce jour pas de télémétrie cachée. L’ouverture favorise l’innovation rapide par l'intelligence collective et l’appropriation communautaire, tout en facilitant bien évidemment les usages détournés.
Gouvernance
Le projet est passé d'une initiative solitaire à une gouvernance plus structurée intégrant plusieurs mainteneurs communautaires. Cette gestion collective ouverte renforce la résilience et l'anti-fragilité mais complexifie la coordination technique et sécuritaire. Les décisions critiques sont désormais partagées, et la sécurité est un enjeu majeur : la maturité dépendra de cette gouvernance.
Éthique
L'autonomie de l'IA pose des questions de responsabilité et met en évidence le risque d'erreurs invisibles ou noyées sans supervision humaine en temps réel et prise de décision sans humain. La frontière entre outil et acteur s’estompe. La transparence opérationnelle et l'auditabilité sont essentielles pour prévenir les usages malveillants tout en protégeant les données personnelles. L’éthique ne peut être entièrement déléguée aux modèles, elle dépend des choix d’architecture des développeurs et également dépend aussi des usages des utilisateurs.
Par conséquent, le fantasme d’une IA omniprésente inquiète et interroge sur la dépendance technologique. À long terme, on peut légitimement craindre que cette automatisation et autonomisation de tâches et processus à la complexité croissante prenne de l’ampleur. Ainsi la probabilité s’accroît de voir la remise en cause non seulement l'existence même de certains métiers, mais plus généralement de voir une dépendance de masse.
Souveraineté
L'auto-hébergement complet permet aux utilisateurs de rester maîtres de leur infrastructure et de leurs données. Cela réduit la dépendance envers les géants technologiques et évite le verrouillage propriétaire. Cela est à mettre en perspective avec l'utilisation des clouds publics et services centralisés, par exemple les modèles d'IA et messageries instantanées propriétaires et étrangers.
Intelligence collective
La force du projet réside dans son écosystème de compétences développées par des contributeurs du monde entier. Cette collaboration expérimentale et novatrice permet d'enrichir l'agent et l'écosystème. Nombre de failles ont pu être identifiées publiquement.
Au-delà du code
Une véritable IA open source devrait inclure les poids du modèle, les données d'entraînement et les processus d'apprentissage et de raffinement. OpenClaw est une infrastructure libre, mais n'est pas une « IA open source » au sens strict, en particulier lorsqu'il utilise des modèles fermés et opaques. Cette asymétrie limite l’auditabilité globale réelle. Elle interroge la notion d’IA libre et/ou open source
Résilience et anti-fragilité
Malgré son jeune âge, OpenClaw a déjà survécu à une crise majeure, et le projet s’étant restructuré, la communauté ayant absorbé le choc. Cette résilience dépendra de la capacité à réagir aux risques majeurs et à grande échelle, la sécurité devant précéder le succès. Le logiciel libre n’immunise pas contre les risques. L'architecture ouverte permet par exemple de basculer immédiatement vers d'autres modèles en cas de changement de politique d'un fournisseur d'API. Si le créateur abandonne le projet, la communauté peut forker le code pour assurer la pérennité de l'outil.
La saga OpenClaw renforce le débat sur la nécessité de surveiller et contrôler ces agents et de mettre garde-fous à tous niveaux.
Liens
- CNet : Clawdbot, Moltbot, OpenClaw? The Wild Ride of This Viral AI Agent. An AI tool that can text you and use your apps blew up online. One week and two rebrands later, the question remains: Should you actually use it?
- Cisco : Agents like OpenClaw Are a Security Nightmare
- Wired : Moltbot Is Taking Over Silicon Valley People are letting the viral AI assistant formerly known as Clawdbot run their lives, regardless of the privacy concerns.
- Vectra AI : Attack Surfaces : From Clawdbot to OpenClaw: When Automation Becomes a Digital Backdoor
- Fast Company : Clawdbot/Moltbot/OpenClaw is cool, but it gets pricey fast. Automating a few menial tasks with the viral AI hit would cost me about $30 per month.
- VentureBeat : OpenClaw proves agentic AI works. It also proves your security model doesn't. 180,000 developers just made that your problem.
- OpenClaw : Introducing OpenClaw. Two months ago, I hacked together a weekend project. What started as “WhatsApp Relay” now has over 100,000 GitHub stars and drew 2 millions visitors in a single week. Today, I’m excited to announce our new name: OpenClaw.
- Le Monde Informatique : Le phénomène Moltbot inquiète les experts en cybersécurité. Face à l'engouement de l'agent IA Moltbot auprès des développeurs, la communauté en cybersécurité s'inquiète sur la sécurité des données.
- Forbes : Moltbot Gets Another New Name, OpenClaw, And Triggers Security Fears And Scams
- Hacker News (YCombinator) : Ask HN: Any real OpenClaw (Clawd Bot/Molt Bot) users? What's your experience?.
- Ars Technica : Users flock to open source Moltbot for always-on AI, despite major risks. The open source “Jarvis” chats via WhatsApp but requires access to your files and accounts.
- The Verge : Moltbot, the AI agent that ‘actually does things,’ is tech’s new obsession. But giving an AI agent access to your account credentials and your entire computer system poses some risks, even if it runs on your desktop.
Aller plus loin
- Wikipédia : OpenClaw (72 clics)
- GitHub : openclaw/openclaw (MIT) (42 clics)
- Site officiel : openclaw.ai (99 clics)
- Introducing OpenClaw - Peter Steinberger, January 29 (26 clics)
- Documentation complète (42 clics)
- ClawHub, the skill dock for sharp agents. (25 clics)
- Intégrations (28 clics)

# Article écrit par qui ?
Posté par Sébastien Koechlin . Évalué à 10 (+18/-1).
L'article est intéressant, mais me donne furieusement l'impression d'avoir été écrit, au moins partiellement, par une IA.
Je suis complètement opposé à l'idée de faire un 'curl https://xxx | bash' (en root ?); on a fait de très gros progrès de sécurité ces dernières années, mais clairement, pas sur cette pratique.
Est-ce que certains le font tourner ? Un retour personnel à faire ? A la lecture de l'article, j'ai du mal à voir concrètement comment l'utiliser. On lui fait piloter son navigateur pour interagir avec le webmail ?
[^] # Re: Article écrit par qui ?
Posté par Micromy (site web personnel) . Évalué à 5 (+4/-0).
Ah, merci Sébastien de partager la même impression que moi (cf mon commentaire ci-dessous)
[^] # Re: Article écrit par qui ?
Posté par Psychofox (Mastodon) . Évalué à 9 (+6/-0). Dernière modification le 04 février 2026 à 09:13.
Je ne suis pas spécialement pour non plus mais ce n'est pas vraiment pire que de faire un make install / nvm install / mvn package ou installer un package deb/rpm, un flatpak[1] ou un truc
du darkwebdu Arch User Repository les yeux fermés.[1] on va me répondre sandbox patatipatata mais la réalité c'est que si tu regardes les packages intéressant sur le flathub, une tétrachiée est peu ou mal sandboxée (parce que le sandboxing dur ce n'est pas user friendly et on ne s'attend pas à ce que les utilisateurs adaptent via flatseal) et de toute manière l'app aura toujours pour surface d'attaque les données que tu utilises avec.
[^] # Re: Article écrit par qui ?
Posté par Voltairine . Évalué à 5 (+3/-0).
Dans ce cas précis c'est bien pire puisque l'on utilise un script de plus de 1400 lignes qui fait tout un tas de trucs dont des
npm install.[^] # Re: Article écrit par qui ?
Posté par Psychofox (Mastodon) . Évalué à 8 (+5/-0).
Le truc c'est qu'il pourrait se résumer à 1 ligne npm install et ce serait pareil si tu n'audites pas tous les packages et leur dépendances.
[^] # Re: Article écrit par qui ?
Posté par seveso . Évalué à 2 (+1/-0).
Rappel (ou pas) : si, c'est pire, car il est facile de te tromper sur le contenu réel du script qui est exécuté sur ta machine.
Pour s'en convaincre, il existe des POC : en Python, en Rust, en Go.
L'original (à ma connaissance) qui avait déjà été évoqué ici-même n'est plus disponible en ligne, sauf à aller le récupérer sur archive.org.
[^] # Re: Article écrit par qui ?
Posté par Thomas (site web personnel) . Évalué à 3 (+2/-0).
Article généré.
Les liens ne sont pas dans l'ordre, aucune touche humaine, froid et sec. Purement factuel. Aucune opinion.
Mais intéressant !
Merci à l'humain derrière le modèle de langage.
[^] # Re: Article écrit par qui ?
Posté par vpo . Évalué à 2 (+1/-0).
Le début indique qu’Anthropic a exigé le renommage de ClawdBot. Alors que vient faire OpenAI ("Peter Steinberger a dû consulter OpenAI avant le renommage final pour éviter de nouveaux conflits"). Bref, ça ressemble aux incohérences usuelles de génération automatique, où un modèle remplit les trous avec ce qui lui tombe sous la main de plus probable et en rapport avec le sujet…
[^] # Re: Article écrit par qui ?
Posté par flavien75 . Évalué à 4 (+3/-0).
De ce que j'en comprends, l'auteur ayant été échaudé par les ennuis avec Anthropic dus au fait que le nom était trop proche, donc avant de renommer en OpenClaw, il a préféré consulter OpenAI histoire d'éviter de repartir dans des batailles juridiques.
Je ne vois pas d'incohérence ici
Les vrais naviguent en -42
[^] # Re: Article écrit par qui ?
Posté par vpo . Évalué à 2 (+1/-0).
Ah je n'avais pas compris comme ça. Comme on est passé de Clawd à OpenClauw qui reprend quand même pas mal de lettres du nom ayant fait s'énerver Anthropic, il me semblait donc logique, dans le contexte, que Peter Steinberger aille demander son avis à Anthropic et non OpenAI.
Il y a quand même un paquet de projet libres qui utilisent Open dans leur nom et ce bien avant qu'OpenAI existe.
C'est pour ça que je suis surpris que la dépêche explique que c'est donc OpenAI qui a été consulté et non Anthropic pour le nouveau nom.
[^] # Re: Article écrit par qui ?
Posté par Jehan (site web personnel, Mastodon) . Évalué à 10 (+9/-1).
"Aujourd'hui j'ai copié le dessin de M. X mais ce dernier n'a pas apprécié et m'a envoyé ses avocats; alors demain je vais en parler à M. Y dont j'ai jamais rien copié s'il est d'accord pour que je continue de rien copier. Au moins je serai rassuré!"
Nope. Aucune incohérence! 🤦
Ce qu'il faut pas lire parfois pour justifier l'injustifiable! Quant à la supposition que ce serait le "Open" qui pourrait poser problème, faut être un sérieux à un moment. Si c'était un problème et qu'OpenAI se plaignait de cela, combien de projets existants pourrait décider d'attaquer en justice ces derniers car ils ont "Open" dans leur nom depuis bien plus longtemps que cette entité?
Alors évidemment ce n'est absolument pas impossible que cette personne ait quand même eu des contacts avec OpenAI dans son processus. Probablement dans ce cas nous manque-t-il des éléments à l'histoire. Mais le questionnement sur ce qui apparaît évidemment comme une incohérence de prime abord est bel et bien raisonnable.
D'ailleurs, quand je parle d'éléments qui manquent, je remarque justement qu'il n'y a pas un seul lien contextuel au milieu de l'article pour illustrer les diverses parties de l'histoire. Notamment on aurait pu s'attendre à un lien sourçant l'affirmation mentionnée:
J'ai fait une recherche "OpenAI" sur les quelques liens donnés en fin d'article qui parlent de la problématique du nom dans leur titre. Apparemment aucun ne mentionne cette histoire (l'auteur qui aurait contacté OpenAI). Le blog post officiel quant à lui semble la source la plus sûre pour nous dire ce que cette personne aurait fait ou non. En tous les cas, il ne mentionne pas OpenAI dans cette annonce non plus.
Alors bon, c'est pas qu'on veuille pas y croire, mais des sources aiderait à cela. Et pour l'instant, c'est le néant absolu. En fait c'est pas juste que les sources "aident", c'est même que c'est la base du journalisme. Sinon on appelle cela des "rumeurs" (ou plus récemment des "fake news", "infox", etc. parce qu'apparemment faut de nouveaux mots anglicisés de nos jours pour être dans le hype).
Ce n'est pas la seule incohérence que j'ai lue dans ce texte. Par exemple, je me suis aussi posé des questions sur la revendication "auto-hébergement", comme LaurentJ plus bas, cité 3 fois dans l'article et qui semble donc vraiment mis en exergue comme un des gros avantages de cette solution. Alors certains ont ensuite répondu pour expliciter des sens possibles à cette affirmation, mais le fait est que ce n'est vraiment vraiment pas clair dans l'article. Et toujours maintenant malgré les réponses d'ailleurs. Parce que ce que je comprends, c'est que ça dépend donc de son choix de modèle et si on l'héberge ou non, ce qui est totalement indépendant du logiciel d'infra proposé donc. C'est à dire que ce logiciel OpenClaw ne change simplement rien au problème. Il ne rend pas l'usage de ces LLMs moins ou plus "souverains" ou maître de ses données.
Franchement il y a énormément de choses listées mais quasiment aucune source. On te dit que "L'architecture initiale stockait […]", ou que "Des chercheurs ont identifié […]" ou que "Les premières versions ne requéraient […]". Mais où sont les liens vers les diverses problématiques citées et les solutions choisies? De quelles versions parle-t-on?
Je dois avouer que cet article est bizarrement construit avec beaucoup d'affirmations à l'emporte-pièce sans rien de vraiment concret à se mettre sous la dent au final. Beaucoup d'affirmations font d'ailleurs très "prophéties auto-réalisatrices", voire mensongères. J'ai déjà cité le coup de l'auto-hébergement où on lit des trucs du genre:
Sauf que comme on l'a dit, ce projet ne change rien sur le sujet en réalité. Cela dépend donc essentiellement du modèle ou service choisi. Et comme d'hab, la plupart des gens vont choisir les services propriétaires à distance (et sûrement le développeur principal, j'imagine, étant donné comment était nommé initialement le projet?).
Ou le passage sur la licence libre tout en passant rapidement sur le fait que les modèles d'IA ne le sont absolument pas, ni les données d'entraînement. "C'est super, j'ai une voiture libre! Bon le moteur lui ne l'est pas, mais c'est pas le plus important!"
Étrangement cette section est en double avec celle sur l'"Ouverture" qui dit un peu la même chose différemment.
Et puis pour le bouquet final:
On parle d'un projet de 3 mois environ (d'après l'article) dont personne n'a entendu parler jusque là (oui je sais, y a plein "d'étoiles" — comme si ça voulait dire grand chose —, et y a eu un super engouement — si on vous le dit, c'est que c'est vrai! — "Aie confiaaaaance…" 🐍 — sur les réseaux sociaux… qui sont bien connus pour représenter la société! tousse tousse, etc.) Et ce projet à peine naissant a donc reçu un courrier pour un nom mal choisi, qu'ils ont changé donc très vite. Quelle crise! 🙄
Quand je parle de prophétie auto-réalisatrice, c'est exactement ce genre de chose (juste après, le texte continue au futur comme si c'était une preuve de "résilience" qui présageait quelque chose de positif pour le futur). Une sorte de rédaction dramatique de trucs finalement assez anodins.
En conclusion, je suis d'accord avec les commentaires précédents. Cet article est bizarre. Dans le texte, la tournure des phrases, l'évolution logique du discours d'une phrase à l'autre, l'absence totale de source sur les divers éléments (regardez n'importe quel article un peu long sur LinuxFr, il y a toujours des liens éparpillés sur la page; c'est l'une des rares fois où on voit un article long à ce point dénués de liens centraux, mais pleins de sources à la fin — lesquels ne semblent pas réellement sourcer la plupart de l'article —; bon ensuite c'est dur de s'y retrouver dans ces liens en pagaille, donc j'ai pu manquer des choses, mais c'est justement ça le problème! On lie en général des affirmations particulières à une source particulière et non pas des liens en vrac en bas d'une longue liste d'affirmations).
Il y a peu, il y a eu ce sondage pour demander l'avis des gens s'ils faut "accepter les contenus générés par IA sur LinuxFr.org ? La réponse fut assez écrasante avec un "non" à 77.4% sur 1775 votes (je sais même plus si j'ai voté mais ça aurait été "non" aussi). Je me demande s'il y a eu un suivi de l'équipe de modération avec une décision à ce sujet (en tous cas, je vois pas de mention aux LLMs sur les Règles de Modération).
Perso je serais super triste si LinuxFr se mettait à dériver dans ce sens et commençait à massivement accepter ce type d'entrées (et finissait dans les bases de ces plug-ins — j'en ai installé un aussi dans mon Firefox! — qui vous préviennent qu'un site est connu pour son contenu IA). Alors j'ai pas forcément mon mot à dire, mais je le dis quand même. 🤪
Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]
[^] # Re: Article écrit par qui ?
Posté par Stéphane Bortzmeyer (site web personnel, Mastodon) . Évalué à 4 (+2/-0). Dernière modification le 06 février 2026 à 07:50.
Lu sur le fédivers : If we added a
--installoption to curl, we could optimize many a| sh -pipeline away.# J'ai un doute...
Posté par Micromy (site web personnel) . Évalué à 10 (+14/-0).
C'est moi qui psychote, ou bien cette dépêche a été en partie générée par une IA ?
Non pas que le sujet ne m'ai pas intéressé, bien au contraire. En ce moment je regarde pas mal le thème des IA auto-hébergées.
Mais la structure de la dépêche au cordeau, les grandes parties et les sous-parties de plus ou moins de la même longueur, certaines répétitions, des mélanges d'arguments pour et contre un peu partout, une certaine "froideur" du ton employé… bref, j'ai ressenti une impression bizarre à la lecture, une sorte d'inconfort.
[^] # Re: J'ai un doute...
Posté par sebas . Évalué à 6 (+4/-0).
Effectivement. Mais si c'est une prod LLMique, celle-ci a pioché ici-même et ingurgité le contenu et les commentaires de la dépêche de Liorel :
Devrait-on restreindre l'accès à DLFP par login, afin d'éviter de se faire piller par les machines ? Avec un test de Turing en guise de capcha d'inscription ? ;-)
[^] # Re: J'ai un doute...
Posté par vpo . Évalué à 2 (+1/-0). Dernière modification le 05 février 2026 à 14:53.
Quoi de mieux que de demander à une IA si c'est du texte d'IA ;-)
Perplexity partage ton analyse :
# hmmm
Posté par Luc-Skywalker . Évalué à 2 (+3/-3). Dernière modification le 03 février 2026 à 22:48.
oui, ça a l'air intéressant, mais franchement beaucoup trop long à mon goût.
La même chose mais en résumé ça doit être possible non ;)
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: hmmm
Posté par Psychofox (Mastodon) . Évalué à 9 (+6/-0).
Ça c'est parce que ton cerveau s'est ramoli à force d'utiliser les rézosociaux et les assistants LLM.
Un peu de gymnastique ne lui ferait pas de mal si tu ne veux pas souffrir d'une démence précoce dans quelques années.
[^] # Re: hmmm
Posté par Luc-Skywalker . Évalué à 3 (+1/-0).
C'est 1000x trop tard, pourtant, je n'en souffre pas outre mesure. J'ai du apprendre à vivre avec faut croire.
Mais merci quand même pour les bons conseils, ça servira peut être à d'autres.
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: hmmm
Posté par sebas . Évalué à 8 (+6/-0). Dernière modification le 04 février 2026 à 10:24.
<span class="humour noir">Demande à une LLM de te faire un résumé</span>
[^] # Re: hmmm
Posté par Luc-Skywalker . Évalué à 3 (+1/-0).
mais oui, c'est bien ça !
"Si tous les cons volaient, il ferait nuit" F. Dard
# L'IA dit et fait n'importe quoi ?
Posté par Laurent J (site web personnel, Mastodon) . Évalué à 10 (+12/-0). Dernière modification le 04 février 2026 à 13:58.
L'article interroge sur le fait de ne pas laisser le contrôle total, les problèmes d'hallucination etc..
Si cet article a été rédigé par une IA, elle confirme ce qui est écrit.
Par exemple, il est écrit :
mais plus loin :
Bon, alors, ça s’exécute en local ou pas en local ?
Et par conséquent, pour les données, on a des fuites (obligatoirement, si ça envoit des prompts à chatgpt ou autre), ou pas ?
Quoi qu'il en soit, ça m'a pas l'air très sécure tout ça.
<mode moqueur>
Merci OpenClaw !
</mode>
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par Renault (site web personnel) . Évalué à 5 (+2/-0).
Ce qui n'est d'ailleurs qu'un soucis des problèmes. En cas d'hallucination les conséquences peuvent être importantes ou encore s'il est accessible par l'extérieur car il lit la messagerie (courriel, chat, service web, etc.) il peut être facile de lui demander de faire des actions à tes dépends.
Cet outil est le plus pertinent quand il a accès à toutes tes infos ou données mais du coup ça le rend terriblement vulnérable et peut avoir des conséquences bien lourdes.
Par conception c'est un soucis.
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par Jean-Max Reymond (site web personnel) . Évalué à 2 (+1/-0).
TU peux mettre un ollama en local qui va se mettre derrière les API's propriétaires et ainsi tourner sur ton poste ou dans ton infrastructure, pas d'export des données.
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par Laurent J (site web personnel, Mastodon) . Évalué à 4 (+3/-1).
si ça n'envoi pas de données aux API propriétaires, ça envoit quoi aux API ?
Pour que l'API propriétaire ait du contexte pour pouvoir répondre (genre le contenu d'un mail), il faut bien lui envoyer, non ?
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par Dring . Évalué à 3 (+1/-0).
API propriétaire n’implique pas systématiquement un appel à un service propriétaire.
Tu peux utiliser la spec API OpenAI tout en appelant en réalité un service hébergé sur ton propre réseau.
Cela devient très courant comme approche pour les éditeurs de logiciels qui dépendent de plus en plus des outils de GenAI. Et c’est indispensables pour avoir à la fois une offre SaaS et une offre OnPrem.
Car quand un gros client dit « je veux du OnPrem », ça exclut de fait l’envoi de données vers un LLM tiers. Ce type de client a l’infrastructure nécessaire pour faire tourner son propre moteur (propriétaire ou open source) en local, avec ses GPUs bien à lui.
Par contre cela vient avec des nouveaux challenges. L’éditeur a testé ses fonctionnalités « AI » avec un ou deux moteurs, mais quand c’est exécuté chez le client avec un moteur différent… impossible de garantir un résultat.
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par Luc-Skywalker . Évalué à 2 (+0/-0).
c'est drôle, merci
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: L'IA dit et fait n'importe quoi ?
Posté par steph1978 . Évalué à 2 (+0/-0).
L'agent tourne en local et pour le LLM, tu choisis.
# Autre résumé
Posté par Thomas (site web personnel) . Évalué à 3 (+2/-0).
Un résumé bien écrit, et plein de punchlines Clawd to Moltbot to OpenClaw: one week, three names, zero chill
Une autre.
Croustillant
[^] # Re: Autre résumé
Posté par Faya . Évalué à 4 (+2/-0).
En fait c'est un botnet avec Command and control en idle. J'ai beaucoup de mal à imaginer vouloir installer ce truc sur une machine avec de vraies données… Par contre il y en a qui s'en servent dans des VM pour piloter des applications clickodromes sans API. Ça peut peut-être trouver son utilité si on fait super attention à là où on l'installe et ce à quoi il peut accéder.
[^] # Re: Autre résumé
Posté par Thomas (site web personnel) . Évalué à 1 (+0/-0).
Exactement le mot : botnet. Avec une petite couche de
nimphasardcréativité car la vie est trop lisse.# Interaction avec une messagerie libre et décentralisée ?
Posté par Jona . Évalué à 2 (+0/-0).
Est-ce qu'une messagerie libre et décentralisée (Matrix?) peut aussi être utilisée ?
# Et ce qui devait arriver, arriva
Posté par aiolos . Évalué à 6 (+4/-0).
Découvert ce midi sur HackerNews, uniquement parcouru, mais déjà partagé:
https://1password.com/blog/from-magic-to-malware-how-openclaws-agent-skills-become-an-attack-surface
[^] # Re: Et ce qui devait arriver, arriva
Posté par aiolos . Évalué à 7 (+5/-0). Dernière modification le 05 février 2026 à 20:41.
Je développe un peu, pour compléter mon post rapide de cet aprés-midi.
Il s’agit d’une forme de supply chain attack, par le biais de la plateforme Clawhub qui hébergent des "skills". Ces skills sont des fichiers markdown dans lesquels on va trouver des séquences d’instructions, en langage naturel. Par exemple, ils peuvent contenir des instructions pour installer des outils pré-requis pour l’execution d’une tâche, qui pourront ensuite exposer des fonctions via le protocole MCP. Mais les instructions du fichier de skills, elles, ne sont pas isolées via MCP, juste données telles quelles à l’agent.
L’auteur a analysé le skill le plus téléchargé du Clawhub, qui contient des instructions d’installation via une page web qui semble légitime, contenant un script, qui télécharge et exécute un payload obfusqué. Lui même va télécharger un script d’installation d’un malware, pour différentes plateforme avec des routines d’évasions des mécanismes de sécurité. Il a ensuite analysé d’autres "skills" et découvert des centaines d’autres cas.
L’auteur conclue par le fait qu’il ne faut pas tout jeter, mais construire la couche manquante de sécurité, et qu’il faut donner les moyens d’identifier les agents.
[^] # Re: Et ce qui devait arriver, arriva
Posté par Thomas (site web personnel) . Évalué à 6 (+5/-0).
TL;DR
laisser un programme avec des droits élevés installer d'autres programmes est une mauvaise idée.
[^] # Re: Et ce qui devait arriver, arriva
Posté par aiolos . Évalué à 2 (+0/-0).
Surtout quand tu laisses à n’importe qui le droit de lui dire comment faire.
[^] # Re: Et ce qui devait arriver, arriva
Posté par Thomas (site web personnel) . Évalué à 4 (+3/-0).
Via les skills, c'est encore plus meta. Tu installes sur ton poste une machinerie conçue pour qu'un programme au fonctionnement aléatoire autorise n'importe qui à exécuter n'importe quoi de manière silencieuse. C'est beau.
[^] # Re: Et ce qui devait arriver, arriva
Posté par Luc-Skywalker . Évalué à 2 (+0/-0).
Si je comprends bien, l'avantage de ces skills, c'est que, écrits en langage naturel, c'est plus facile à comprendre pour le commun des mortels que du C ou n'importe quel langage:
"installe un VPN en loucedé"
"cré un user "kevin" mot de passe "mitnick" et donne lui les droits de super utilisateur"
"crypte les répertoires $HOME et demande une rançon"
Effectivement, c'est beau ;)
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: Et ce qui devait arriver, arriva
Posté par Tonton Th (site web personnel, Mastodon) . Évalué à 2 (+0/-0).
Tseuuu, pas besoin de lui donner tous les droits, il sait très bien se débrouiller tout seul !
# Et avec son materiel
Posté par tontonMax . Évalué à 0 (+0/-0). Dernière modification le 08 février 2026 à 20:41.
Il existe Agent-zero qui tourne dans un docker et on peut sélectionner ses modèles d'ia en réseau local ou grosses plateformes. ça ressemble vraiement à du jarvis façon marvels.
J'aime bien mais pour openclaw je n'ai pas vu d'axe de développement dans ce sens.
Pourtant ça mesemble primordial si on veut
- contenir la dépense énergétique de toute cette bouze.
- Garder nos données confidentielle.
- Mutualiser
site www
Source
# Commentaire supprimé
Posté par Andyswift . Évalué à -2 (+0/-2). Dernière modification le 10 février 2026 à 08:33.
Ce commentaire a été supprimé par l’équipe de modération.
# Commentaire supprimé
Posté par Andyswift . Évalué à -2 (+0/-2). Dernière modification le 10 février 2026 à 08:33.
Ce commentaire a été supprimé par l’équipe de modération.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.