À l’avant-garde de cette dynamique se trouve Moltbot (anciennement Clawdbot), un projet passé d’un outil de développeur de niche à une sensation virale avec plus de 60 000 étoiles GitHub en quelques semaines. Créé par Peter Steinberger, Moltbot incarne la « mue » de l’agent IA — se débarrassant des limites des interfaces web pour habiter les applications de messagerie et les systèmes de fichiers que nous utilisons au quotidien.
À noter récemment : le projet a changé de nom de Clawdbot à Moltbot suite à une demande liée à une marque de la part d’Anthropic, car « Clawd » ressemblait trop à « Claude ».
Qu’est-ce que Moltbot (Clawdbot) et pourquoi est-il viral ?
Moltbot est un agent IA open source, auto-hébergé, conçu pour combler l’écart entre les puissants grands modèles de langage (LLMs) et votre ordinateur local. Contrairement à ChatGPT ou Claude.ai, qui existent dans un onglet de navigateur en « jardin clos », Moltbot s’exécute comme une Gateway sur votre matériel (Mac, Linux ou VPS).
Il traduit des messages en langage naturel provenant de plateformes comme Telegram, WhatsApp et Slack en actions exécutables sur votre machine. Que vous ayez besoin de trouver un fichier sur votre bureau pendant que vous êtes à l’épicerie ou de déclencher un script de déploiement complexe depuis votre téléphone, Moltbot agit comme votre proxy numérique avec un accès complet au système.
Pourquoi c’est différent
- Exécution et outils local-first : Moltbot peut réellement exécuter des commandes sur votre hôte (avec consentement), appeler des API externes et utiliser des « Skills » qui sont de petits programmes ou des workflows définis en markdown.
- Multi-canal : vous utilisez le même assistant depuis Telegram, WhatsApp, Slack, Discord et plus — il peut vous envoyer des messages proactifs.
- Mémoire et persistance : Moltbot stocke des fichiers de mémoire dans l’espace de travail (Markdown) et les indexe pour la recherche afin que l’assistant « se souvienne » d’une session à l’autre (détails ci-dessous).
Capacités principales en un coup d’œil
| Fonctionnalité | Description |
|---|---|
| Multi-canal | Utilisez Telegram, WhatsApp, Discord, Slack, iMessage, et plus. |
| Accès PC complet | Exécute des commandes shell, gère des fichiers et contrôle des navigateurs. |
| IA proactive | Il n’attend pas simplement ; il peut envoyer des alertes « heartbeat » ou des rappels. |
| Confidentialité d’abord | Vos fichiers et votre logique restent sur votre matériel ; seuls les prompts vont vers l’API. |
| Auto-évolution | Il peut écrire ses propres « Skills » pour étendre ses fonctionnalités dans le temps. |
| Compatible avec OpenAI | Moltbot prend en charge le protocole d’API compatible OpenAI ; se connecte à tout service compatible |
| baseUrl personnalisé | Prend en charge la modification de l’adresse de l’endpoint API ; basculez facilement entre les fournisseurs |
Comment Clawdbot « se souvient » de tout sans base de données ?
L’un des aspects les plus innovants de Moltbot est son architecture de mémoire transparente. La plupart des outils IA souffrent d’« amnésie » entre les sessions. Moltbot résout cela grâce à un système en couches de simples fichiers Markdown situés dans votre espace de travail. Cette approche garantit que vous pouvez lire, modifier et auditer exactement ce que votre IA sait de vous.
Quelle est la conception de la mémoire et comment fonctionne-t-elle ?
La mémoire de Moltbot est volontairement simple et auditée : la mémoire est constituée de simples fichiers Markdown à l’intérieur de l’espace de travail de l’agent. Les fichiers sont la source de vérité — le modèle ne « se souvient » que de ce qui est écrit sur le disque. La structure par défaut utilise :
memory/YYYY-MM-DD.md— journaux quotidiens en ajout seulement (l’assistant lit aujourd’hui + hier au démarrage de la session).MEMORY.md— mémoire long terme, organisée, que vous pouvez contrôler et charger uniquement dans des sessions privées.
Ce design a deux grands avantages :
- Auditabilité — vous pouvez lire et modifier ce que l’assistant utilisera comme mémoire.
- Simplicité pour les outils — des plugins de mémoire fournissent une indexation vectorielle/BM25 afin que l’agent puisse rechercher rapidement les entrées de mémoire pertinentes.
Approche technique
- Stockage de conversation/session : la gateway suit les sessions et transmet le bon contexte au runtime de l’agent. Cela permet à l’agent de préserver l’état de la conversation entre les messages et les canaux.
- Données locales indexées : Moltbot peut indexer des fichiers et documents locaux et les exposer via des outils de recherche (sémantique ou mot-clé) pour la récupération. C’est ainsi que l’agent peut « se souvenir » de vos notes de réunion, extraits ou code.
- Sorties d’outils et primitives de mémoire : les Skills et outils peuvent écrire dans un stockage durable (base de données ou système de fichiers), et Moltbot peut référencer ces entrées lors de prompts ultérieurs. Beaucoup de déploiements utilisent SQLite, Postgres ou des JSON/YAML locaux pour des petites configurations.
- Embeddings LLM et base vectorielle : pour le rappel sémantique, le schéma habituel consiste à encoder les documents et stocker les vecteurs dans une base vectorielle, puis à récupérer les plus proches voisins à inclure dans les prompts. L’architecture de Moltbot accueille des appels d’outils agnostiques au modèle, vous pouvez donc brancher la combinaison embedding + base vectorielle de votre choix.
Avertissement de sécurité : comme la mémoire est persistante et que les Skills peuvent exécuter des commandes sur l’hôte, les valeurs par défaut recommandées sont conservatrices : appariement en DM pour les expéditeurs inconnus, sandbox pour les sessions non principales, et un contrôle moltbot doctor pour faire remonter les configurations à risque. Consultez toujours la documentation de sécurité et traitez les messages entrants comme des entrées non fiables.
La hiérarchie de la mémoire
| Fichier | Objet |
|---|---|
| SOUL.md | Définit la personnalité, le ton et les règles de fonctionnement fondamentales. |
| USER.md | Stocke des faits à votre sujet (ex. « Je préfère Python à Ruby », « Je travaille en fintech »). |
| MEMORY.md | Mémoires long terme, organisées, que l’agent sauvegarde pour un rappel permanent. |
| memory/YYYY-MM-DD.md | Journaux quotidiens et contexte brut de dates spécifiques. |
Quand vous dites à Moltbot : « Souviens-toi que je préfère mes rapports en format PDF », il ne stocke pas cela dans une base SQL cachée. Il ouvre littéralement USER.md et ajoute un nouveau point de liste. Cela permet à l’agent de maintenir le contexte sur des semaines de conversation, ce qui le fait ressembler à un véritable assistant personnel plutôt qu’à une instance fraîche chaque matin.
Guide d’installation de Moltbot : prérequis et installation
Ci-dessous se trouve une checklist pratique et des commandes pour lancer une instance Moltbot basique sur macOS/Linux (Ubuntu). Il s’agit d’un guide condensé, orienté production — si vous avez besoin d’une interface graphique ou d’un hébergement managé, passez à la section d’hébergement API.
Ce dont vous aurez besoin (prérequis)
- Une machine exécutant macOS ou Linux (Windows peut fonctionner via WSL2). Node.js v22+ est requis pour la gateway et le CLI.
- Un éditeur de texte et une connaissance basique du shell.
- Au moins une clé d’API LLM (OpenAI, Anthropic, Venice, ou un modèle local comme Ollama) — Moltbot lui-même est agnostique au modèle.
- Optionnel : Docker, si vous préférez un déploiement conteneurisé.
Installation pas à pas
- Installer le package : Exécutez la commande suivante dans votre terminal :
npm install -g clawdbot@latest - Lancer l’assistant d’onboarding : L’assistant est le cœur de la configuration. Il vous guidera à travers les confirmations de sécurité et la sélection du modèle.
clawdbot onboard --install-daemon - Confirmer les risques de sécurité : Moltbot vous demandera d’acknowledger qu’il a un accès de type « root » à votre machine. Vous devez taper une confirmation pour continuer.
- Configurer la Gateway : L’assistant installera
clawdbot gatewaycomme service en arrière-plan (launchdsur Mac ousystemdsur Linux) afin qu’elle reste en ligne 24/7.
Installation rapide (macOS / Linux)
Cet exemple utilise la méthode recommandée git + npm qui reflète la documentation officielle.
# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot
# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli # or: npm ci && npm run build
# Create environment file from example
cp .env.example .env
# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start
Docker (basique)
# docker-compose.yml (simplified)
version: "3.8"
services:
moltbot:
image: moltbot/moltbot:latest
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OTHER_KEYS=...
volumes:
- ./data:/app/data
ports:
- "3000:3000"
Exécuter avec :
docker compose up -d
Post-installation : associer un canal de messagerie
Moltbot prend en charge plusieurs canaux. L’appariement implique généralement de générer un token d’appariement depuis l’UI ou le CLI de la gateway et d’utiliser une petite « URL d’appariement » pour connecter un bot Telegram ou un compte WhatsApp — les étapes spécifiques dépendent du connecteur de canal que vous choisissez (Telegram Bot API vs. wrapper grammY, WhatsApp via Baileys, etc.). Consultez la documentation pour moltbot connect telegram ou moltbot connect whatsapp.
Comment contrôler mon PC depuis Telegram via Moltbot (étape par étape) ?
Voici un guide pratique et sécurisé pour contrôler un hôte via des messages Telegram — utile pour l’administration à distance, l’exécution de scripts, la récupération de logs ou demander à Moltbot d’exécuter une petite tâche. Note de sécurité importante : n’exposez pas votre Gateway à Internet ouvert sans token d’API et pare-feu ; autorisez uniquement des utilisateurs Telegram de confiance à parler à votre bot.
1) Créer un bot Telegram avec BotFather
- Dans Telegram, envoyez un message à
@BotFather. - Envoyez
/newbotet suivez les instructions. - Copiez le token du bot
123456789:ABC-...(BotFather l’affichera).
2) Ajouter le token à votre passerelle
Définissez la variable d’environnement ou la configuration :
export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
# telegram:
# botToken: "123456789:ABC-..."
Vous pouvez également ajouter le token via les commandes moltbot channels add ou moltbot configure selon votre version du CLI. La documentation Telegram montre cette voie de configuration rapide.
3) Lancer l’assistant d’onboarding et choisir Telegram
Exécutez :
moltbot onboard --install-daemon
Pendant l’assistant :
- Choisissez votre fournisseur de modèle (Anthropic Opus, OpenAI, ou local).
- Lorsqu’on vous demande les canaux, choisissez Telegram et collez le token.
- Configurez l’appariement/allowlist pour restreindre qui peut envoyer des messages au bot (important — définissez votre ID utilisateur afin que seul vous puissiez le contrôler).
Les walkthroughs de la communauté et le processus d’onboarding vous demanderont de coller une petite sortie de commande de votre hôte pour prouver l’appariement du nœud — suivez l’invite.
4) Activer l’outil exec et les approbations (en sécurité)
Moltbot peut exécuter des commandes système via son outil exec, mais le fait sous un modèle d’approbation explicite :
- Les approbations d’exec sont enregistrées dans
~/.clawdbot/exec-approvals.json. - Le système demandera une confirmation dans le chat la première fois qu’une action est requise ; vous pouvez répondre
/approvepour continuer (ou refuser). - Pour des workflows entièrement automatisés, vous pouvez créer une allowlist limitée de commandes ou un « bin » de scripts pré-approuvés.
Exemple : activer l’outil exec dans la configuration moltbot (ou via UI/plugin) :
{
"tools": {
"exec": {
"enabled": true,
"allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
}
}
}
Le projet dispose de flux d’approbation explicites pour exec et transmet les invites d’approbation aux canaux de chat lorsque demandé, ce qui facilite l’examen et l’approbation des opérations.
5) Essayer une commande sûre depuis Telegram
Depuis votre compte Telegram (l’utilisateur autorisé), envoyez :
@YourMoltbot Hi — please run: uptime
L’assistant va :
- Demander une confirmation (si exec nécessite une approbation).
- Exécuter la commande autorisée sur l’hôte.
- Renvoyer la sortie dans le chat.
6) Créer des actions plus sûres via des Skills
Au lieu de donner un accès direct au shell via le chat, préférez des Skills qui encapsulent des actions (par ex., un Skill backup qui appelle un script et renvoie un résultat bien formaté). Les Skills peuvent être installés/désinstallés et sont plus faciles à examiner.
Comment héberger l’API Moltbot (Gateway) et utiliser l’API HTTP ?
Moltbot peut-il exposer une API que d’autres programmes peuvent appeler ?
Oui. La Gateway de Moltbot peut exposer des endpoints HTTP compatibles OpenResponses (comme POST /v1/responses) et un shim de type OpenAI /v1/chat/completions. Ces endpoints sont désactivés par défaut et doivent être activés dans la configuration de la gateway. L’endpoint HTTP OpenResponses mappe directement sur le chemin d’exécution de l’agent de la gateway, donc les requêtes sont exécutées comme de vraies sessions d’agent (avec le même routage/autorisations).
Qu’est-ce qu’un proxy d’API dans Moltbot ?
Un proxy d’API dans Moltbot est un service intermédiaire qui se situe entre le runtime de l’agent Moltbot et des fournisseurs LLM en amont tels que :
- OpenAI
- Anthropic
- Venice
- Azure OpenAI
- Points de terminaison auto-hébergés compatibles OpenAI
Au lieu que Moltbot appelle directement le fournisseur, toutes les requêtes sont routées via le proxy, qui peut :
- Réécrire les requêtes et réponses
- Imposer des limites de débit
- Suivre l’utilisation des tokens et les coûts
- Changer de modèle dynamiquement
- Masquer les vraies clés d’API à Moltbot
- Ajouter de l’authentification, de la journalisation et du caching
Conceptuellement :
Moltbot → API Proxy → LLM Provider
Cette architecture améliore considérablement la sécurité, l’observabilité et le contrôle des coûts.
🚀 Quick Start: We recommend using CometAPI (apiyi.com) to obtain your API key. Registration grants you free credits. It supports all major algorithms, such as Claude Sonnet 4.5, Claude Opus 4.5, and GPT-5.2, and is typically 10-20% cheaper than official prices.
Étape 1 : Obtenir votre clé de proxy d’API
Méthode 1 : Définir des variables d’environnement. Dans votre fichier .env de Moltbot :
OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini
Points clés :
OPENAI_API_BASEpointe vers votre proxy, pas vers OpenAIOPENAI_API_KEYest un token émis par le proxy- Le proxy décide quel fournisseur/modèle est réellement utilisé
Redémarrez Moltbot après avoir mis à jour ces valeurs.
Méthode 2 : Configuration via config.json :
- Trouver le fichier de configuration Moltbot
- Ouvrez votre fichier de configuration et ajoutez ou mettez à jour
models.providers
Le fichier de configuration se trouve généralement à l’un de ces emplacements :
| Système d’exploitation | Chemin du fichier de configuration |
|---|---|
| macOS | ~/.clawdbot/config.json ou ~/.moltbot/config.json |
| Linux | ~/.clawdbot/config.json ou ~/.moltbot/config.json |
| Windows | %USERPROFILE%\.clawdbot\config.json |
Vous pouvez aussi le trouver via la ligne de commande :
# See your current config
moltbot config list
# Get the exact path to your config file
moltbot config path
Étape 2 : Vérifier la connectivité
Exécutez un prompt de test simple :
moltbot test llm
Si la configuration est correcte, Moltbot recevra des réponses normalement — sans jamais contacter directement le fournisseur en amont.
Estimations de coût pour exécuter Moltbot avec des modèles hébergés
Le coût d’utilisation d’un modèle managé dépend du prix de l’API ; le choix d’un fournisseur d’API bon marché est donc important, raison pour laquelle je recommande CometAPI.
Les facteurs de tarification dépendent généralement de :
- La tarification du fournisseur. Le coût d’utilisation d’un modèle managé dépend du prix de l’API, donc choisir un fournisseur d’API moins cher est crucial, c’est pourquoi je recommande CometAPI.
- Le choix entre un modèle phare ou léger ; par exemple, la différence de prix entre Claude Opus 4.5 et GLM 4.7 est significative.
- La complexité du contenu traité. Si vos workflows sont riches en texte (analyse de fichiers, longues réponses), ajoutez des tokens.
Exemples approximatifs (illustratifs, prix de janvier 2026 rapportés dans des posts communautaires) :
- Usage personnel ponctuel (quelques centaines de réponses/mois, mélange de modèles locaux et d’appels API bon marché) : $0–$50/mois.
- Usage personnel intensif/pro développeur (indexation de fichiers, beaucoup d’appels d’outils) : $100–$1,000/mois.
- Équipe ou production toujours active (nombreux utilisateurs + web scraping + chaînage) : $1,000+/mois sauf si vous optimisez fortement l’usage des modèles.
Façons de réduire les coûts
- Routage de modèles : envoyez les tâches légères vers des modèles moins chers ou des LLM locaux, réservez les modèles coûteux pour le raisonnement de longue haleine — des tests communautaires suggèrent que cela peut réduire les coûts de ~50 % ou plus.
- Relais et tarification de volume : utilisez des relais d’API qui offrent de meilleurs tarifs par token ou un hébergement privé de modèles (Venice, endpoints privés).
- Caching agressif et troncature : mettez en cache les sorties LLM, tronquez les longues historiques et résumez au lieu de renvoyer tout le contexte.
Fonctionnalités avancées du proxy d’API pour Moltbot
Routage de modèle par type de tâche
Vous pouvez inspecter la charge utile de la requête et router dynamiquement :
function selectModel(messages) {
const systemPrompt = messages[0]?.content || "";
if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
return "gpt-4.1";
}
return "gpt-4.1-mini";
}
Ce schéma réduit les coûts sans sacrifier la qualité.
Limites de jetons et de coûts
Vous pouvez imposer des limites strictes :
if (req.body.max_tokens > 2000) {
return res.status(400).json({
error: "Token limit exceeded"
});
}
Certaines équipes suivent également l’utilisation cumulative par ID utilisateur Moltbot.
Est-il sûr de donner à une IA l’accès shell à mon ordinateur ?
C’est la question la plus critique pour tout utilisateur de Moltbot. Donner à un LLM la capacité d’exécuter rm -rf est intrinsèquement risqué. Moltbot inclut plusieurs garde-fous pour atténuer cela :
- Sandboxing : Vous pouvez exécuter Moltbot dans un conteneur Docker. Cela limite le « monde » de l’agent à un dossier spécifique, l’empêchant de toucher vos fichiers système.
- Approbation explicite : Par défaut, les « sessions principales » (chats directs avec vous) ont une confiance plus élevée, mais vous pouvez configurer le bot pour demander la permission avant d’exécuter toute commande shell destructrice.
- Protection par mot de passe : Si vous exposez l’interface Web de Moltbot, activez toujours l’authentification par mot de passe dans votre
config.json:
{
"gateway": {
"auth": {
"mode": "password",
"password": "YOUR_STRONG_SECURE_PASSWORD"
}
}
}
Réflexions finales :
Moltbot est plus qu’un simple chatbot ; c’est l’infrastructure pour un employé numérique personnel. En l’hébergeant vous-même, vous reprenez le contrôle de vos données tout en gagnant la productivité d’une IA qui ne dort jamais. Que vous l’utilisiez pour gérer votre agenda via Telegram ou pour automatiser votre pipeline DevOps depuis votre canapé, Moltbot est un aperçu d’un futur où chacun dispose de son propre « Jarvis » tournant sur un Mac Mini dans un coin de la pièce.
Si vous voulez une plateforme d’API avec des modèles de plusieurs fournisseurs (tels que Chatgpt-5.2, Claude opus 4.5, etc.) à un prix inférieur à l’officiel, alors CometAPI est le meilleur choix. Pour commencer, explorez les capacités du modèle dans le Playground et consultez le guide de l’API pour des instructions détaillées. Avant d’y accéder, assurez-vous d’être connecté à CometAPI et d’avoir obtenu la clé d’API. CometAPI offre un prix bien inférieur au prix officiel pour vous aider à intégrer.
Prêt à commencer ? → Inscrivez-vous à CometAPI aujourd’hui !
Si vous voulez plus d’astuces, de guides et d’actualités sur l’IA, suivez-nous sur VK, X et Discord !
