Comment exécuter openClaw (Moltbot/ Clawdbot ) sur des LLM locaux sans API

CometAPI
AnnaFeb 1, 2026
Comment exécuter openClaw (Moltbot/ Clawdbot ) sur des LLM locaux sans API

OpenClaw (anciennement Clawdbot, brièvement Moltbot) a explosé plus vite que presque n’importe quel projet d’agent que j’ai vu.

En moins de trois semaines, il a dépassé 100 000 étoiles sur GitHub. On l’appelle un « stagiaire IA 24/7 », et honnêtement, cette description n’est pas loin de la réalité. Il peut lire des messages, exécuter des commandes shell, gérer des fichiers et vivre discrètement en arrière-plan pendant que vous vaquez à vos occupations.

Mais après l’enthousiasme initial, une question très pratique a commencé à apparaître partout :

« C’est cool… mais comment le faire tourner sans brûler de l’argent en API ? »

Cette question est précisément la raison pour laquelle j’ai écrit le guide .

Quelle est la raison de l’engouement autour d’OpenClaw (anciennement Clawdbot) ?

Pour comprendre le virage technique vers l’exécution locale, il faut d’abord saisir ce qu’est réellement OpenClaw. Au cœur, openClaw ( Moltbot / Clawdbot) est un agent autonome « conversation-first ». Contrairement aux chatbots traditionnels qui vivent dans un onglet de navigateur et attendent des invites, OpenClaw s’exécute comme un daemon d’arrière-plan sur votre machine. Il s’intègre directement aux plateformes de messagerie comme WhatsApp, Telegram, Discord et Signal, transformant efficacement votre application de chat en ligne de commande pour votre vie.

L’évolution de Clawdbot à OpenClaw

L’historique du projet est aussi volatil que fascinant.

Clawdbot (fin 2025) : Créé par Peter Steinberger, il a été lancé comme un wrapper pour Claude d’Anthropic, conçu pour exécuter des tâches plutôt que simplement produire du texte. Il a été surnommé « Claude avec des mains ».

Moltbot (jan. 2026) : Suite à un litige de marque avec Anthropic concernant le nom « Clawd », le projet a été rebaptisé « Moltbot », adoptant une mascotte homard nommée « Molty » (en référence à la mue de la carapace).

OpenClaw (30 jan. 2026) : Pour souligner sa nature open source et s’éloigner davantage d’identités d’entreprise spécifiques tout en conservant l’héritage « Claw », la communauté a opté pour OpenClaw.

Ce qui distingue OpenClaw, c’est son système d’autorisations. Il peut lire vos e-mails, vérifier votre calendrier, exécuter des commandes shell et même gérer sa propre mémoire dans des fichiers Markdown stockés localement. Cependant, sa configuration par défaut repose sur l’envoi de tout ce contexte vers des API cloud (principalement Anthropic ou OpenAI), ce qui soulève deux enjeux critiques : le coût et la confidentialité.

Pourquoi passer à des LLM locaux ?

L’expérience « prête à l’emploi » par défaut d’openClaw ( Moltbot / Clawdbot) est propulsée par Claude 3.5 Sonnet ou Opus. Bien que ces modèles soient très intelligents, ils sont facturés au token. Un agent autonome qui tourne 24/7 — vérifiant les e-mails, surveillant des logs de serveur et résumant des conversations — peut générer des millions de tokens par jour.

Le coût de l’autonomie

Les agents autonomes ne se comportent pas comme des sessions de chat. Ils bouclent. Ils relisent le contexte. Ils résument des logs. Ils vérifient les boîtes de réception encore et encore.

J’ai vu des utilisateurs rapporter des choses comme :

« J’ai laissé Clawdbot tourner toute la nuit pour réorganiser mon coffre Obsidian et je me suis réveillé avec une facture de 40 $. »

Ce n’est pas un mauvais usage — c’est simplement ainsi que fonctionne l’autonomie.

Avec un modèle local, le coût marginal tombe à zéro (hors électricité). Vous arrêtez de penser « est-ce que je dois le laisser tourner ? » et commencez à penser « qu’est-ce que je peux encore automatiser ? »

La confidentialité n’est pas un avantage secondaire — c’est le principal

openClaw ( Moltbot / Clawdbot) peut lire :

  • E-mails
  • Historique de discussions
  • Code source
  • Documents personnels

OpenClaw est conçu pour avoir un accès profond à votre système. Il lit vos messages personnels et vos systèmes de fichiers. Lors de l’utilisation d’une API, chaque fichier que le bot lit est téléversé sur un serveur tiers pour traitement. En utilisant un LLM local, aucune donnée ne quitte jamais votre réseau local. Vos documents financiers, conversations privées et bases de code restent isolés des Big Tech.

Exécuter OpenClaw avec Ollama (ma recommandation par défaut)

Si vous êtes à l’aise avec le terminal, Ollama est aujourd’hui le moyen le plus simple de faire tourner des LLM locaux.

openClaw ( Moltbot / Clawdbot) parle des API compatibles OpenAI. Ollama en expose une par défaut. C’est tout le secret.

Liste de vérification minimale système et logiciels

  • Une machine avec un OS récent (Linux/macOS/Windows + WSL2). Accélération GPU locale recommandée pour les modèles plus grands ; le CPU uniquement convient aux petits modèles ou aux tâches légères.
  • Node.js ≥ 22 (la CLI et la Gateway d’OpenClaw nécessitent Node).
  • Ollama (ou un autre runtime LLM local) installé localement si vous prévoyez de faire tourner des modèles locaux. Ollama expose par défaut une API compatible OpenAI (généralement sur http://localhost:11434).
  • Si vous utilisez un proxy comme Lynkr, installez-le (npm ou clonez le dépôt). Lynkr peut présenter un endpoint de type Anthropic/OpenAI à OpenClaw tout en routant vers des modèles locaux.

Étape 1 : Installer OpenClaw (commandes rapides)

OpenClaw recommande l’installation via npm/pnpm. Exécutez :

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

L’assistant d’onboarding installe un daemon de service utilisateur (systemd/launchd) afin que la Gateway continue de tourner en arrière-plan. Après l’onboarding, vous pouvez lancer manuellement la Gateway pour le débogage :

openclaw gateway --port 18789 --verbose

Étape 2 : Installer Ollama et récupérer un modèle

Ollama est simple à installer et à exécuter. Sur macOS/Linux :

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama expose une API compatible avec de nombreux clients de style OpenAI ; l’intégration des fournisseurs d’OpenClaw prend en charge Ollama et détectera automatiquement une instance locale d’Ollama, sauf si vous remplacez la configuration.

Étape 3 : Configuration minimale du modèle OpenClaw

Déployer une couche de compatibilité (Lynkr) ou configurer OpenClaw pour pointer vers l’endpoint local

Parce que openClaw ( Moltbot / Clawdbot) s’est historiquement connecté à certaines formes d’API (par ex. endpoints de style Anthropic), le chemin le plus simple consiste à exécuter un petit proxy qui traduit les appels d’OpenClaw vers l’API de votre serveur local.

  • Lynkr : installez et configurez Lynkr pour écouter sur le port attendu par OpenClaw ; configurez-le pour faire suivre vers votre instance Ollama/text-generation-webui. Les tutoriels de la communauté montrent des fichiers d’étapes et des exemples d’entrées config.json. Une fois Lynkr en cours d’exécution, OpenClaw peut rester configuré pour le fournisseur d’origine, mais parlera en réalité à votre modèle local.

Si vous préférez modifier directement la configuration d’OpenClaw, pointez l’URL du backend du modèle dans la configuration .openclaw vers l’endpoint de votre serveur local :

openClaw ( Moltbot / Clawdbot) stocke la configuration dans ~/.openclaw/openclaw.json. Un fichier minimal pour privilégier un modèle local ressemble à ceci :

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Si vous omettez le bloc models.providers.ollama, openClaw ( Moltbot / Clawdbot) détectera souvent automatiquement une instance locale d’Ollama si elle est disponible. Utilisez openclaw models list et openclaw models set pour gérer interactivement les paramètres de modèle sans modifier directement le fichier.

Étape 4 : Démarrer OpenClaw et tester un message

Avec Ollama en cours d’exécution et la Gateway active :

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Si la Gateway et les modèles sont correctement configurés, vous verrez l’assistant répondre et le message être routé via le modèle local Ollama.

Puis-je éviter de modifier OpenClaw via un proxy ?

Oui — c’est exactement ce que font des outils de proxy comme Lynkr : ils présentent un endpoint de style Anthropic/OpenAI à openClaw ( Moltbot / Clawdbot) tout en écoutant sur le port attendu par OpenClaw et en faisant suivre le contenu vers une instance Ollama ou text-generation-webui locale.. C’est précieux car pas de clé d’API, pas de facturation cloud et exécution de modèle locale, cela évite de changer les internes d’OpenClaw tout en vous donnant le contrôle local.

Vue d’ensemble architecturale (qui parle à qui)

  • OpenClaw (agent/app) — l’assistant principal, qui émet des appels au modèle et orchestre les outils et l’intégration des messages.
  • Proxy LLM (par ex. Lynkr) — reçoit les requêtes au style API d’OpenClaw et les achemine vers des serveurs de modèles locaux (ou un fallback cloud). Le proxy peut aussi implémenter la mise en cache, la réduction de tokens et la compression de mémoire pour réduire les coûts.
  • Serveur LLM local (par ex. Ollama, runtime ggml autonome, Llama.cpp, modèle local en conteneur) — sert l’inférence du modèle sur la machine. Ollama est largement utilisé car il fournit un serveur local facile et un workflow d’empaquetage de modèles ; d’autres runtimes sont possibles.
  • Fallback cloud optionnel — le proxy peut router les requêtes complexes vers des modèles cloud si nécessaire (mode hybride).

Pourquoi utiliser un proxy plutôt que patcher openClaw directement ?

Confidentialité et TCO : L’inférence locale maintient les données sur votre machine et évite les factures d’API.

Compatibilité : openClaw ( Moltbot / Clawdbot) s’attend à une surface d’API particulière (style Anthropic/« Copilot »). Un proxy conserve cette surface, si bien qu’OpenClaw nécessite des changements minimes.

Sécurité et flexibilité : Le proxy peut implémenter des règles de routage des requêtes (local en premier, fallback cloud), du rate limiting, la troncature des requêtes et d’autres garde-fous.

Exemple : configurer Lynkr pour router vers Ollama local

  1. Installez Lynkr :
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Créez un .env (exemple) :
cp .env.example .env

Modifiez .env avec :

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Démarrez Lynkr :
# if installed globally
lynkr

# if cloned
npm start

Lynkr annoncera par défaut un proxy local (par exemple : http://localhost:8081) et un endpoint /v1 compatible OpenAI/Anthropic vers lequel OpenClaw peut pointer. Ensuite, configurez le fournisseur de modèle d’OpenClaw pour utiliser l’URL de base de Lynkr (voir l’extrait suivant).

Pointer OpenClaw vers l’endpoint Lynkr

Modifiez soit ~/.openclaw/openclaw.json, soit utilisez la CLI pour définir l’URL de base de votre fournisseur :

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Désormais, openClaw ( Moltbot / Clawdbot) appellera http://localhost:8081/v1 (Lynkr), qui route vers ollama://kimi-k2.5 en local. Vous obtenez l’expérience transparente d’un fournisseur externe sans quitter votre machine.

Pour les utilisateurs qui préfèrent une interface graphique (GUI) pour gérer leurs modèles, ou qui souhaitent utiliser des modèles quantifiés spécifiques (format GGUF) depuis Hugging Face, LM Studio est le choix recommandé.

Est-il prudent d’exécuter des agents autonomes en local ?

C’est peut-être la question la plus critique. Lorsque vous lancez openClaw ( Moltbot / Clawdbot), vous donnez essentiellement un accès shell à une IA sur votre ordinateur.

Le problème « sudo »

Si vous demandez à un Claude basé sur le cloud de « supprimer tous les fichiers dans mes documents », il pourrait refuser en raison de filtres de sécurité. Un modèle Llama 3 local non censuré n’a pas de telles inhibitions. Si openClaw ( Moltbot / Clawdbot) interprète mal une commande, il pourrait théoriquement exécuter des commandes destructrices.

Bonnes pratiques de sécurité

Exécutez dans Docker : ne lancez pas openClaw ( Moltbot / Clawdbot) directement sur le « bare metal » de votre machine hôte à moins d’être absolument sûr des risques. Utilisez l’image Docker officielle qui isole l’environnement.

L’exemple ci-dessous est un docker-compose.yml minimal qui illustre trois services : Ollama (runtime de modèle local), Lynkr (proxy) et OpenClaw Gateway (CLI exécutée dans un conteneur). Remarque : adaptez les volumes et le passage des périphériques pour l’accès GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Ceci est une pile illustrative ; les déploiements en production devraient ajouter une isolation réseau, des limites de ressources et une configuration des périphériques GPU le cas échéant.

Étapes de dépannage courantes et limitations

Si openClaw ( Moltbot / Clawdbot) ne voit pas Ollama

  • Assurez-vous qu’Ollama tourne et que l’URL de base est accessible (http://127.0.0.1:11434/v1).
  • Utilisez openclaw models list et openclaw doctor pour mettre en évidence les problèmes de configuration.

Si le routage Lynkr échoue

  • Confirmez que Lynkr écoute (généralement http://localhost:8081).
  • Vérifiez .env pour la correction de OLLAMA_ENDPOINT et MODEL_PROVIDER.
  • Validez que Lynkr mappe les chemins /v1 appelés par openClaw ( Moltbot / Clawdbot) — certaines implémentations de fournisseurs s’attendent à des chemins légèrement différents ; ajustez les chemins de base si nécessaire.

Lacunes de capacités des modèles

Les modèles locaux varient : certains excellent en codage, d’autres en conversation. Les stratégies hybrides (local en premier, fallback cloud) peuvent aider : routez les tâches routinières en local et escaladez le raisonnement complexe vers un modèle cloud avec mise en cache pour réduire le coût. Lynkr et des proxies similaires implémentent précisément cette logique.

Conclusion

La conception d’OpenClaw et l’écosystème actif qui l’entoure rendent un déploiement local, sans API, pratique aujourd’hui. Avec des outils comme Ollama pour l’hébergement local, Lynkr pour la traduction d’API et une documentation communautaire robuste, vous pouvez exécuter des agents capables sur des machines que vous contrôlez — d’un GPU de bureau à un appareil portable — sans envoyer vos données à un fournisseur de LLM tiers.

Cependant, si vous pesez le pour et le contre, par exemple, si vous souhaitez toujours utiliser openClaw ( Moltbot / Clawdbot) via l’API sans l’équipement nécessaire, alors je recommanderais CometAPI. Il fournit des endpoints Anthropic et OpenAI et propose fréquemment des remises — généralement 20 % en dessous du prix officiel.

Les développeurs peuvent accéder et Claude Sonnet/ Opus 4.5 et GPT-5.2 via CometAPI, les derniers modèles listés étant à la date de publication de l’article. Pour commencer, explorez les capacités du modèle dans le Playground et consultez le API guide pour des instructions détaillées. Avant d’y accéder, veuillez vous assurer que vous êtes connecté à CometAPI et que vous avez obtenu la clé API. CometAPI offre un prix bien inférieur au prix officiel pour vous aider à intégrer.

Prêt à vous lancer ?→ Inscrivez-vous à Gemini 3 dès aujourd’hui !

Si vous voulez connaître plus d’astuces, de guides et d’actualités sur l’IA, suivez-nous sur VK, X et Discord !

En savoir plus

500+ Modèles en Une API

Jusqu'à 20% de réduction