Wie führt man openClaw (Moltbot/Clawdbot) auf lokalen LLMs ohne API aus?

CometAPI
AnnaFeb 1, 2026
Wie führt man openClaw (Moltbot/Clawdbot) auf lokalen LLMs ohne API aus?

OpenClaw (früher Clawdbot, kurzzeitig Moltbot) ist schneller durchgestartet als fast jedes Agentenprojekt, das ich gesehen habe.

In weniger als drei Wochen hat es die Marke von 100.000 GitHub‑Sternen überschritten. Die Leute nennen es einen „24/7‑KI‑Praktikanten“, und ehrlich gesagt ist diese Beschreibung gar nicht so weit hergeholt. Es kann Nachrichten lesen, Shell‑Befehle ausführen, Dateien verwalten und unauffällig im Hintergrund laufen, während Sie Ihrem Tag nachgehen.

Aber nach der anfänglichen Begeisterung tauchte überall eine sehr praktische Frage auf:

„Das ist cool … aber wie kann ich es ausführen, ohne Geld für APIs zu verbrennen?“

Genau aus diesem Grund habe ich den Leitfaden geschrieben.

Was steckt hinter dem Hype um OpenClaw (früher Clawdbot)?

Um den technischen Wandel hin zur lokalen Ausführung zu verstehen, muss man zunächst begreifen, was OpenClaw eigentlich ist. Im Kern ist openClaw ( Moltbot / Clawdbot) ein „Conversation‑first“‑autonomer Agent. Anders als traditionelle Chatbots, die in einem Browser‑Tab leben und auf Prompts warten, läuft OpenClaw als Hintergrund‑Daemon auf Ihrem Rechner. Es integriert sich direkt in Messaging‑Plattformen wie WhatsApp, Telegram, Discord und Signal und macht Ihre Chat‑App effektiv zu einer Kommandozeile für Ihr Leben.

Die Entwicklung von Clawdbot zu OpenClaw

Die Geschichte des Projekts ist so volatil wie faszinierend.

Clawdbot (Ende 2025): Von Peter Steinberger erstellt, wurde es als Wrapper für Anthropics Claude veröffentlicht, der darauf ausgelegt war, Aufgaben auszuführen statt nur Text auszugeben. Es wurde als „Claude mit Händen“ bezeichnet.

Moltbot (Jan 2026): Nach einer Markenrechtsstreitigkeit mit Anthropic bezüglich des Namens „Clawd“ wurde das Projekt in „Moltbot“ umbenannt und übernahm ein Hummer‑Maskottchen namens „Molty“ (als Anspielung auf das Häuten des Panzers).

OpenClaw (Jan 30, 2026): Um seinen Open‑Source‑Charakter zu betonen und sich weiter von spezifischen Unternehmensidentitäten zu distanzieren, während die „Claw“‑Tradition erhalten bleibt, einigte sich die Community auf OpenClaw.

Was OpenClaw auszeichnet, ist sein Berechtigungssystem. Es kann Ihre E‑Mails lesen, Ihren Kalender prüfen, Shell‑Befehle ausführen und sogar sein eigenes Gedächtnis in lokal gespeicherten Markdown‑Dateien verwalten. In der Standardkonfiguration sendet es jedoch all diesen Kontext an Cloud‑APIs (primär Anthropic oder OpenAI), was zwei kritische Punkte aufwirft: Kosten und Datenschutz.

Warum sollten Sie auf lokale LLMs umsteigen?

Das „Out‑of‑the‑box“‑Erlebnis von openClaw ( Moltbot / Clawdbot) wird von Claude 3.5 Sonnet oder Opus bereitgestellt. Diese Modelle sind sehr leistungsfähig, werden jedoch pro Token abgerechnet. Ein autonomer Agent, der 24/7 läuft—E‑Mails prüft, Server‑Logs überwacht und Chats zusammenfasst—kann Millionen Tokens pro Tag erzeugen.

Die Kosten der Autonomie

Autonome Agenten verhalten sich nicht wie Chat‑Sessions. Sie laufen in Schleifen. Sie lesen Kontext erneut. Sie fassen Logs zusammen. Sie prüfen Postfächer immer wieder.

Ich habe Berichte von Nutzern gesehen wie:

„Ich ließ Clawdbot über Nacht laufen, um meinen Obsidian‑Vault neu zu organisieren, und wachte mit einer Rechnung über $40 auf.“

Das ist kein Fehlgebrauch — so funktioniert Autonomie nun einmal.

Mit einem lokalen Modell sinken die Grenzkosten auf null (abgesehen vom Strom). Sie hören auf, zu überlegen: „Soll ich das laufen lassen?“ und beginnen zu denken: „Was kann ich sonst noch automatisieren?“

Datenschutz ist kein Nebeneffekt — er ist der Hauptvorteil

openClaw ( Moltbot / Clawdbot) kann lesen:

  • E‑Mails
  • Chatverläufe
  • Quellcode
  • Persönliche Dokumente

OpenClaw ist darauf ausgelegt, tiefen Zugriff auf Ihr System zu haben. Es liest Ihre persönlichen Nachrichten und Dateisysteme. Bei Nutzung einer API wird jede vom Bot gelesene Datei zur Verarbeitung an einen Drittserver hochgeladen. Mit einem lokalen LLM verlassen keine Daten Ihr lokales Netzwerk. Ihre Finanzdokumente, privaten Chats und Codebasen bleiben von Big Tech luftabgeschottet.

OpenClaw mit Ollama ausführen (meine Standardempfehlung)

Wenn Sie sich im Terminal wohlfühlen, ist Ollama heute der einfachste Weg, lokale LLMs auszuführen.

openClaw ( Moltbot / Clawdbot) spricht OpenAI‑kompatible APIs. Ollama stellt standardmäßig eine solche API bereit. Das ist der ganze Trick.

Mindestanforderungen an System und Software

  • Eine Maschine mit einem aktuellen Betriebssystem (Linux/macOS/Windows + WSL2). Lokale GPU‑Beschleunigung wird für größere Modelle empfohlen; nur CPU funktioniert für kleine Modelle oder leichte Aufgaben.
  • Node.js ≥ 22 (OpenClaws CLI und Gateway erwarten Node).
  • Ollama (oder eine andere lokale LLM‑Laufzeit) lokal installiert, wenn Sie lokale Modelle ausführen möchten. Ollama stellt standardmäßig eine OpenAI‑kompatible lokale API bereit (üblich unter http://localhost:11434).
  • Wenn Sie einen Proxy wie Lynkr nutzen, installieren Sie ihn (npm oder Repo klonen). Lynkr kann OpenClaw einen Anthropic/OpenAI‑ähnlichen Endpunkt präsentieren und dabei zu lokalen Modellen routen.

Schritt 1: OpenClaw installieren (Schnellbefehle)

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Der Onboarding‑Assistent installiert einen User‑Service‑Daemon (systemd/launchd), sodass das Gateway im Hintergrund weiterläuft. Nach dem Onboarding können Sie das Gateway zur Fehlersuche manuell starten:

openclaw gateway --port 18789 --verbose

Schritt 2: Ollama installieren und ein Modell ziehen

Ollama ist leicht zu installieren und auszuführen. Unter macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama stellt eine API bereit, die mit vielen OpenAI‑ähnlichen Clients kompatibel ist; die Provider‑Integration von OpenClaw unterstützt Ollama und erkennt eine lokale Ollama‑Instanz häufig automatisch, sofern Sie die Konfiguration nicht überschreiben.

Schritt 3: Minimale OpenClaw‑Modellkonfiguration

Einen Kompatibilitätslayer (Lynkr) bereitstellen oder OpenClaw direkt auf den lokalen Endpunkt konfigurieren

Da openClaw ( Moltbot / Clawdbot) historisch bestimmte API‑Formen angesprochen hat (z. B. Anthropic‑ähnliche Endpunkte), ist der einfachste Weg, einen kleinen Proxy zu betreiben, der OpenClaw‑Aufrufe in die API Ihres lokalen Servers übersetzt.

  • Lynkr: Installieren und konfigurieren Sie Lynkr so, dass es auf dem Port lauscht, den OpenClaw erwartet; konfigurieren Sie es zur Weiterleitung an Ihre Ollama/text‑generation‑webui‑Instanz. Community‑Tutorials zeigen Schrittdateien und Beispiel‑Einträge für config.json. Sobald Lynkr läuft, kann OpenClaw für den ursprünglichen Provider konfiguriert bleiben, spricht aber tatsächlich mit Ihrem lokalen Modell.

Wenn Sie die OpenClaw‑Konfiguration direkt ändern möchten, setzen Sie die Backend‑URL des Modells in der .openclaw‑Konfiguration auf Ihren lokalen Server‑Endpunkt:

openClaw ( Moltbot / Clawdbot) speichert die Konfiguration in ~/.openclaw/openclaw.json. Eine minimale Datei, die ein lokales Modell bevorzugt, sieht so aus:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Wenn Sie den Block models.providers.ollama weglassen, erkennt openClaw ( Moltbot / Clawdbot) oft eine lokale Ollama‑Instanz, sofern verfügbar. Verwenden Sie openclaw models list und openclaw models set, um Modelle interaktiv zu verwalten, ohne die Datei direkt zu bearbeiten.

Schritt 4: OpenClaw starten und eine Nachricht testen

Mit laufendem Ollama und aktivem Gateway:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Wenn Gateway und Modelle korrekt konfiguriert sind, sehen Sie die Antwort des Assistenten und die Nachricht wird über das lokale Ollama‑Modell geroutet.

Kann ich versuchen, OpenClaw ohne Änderungen über einen Proxy zu betreiben?

Ja — genau das machen Proxy‑Tools wie Lynkr: Sie präsentieren openClaw ( Moltbot / Clawdbot) einen Anthropic/OpenAI‑ähnlichen Endpunkt, lauschen auf dem Port, den OpenClaw erwartet, und leiten den Inhalt an eine lokale Ollama‑ oder text‑generation‑webui‑Instanz weiter. Das ist wertvoll, denn es bedeutet kein API‑Schlüssel, keine Cloud‑Abrechnung und lokale Modellausführung — Sie vermeiden Änderungen an den OpenClaw‑Interna und behalten lokale Kontrolle.

Architekturüberblick (welche Komponenten mit welchen sprechen)

  • OpenClaw (Agent/App) — der Hauptassistent, der Modellaufrufe auslöst und Tools sowie Nachrichten‑Integrationen orchestriert.
  • LLM‑Proxy (z. B. Lynkr) — empfängt API‑artige Anfragen von OpenClaw und leitet sie an lokale Modellserver (oder Cloud‑Fallback) weiter. Der Proxy kann auch Caching, Token‑Trimming und Speicherkompression implementieren, um Kosten zu senken.
  • Lokaler LLM‑Server (z. B. Ollama, eigenständige ggml‑Runtime, Llama.cpp, lokalisierte containerisierte Modelle) — dient der Modellausführung auf der Maschine. Ollama wird weit verbreitet genutzt, weil es einen einfachen lokalen Server und eine Modell‑Packaging‑Workflow bietet; andere Laufzeiten sind möglich.
  • Optionaler Cloud‑Fallback — der Proxy kann komplexe Anfragen bei Bedarf an Cloud‑Modelle routen (Hybridmodus).

Warum einen Proxy statt direkter Anpassung von openClaw verwenden?

Datenschutz & TCO: Lokale Inferenz hält Daten auf Ihrer Maschine und vermeidet API‑Rechnungen.

Kompatibilität: openClaw ( Moltbot / Clawdbot) erwartet eine bestimmte API‑Oberfläche (Anthropic/„Copilot“‑Stil). Ein Proxy erhält diese Oberfläche, sodass OpenClaw nur minimale Änderungen benötigt.

Sicherheit & Flexibilität: Der Proxy kann Request‑Routing‑Regeln (lokal zuerst, Cloud‑Fallback), Rate‑Limiting, Request‑Trunkierung und andere Schutzmechanismen umsetzen.

Beispiel: Lynkr so konfigurieren, dass lokal zu Ollama geroutet wird

  1. Lynkr installieren:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Eine .env erstellen (Beispiel):
cp .env.example .env

Bearbeiten Sie .env mit:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Lynkr starten:
# if installed globally
lynkr

# if cloned
npm start

Lynkr kündigt standardmäßig einen lokalen Proxy an (zum Beispiel: http://localhost:8081) sowie einen OpenAI/Anthropic‑kompatiblen /v1‑Endpunkt, auf den OpenClaw zeigen kann. Konfigurieren Sie dann den Modell‑Provider von OpenClaw so, dass die Lynkr‑Basis‑URL verwendet wird (siehe nächstes Snippet).

OpenClaw auf den Lynkr‑Endpunkt zeigen lassen

Bearbeiten Sie entweder ~/.openclaw/openclaw.json oder verwenden Sie die CLI, um die Basis‑URL Ihres Providers zu setzen:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Nun ruft openClaw ( Moltbot / Clawdbot) http://localhost:8081/v1 (Lynkr) auf, was lokal in ollama://kimi-k2.5 geroutet wird. Sie erhalten das nahtlose Erlebnis eines externen Providers, ohne Ihre Maschine zu verlassen.

Für Nutzer, die eine grafische Benutzeroberfläche (GUI) zur Modellverwaltung bevorzugen oder spezifisch quantisierte Modelle (GGUF‑Format) von Hugging Face nutzen möchten, ist LM Studio die bevorzugte Wahl.

Ist es sicher, autonome Agenten lokal auszuführen?

Das ist vielleicht die kritischste Frage. Wenn Sie openClaw ( Moltbot / Clawdbot) ausführen, geben Sie einer KI im Wesentlichen Shell‑Zugriff auf Ihren Computer.

Das „Sudo“‑Problem

Wenn Sie ein Cloud‑basiertes Claude bitten, „alle Dateien in meinen Dokumenten zu löschen“, könnte es aufgrund von Sicherheitsfiltern ablehnen. Ein lokales, unzensiertes Llama‑3‑Modell hat solche Hemmungen nicht. Wenn openClaw ( Moltbot / Clawdbot) einen Befehl falsch interpretiert, könnte es theoretisch destruktive Befehle ausführen.

Sicherheitsbest Practices

In Docker betreiben: Führen Sie openClaw ( Moltbot / Clawdbot) nicht direkt „bare metal“ auf Ihrem Host aus, es sei denn, Sie sind der Risiken absolut sicher. Verwenden Sie das offizielle Docker‑Image, das die Umgebung sandboxed.

Das folgende Beispiel ist ein minimales docker-compose.yml, das drei Services zeigt: Ollama (lokale Modell‑Runtime), Lynkr (Proxy) und OpenClaw Gateway (CLI im Container). Hinweis: Passen Sie Volumes und Geräte‑Durchreichung für GPU‑Zugriff an.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Dies ist ein illustrativer Stack; Produktiv‑Deployments sollten Netzisolation, Ressourcenlimits und GPU‑Gerätemapping nach Bedarf hinzufügen.

Häufige Schritte zur Fehlerbehebung und Einschränkungen

Wenn openClaw ( Moltbot / Clawdbot) Ollama nicht erkennt

  • Stellen Sie sicher, dass Ollama läuft und die Basis‑URL erreichbar ist (http://127.0.0.1:11434/v1).
  • Verwenden Sie openclaw models list und openclaw doctor, um Konfigurationsprobleme sichtbar zu machen.

Wenn das Routing über Lynkr fehlschlägt

  • Bestätigen Sie, dass Lynkr lauscht (gewöhnlich http://localhost:8081).
  • Prüfen Sie .env auf korrekte OLLAMA_ENDPOINT‑ und MODEL_PROVIDER‑Werte.
  • Validieren Sie, dass Lynkr die /v1‑Pfade abbildet, die openClaw ( Moltbot / Clawdbot) aufruft — einige Provider‑Implementierungen erwarten leicht abweichende Pfade; passen Sie Basis‑Pfade bei Bedarf an.

Fähigkeitslücken von Modellen

Lokale Modelle variieren: manche sind hervorragend beim Codieren, andere beim Chat. Hybride Strategien (lokal zuerst, Cloud‑Fallback) können helfen: routen Sie Routinetasks lokal und eskalieren Sie komplexes Reasoning auf ein Cloud‑Modell mit Caching, um die Kosten zu senken. Lynkr und ähnliche Proxies implementieren genau diese Logik.

Fazit

Das Design von OpenClaw und das aktive Ökosystem darum herum machen eine lokale, API‑freie Bereitstellung heute praktikabel. Mit Tools wie Ollama für das lokale Hosting, Lynkr für die API‑Übersetzung und robuster Community‑Dokumentation können Sie leistungsfähige Agenten auf Maschinen betreiben, die Sie kontrollieren — von einer Desktop‑GPU bis hin zu einem Handheld‑Gerät — ohne Ihre Daten an einen Drittanbieter‑LLM zu senden.

Wenn Sie jedoch die Vor‑ und Nachteile abwägen, beispielsweise wenn Sie openClaw ( Moltbot / Clawdbot) weiterhin über die API nutzen möchten, ohne die notwendige Ausrüstung zu besitzen, würde ich CometAPI empfehlen. Es stellt Anthropic‑ und OpenAI‑Endpunkte bereit und bietet häufig Rabatte — in der Regel 20 % unter dem offiziellen Preis.

Entwickler können auf und Claude Sonnet/ Opus 4.5 und GPT-5.2 über CometAPI zugreifen; die neuesten Modelle sind mit Stand des Veröffentlichungsdatums des Artikels aufgeführt. Zum Einstieg erkunden Sie die Fähigkeiten des Modells im Playground und konsultieren den API-Leitfaden für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API‑Schlüssel erhalten haben. CometAPI bietet einen Preis deutlich unter dem offiziellen, um Ihnen die Integration zu erleichtern.

Bereit loszulegen?→ Jetzt für Gemini 3 anmelden

Wenn Sie mehr Tipps, Anleitungen und Neuigkeiten zu KI erfahren möchten, folgen Sie uns auf VK, X und Discord!

Mehr lesen

500+ Modelle in einer API

Bis zu 20% Rabatt