Openclaw(Moltbot /Clawdbot) : Einrichtungsleitfaden+ API-Hosting-Tutorial

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Einrichtungsleitfaden+ API-Hosting-Tutorial

Angeführt wird diese Entwicklung von Moltbot (früher bekannt als Clawdbot), einem Projekt, das sich in nur wenigen Wochen von einem Nischen‑Entwicklertool zu einer viralen Sensation mit über 60.000 GitHub‑Stars entwickelt hat. Erschaffen von Peter Steinberger steht Moltbot für das „Häuten“ des KI‑Agenten – er streift die Einschränkungen von Weboberflächen ab, um in den Messaging‑Apps und Dateisystemen zu leben, die wir täglich nutzen.

Aktuelle Aufmerksamkeit: Das Projekt wurde nach einer markenrechtlichen Anfrage von Anthropic von Clawdbot in Moltbot umbenannt, weil „Clawd“ Claude zu ähnlich klang.

Was ist Moltbot (Clawdbot) und warum ist es viral?

Moltbot ist ein Open-Source-, selbstgehosteter KI‑Agent, der die Lücke zwischen leistungsfähigen Large Language Models (LLMs) und deinem lokalen Computer schließt. Anders als ChatGPT oder Claude.ai, die in einem „Walled Garden“-Browser‑Tab existieren, läuft Moltbot als Gateway auf deiner Hardware (Mac, Linux oder VPS).

Er übersetzt natürliche Sprachnachrichten von Plattformen wie Telegram, WhatsApp und Slack in ausführbare Aktionen auf deiner Maschine. Egal ob du im Supermarkt eine Datei auf deinem Desktop finden musst oder von deinem Handy aus ein komplexes Deployment‑Skript triggern willst – Moltbot agiert als dein digitaler Stellvertreter mit vollem Systemzugriff.

Warum es anders ist

  • Lokale Ausführung und Tools: Moltbot kann tatsächlich Befehle auf deinem Host ausführen (mit Zustimmung), externe APIs aufrufen und „Skills“ nutzen – kleine Programme oder markdown‑definierte Workflows.
  • Multi-Channel: Du nutzt denselben Assistenten über Telegram, WhatsApp, Slack, Discord und mehr — er kann dich proaktiv anschreiben.
  • Speicher und Persistenz: Moltbot speichert Memory‑Dateien im Workspace (Markdown) und indexiert sie zur Wiederauffindbarkeit, damit sich der Assistent sitzungsübergreifend „erinnert“ (Details unten).

Kernfähigkeiten auf einen Blick

FeatureBeschreibung
Multi-ChannelNutze Telegram, WhatsApp, Discord, Slack, iMessage und mehr.
Vollzugriff auf PCShell-Befehle ausführen, Dateien verwalten und Browser steuern.
Proaktive KISie wartet nicht nur; sie kann „Heartbeat“-Alerts oder Erinnerungen senden.
Privacy FirstDeine Dateien und Logik bleiben auf deiner Hardware; nur Prompts gehen an die API.
Selbst-EntwicklungSie kann eigene „Skills“ schreiben, um ihre Funktionalität im Laufe der Zeit zu erweitern.
OpenAI-kompatibelMoltbot unterstützt das OpenAI-kompatible API-Protokoll; verbindet sich mit jedem kompatiblen Dienst
Benutzerdefinierte baseUrlUnterstützt das Ändern der API-Endpunktadresse; müheloser Wechsel zwischen Providern

Wie merkt sich Clawdbot „alles“ ohne Datenbank?

Einer der innovativsten Aspekte von Moltbot ist seine transparente Speicherarchitektur. Die meisten KI‑Tools leiden zwischen Sitzungen unter „Amnesie“. Moltbot löst das mit einem geschichteten System aus einfachen Markdown‑Dateien in deinem Workspace. Dieser Ansatz stellt sicher, dass du genau lesen, bearbeiten und auditieren kannst, was deine KI über dich weiß.

Wie ist das Memory-Design aufgebaut und wie funktioniert es?

Moltbots Speicher ist absichtlich simpel und prüfbar: Memory sind einfache Markdown‑Dateien im Agent‑Workspace. Die Dateien sind die Quelle der Wahrheit — das Modell „merkt“ sich nur, was auf die Platte geschrieben wurde. Das Standardlayout verwendet:

  • memory/YYYY-MM-DD.md — tägliche Append‑only‑Logs (der Assistent liest heute + gestern beim Sitzungsstart).
  • MEMORY.md — kuratierter Langzeitspeicher, den du kontrollierst und nur in privaten Sitzungen lädst.

Dieses Design hat zwei große Vorteile:

  1. Auditierbarkeit — du kannst lesen und bearbeiten, was der Assistent als Erinnerung nutzt.
  2. Einfachheit für Tools — Memory‑Plugins bieten Vektor/BM25‑Indexierung, damit der Agent relevante Einträge schnell finden kann.

Technischer Ansatz

  • Konversations-/Sitzungsspeicher: Das Gateway verfolgt Sitzungen und leitet den richtigen Kontext an die Agent‑Runtime weiter. So kann der Agent den Gesprächsstatus über Nachrichten und Kanäle hinweg beibehalten.
  • Indexierte lokale Daten: Moltbot kann lokale Dateien und Dokumente indexieren und über Suchtools (semantisch oder Keyword) für Retrieval verfügbar machen. So „erinnert“ sich der Agent an Meeting‑Notizen, Snippets oder Code.
  • Tool‑Outputs und Memory‑Primitiven: Skills und Tools können in einen dauerhaften Speicher (Datenbank oder Dateisystem) schreiben, und Moltbot kann diese Einträge bei späteren Prompts referenzieren. Viele Deployments nutzen SQLite, Postgres oder lokale JSON/YAML für kleine Setups.
  • LLM‑Embeddings & Vector Store: Für semantisches Erinnern ist das übliche Muster, Dokumente zu embedden und Vektoren in einer Vektor‑DB zu speichern, dann die nächsten Nachbarn zu holen und in Prompts einzubinden. Moltbots Architektur unterstützt modell‑agnostische Tool‑Aufrufe, sodass du deine Embedding‑ und Vector‑Store‑Kombi einstecken kannst.

Sicherheitshinweis: Da Memory persistent ist und Skills Befehle auf dem Host ausführen können, sind die empfohlenen Defaults konservativ: DM‑Kopplung für unbekannte Absender, Sandboxen für Nicht‑Main‑Sitzungen und ein moltbot doctor‑Check, um riskante Konfigurationen sichtbar zu machen. Lies stets die Sicherheitsdokumentation und behandle eingehende Nachrichten als untrusted Input.

Die Memory-Hierarchie

DateiZweck
SOUL.mdDefiniert Persönlichkeit, Tonalität und Kernregeln des Agents.
USER.mdSpeichert Fakten über dich (z. B. „Ich bevorzuge Python gegenüber Ruby“, „Ich arbeite in Fintech“).
MEMORY.mdKuratierte, langfristige Erinnerungen, die der Agent für dauerhaftes Erinnern speichert.
memory/YYYY-MM-DD.mdTageslogs und Rohkontext von bestimmten Daten.

Wenn du Moltbot sagst: „Merke dir, dass ich meine Berichte im PDF‑Format mag“, speichert er das nicht in einer versteckten SQL‑Datenbank. Er öffnet buchstäblich USER.md und hängt einen neuen Aufzählungspunkt an. Dadurch kann der Agent über Wochen hinweg Kontext beibehalten, was ihn wie einen echten persönlichen Assistenten wirken lässt statt wie eine jeden Morgen frische Instanz.


Moltbot-Setup-Guide: Voraussetzungen und Installation

Nachfolgend findest du eine praktische Setup‑Checkliste und Befehle, um eine grundlegende Moltbot‑Instanz unter macOS/Linux (Ubuntu) zum Laufen zu bringen. Dies ist ein komprimierter, produktionsorientierter Leitfaden — wenn du eine GUI oder einen Managed‑Host brauchst, springe zum API‑Hosting‑Abschnitt.

Was du brauchst (Voraussetzungen)

  • Eine Maschine mit macOS oder Linux (Windows kann über WSL2 funktionieren). Node.js v22+ ist für Gateway und CLI erforderlich.
  • Einen Texteditor und grundlegende Shell‑Erfahrung.
  • Mindestens einen LLM‑API‑Key (OpenAI, Anthropic, Venice oder ein lokales Modell wie Ollama) — Moltbot selbst ist modellagnostisch.
  • Optional: Docker, wenn du eine containerisierte Bereitstellung bevorzugst.

Schritt-für-Schritt-Installation

  1. Paket installieren: Führe den folgenden Befehl im Terminal aus: npm install -g clawdbot@latest
  2. Onboarding‑Assistent starten: Der Assistent ist das Herzstück des Setups. Er führt dich durch Sicherheitsbestätigungen und Modellauswahl. clawdbot onboard --install-daemon
  3. Sicherheitsrisiken bestätigen: Moltbot bittet dich zu bestätigen, dass es „Root‑ähnlichen“ Zugriff auf deine Maschine hat. Du musst eine Bestätigung eingeben, um fortzufahren.
  4. Gateway konfigurieren: Der Assistent installiert das clawdbot gateway als Hintergrunddienst (launchd auf Mac oder systemd auf Linux), damit es 24/7 online bleibt.

Schnellinstallation (macOS / Linux)

Dieses Beispiel verwendet die empfohlene Git + npm‑Methode, die die offiziellen Docs widerspiegelt.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (basic)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Starten mit:

docker compose up -d

Nach der Installation: Messaging-Kanal koppeln

Moltbot unterstützt mehrere Kanäle. Die Kopplung umfasst in der Regel das Generieren eines Pairing‑Tokens aus der Gateway‑UI oder CLI und die Verwendung einer kleinen „Pairing‑URL“, um einen Telegram‑Bot oder ein WhatsApp‑Konto zu verbinden — die konkreten Schritte hängen vom gewählten Channel‑Connector ab (Telegram Bot API vs. grammY‑Wrapper, WhatsApp via Baileys, etc.). Siehe die Doku zu moltbot connect telegram oder moltbot connect whatsapp.

Wie steuere ich meinen PC über Telegram mit Moltbot (Schritt für Schritt)?

Nachfolgend ein sicherer, praxisnaher Leitfaden zur Steuerung eines Hosts per Telegram‑Nachrichten — nützlich für Remote‑Administration, das Ausführen von Skripten, das Abrufen von Logs oder kleine Jobs mit Moltbot. Wichtiger Sicherheitshinweis: Setze dein Gateway nicht ohne API‑Token und Firewall dem offenen Internet aus; erlaube nur vertrauenswürdigen Telegram‑Nutzern, mit deinem Bot zu sprechen.

1) Erstelle einen Telegram-Bot mit BotFather

  1. Sende in Telegram eine Nachricht an @BotFather.
  2. Sende /newbot und folge den Anweisungen.
  3. Kopiere den Bot‑Token 123456789:ABC-... (BotFather zeigt ihn an).

2) Füge den Token deinem Gateway hinzu

Setze die Umgebungsvariable oder Konfiguration:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

Du kannst den Token je nach CLI‑Version auch über die Befehle moltbot channels add oder moltbot configure hinzufügen. Die Telegram‑Dokumentation zeigt diesen schnellen Einrichtungsweg.

3) Starte den Onboarding-Assistenten und wähle Telegram

Führe aus:

moltbot onboard --install-daemon

Während des Assistenten:

  • Wähle deinen Modell‑Provider (Anthropic Opus, OpenAI oder lokal).
  • Wähle bei der Abfrage der Kanäle Telegram und füge den Token ein.
  • Konfiguriere Pairing/Allowlist, um zu beschränken, wer den Bot anschreiben darf (wichtig — setze deine User‑ID, damit nur du ihn steuern kannst).

Community‑Walkthroughs und der Onboarding‑Prozess bitten dich, eine kleine Befehlsausgabe deines Hosts einzufügen, um die Node‑Kopplung zu bestätigen — folge der Eingabeaufforderung.

4) Aktiviere das exec-Tool und Genehmigungen (sicher)

Moltbot kann Systembefehle über sein exec‑Tool ausführen, nutzt dafür aber ein explizites Genehmigungsmodell:

  • Exec‑Genehmigungen werden in ~/.clawdbot/exec-approvals.json aufgezeichnet.
  • Das System fragt im Chat nach einer Genehmigung, wenn eine Aktion erstmals angefordert wird; du kannst mit /approve antworten (oder ablehnen).
  • Für vollautomatisierte Workflows kannst du eine begrenzte Allowlist von Befehlen oder ein „bin“ mit vorab genehmigten Skripten erstellen.

Beispiel: Aktiviere das exec‑Tool in der moltbot‑Konfiguration (oder über UI/Plugin):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

Das Projekt hat explizite Exec‑Approval‑Flows und leitet Genehmigungsanfragen bei Bedarf an Chat‑Kanäle weiter, was die Überprüfung und Freigabe von Operationen erleichtert.

5) Probiere einen sicheren Befehl über Telegram aus

Sende von deinem Telegram‑Konto (dem erlaubten Nutzer):

@YourMoltbot Hi — please run: uptime

Der Assistent wird:

  1. Um Bestätigung bitten (falls exec eine Genehmigung erfordert).
  2. Den erlaubten Befehl auf dem Host ausführen.
  3. Die Ausgabe in den Chat zurücksenden.

6) Erstelle sicherere Aktionen über Skills

Anstatt direkten Shell‑Zugriff per Chat zu gewähren, bevorzuge Skills, die Aktionen kapseln (z. B. ein backup‑Skill, der ein Skript aufruft und ein schön formatiertes Ergebnis zurückgibt). Skills können installiert/deinstalliert werden und sind leichter zu prüfen.

Wie hoste ich die Moltbot-API (Gateway) und nutze die HTTP-API?

Kann Moltbot eine API bereitstellen, die andere Programme aufrufen können?

Ja. Moltbots Gateway kann OpenResponses‑kompatible HTTP‑Endpoints bereitstellen (wie POST /v1/responses) und einen OpenAI‑ähnlichen /v1/chat/completions‑Shim. Diese Endpoints sind standardmäßig deaktiviert und müssen in der Gateway‑Konfiguration aktiviert werden. Der OpenResponses‑HTTP‑Endpoint mappt direkt auf den Ausführungspfad des Gateways, sodass Requests als echte Agent‑Sitzungen ausgeführt werden (mit derselben Routing/Permissions‑Logik).

Was ist ein API-Proxy in Moltbot?

Ein API‑Proxy in Moltbot ist ein zwischengeschalteter Dienst zwischen der Agent‑Runtime von Moltbot und Upstream‑LLM‑Providern wie:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Selbstgehostete OpenAI‑kompatible Endpunkte

Anstatt dass Moltbot den Provider direkt aufruft, werden alle Anfragen durch den Proxy geleitet, der Folgendes kann:

  • Requests und Responses umschreiben
  • Ratenlimits durchsetzen
  • Token‑Nutzung und Kosten tracken
  • Modelle dynamisch umschalten
  • Echte API‑Keys vor Moltbot verbergen
  • Authentifizierung, Logging und Caching hinzufügen

Konzeptionell:

Moltbot → API Proxy → LLM Provider

Diese Architektur verbessert Sicherheit, Observability und Kostenkontrolle erheblich.

🚀 Quick Start: Wir empfehlen die Nutzung von CometAPI (apiyi.com), um deinen API‑Key zu erhalten. Die Registrierung gewährt dir kostenlose Credits. Es unterstützt alle wichtigen Algorithmen wie Claude Sonnet 4.5, Claude Opus 4.5 und GPT-5.2 und ist typischerweise 10–20 % günstiger als die offiziellen Preise.

Schritt 1: Hole dir deinen API-Proxy-Key

Methode 1: Umgebungsvariablen setzen. In deiner Moltbot‑.env‑Datei:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Wichtige Punkte:

  • OPENAI_API_BASE zeigt auf deinen Proxy, nicht auf OpenAI
  • OPENAI_API_KEY ist ein vom Proxy ausgegebener Token
  • Der Proxy entscheidet, welcher Provider/das Modell tatsächlich verwendet wird

Starte Moltbot nach dem Aktualisieren dieser Werte neu.

Methode 2: Konfiguration über config.json:

  • Finde die Moltbot‑Konfigurationsdatei
  • Öffne deine Konfigurationsdatei und ergänze oder aktualisiere models.providers

Die Konfigurationsdatei liegt üblicherweise an einem dieser Orte:

BetriebssystemPfad der Konfigurationsdatei
macOS~/.clawdbot/config.json oder ~/.moltbot/config.json
Linux~/.clawdbot/config.json oder ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

Du kannst sie auch per Command Line finden:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Schritt 2: Konnektivität prüfen

Führe einen einfachen Test‑Prompt aus:

moltbot test llm

Wenn alles korrekt konfiguriert ist, erhält Moltbot Antworten ganz normal — ohne den Upstream‑Provider direkt zu kontaktieren.

Kostenschätzungen für den Betrieb von Moltbot mit gehosteten Modellen

Die Kosten für ein verwaltetes Modell hängen vom API‑Preis ab; die Wahl eines günstigen API‑Anbieters ist daher sehr wichtig, weshalb ich CometAPI empfehle.

Preisfaktoren hängen typischerweise ab von:

  • Anbieterpreis. Die Kosten für ein Managed‑Modell hängen vom API‑Preis ab; die Wahl eines günstigeren API‑Anbieters ist entscheidend, weshalb ich CometAPI empfehle.
  • Der Wahl zwischen Flaggschiff‑ und Leichtgewichtsmodell; z. B. ist der Preisunterschied zwischen Claude Opus 4.5 und GLM 4.7 erheblich.
  • Der Komplexität der zu verarbeitenden Inhalte. Wenn deine Workflows textlastig sind (Dateiparsing, lange Antworten), kalkuliere Tokens ein.

Hausnummern (illustrativ, Preise aus Community‑Posts, Jan 2026):

  • Gelegentliche private Nutzung (einige hundert Antworten/Monat, gemischte lokale Modelle und günstige API‑Calls): 0–50 $/Monat.
  • Intensive private/professionelle Nutzung (Dateiindexierung, viele Tool‑Aufrufe): 100–1.000 $/Monat.
  • Team oder Always‑On‑Produktion (viele Nutzer + Web Scraping + Chaining): 1.000+ $/Monat, sofern du die Modellauswahl nicht aggressiv optimierst.

Möglichkeiten, Kosten zu senken

  • Modellrouting: Sende leichte Aufgaben an günstigere Modelle oder lokale LLMs und reserviere teure Modelle für langwieriges Reasoning — Community‑Tests deuten darauf hin, dass dies die Kosten um ~50 % oder mehr senken kann.
  • Relays & Mengenpreise: Nutze API‑Relays mit besseren Tokenraten oder private Modell‑Hosts (Venice, private Endpunkte).
  • Aggressives Caching & Trunkierung: Cache LLM‑Outputs, kürze lange Historien und fasse zusammen, statt den kompletten Kontext erneut zu senden.

Erweiterte API-Proxy-Funktionen für Moltbot

Modellrouting nach Aufgabentyp

Du kannst die Request‑Payload inspizieren und dynamisch routen:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Dieses Muster senkt die Kosten, ohne Qualität einzubüßen.


Token- und Kostenlimits

Du kannst harte Limits durchsetzen:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Einige Teams tracken zudem die kumulierte Nutzung pro Moltbot‑User‑ID.


Ist es sicher, einer KI Shell-Zugriff auf meinen Computer zu geben?

Das ist die kritischste Frage für jeden Moltbot‑Nutzer. Einer LLM die Möglichkeit zu geben, rm -rf auszuführen, ist inhärent riskant. Moltbot beinhaltet mehrere Leitplanken, um das Risiko zu mindern:

  1. Sandboxing: Du kannst Moltbot in einem Docker‑Container betreiben. Dadurch ist die „Welt“ des Agents auf einen bestimmten Ordner begrenzt, sodass er deine Systemdateien nicht anrührt.
  2. Explizite Genehmigung: Standardmäßig haben „Main Sessions“ (direkte Chats mit dir) höheres Vertrauen, aber du kannst den Bot so konfigurieren, dass er vor destruktiven Shell‑Befehlen stets um Erlaubnis fragt.
  3. Passwortschutz: Wenn du die Moltbot‑Web‑UI exponierst, aktiviere immer die Passwortauthentifizierung in deiner config.json:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Schlussgedanken:

Moltbot ist mehr als nur ein Chatbot; es ist die Infrastruktur für einen persönlichen digitalen Mitarbeiter. Indem du es selbst hostest, gewinnst du die Kontrolle über deine Daten zurück und erhältst zugleich die Produktivität einer KI, die niemals schläft. Ob du damit deinen Kalender via Telegram verwaltest oder deine DevOps‑Pipeline von der Couch aus automatisierst — Moltbot ist ein Blick in eine Zukunft, in der jeder seinen eigenen „Jarvis“ auf einem Mac Mini in der Zimmerecke laufen hat.

Wenn du eine API‑Plattform mit Modellen verschiedener Anbieter (wie Chatgpt-5.2, Claude opus 4.5 usw.) zu einem niedrigeren Preis als offiziell suchst, ist CometAPI die beste Wahl. Um zu beginnen, erkunde die Fähigkeiten des Modells im Playground und konsultiere den API‑Leitfaden für detaillierte Anweisungen. Stelle vor dem Zugriff sicher, dass du dich bei CometAPI angemeldet und den API‑Key erhalten hast. CometAPI bietet Preise, die deutlich unter dem offiziellen Niveau liegen, um dir die Integration zu erleichtern.

Bereit? → Melde dich noch heute bei CometAPI an!

Wenn du mehr Tipps, Guides und Neuigkeiten zu KI willst, folge uns auf VK, X und Discord!

Bereit, die KI-Entwicklungskosten um 20 % zu senken?

In wenigen Minuten kostenlos starten. Inklusive kostenlosem Testguthaben. Keine Kreditkarte erforderlich.

Mehr lesen