Openclaw(Moltbot /Clawdbot) : Opsætningsvejledning+ API-hostingvejledning

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Opsætningsvejledning+ API-hostingvejledning

I spidsen for denne udvikling står Moltbot (tidligere kendt som Clawdbot), et projekt der gik fra et nicheværktøj for udviklere til en viral sensation med over 60.000 GitHub-stjerner på få uger. Skabt af Peter Steinberger, repræsenterer Moltbot det "hudskifte" hos AI-agenten—den lægger begrænsningerne ved webgrænseflader fra sig for at tage bolig i de beskedapps og filsystemer, vi bruger hver dag.

Seneste opmærksomhed: projektet skiftede navn fra Clawdbot til Moltbot efter en varemærkerelateret anmodning fra Anthropic, fordi "Clawd" lød for meget som "Claude."

Hvad er Moltbot (Clawdbot), og hvorfor er det viralt?

Moltbot er en open-source, selvhostet AI-agent designet til at bygge bro mellem kraftfulde Large Language Models (LLM'er) og din lokale computer. I modsætning til ChatGPT eller Claude.ai, som lever i en "muret have" i browseren, kører Moltbot som en Gateway på din hardware (Mac, Linux eller VPS).

Den oversætter naturlige sprogmeddelelser fra platforme som Telegram, WhatsApp og Slack til eksekverbare handlinger på din maskine. Uanset om du skal finde en fil på dit skrivebord, mens du er i supermarkedet, eller trigge et komplekst deploy-script fra din telefon, fungerer Moltbot som din digitale stedfortræder med fuld systemadgang.

Hvorfor det er anderledes

  • Lokal-først eksekvering og værktøjer: Moltbot kan faktisk køre kommandoer på din vært (med samtykke), kalde eksterne API'er og bruge "Skills", som er små programmer eller markdown-definerede workflows.
  • Multikanal: du bruger den samme assistent fra Telegram, WhatsApp, Slack, Discord og flere — den kan proaktivt sende dig beskeder.
  • Hukommelse og persistens: Moltbot gemmer hukommelsesfiler i workspace (Markdown) og indekserer dem til hentning, så assistenten "husker" på tværs af sessioner (detaljer nedenfor).

Kernefunktioner i et overblik

FunktionBeskrivelse
MultikanalBrug Telegram, WhatsApp, Discord, Slack, iMessage og flere.
Fuld PC-adgangUdfør shell-kommandoer, administrer filer og styr browsere.
Proaktiv AIDen venter ikke bare; den kan sende "heartbeat"-alarmer eller påmindelser.
Privatliv førstDine filer og din logik forbliver på din hardware; kun prompts sendes til API'en.
SelvudviklingDen kan skrive sine egne "Skills" for at udvide funktionaliteten over tid.
OpenAI-kompatibelMoltbot understøtter OpenAI-kompatibel API-protokol; forbinder til enhver kompatibel tjeneste
Brugerdefineret baseUrlUnderstøtter ændring af API-endpoint-adresse; skift nemt mellem udbydere

Hvordan husker Clawdbot "alt" uden en database?

En af de mest innovative aspekter ved Moltbot er dens transparente hukommelsesarkitektur. De fleste AI-værktøjer lider af "amnesi" mellem sessioner. Moltbot løser dette med et lagdelt system af almindelige Markdown-filer placeret i dit workspace. Denne tilgang sikrer, at du kan læse, redigere og revidere præcis, hvad din AI ved om dig.

Hvad er hukommelsesdesignet, og hvordan fungerer det?

Moltbots hukommelse er bevidst enkel og reviderbar: hukommelsen er almindelige Markdown-filer inde i agentens workspace. Filerne er kilden til sandhed — modellen "husker" kun det, der blev skrevet til disken. Standardlayoutet bruger:

  • memory/YYYY-MM-DD.md — daglige append-only logs (assistenten læser i dag + i går ved sessionstart).
  • MEMORY.md — kurateret langtids-hukommelse, som du kan styre og kun indlæse i private sessioner.

Dette design har to store fordele:

  1. Reviderbarhed — du kan læse og redigere, hvad assistenten vil bruge som hukommelse.
  2. Enkelhed for værktøjer — memory-plugins leverer vektor/BM25-indeksering, så agenten hurtigt kan søge relevante hukommelsesindlæg.

Teknisk tilgang

  • Samtale-/sessionslager: Gatewayen sporer sessioner og videresender den rette kontekst til agent-runtime. Dette lader agenten bevare samtaletilstand på tværs af beskeder og kanaler.
  • Indekserede lokale data: Moltbot kan indeksere lokale filer og dokumenter og eksponere dem via søgeværktøjer (semantisk eller nøgleord) til hentning. Det er sådan agenten kan "huske" dine mødereferater, snippets eller kode.
  • Tool-outputs og memory-primitiver: Skills og værktøjer kan skrive til et vedvarende lager (database eller filsystem), og Moltbot kan referere til disse elementer ved senere prompts. Mange udrulninger bruger SQLite, Postgres eller lokale JSON/YAML til små setups.
  • LLM-embeddings og vektorstore: Til semantisk genkaldelse er det sædvanlige mønster at embedde dokumenter og gemme vektorer i en vektor-DB, og derefter hente nærmeste naboer til inklusion i prompts. Moltbots arkitektur rummer model-agnostiske tool-kald, så du kan tilslutte din kombination af embedding + vektorstore.

Sikkerhedsforbehold: fordi hukommelsen er vedvarende og "skills" kan køre kommandoer på værten, er de anbefalede standarder konservative: DM-parring for ukendte afsendere, sandboxing for ikke-hovedsessioner og et moltbot doctor-tjek for at fremhæve risikable konfigurationer. Gennemgå altid sikkerhedsdokumentationen og behandl indgående beskeder som upålideligt input.

Hukommelseshierarkiet

FilFormål
SOUL.mdDefinerer agentens personlighed, tone og grundlæggende driftsregler.
USER.mdGemmer fakta om dig (fx "Jeg foretrækker Python frem for Ruby", "Jeg arbejder i fintech").
MEMORY.mdLangtids-, kurateret hukommelse, som agenten gemmer til permanent genkaldelse.
memory/YYYY-MM-DD.mdDaglige logs og rå kontekst fra specifikke datoer.

Når du siger til Moltbot: "Husk, at jeg vil have mine rapporter i PDF-format," lagrer den ikke dette i en skjult SQL-database. Den åbner bogstaveligt talt USER.md og tilføjer et nyt punkttegn. Dette lader agenten bevare kontekst i ugevis af samtaler, så den føles som en ægte personlig assistent snarere end en frisk instans hver morgen.


Moltbot opsætningsguide: forudsætninger og installation

Nedenfor er en praktisk opsætnings-tjekliste og kommandoer til at få en grundlæggende Moltbot-instans kørende på macOS/Linux (Ubuntu). Dette er en kondenseret, produktionsorienteret guide — hvis du vil have en GUI eller managed host, spring til API-hosting-afsnittet.

Hvad du skal bruge (forudsætninger)

  • En maskine, der kører macOS eller Linux (Windows kan fungere via WSL2). Node.js v22+ er påkrævet til gateway og CLI.
  • En teksteditor og grundlæggende kendskab til shell.
  • Mindst én LLM API-nøgle (OpenAI, Anthropic, Venice eller en lokal model som Ollama) — Moltbot er i sig selv model-agnostisk.
  • Valgfrit: Docker, hvis du foretrækker containeriseret udrulning.

Trin-for-trin installation

  1. Installér pakken: Kør følgende kommando i din terminal: npm install -g clawdbot@latest
  2. Start onboarding-guiden: Guiden er kernen i opsætningen. Den vil guide dig gennem sikkerhedsbekræftelser og modelvalg. clawdbot onboard --install-daemon
  3. Bekræft sikkerhedsrisici: Moltbot vil bede dig bekræfte, at den har "root-lignende" adgang til din maskine. Du skal skrive en bekræftelse for at fortsætte.
  4. Konfigurér Gatewayen: Guiden installerer clawdbot gateway som en baggrundstjeneste (launchd på Mac eller systemd på Linux), så den er online 24/7.

Hurtiginstallation (macOS / Linux)

Dette eksempel bruger den anbefalede git + npm-metode, som afspejler den officielle dokumentation.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (grundlæggende)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Kør med:

docker compose up -d

Efter installation: par en beskedkanal

Moltbot understøtter flere kanaler. Paring involverer normalt at generere en parings-token fra gateway-UI eller CLI og bruge en lille "paring-URL" til at forbinde en Telegram-bot eller WhatsApp-konto — de specifikke trin afhænger af den kanalconnector, du vælger (Telegram Bot API vs. grammY-wrapper, WhatsApp via Baileys osv.). Se dokumentationen for moltbot connect telegram eller moltbot connect whatsapp.

Hvordan styrer jeg min PC fra Telegram via Moltbot (trin for trin)?

Nedenfor er en sikker, praktisk gennemgang af styring af en vært via Telegram-beskeder — nyttigt til fjernadministration, kørsel af scripts, hentning af logs eller at bede Moltbot om at køre et lille job. Vigtig sikkerhedsnote: eksponér ikke din Gateway til det åbne internet uden en API-token og firewall; tillad kun betroede Telegram-brugere at tale med din bot.

1) Opret en Telegram-bot med BotFather

  1. I Telegram, skriv til @BotFather.
  2. Send /newbot og følg prompts.
  3. Kopiér bot-tokenet 123456789:ABC-... (BotFather viser det).

2) Tilføj tokenet til din gateway

Sæt miljøvariablen eller konfigurationen:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

Du kan også tilføje tokenet via moltbot channels add eller moltbot configure afhængigt af din CLI-version. Telegram-dokumentationen viser denne hurtige opsætningsvej.

3) Kør onboarding-guiden og vælg Telegram

Kør:

moltbot onboard --install-daemon

Under guiden:

  • Vælg din modeludbyder (Anthropic Opus, OpenAI eller lokal).
  • Når du bliver spurgt om kanaler, vælg Telegram og indsæt tokenet.
  • Konfigurér paring/allowlist for at begrænse, hvem der kan skrive til botten (vigtigt — sæt dit bruger-ID, så kun du kan styre den).

Community-gennemgange og onboarding-processen vil bede dig indsætte en lille kommandooutput fra din vært for at bevise node-paring — følg prompten.

4) Aktivér exec-værktøjet og godkendelser (sikkert)

Moltbot kan køre systemkommandoer via sit exec-værktøj, men gør det under en eksplicit godkendelsesmodel:

  • Exec-godkendelser registreres i ~/.clawdbot/exec-approvals.json.
  • Systemet vil bede om godkendelse i chatten første gang en handling anmodes; du kan svare /approve for at fortsætte (eller afvise).
  • For fuldt automatiserede workflows kan du oprette en begrænset allowlist af kommandoer eller en "bin" af forhåndsgodkendte scripts.

Eksempel: aktivér exec-værktøjet i moltbot-konfiguration (eller via UI/plugin):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

Projektet har eksplicitte exec-godkendelsesflows og videresender godkendelsesprompts til chatkanaler, når der anmodes, hvilket gør det lettere at gennemgå og godkende operationer.

5) Prøv en sikker kommando fra Telegram

Fra din Telegram-konto (den tilladte bruger) send:

@YourMoltbot Hi — please run: uptime

Assistenten vil:

  1. Spørge om bekræftelse (hvis exec kræver godkendelse).
  2. Køre den tilladte kommando på værten.
  3. Returnere output til chatten.

6) Opret sikrere handlinger via skills

I stedet for at give direkte shell-adgang via chat, foretræk skills, der indkapsler handlinger (fx en backup-skill, der kalder et script og returnerer et pænt formateret resultat). Skills kan installeres/afinstalleres og er nemmere at gennemgå.

Hvordan hoster jeg Moltbot API (Gateway) og bruger HTTP API'et?

Kan Moltbot levere et API, som andre programmer kan kalde?

Ja. Moltbots Gateway kan eksponere OpenResponses-kompatible HTTP-endpoints (som POST /v1/responses) og en OpenAI-stil /v1/chat/completions-shim. Disse endpoints er deaktiveret som standard og skal aktiveres i gateway-konfigurationen. OpenResponses HTTP-endpointet mapper direkte til gatewayens agent-kørselssti, så forespørgsler udføres som rigtige agentsessioner (med samme routing/permissions).

Hvad er en API-proxy i Moltbot?

En API-proxy i Moltbot er en mellemliggende tjeneste, der sidder mellem Moltbots agent-runtime og upstream LLM-udbydere såsom:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Selvhostede OpenAI-kompatible endpoints

I stedet for at Moltbot kalder udbyderen direkte, routes alle anmodninger gennem proxyen, som kan:

  • Omskrive requests og responses
  • Håndhæve rate limits
  • Spore tokenforbrug og omkostninger
  • Skifte modeller dynamisk
  • Maskere rigtige API-nøgler fra Moltbot
  • Tilføje autenticering, logging og caching

Konceptuelt:

Moltbot → API Proxy → LLM Provider

Denne arkitektur forbedrer dramatisk sikkerhed, observabilitet og omkostningskontrol.

🚀 Hurtig start: Vi anbefaler at bruge CometAPI (apiyi.com) til at få din API-nøgle. Registrering giver dig gratis kreditter. Den understøtter alle større algoritmer, såsom Claude Sonnet 4.5, Claude Opus 4.5 og GPT-5.2, og er typisk 10–20 % billigere end de officielle priser.

Trin 1: Få din API-proxy-nøgle

Metode 1: Sæt miljøvariabler. I din Moltbot .env-fil:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Vigtige pointer:

  • OPENAI_API_BASE peger på din proxy, ikke på OpenAI
  • OPENAI_API_KEY er en proxy-udstedt token
  • Proxyen afgør, hvilken udbyder/model der faktisk bruges

Genstart Moltbot efter opdatering af disse værdier.

Metode 2: Konfigurér via config.json:

  • Find konfigurationsfilen for Moltbot
  • Åbn din konfigurationsfil og tilføj eller opdater models.providers

Konfigurationsfilen ligger normalt et af disse steder:

OperativsystemKonfigurationsfil-sti
macOS~/.clawdbot/config.json eller ~/.moltbot/config.json
Linux~/.clawdbot/config.json eller ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

Du kan også finde den via kommandolinjen:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Trin 2: Verificér forbindelsen

Kør en simpel test-prompt:

moltbot test llm

Hvis det er konfigureret korrekt, vil Moltbot modtage svar som normalt—uden nogensinde at kontakte upstream-udbyderen direkte.

Omkostningsestimater for at køre Moltbot med hosted modeller

Omkostningen ved at bruge en managed model afhænger af API-prisen, så det er ret vigtigt at vælge en billig API-udbyder, hvilket er grunden til at jeg anbefaler CometAPI.

Prisfaktorer afhænger typisk af:

  • Udbyderpriser. Omkostningen ved at bruge en managed model afhænger af API-prisen, så det er afgørende at vælge en billigere API-udbyder, hvilket er grunden til at jeg anbefaler CometAPI.
  • Valget mellem en flagskibs- eller letvægtsmodel; for eksempel er prisforskellen mellem Claude Opus 4.5 og GLM 4.7 betydelig.
  • Kompleksiteten af indholdet, der behandles. Hvis dine workflows er teksttunge (filparsing, lange svar), tilføj tokens.

Skønsmæssige eksempler (illustrative, priser fra jan. 2026 rapporteret i community-opslag):

  • Lejlighedsvis personlig brug (nogle hundrede svar / måned, blandede lokale modeller og billige API-kald): $0–$50/måned.
  • Tung personlig/pro-udviklerbrug (filindeksering, mange tool-kald): $100–$1.000/måned.
  • Team eller altid-on produktion (mange brugere + webscraping + chaining): $1.000+/måned medmindre du optimerer modelbrug aggressivt.

Måder at reducere omkostninger

  • Model-routing: send lette opgaver til billigere modeller eller lokale LLM'er, reserver dyre modeller til langvarig ræsonnering — community-tests tyder på, at dette kan reducere omkostninger med ~50 % eller mere.
  • Relays og mængderabatter: brug API-relays, der tilbyder bedre per-token-priser eller privat modelhosting (Venice, private endpoints).
  • Aggressiv caching og trunkering: cache LLM-outputs, truncér lange historikker, og opsummer i stedet for at gensende fuld kontekst.

Avancerede API-proxy-funktioner til Moltbot

Model-routing efter opgavetype

Du kan inspicere request-payload og route dynamisk:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Dette mønster reducerer omkostninger uden at gå på kompromis med kvaliteten.


Token- og omkostningsgrænser

Du kan håndhæve hårde grænser:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Nogle teams sporer også kumulativt forbrug per Moltbot-bruger-ID.


Er det sikkert at give en AI shell-adgang til min computer?

Dette er det mest kritiske spørgsmål for enhver Moltbot-bruger. At give en LLM mulighed for at køre rm -rf er iboende risikabelt. Moltbot inkluderer flere værn for at afbøde dette:

  1. Sandboxing: Du kan køre Moltbot inde i en Docker-container. Dette begrænser agentens "verden" til en specifik mappe, så den ikke rører dine systemfiler.
  2. Eksplicit godkendelse: Som standard har "Main Sessions" (direkte chats med dig) højere tillid, men du kan konfigurere botten til at bede om tilladelse, før den kører destruktive shell-kommandoer.
  3. Adgangskodebeskyttelse: Hvis du eksponerer Moltbots web-UI, så aktivér altid adgangskodeautentificering i din config.json:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Afsluttende tanker:

Moltbot er mere end bare en chatbot; det er infrastrukturen for en personlig digital medarbejder. Ved at hoste den selv genvinder du kontrol over dine data, samtidig med at du får produktiviteten fra en AI, der aldrig sover. Uanset om du bruger den til at administrere din kalender via Telegram eller til at automatisere din devops-pipeline fra sofaen, er Moltbot et glimt af en fremtid, hvor alle har deres egen "Jarvis", der kører på en Mac Mini i hjørnet af rummet.

Hvis du vil have en API-platform med flere udbydermodeller (såsom Chatgpt-5.2, Claude opus 4.5 osv.), som er prissat lavere end de officielle, så er CometAPI det bedste valg. For at komme i gang, udforsk modellens kapabiliteter i Playground og konsulter API-guiden for detaljerede instruktioner. Før adgang, sørg venligst for, at du er logget ind på CometAPI og har fået din API-nøgle. CometAPI tilbyder en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere.

Klar til at komme i gang?→ Sign up for CometAPI today !

Hvis du vil kende flere tips, vejledninger og nyheder om AI, så følg os på VK, X og Discord!

Læs mere

500+ modeller i én API

Op til 20% rabat