Hvordan kører man openClaw (Moltbot/ Clawdbot ) på lokale LLM'er uden API

CometAPI
AnnaFeb 1, 2026
Hvordan kører man openClaw (Moltbot/ Clawdbot ) på lokale LLM'er uden API

OpenClaw (tidligere Clawdbot, kortvarigt Moltbot) er eksploderet hurtigere end næsten ethvert agentprojekt, jeg har set.

På under tre uger passerede det 100.000 GitHub-stjerner. Folk kalder det en “24/7 AI-praktikant”, og ærligt talt ligger den beskrivelse ikke langt fra sandheden. Det kan læse beskeder, køre shell-kommandoer, administrere filer og stille køre i baggrunden, mens du går din dag i møde.

Men efter den første begejstring dukkede der overalt et meget praktisk spørgsmål op:

“Det er fedt … men hvordan kører jeg det uden at brænde penge af på API'er?”

Det spørgsmål er præcis, hvorfor jeg skrev denne guide.

Hvad er hypen omkring OpenClaw (tidligere Clawdbot)?

For at forstå det tekniske skift mod lokal kørsel, må man først værdsætte, hvad OpenClaw egentlig er. I sin kerne er openClaw ( Moltbot / Clawdbot) en "samtale-først" autonom agent. I modsætning til traditionelle chatbots, der lever i en browsertab og venter på prompts, kører OpenClaw som en baggrundsdaemon på din maskine. Den integrerer direkte med beskedplatforme som WhatsApp, Telegram, Discord og Signal og gør effektivt din chat-app til en kommandolinje for dit liv.

Udviklingen fra Clawdbot til OpenClaw

Projektets historie er lige så volatil, som den er fascinerende.

Clawdbot (Late 2025): Skabt af Peter Steinberger, blev det lanceret som en wrapper til Anthropics Claude, designet til at udføre opgaver fremfor blot at generere tekst. Det blev kaldt “Claude med hænder.”

Moltbot (Jan 2026): Efter en varemærketvist med Anthropic vedrørende navnet "Clawd" blev projektet rebrandet til "Moltbot" og tog en hummermaskot ved navn "Molty" til sig (med reference til at smide skal).

OpenClaw (Jan 30, 2026): For at understrege dets open source-natur og distancere sig yderligere fra specifikke virksomhedsidentiteter, samtidig med at "Claw"-arven bevares, landede fællesskabet på OpenClaw.

Det, der adskiller OpenClaw, er dets tilladelsessystem. Det kan læse dine e-mails, tjekke din kalender, udføre shell-kommandoer og endda administrere sin egen hukommelse i Markdown-filer, der lagres lokalt. Men standardkonfigurationen er afhængig af at sende al denne kontekst til cloud-API'er (primært Anthropic eller OpenAI), hvilket rejser to kritiske spørgsmål: omkostninger og privatliv.

Hvorfor bør du skifte til lokale LLM'er?

Den "out-of-the-box" standardoplevelse af openClaw ( Moltbot / Clawdbot) drives af Claude 3.5 Sonnet eller Opus. Selvom disse modeller er meget intelligente, prissættes de per token. En autonom agent, der kører 24/7—tjekker e-mails, overvåger serverlogge og opsummerer chats—kan generere millioner af tokens om dagen.

Omkostningen ved autonomi

Autonome agenter opfører sig ikke som chatsessioner. De kører i løkker. De genlæser kontekst. De opsummerer logge. De tjekker indbakker igen og igen.

Jeg har set brugere rapportere ting som:

“Jeg lod Clawdbot køre natten over for at reorganisere mit Obsidian-vault og vågnede op til en regning på 40 $.”

Det er ikke misbrug — det er blot sådan autonomi fungerer.

Med en lokal model falder den marginale omkostning til nul (bortset fra strøm). Du holder op med at tænke “skal jeg lade dette køre?” og begynder at tænke “hvad kan jeg ellers automatisere?”

Privatliv er ikke en sidegevinst — det er den vigtigste

openClaw ( Moltbot / Clawdbot) kan læse:

  • E-mails
  • Chathistorikker
  • Kildekode
  • Personlige dokumenter

OpenClaw er designet til at have dyb adgang til dit system. Det læser dine personlige beskeder og filsystemer. Når du bruger et API, uploades hver fil, som botten læser, til en tredjepartsserver til behandling. Ved at bruge en lokal LLM forlader ingen data dit lokale netværk. Dine finansielle dokumenter, private chats og kodebaser forbliver adskilt (“air-gapped”) fra Big Tech.

Kør OpenClaw med Ollama (min standardanbefaling)

Hvis du er fortrolig med terminalen, er Ollama den nemmeste måde at køre lokale LLM'er på i dag.

openClaw ( Moltbot / Clawdbot) taler OpenAI-kompatible API'er. Ollama eksponerer ét som standard. Det er hele tricket.

Minimumstjekliste for system og software

  • En maskine med et nyere OS (Linux/macOS/Windows + WSL2). Lokal GPU-acceleration anbefales til større modeller; kun CPU fungerer til små modeller eller lette opgaver.
  • Node.js ≥ 22 (OpenClaws CLI og Gateway forventer Node).
  • Ollama (eller en anden lokal LLM-runtime) installeret lokalt, hvis du planlægger at køre lokale modeller. Ollama eksponerer som standard et OpenAI-kompatibelt lokalt API (typisk på http://localhost:11434).
  • Hvis du bruger en proxy som Lynkr, skal du installere den (npm eller klon repoen). Lynkr kan præsentere et Anthropic/OpenAI-lignende endpoint for OpenClaw, mens den ruter til lokale modeller.

Trin 1: Installer OpenClaw (hurtige kommandoer)

OpenClaw anbefaler installation via npm/pnpm. Kør:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Onboarding-guiden installerer en userservice-daemon (systemd/launchd), så Gateway bliver ved med at køre i baggrunden. Efter onboarding kan du køre Gateway manuelt for debugging:

openclaw gateway --port 18789 --verbose

Trin 2: Installer Ollama og hent en model

Ollama er ligetil at installere og køre. På macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama eksponerer et API, der er kompatibelt med mange OpenAI-lignende klienter; OpenClaws provider-integration understøtter Ollama og vil automatisk detektere en lokal Ollama-instans, medmindre du tilsidesætter konfigurationen.

Trin 3: Minimal OpenClaw-modelkonfiguration

Udrul et kompatibilitetslag (Lynkr), eller konfigurer OpenClaw til at pege på det lokale endpoint

Fordi openClaw ( Moltbot / Clawdbot) historisk har talt til bestemte API-formater (f.eks. Anthropic-stil-endpoints), er den nemmeste vej at køre en lille proxy, der oversætter OpenClaw-kald til din lokale servers API.

  • Lynkr: installer og konfigurer Lynkr til at lytte på den port, OpenClaw forventer; konfigurer den til at videresende til din Ollama-/text-generation-webui-instans. Fællesskabsguides viser trinfiler og eksemplariske config.json-entries. Når Lynkr kører, kan OpenClaw forblive konfigureret til den oprindelige provider, men vil faktisk tale med din lokale model.

Hvis du foretrækker at ændre OpenClaws konfiguration direkte, så peg model-backend-URL'en i .openclaw-konfigurationen til dit lokale server-endpoint:

openClaw ( Moltbot / Clawdbot) gemmer konfiguration i ~/.openclaw/openclaw.json. En minimal fil, der foretrækker en lokal model, ser sådan ud:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Hvis du udelader en models.providers.ollama-blok, vil openClaw ( Moltbot / Clawdbot) ofte autodetektere en lokal Ollama-instans, hvis den er tilgængelig. Brug openclaw models list og openclaw models set til interaktivt at administrere modelindstillinger uden at redigere filen direkte.

Trin 4: Start OpenClaw og test en besked

Når Ollama kører, og Gateway er aktiv:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Hvis Gateway og modeller er korrekt konfigureret, vil du se assistenten svare, og beskeden blive routet via den lokale Ollama-model.

Kan jeg undgå at ændre OpenClaw via en proxy?

Ja — det er præcis, hvad proxyværktøjer som Lynkr gør: de præsenterer et Anthropic/OpenAI-lignende endpoint for openClaw ( Moltbot / Clawdbot), mens de lytter på den port, OpenClaw forventer, og videresender indholdet til en lokal Ollama- eller text-generation-webui-instans. Dette er værdifuldt, fordi det er ingen API-nøgle, ingen cloud-fakturering og lokal modelkørsel, det undgår at ændre OpenClaws interne dele, samtidig med at du får lokal kontrol.

Arkitektonisk overblik (hvilke komponenter taler med hvad)

  • OpenClaw (agent/app) — den primære assistent, som foretager modelkald og orkestrerer værktøjer og beskedintegration.
  • LLM-proxy (f.eks. Lynkr) — modtager OpenClaws API-stil-anmodninger og videresender dem til lokale modelservere (eller cloud-fallback). Proxyen kan også implementere caching, token-trimning og hukommelseskomprimering for at reducere omkostninger.
  • Lokal LLM-server (f.eks. Ollama, selvstændig ggml-runtime, Llama.cpp, lokal containeriseret model) — leverer modelinference på maskinen. Ollama er bredt brugt, fordi den tilbyder en let lokal server og modelpakningsworkflow; andre runtimes er mulige.
  • Valgfri cloud-fallback — proxyen kan rute komplekse anmodninger til cloud-modeller, når det er nødvendigt (hybridtilstand).

Hvorfor bruge en proxy i stedet for at patche openClaw direkte?

Privatliv og TCO: Lokal inference holder data på din maskine og undgår API-regninger.

Kompatibilitet: openClaw ( Moltbot / Clawdbot) forventer en bestemt API-overflade (Anthropic/“Copilot”-stil). En proxy bevarer den overflade, så OpenClaw kræver minimale ændringer.

Sikkerhed og fleksibilitet: Proxyen kan implementere anmodningsruter (lokal først, cloud-fallback), hastighedsbegrænsning, anmodningstrunkering og andre sikkerhedsforanstaltninger.

Eksempel: Konfigurer Lynkr til at rute til lokal Ollama

  1. Installer Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Opret en .env (eksempel):
cp .env.example .env

Rediger .env med:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Start Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr vil som standard annoncere en lokal proxy (for eksempel: http://localhost:8081) og et OpenAI/Anthropic-kompatibelt /v1-endpoint, som OpenClaw kan pege på. Konfigurer derefter OpenClaws modelprovider til at bruge Lynkrs base-URL (se næste snippet).

Peg OpenClaw mod Lynkr-endpointet

Rediger enten ~/.openclaw/openclaw.json eller brug CLI'en til at sætte din providers base-URL:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Nu vil openClaw ( Moltbot / Clawdbot) kalde http://localhost:8081/v1 (Lynkr), som ruter til ollama://kimi-k2.5 lokalt. Du får den sømløse oplevelse af en ekstern provider uden at forlade din maskine.

For brugere, der foretrækker en grafisk brugerflade (GUI) til at administrere deres modeller, eller som vil bruge specifikke kvantiserede modeller (GGUF-format) fra Hugging Face, er LM Studio det foretrukne valg.

Er det sikkert at køre autonome agenter lokalt?

Dette er måske det mest kritiske spørgsmål. Når du kører openClaw ( Moltbot / Clawdbot), giver du i praksis en AI shell-adgang til din computer.

“Sudo”-problemet

Hvis du beder en cloud-baseret Claude om at “slette alle filer i mine dokumenter”, kan den afvise på grund af sikkerhedsfiltre. En lokal, ucensureret Llama 3-model har ingen sådanne hæmninger. Hvis openClaw ( Moltbot / Clawdbot) misforstår en kommando, kan den teoretisk udføre destruktive kommandoer.

Sikkerhedsbedste praksis

Kør i Docker: Kør ikke openClaw ( Moltbot / Clawdbot) direkte på din værtsmaskines “bare metal”, medmindre du er helt sikker på risiciene. Brug det officielle Docker-image, som sandboxer miljøet.

Eksemplet nedenfor er en minimal docker-compose.yml, der demonstrerer tre tjenester: Ollama (lokal modelruntime), Lynkr (proxy) og OpenClaw Gateway (CLI kørt i container). Bemærk: tilpas volumes og enhedspassthrough for GPU-adgang.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Dette er en illustrativ stack; produktionsimplementeringer bør tilføje netværksisolering, ressourcebegrænsninger og GPU-enhedsmapping, hvor det er relevant.

Almindelige fejlfindingstrin og begrænsninger

Hvis openClaw ( Moltbot / Clawdbot) ikke kan se Ollama

  • Sørg for, at Ollama kører, og at base-URL'en kan nås (http://127.0.0.1:11434/v1).
  • Brug openclaw models list og openclaw doctor til at finde konfigurationsproblemer.

Hvis Lynkr-routing fejler

  • Bekræft, at Lynkr lytter (normalt http://localhost:8081).
  • Tjek .env for korrekthed af OLLAMA_ENDPOINT og MODEL_PROVIDER.
  • Valider, at Lynkr mapper de /v1-stier, som openClaw ( Moltbot / Clawdbot) kalder — nogle provider-implementeringer forventer lidt forskellige stier; justér basisstier efter behov.

Mangler i modelkapacitet

Lokale modeller varierer: nogle er fremragende til kodning, andre til chat. Hybridstrategier (lokal først, cloud-fallback) kan hjælpe: routér rutineopgaver lokalt og eskalér kompleks ræsonnering til en cloud-model med caching for at reducere omkostninger. Lynkr og lignende proxies implementerer netop denne logik.

Konklusion

OpenClaws design og det aktive økosystem omkring det gør en lokal, API-fri udrulning praktisk i dag. Med værktøjer som Ollama til lokal hosting, Lynkr til API-oversættelse og robust fællesskabsdokumentation kan du køre kapable agenter på maskiner, du kontrollerer — fra en desktop-GPU til en håndholdt enhed — uden at sende dine data til en tredjeparts LLM-udbyder.

Hvis du vejer fordele og ulemper og f.eks. stadig vil bruge openClaw ( Moltbot / Clawdbot) via API uden det nødvendige udstyr, vil jeg anbefale CometAPI. Det tilbyder Anthropic- og OpenAI-endpoints og giver ofte rabatter—typisk 20 % under den officielle pris.

Udviklere kan få adgang til og Claude Sonnet/ Opus 4.5 og GPT-5.2 via CometAPI, de seneste modeller er angivet pr. artiklens offentliggørelsesdato. For at begynde skal du udforske modellens muligheder i Playground og konsultere API guide for detaljerede instruktioner. Før adgang, sørg venligst for, at du er logget ind på CometAPI og har fået API-nøglen. CometAPI tilbyder en pris langt under den officielle pris for at hjælpe dig med integrationen.

Klar til start?→ Tilmeld dig Gemini 3 i dag !

Hvis du vil have flere tips, guides og nyheder om AI, så følg os på VK, X og Discord!

Læs mere

500+ modeller i én API

Op til 20% rabat