Hvordan kjøre openClaw (Moltbot/ Clawdbot ) på lokale LLM-er uten API

CometAPI
AnnaFeb 1, 2026
Hvordan kjøre openClaw (Moltbot/ Clawdbot ) på lokale LLM-er uten API

OpenClaw (tidligere Clawdbot, kort Moltbot) har eksplodert raskere enn nesten ethvert agentprosjekt jeg har sett.

På under tre uker passerte det 100 000 GitHub-stjerner. Folk kaller det en “24/7 AI-praktikant”, og ærlig talt er den beskrivelsen ikke langt unna. Det kan lese meldinger, kjøre shell-kommandoer, håndtere filer og stille være i bakgrunnen mens du går gjennom dagen din.

Men etter den første entusiasmen dukket et veldig praktisk spørsmål opp overalt:

“Dette er kult… men hvordan kjører jeg det uten å svi av penger på API-er?”

Det spørsmålet er akkurat grunnen til at jeg skrev guiden.

Hva er hypen rundt OpenClaw (tidligere Clawdbot)?

For å forstå det tekniske skiftet mot lokal kjøring, må man først forstå hva OpenClaw faktisk er. I kjernen er openClaw ( Moltbot / Clawdbot) en «conversation-first» autonom agent. I motsetning til tradisjonelle chatboter som lever i en nettleserfane og venter på oppfordringer, kjører OpenClaw som en bakgrunnsdemon på maskinen din. Den integreres direkte med meldingsplattformer som WhatsApp, Telegram, Discord og Signal, og gjør i praksis chat-appen din til en kommandolinje for livet ditt.

Utviklingen fra Clawdbot til OpenClaw

Prosjektets historie er like omskiftelig som den er fascinerende.

Clawdbot (slutten av 2025): Opprettet av Peter Steinberger, lansert som en wrapper rundt Anthropic sin Claude, designet for å utføre oppgaver i stedet for bare å generere tekst. Den ble kalt «Claude med hender».

Moltbot (jan. 2026): Etter en varemerketvist med Anthropic om navnet «Clawd», ble prosjektet omdøpt til «Moltbot», med en hummermaskot kalt «Molty» (referanse til skallskifte).

OpenClaw (30. januar 2026): For å understreke åpen-kildekode-naturen og distansere seg ytterligere fra spesifikke bedriftsidentiteter, samtidig som «Claw»-arven beholdes, landet fellesskapet på OpenClaw.

Det som skiller OpenClaw er tillatelsessystemet. Den kan lese e-postene dine, sjekke kalenderen, kjøre shell-kommandoer og til og med administrere sin egen hukommelse i Markdown-filer lagret lokalt. Standardkonfigurasjonen er imidlertid avhengig av å sende all denne konteksten til sky-API-er (primært Anthropic eller OpenAI), noe som reiser to kritiske spørsmål: kostnad og personvern.

Hvorfor bør du bytte til lokale LLM-er?

Standard «out-of-the-box»-opplevelsen av openClaw ( Moltbot / Clawdbot) drives av Claude 3.5 Sonnet eller Opus. Selv om disse modellene er svært intelligente, prises de per token. En autonom agent som kjører 24/7—som sjekker e-poster, overvåker serverlogger og oppsummerer chatter—kan generere millioner av tokens om dagen.

Kostnaden ved autonomi

Autonome agenter oppfører seg ikke som chatøkter. De looper. De leser kontekst på nytt. De oppsummerer logger. De sjekker innbokser om og om igjen.

Jeg har sett brukere rapportere ting som:

“Jeg lot Clawdbot kjøre over natten for å reorganisere Obsidian-valvet mitt og våknet til en regning på 40 dollar.”

Det er ikke misbruk — det er bare slik autonomi fungerer.

Med en lokal modell faller marginalkostnaden til null (bortsett fra strøm). Du slutter å tenke «bør jeg la dette kjøre?» og begynner å tenke «hva mer kan jeg automatisere?»

Personvern er ikke en sidegevinst — det er den viktigste

openClaw ( Moltbot / Clawdbot) kan lese:

  • E-poster
  • Chathistorikk
  • Kildekode
  • Personlige dokumenter

OpenClaw er designet for å ha dyp tilgang til systemet ditt. Den leser personlige meldinger og filsystemer. Når du bruker et API, blir hver fil boten leser lastet opp til en tredjepartsserver for behandling. Ved å bruke en lokal LLM forlater ingen data ditt lokale nettverk. Dine finansdokumenter, private chatter og kodebaser forblir luftskilt fra Big Tech.

Kjøre OpenClaw med Ollama (min standardanbefaling)

Hvis du er komfortabel med terminalen, er Ollama den enkleste måten å kjøre lokale LLM-er i dag.

openClaw ( Moltbot / Clawdbot) snakker OpenAI-kompatible API-er. Ollama eksponerer en som standard. Det er hele trikset.

Minimumssjekkliste for system og programvare

  • En maskin med et nyere OS (Linux/macOS/Windows + WSL2). Lokal GPU-akselerasjon anbefales for større modeller; kun CPU fungerer for små modeller eller lette oppgaver.
  • Node.js ≥ 22 (OpenClaw sin CLI og Gateway forventer Node).
  • Ollama (eller en annen lokal LLM-runtime) installert lokalt hvis du planlegger å kjøre lokale modeller. Ollama eksponerer et OpenAI-kompatibelt lokalt API som standard (vanligvis på http://localhost:11434).
  • Hvis du bruker en proxy som Lynkr, installer den (npm eller klon repo). Lynkr kan presentere et Anthropic/OpenAI-lignende endepunkt for OpenClaw samtidig som den ruter til lokale modeller.

Trinn 1: Installer OpenClaw (hurtigkommandoer)

OpenClaw anbefaler installasjon via npm/pnpm. Kjør:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Onboard-veiviseren installerer en bruker-tjeneste-demon (systemd/launchd) slik at Gateway fortsetter å kjøre i bakgrunnen. Etter onboarding kan du kjøre Gateway manuelt for feilsøking:

openclaw gateway --port 18789 --verbose

Trinn 2: Installer Ollama og hent en modell

Ollama er enkel å installere og kjøre. På macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama eksponerer et API som er kompatibelt med mange OpenAI-stil-klienter; OpenClaws leverandørintegrasjon støtter Ollama og vil autodetektere en lokal Ollama-instans med mindre du overstyrer konfigurasjonen.

Trinn 3: Minimal OpenClaw-modellkonfigurasjon

Distribuer et kompatibilitetslag (Lynkr) eller konfigurer OpenClaw til å peke mot det lokale endepunktet

Fordi openClaw ( Moltbot / Clawdbot) historisk har snakket med visse API-former (f.eks. Anthropic-stil endepunkter), er den enkleste veien å kjøre en liten proxy som oversetter OpenClaw-kall til API-et til din lokale server.

  • Lynkr: installer og konfigurer Lynkr til å lytte på porten OpenClaw forventer; konfigurer den til å videresende til Ollama/text-generation-webui-instansen din. Fellesskapsveiledninger viser steg-filer og eksempler på config.json-oppføringer. Etter at Lynkr kjører, kan OpenClaw forbli konfigurert for den opprinnelige leverandøren, men vil faktisk snakke med din lokale modell.

Hvis du foretrekker å endre OpenClaw-konfigen direkte, pek modellens backend-URL i .openclaw-konfigurasjonen til endepunktet på din lokale server:

openClaw ( Moltbot / Clawdbot) lagrer konfigurasjon i ~/.openclaw/openclaw.json. En minimal fil for å foretrekke en lokal modell ser slik ut:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Hvis du utelater blokken models.providers.ollama, vil openClaw ( Moltbot / Clawdbot) ofte autodetektere en lokal Ollama-instans hvis tilgjengelig. Bruk openclaw models list og openclaw models set for å administrere modellinnstillinger interaktivt uten å redigere filen direkte.

Trinn 4: Start OpenClaw og test en melding

Med Ollama kjørende og Gateway aktiv:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Hvis Gateway og modeller er riktig konfigurert, vil du se assistenten svare og meldingen rutes via den lokale Ollama-modellen.

Kan jeg prøve å unngå å modifisere OpenClaw via proxy?

Ja — det er nettopp det proxy-verktøy som Lynkr gjør: de presenterer et Anthropic/OpenAI-stil endepunkt for openClaw ( Moltbot / Clawdbot) mens de lytter på porten OpenClaw forventer og videresender innholdet til en lokal Ollama- eller text-generation-webui-instans. Dette er verdifullt fordi det er uten API-nøkkel, ingen skyfakturering og lokal modellkjøring, det unngår å endre OpenClaw-internt mens du får lokal kontroll.

Arkitektonisk oversikt (hvilke komponenter snakker med hva)

  • OpenClaw (agent/app) — hovedassistenten som utsteder modellkall og orkestrerer verktøy og meldingsintegrasjon.
  • LLM-proxy (f.eks. Lynkr) — mottar OpenClaws API-stil forespørsler og videresender dem til lokale modellservere (eller sky-fallback). Proxyen kan også implementere caching, token-trimming og minnekomprimering for å redusere kostnader.
  • Lokal LLM-server (f.eks. Ollama, frittstående ggml-runtime, Llama.cpp, lokal containerisert modell) — serverer modellinferenz på maskinen. Ollama er mye brukt fordi den tilbyr en enkel lokal server og modellpakke-arbeidsflyt; andre runtimer er mulige.
  • Valgfri sky-fallback — proxyen kan rute komplekse forespørsler til sky-modeller ved behov (hybridmodus).

Hvorfor bruke en proxy i stedet for å patche openClaw direkte?

Personvern & totale eierkostnader (TCO): Lokal inferens holder data på maskinen din og unngår API-regninger.

Kompatibilitet: openClaw ( Moltbot / Clawdbot) forventer en bestemt API-overflate (Anthropic/«Copilot»-stil). En proxy bevarer denne overflaten slik at OpenClaw trenger minimale endringer.

Sikkerhet & fleksibilitet: Proxyen kan implementere ruteringsregler (lokal først, sky-fallback), ratebegrensning, forespørselstrunkering og andre sikkerhetstiltak.

Eksempel: konfigurer Lynkr til å rute til lokal Ollama

  1. Installer Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Opprett en .env (eksempel):
cp .env.example .env

Rediger .env med:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Start Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr vil som standard annonsere en lokal proxy (for eksempel: http://localhost:8081) og et OpenAI/Anthropic-kompatibelt /v1-endepunkt som OpenClaw kan peke til. Konfigurer deretter OpenClaws modellleverandør til å bruke Lynkr-base-URL-en (se neste snutt).

Pek OpenClaw til Lynkr-endepunktet

Enten rediger ~/.openclaw/openclaw.json eller bruk CLI for å sette base-URL for leverandøren din:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Nå vil openClaw ( Moltbot / Clawdbot) kalle http://localhost:8081/v1 (Lynkr), som ruter inn i ollama://kimi-k2.5 lokalt. Du får den sømløse opplevelsen av en ekstern leverandør uten å forlate maskinen din.

For brukere som foretrekker et Graphical User Interface (GUI) for å administrere modellene sine, eller som vil bruke spesifikke kvantiserte modeller (GGUF-format) fra Hugging Face, er LM Studio å foretrekke.

Er det trygt å kjøre autonome agenter lokalt?

Dette er kanskje det mest kritiske spørsmålet. Når du kjører openClaw ( Moltbot / Clawdbot), gir du i praksis en AI shell-tilgang til datamaskinen din.

«Sudo»-problemet

Hvis du ber en skybasert Claude om å «slette alle filer i dokumentene mine», kan den nekte på grunn av sikkerhetsfiltre. En lokal, ucensurert Llama 3-modell har ingen slike hemninger. Hvis openClaw ( Moltbot / Clawdbot) feiltolker en kommando, kan den teoretisk utføre destruktive kommandoer.

Sikkerhetsbeste praksis

Kjør i Docker: Ikke kjør openClaw ( Moltbot / Clawdbot) direkte på vertsmaskinens «bare metal» med mindre du er helt sikker på risikoene. Bruk den offisielle Docker-imagen som sandkasser miljøet.

Eksemplet nedenfor er en minimal docker-compose.yml som demonstrerer tre tjenester: Ollama (lokal modell-runtime), Lynkr (proxy) og OpenClaw Gateway (CLI kjørt i container). Merk: tilpass volumer og enhets-pass-through for GPU-tilgang.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Dette er en illustrativ stack; produksjonsutrullinger bør legge til nettverksisolasjon, ressursgrenser og GPU-enhetsmapping der det er hensiktsmessig.

Vanlige feilsøkingstrinn og begrensninger

Hvis openClaw ( Moltbot / Clawdbot) ikke ser Ollama

  • Sørg for at Ollama kjører og at base-URL er tilgjengelig (http://127.0.0.1:11434/v1).
  • Bruk openclaw models list og openclaw doctor for å avdekke konfigurasjonsproblemer.

Hvis Lynkr-ruting feiler

  • Bekreft at Lynkr lytter (vanligvis http://localhost:8081).
  • Sjekk .env for korrekt OLLAMA_ENDPOINT og MODEL_PROVIDER.
  • Valider at Lynkr mapper /v1-stiene som openClaw ( Moltbot / Clawdbot) kaller — noen leverandørimplementasjoner forventer litt ulike stier; juster base-stier ved behov.

Kapabilitetsgap i modeller

Lokale modeller varierer: noen er gode på koding, andre på chat. Hybride strategier (lokal først, sky-fallback) kan hjelpe: rute rutineoppgaver lokalt og eskalere kompleks resonnering til en sky-modell med caching for å redusere kostnad. Lynkr og lignende proxyer implementerer nettopp denne logikken.

Konklusjon

OpenClaws design og det aktive økosystemet rundt gjør en lokal, API-fri utrulling praktisk i dag. Med verktøy som Ollama for lokal hosting, Lynkr for API-oversettelse og robust fellesskapsdokumentasjon kan du kjøre kapable agenter på maskiner du kontrollerer — fra en desktop-GPU til en håndholdt enhet — uten å sende dataene dine til en tredjeparts LLM-leverandør.

Men hvis du veier fordeler og ulemper, for eksempel, om du fortsatt vil bruke openClaw ( Moltbot / Clawdbot) via API uten nødvendig utstyr, vil jeg anbefale CometAPI. Den tilbyr Anthropic- og OpenAI-endepunkter og gir ofte rabatter—generelt 20 % lavere enn offisiell pris.

Utviklere kan få tilgang til og Claude Sonnet/ Opus 4.5 og GPT-5.2 via CometAPI, de nyeste modellene som er oppført er per artikkelens publiseringsdato. For å komme i gang, utforsk modellens kapabiliteter i Playground og se API guide for detaljerte instruksjoner. Før tilgang, vær sikker på at du har logget inn på CometAPI og fått API-nøkkelen. CometAPI tilbyr en pris langt lavere enn den offisielle prisen for å hjelpe deg å integrere.

Klar til å begynne?→ Registrer deg for Gemini 3 i dag !

Hvis du vil ha flere tips, guider og nyheter om AI, følg oss på VK, X og Discord!

Les mer

500+ modeller i ett API

Opptil 20 % rabatt