如何在不使用 API 的情況下在本地 LLMs 上運行 openClaw (Moltbot/ Clawdbot )?

CometAPI
AnnaFeb 1, 2026
如何在不使用 API 的情況下在本地 LLMs 上運行 openClaw (Moltbot/ Clawdbot )?

OpenClaw(原為 Clawdbot,曾短暫改名為 Moltbot)爆紅的速度幾乎勝過我所見過的任何代理專案。

在不到三週的時間裡,它的 GitHub 星標突破 100,000。人們稱它為*「24/7 AI 實習生」*,老實說,這形容並不離譜。它能讀取訊息、執行 shell 指令、管理檔案,並在你日常工作時悄悄在背景運作。

但在最初的興奮過後,一個非常實際的問題開始在各處浮現:

「這很酷……但我該如何在砸錢買 API 的情況下執行它?」

這個問題正是我撰寫本指南的原因。

OpenClaw(原名 Clawdbot)為何引起熱議?

若要理解技術正向本地執行的轉變,首先必須了解 OpenClaw 到底是什麼。本質上,openClaw(Moltbot / Clawdbot)是一個「以對話為優先」的自律代理。不同於傳統那種待在瀏覽器分頁、等待提示的聊天機器人,OpenClaw 以背景守護程序的形式在你的機器上運行。它可直接整合 WhatsApp、Telegram、Discord、Signal 等訊息平台,等於把你的聊天應用變成你生活的命令列。

從 Clawdbot 到 OpenClaw 的演進

這個專案的歷史既劇烈變動,也相當引人入勝。

Clawdbot(2025 年末): 由 Peter Steinberger 創建,最初作為 Anthropic 的 Claude 的包裝器,旨在執行任務,而非只輸出文字。它被稱為「有手的 Claude」。

Moltbot(2026 年 1 月): 因與 Anthropic 就名稱「Clawd」發生商標爭議,專案更名為「Moltbot」,並採用名為「Molty」的龍蝦吉祥物(指代蛻殼過程)。

OpenClaw(2026 年 1 月 30 日): 為了強調其開源本質,並在保留「Claw」傳承的同時進一步與特定企業身份保持距離,社群最終定名為 OpenClaw。

OpenClaw 的差異化之處在於其權限系統。它可以讀取你的電子郵件、檢查行事曆、執行 shell 指令,甚至以本地 Markdown 檔案來管理自己的記憶。然而,預設配置會將所有這些脈絡傳送到雲端 API(主要是 Anthropic 或 OpenAI),這引出兩個關鍵問題:成本與隱私。

為什麼你應該改用本地 LLM?

openClaw(Moltbot / Clawdbot)的「開箱即用」體驗由 Claude 3.5 Sonnet 或 Opus 驅動。這些模型雖然非常聰明,但其費用依 token 計價。全天候運行的自律代理——檢查郵件、監控伺服器日誌、摘要聊天——每天可能產生數百萬個 token。

自律的成本

自律代理的行為不像聊天會話。它們會迴圈、重讀脈絡、摘要日誌、反覆檢查信箱。

我看過使用者回報類似:

「我讓 Clawdbot 整晚運行來重整我的 Obsidian 檔庫,結果醒來就看到一張 40 美元的帳單。」

這不是誤用——這就是自律的運作方式。

使用本地模型,邊際成本降至(除了電力)。你不再思考「要不要讓它跑?」而是開始思考「還能自動化什麼?」

隱私不是附加好處——而是核心利益

openClaw(Moltbot / Clawdbot)可以讀取:

  • 電子郵件
  • 聊天記錄
  • 原始碼
  • 個人文件

OpenClaw 被設計成能深度存取你的系統。它會讀取你的私人訊息與檔案系統。使用 API 時,機器人讀到的每個檔案都會上傳到第三方伺服器處理。改用本地 LLM,資料永不離開你的本地網路。你的財務文件、私人聊天與程式碼庫將與大型科技公司保持隔離。

使用 Ollama 運行 OpenClaw(我的預設推薦)

如果你熟悉終端機,Ollama 是目前最容易運行本地 LLM 的方式。

openClaw(Moltbot / Clawdbot)會使用與 OpenAI 相容的 API 進行通訊。Ollama 預設就提供這種介面。秘訣就這麼簡單。

最低系統與軟體檢查清單

  • 一台機器,搭載最新的作業系統(Linux/macOS/Windows + WSL2)。大型模型建議使用本地 GPU 加速;只用 CPU 可應付小模型或輕量工作。
  • Node.js ≥ 22(OpenClaw 的 CLI 與 Gateway 需要 Node)。
  • 若要運行本地模型,請安裝Ollama(或其他本地 LLM 執行時)。Ollama 預設會在本地暴露與 OpenAI 相容的 API(常見於 http://localhost:11434)。
  • 若使用 Lynkr 等代理,請安裝(npm 或複製 repo)。Lynkr 能向 OpenClaw 呈現類 Anthropic/OpenAI 的端點,同時路由到本地模型。

步驟 1:安裝 OpenClaw(快速指令)

OpenClaw 建議透過 npm/pnpm 安裝。執行:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

導覽精靈會安裝使用者服務型的守護程序(systemd/launchd),讓 Gateway 能持續在背景運行。完成導覽後,你也可以手動啟動 Gateway 以便除錯:

openclaw gateway --port 18789 --verbose

步驟 2:安裝 Ollama 並拉取模型

Ollama 的安裝與執行相當直接。在 macOS/Linux 上:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama 提供與許多 OpenAI 風格用戶端相容的 API;OpenClaw 的供應商整合支援 Ollama,且通常會自動偵測本地的 Ollama 實例,除非你覆寫配置。

步驟 3:最小化的 OpenClaw 模型設定

部署相容層(Lynkr)或將 OpenClaw 指向本地端點

由於 openClaw(Moltbot / Clawdbot)歷來使用特定 API 形態(例如 Anthropic 風格端點),最簡單的方法是運行一個小型代理,將 OpenClaw 的呼叫轉譯到你的本地伺服器 API。

  • Lynkr:安裝並設定 Lynkr 監聽 OpenClaw 期望的埠;配置其轉發至你的 Ollama/text-generation-webui 實例。社群教程提供步驟檔與 config.json 範例。Lynkr 運行後,OpenClaw 可維持原供應商配置,但實際會對本地模型發出請求。

若你偏好直接修改 OpenClaw 的設定,請在 .openclaw 組態中將模型後端 URL 指向你的本地伺服器端點:

openClaw(Moltbot / Clawdbot)會將配置存於 ~/.openclaw/openclaw.json。偏好本地模型的最小檔案如下:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

如果省略 models.providers.ollama 區塊,openClaw(Moltbot / Clawdbot)通常會在可用時自動偵測本地 Ollama。使用 openclaw models listopenclaw models set 可互動式管理模型設定,而不必直接編輯檔案。

步驟 4:啟動 OpenClaw 並測試訊息

在 Ollama 運行且 Gateway 啟用的情況下:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

若 Gateway 與模型配置正確,你會看到助理回覆,且訊息已透過本地的 Ollama 模型路由。

我能否透過代理避免修改 OpenClaw?

可以——這正是 Lynkr 等代理工具的作用:它們向 openClaw(Moltbot / Clawdbot)呈現類 Anthropic/OpenAI 的端點,同時監聽 OpenClaw 期望的埠,並將內容轉發至本地的 Ollama 或 text-generation-webui 實例。這很有價值,因為無 API 金鑰、無雲端計費、在地模型推論,避免改動 OpenClaw 內部,同時給你本地控制權。

架構概覽(各元件的通訊關係)

  • OpenClaw(agent/app)——主要助理,發出模型呼叫並協調工具與訊息整合。
  • LLM 代理(例如 Lynkr)——接收 OpenClaw 的 API 風格請求,並轉發至本地模型伺服器(或雲端備援)。代理亦可實作快取、token 修剪、記憶壓縮以降低成本。
  • 本地 LLM 伺服器(例如 Ollama、獨立 ggml 執行時、Llama.cpp、本地容器化模型)——在機器上進行推論。Ollama 廣泛使用,因其提供簡易的本地伺服器與模型封裝流程;亦可選擇其他執行時。
  • 可選的雲端備援——代理在必要時可將複雜請求路由至雲端模型(混合模式)。

為何使用代理而非直接修補 openClaw?

隱私與總持有成本(TCO): 本地推論讓資料留在你的機器上,避免 API 帳單。

相容性: openClaw(Moltbot / Clawdbot)期望特定的 API 介面(Anthropic/「Copilot」風格)。代理保留這個介面,使 OpenClaw 幾乎不需修改。

安全與彈性: 代理可實作請求路由規則(本地優先、雲端備援)、速率限制、請求截斷等防護。

範例:設定 Lynkr 路由到本地 Ollama

  1. 安裝 Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. 建立 .env(範例):
cp .env.example .env

編輯 .env

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. 啟動 Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr 預設會提供一個本地代理(例如:http://localhost:8081)與相容 OpenAI/Anthropic 的 /v1 端點,OpenClaw 可指向該端點。接著將 OpenClaw 的模型供應商基底 URL 設為 Lynkr(見下段程式片段)。

將 OpenClaw 指向 Lynkr 端點

可編輯 ~/.openclaw/openclaw.json 或使用 CLI 設定供應商的基底 URL:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

現在 openClaw(Moltbot / Clawdbot)會呼叫 http://localhost:8081/v1(Lynkr),而 Lynkr 會在本地將其路由至 ollama://kimi-k2.5。你可獲得與外部供應商相同的順暢體驗,同時不離開你的機器。

對偏好圖形化介面(GUI)來管理模型、或想使用來自 Hugging Face 的特定量化模型(GGUF 格式)的使用者而言,LM Studio 是首選。

在本地運行自律代理是否安全?

這或許是最關鍵的問題。當你運行 openClaw(Moltbot / Clawdbot),本質上是在把 AI 的 shell 存取權交給你的電腦。

「Sudo」問題

如果你讓雲端的 Claude「刪除我文件夾中的所有檔案」,它可能因安全過濾而拒絕。未經審查的本地 Llama 3 模型沒有這些顧慮。若 openClaw(Moltbot / Clawdbot)誤解了命令,理論上可能執行具破壞性的指令。

安全最佳實務

以 Docker 運行:除非你非常確定風險,否則不要在主機「裸機」上直接運行 openClaw(Moltbot / Clawdbot)。請使用官方 Docker 映像以沙箱化環境。

下方範例是一份最小的 docker-compose.yml,示範三個服務:Ollama(本地模型執行時)、Lynkr(代理),以及 OpenClaw Gateway(容器中執行的 CLI)。**注意:**需根據情況調整卷掛載與 GPU 通道,以取得 GPU 存取。

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

這是示意性的組合;在正式部署時,應適當加入網路隔離、資源限制與 GPU 裝置映射等。

常見疑難排解與限制

若 openClaw(Moltbot / Clawdbot)未偵測到 Ollama

  • 確認 Ollama 已運行且可連到基底 URL(http://127.0.0.1:11434/v1)。
  • 使用 openclaw models listopenclaw doctor 來揭露配置問題。

若 Lynkr 路由失敗

  • 確認 Lynkr 正在監聽(通常為 http://localhost:8081)。
  • 檢查 .envOLLAMA_ENDPOINTMODEL_PROVIDER 是否正確。
  • 驗證 Lynkr 有正確映射 openClaw(Moltbot / Clawdbot)呼叫的 /v1 路徑——某些供應商實作可能期望些許不同路徑;必要時調整基底路徑。

模型能力差異

本地模型能力各異:有的擅長寫程式,有的擅長聊天。混合策略(本地優先、雲端備援)會有幫助:將例行工作在本地處理,將複雜推理升級至雲端模型,並以快取降低成本。Lynkr 與類似代理正是實作這類邏輯。

結論

OpenClaw 的設計與活躍的生態系,使得如今在本地、無需 API 的部署成為可行。借助如 Ollama 的本地託管、Lynkr 的 API 轉譯,以及健全的社群文檔,你可以在自己掌控的機器上——從桌面 GPU 到手持裝置——運行強大的代理,而無需將資料傳送給第三方 LLM 供應商。

不過,若你權衡利弊,例如仍想在缺乏必要設備的情況下透過 API 使用 openClaw(Moltbot / Clawdbot),我會推薦 CometAPI. 它提供 Anthropic 與 OpenAI 的端點,且經常有折扣——通常比官方價便宜 20%。

開發者可以透過 CometAPI 存取  以及 Claude Sonnet/ Opus 4.5GPT-5.2,本文發佈時所列為最新模型。開始前,先在 Playground 試用模型能力,並參考 API guide 取得詳細指引。在存取前,請確認你已登入 CometAPI 並取得 API 金鑰。CometAPI 提供遠低於官方的價格,助你整合。

Ready to Go?→ Sign up for Gemini 3 today

若你想了解更多 AI 的技巧、指南與新聞,請追蹤我們在 VKXDiscord 的動態!

閱讀更多

一個 API 中超過 500 個模型

最高 20% 折扣