OpenClaw(原為 Clawdbot,曾短暫改名為 Moltbot)爆紅的速度幾乎勝過我所見過的任何代理專案。
在不到三週的時間裡,它的 GitHub 星標突破 100,000。人們稱它為*「24/7 AI 實習生」*,老實說,這形容並不離譜。它能讀取訊息、執行 shell 指令、管理檔案,並在你日常工作時悄悄在背景運作。
但在最初的興奮過後,一個非常實際的問題開始在各處浮現:
「這很酷……但我該如何在不砸錢買 API 的情況下執行它?」
這個問題正是我撰寫本指南的原因。
OpenClaw(原名 Clawdbot)為何引起熱議?
若要理解技術正向本地執行的轉變,首先必須了解 OpenClaw 到底是什麼。本質上,openClaw(Moltbot / Clawdbot)是一個「以對話為優先」的自律代理。不同於傳統那種待在瀏覽器分頁、等待提示的聊天機器人,OpenClaw 以背景守護程序的形式在你的機器上運行。它可直接整合 WhatsApp、Telegram、Discord、Signal 等訊息平台,等於把你的聊天應用變成你生活的命令列。
從 Clawdbot 到 OpenClaw 的演進
這個專案的歷史既劇烈變動,也相當引人入勝。
Clawdbot(2025 年末): 由 Peter Steinberger 創建,最初作為 Anthropic 的 Claude 的包裝器,旨在執行任務,而非只輸出文字。它被稱為「有手的 Claude」。
Moltbot(2026 年 1 月): 因與 Anthropic 就名稱「Clawd」發生商標爭議,專案更名為「Moltbot」,並採用名為「Molty」的龍蝦吉祥物(指代蛻殼過程)。
OpenClaw(2026 年 1 月 30 日): 為了強調其開源本質,並在保留「Claw」傳承的同時進一步與特定企業身份保持距離,社群最終定名為 OpenClaw。
OpenClaw 的差異化之處在於其權限系統。它可以讀取你的電子郵件、檢查行事曆、執行 shell 指令,甚至以本地 Markdown 檔案來管理自己的記憶。然而,預設配置會將所有這些脈絡傳送到雲端 API(主要是 Anthropic 或 OpenAI),這引出兩個關鍵問題:成本與隱私。
為什麼你應該改用本地 LLM?
openClaw(Moltbot / Clawdbot)的「開箱即用」體驗由 Claude 3.5 Sonnet 或 Opus 驅動。這些模型雖然非常聰明,但其費用依 token 計價。全天候運行的自律代理——檢查郵件、監控伺服器日誌、摘要聊天——每天可能產生數百萬個 token。
自律的成本
自律代理的行為不像聊天會話。它們會迴圈、重讀脈絡、摘要日誌、反覆檢查信箱。
我看過使用者回報類似:
「我讓 Clawdbot 整晚運行來重整我的 Obsidian 檔庫,結果醒來就看到一張 40 美元的帳單。」
這不是誤用——這就是自律的運作方式。
使用本地模型,邊際成本降至零(除了電力)。你不再思考「要不要讓它跑?」而是開始思考「還能自動化什麼?」
隱私不是附加好處——而是核心利益
openClaw(Moltbot / Clawdbot)可以讀取:
- 電子郵件
- 聊天記錄
- 原始碼
- 個人文件
OpenClaw 被設計成能深度存取你的系統。它會讀取你的私人訊息與檔案系統。使用 API 時,機器人讀到的每個檔案都會上傳到第三方伺服器處理。改用本地 LLM,資料永不離開你的本地網路。你的財務文件、私人聊天與程式碼庫將與大型科技公司保持隔離。
使用 Ollama 運行 OpenClaw(我的預設推薦)
如果你熟悉終端機,Ollama 是目前最容易運行本地 LLM 的方式。
openClaw(Moltbot / Clawdbot)會使用與 OpenAI 相容的 API 進行通訊。Ollama 預設就提供這種介面。秘訣就這麼簡單。
最低系統與軟體檢查清單
- 一台機器,搭載最新的作業系統(Linux/macOS/Windows + WSL2)。大型模型建議使用本地 GPU 加速;只用 CPU 可應付小模型或輕量工作。
- Node.js ≥ 22(OpenClaw 的 CLI 與 Gateway 需要 Node)。
- 若要運行本地模型,請安裝Ollama(或其他本地 LLM 執行時)。Ollama 預設會在本地暴露與 OpenAI 相容的 API(常見於
http://localhost:11434)。 - 若使用 Lynkr 等代理,請安裝(npm 或複製 repo)。Lynkr 能向 OpenClaw 呈現類 Anthropic/OpenAI 的端點,同時路由到本地模型。
步驟 1:安裝 OpenClaw(快速指令)
OpenClaw 建議透過 npm/pnpm 安裝。執行:
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
導覽精靈會安裝使用者服務型的守護程序(systemd/launchd),讓 Gateway 能持續在背景運行。完成導覽後,你也可以手動啟動 Gateway 以便除錯:
openclaw gateway --port 18789 --verbose
步驟 2:安裝 Ollama 並拉取模型
Ollama 的安裝與執行相當直接。在 macOS/Linux 上:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama 提供與許多 OpenAI 風格用戶端相容的 API;OpenClaw 的供應商整合支援 Ollama,且通常會自動偵測本地的 Ollama 實例,除非你覆寫配置。
步驟 3:最小化的 OpenClaw 模型設定
部署相容層(Lynkr)或將 OpenClaw 指向本地端點
由於 openClaw(Moltbot / Clawdbot)歷來使用特定 API 形態(例如 Anthropic 風格端點),最簡單的方法是運行一個小型代理,將 OpenClaw 的呼叫轉譯到你的本地伺服器 API。
- Lynkr:安裝並設定 Lynkr 監聽 OpenClaw 期望的埠;配置其轉發至你的 Ollama/text-generation-webui 實例。社群教程提供步驟檔與
config.json範例。Lynkr 運行後,OpenClaw 可維持原供應商配置,但實際會對本地模型發出請求。
若你偏好直接修改 OpenClaw 的設定,請在 .openclaw 組態中將模型後端 URL 指向你的本地伺服器端點:
openClaw(Moltbot / Clawdbot)會將配置存於 ~/.openclaw/openclaw.json。偏好本地模型的最小檔案如下:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
如果省略 models.providers.ollama 區塊,openClaw(Moltbot / Clawdbot)通常會在可用時自動偵測本地 Ollama。使用 openclaw models list 與 openclaw models set 可互動式管理模型設定,而不必直接編輯檔案。
步驟 4:啟動 OpenClaw 並測試訊息
在 Ollama 運行且 Gateway 啟用的情況下:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
若 Gateway 與模型配置正確,你會看到助理回覆,且訊息已透過本地的 Ollama 模型路由。
我能否透過代理避免修改 OpenClaw?
可以——這正是 Lynkr 等代理工具的作用:它們向 openClaw(Moltbot / Clawdbot)呈現類 Anthropic/OpenAI 的端點,同時監聽 OpenClaw 期望的埠,並將內容轉發至本地的 Ollama 或 text-generation-webui 實例。這很有價值,因為無 API 金鑰、無雲端計費、在地模型推論,避免改動 OpenClaw 內部,同時給你本地控制權。
架構概覽(各元件的通訊關係)
- OpenClaw(agent/app)——主要助理,發出模型呼叫並協調工具與訊息整合。
- LLM 代理(例如 Lynkr)——接收 OpenClaw 的 API 風格請求,並轉發至本地模型伺服器(或雲端備援)。代理亦可實作快取、token 修剪、記憶壓縮以降低成本。
- 本地 LLM 伺服器(例如 Ollama、獨立 ggml 執行時、Llama.cpp、本地容器化模型)——在機器上進行推論。Ollama 廣泛使用,因其提供簡易的本地伺服器與模型封裝流程;亦可選擇其他執行時。
- 可選的雲端備援——代理在必要時可將複雜請求路由至雲端模型(混合模式)。
為何使用代理而非直接修補 openClaw?
隱私與總持有成本(TCO): 本地推論讓資料留在你的機器上,避免 API 帳單。
相容性: openClaw(Moltbot / Clawdbot)期望特定的 API 介面(Anthropic/「Copilot」風格)。代理保留這個介面,使 OpenClaw 幾乎不需修改。
安全與彈性: 代理可實作請求路由規則(本地優先、雲端備援)、速率限制、請求截斷等防護。
範例:設定 Lynkr 路由到本地 Ollama
- 安裝 Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- 建立
.env(範例):
cp .env.example .env
編輯 .env:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- 啟動 Lynkr:
# if installed globally
lynkr
# if cloned
npm start
Lynkr 預設會提供一個本地代理(例如:http://localhost:8081)與相容 OpenAI/Anthropic 的 /v1 端點,OpenClaw 可指向該端點。接著將 OpenClaw 的模型供應商基底 URL 設為 Lynkr(見下段程式片段)。
將 OpenClaw 指向 Lynkr 端點
可編輯 ~/.openclaw/openclaw.json 或使用 CLI 設定供應商的基底 URL:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
現在 openClaw(Moltbot / Clawdbot)會呼叫 http://localhost:8081/v1(Lynkr),而 Lynkr 會在本地將其路由至 ollama://kimi-k2.5。你可獲得與外部供應商相同的順暢體驗,同時不離開你的機器。
對偏好圖形化介面(GUI)來管理模型、或想使用來自 Hugging Face 的特定量化模型(GGUF 格式)的使用者而言,LM Studio 是首選。
在本地運行自律代理是否安全?
這或許是最關鍵的問題。當你運行 openClaw(Moltbot / Clawdbot),本質上是在把 AI 的 shell 存取權交給你的電腦。
「Sudo」問題
如果你讓雲端的 Claude「刪除我文件夾中的所有檔案」,它可能因安全過濾而拒絕。未經審查的本地 Llama 3 模型沒有這些顧慮。若 openClaw(Moltbot / Clawdbot)誤解了命令,理論上可能執行具破壞性的指令。
安全最佳實務
以 Docker 運行:除非你非常確定風險,否則不要在主機「裸機」上直接運行 openClaw(Moltbot / Clawdbot)。請使用官方 Docker 映像以沙箱化環境。
下方範例是一份最小的 docker-compose.yml,示範三個服務:Ollama(本地模型執行時)、Lynkr(代理),以及 OpenClaw Gateway(容器中執行的 CLI)。**注意:**需根據情況調整卷掛載與 GPU 通道,以取得 GPU 存取。
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
這是示意性的組合;在正式部署時,應適當加入網路隔離、資源限制與 GPU 裝置映射等。
常見疑難排解與限制
若 openClaw(Moltbot / Clawdbot)未偵測到 Ollama
- 確認 Ollama 已運行且可連到基底 URL(
http://127.0.0.1:11434/v1)。 - 使用
openclaw models list與openclaw doctor來揭露配置問題。
若 Lynkr 路由失敗
- 確認 Lynkr 正在監聽(通常為
http://localhost:8081)。 - 檢查
.env中OLLAMA_ENDPOINT與MODEL_PROVIDER是否正確。 - 驗證 Lynkr 有正確映射 openClaw(Moltbot / Clawdbot)呼叫的
/v1路徑——某些供應商實作可能期望些許不同路徑;必要時調整基底路徑。
模型能力差異
本地模型能力各異:有的擅長寫程式,有的擅長聊天。混合策略(本地優先、雲端備援)會有幫助:將例行工作在本地處理,將複雜推理升級至雲端模型,並以快取降低成本。Lynkr 與類似代理正是實作這類邏輯。
結論
OpenClaw 的設計與活躍的生態系,使得如今在本地、無需 API 的部署成為可行。借助如 Ollama 的本地託管、Lynkr 的 API 轉譯,以及健全的社群文檔,你可以在自己掌控的機器上——從桌面 GPU 到手持裝置——運行強大的代理,而無需將資料傳送給第三方 LLM 供應商。
不過,若你權衡利弊,例如仍想在缺乏必要設備的情況下透過 API 使用 openClaw(Moltbot / Clawdbot),我會推薦 CometAPI. 它提供 Anthropic 與 OpenAI 的端點,且經常有折扣——通常比官方價便宜 20%。
開發者可以透過 CometAPI 存取 以及 Claude Sonnet/ Opus 4.5 和 GPT-5.2,本文發佈時所列為最新模型。開始前,先在 Playground 試用模型能力,並參考 API guide 取得詳細指引。在存取前,請確認你已登入 CometAPI 並取得 API 金鑰。CometAPI 提供遠低於官方的價格,助你整合。
Ready to Go?→ Sign up for Gemini 3 today !
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)