在 2026 年初,OpenClaw——這個開源的代理執行時與 AI 助手平台——持續被開發者、研究團隊與企業廣泛採用,他們希望在 Slack、Telegram、WhatsApp 與本地命令列等多通道中實現多模型協同調度。同時,CometAPI 作為強大的、與 OpenAI 相容的 LLM 閘道正在崛起,將數百個模型(例如 Kimi-K2.5、GPT 系列、Claude)匯聚到單一 API 端點之下。
本文是一份實用的分步指南,教你將 OpenClaw 設定為使用 CometAPI 作為模型供應商。你將學會如何安裝、設定供應商、定義驗證設定檔、驗證功能、切換模型——並附上基於最新文件與社群回饋的即時配置範例與技巧。
什麼是 OpenClaw,為何要與 CometAPI 整合?
OpenClaw 是一個開源、以裝置為中心的代理平台,將對話式 AI 連接到人們已在使用的聊天應用與裝置——WhatsApp、Telegram、Slack、Discord 等——同時讓你可以在想要的地方執行模型,並自行掌控金鑰與資料。該專案與其程式庫中包含範例,展示了 OpenClaw 如何透過閘道式配置選擇 LLM 供應商。
CometAPI 是一個 API 聚合平台,透過單一、OpenAI 風格的 REST 介面與 SDK 對外提供多家模型供應商。若你希望切換模型、試用不同定價,或在不更動 OpenClaw 核心程式的情況下集中化可觀測性,它就成為便利的單一整合點。
為何將 OpenClaw 與 CometAPI 搭配?
OpenClaw 對模型中立;它負責執行代理與工作流程,但仰賴外部 LLM 供應商。CometAPI 作為一個與 OpenAI 相容的閘道,讓你可以將請求路由至:
- GPT 系列模型
- Claude 系列模型
- Kimi-K2.5 與其他由 CometAPI 聚合的第三方模型
這帶來選擇、彈性、成本控制與冗餘能力。
如何設定 OpenClaw 使用 CometAPI 作為模型供應商?
答案:在 OpenClaw 的設定中新增一個指向 CometAPI REST 端點的供應商條目,並將模型映射到 OpenClaw 的 models.providers 結構。OpenClaw 專案支援透過 models.providers 新增自訂供應商(與其他閘道相同的模式),並要求依供應商語義指定 api 風格,例如 "openai-completions" 或 "anthropic-messages"。
CometAPI 支援三種 API 格式。將其中一個或多個加入 ~/.openclaw/openclaw.json:
| Provider | API Format | Base URL |
|---|---|---|
| cometapi-openai | openai-completions | https://api.cometapi.com/v1 |
| cometapi-claude | anthropic-messages | https://api.cometapi.com |
| cometapi-google | google-generative-ai | https://api.cometapi.com/v1beta |
設定 OpenClaw 搭配 CometAPI 的先決條件是什麼?
在整合之前,請確保你擁有正確的環境、工具與帳戶。
環境需求
你需要:
- 類 Unix 環境:Linux、macOS,或 Windows Subsystem for Linux(WSL2)
- 已安裝 Node.js 與 npm(OpenClaw 底層使用 Node)
- 具備 bash/zsh 或 PowerShell 的終端使用權限
官方文件也提到 OpenClaw 可透過 Docker 執行,這對於隔離與生產環境很理想。
帳戶與 API 金鑰
你需要:
- 一個 CometAPI 帳戶
- 一組有效的 CometAPI LLM 金鑰(儲存在安全的環境變數中)
- 選用:其他 OpenClaw 供應商的帳戶(金鑰)(OpenAI、Anthropic,或透過 Ollama 的本地模型)
💡 小技巧:請使用安全的祕密管理工具或作業系統金鑰圈,而非以純文字儲存金鑰。OpenClaw 官方文件建議在生產環境如此操作以提升安全性。
如何設定讓 OpenClaw 呼叫 CometAPI?(步驟教學)
以下是一個精簡、實用、約五分鐘完成的設定流程。實際檔名或鍵值可能取決於你的 OpenClaw 版本與部署方式,但其概念與官方程式庫與文件直接對應。
步驟 0 — 設定環境變數(安全且快速的途徑)
Shell 範例(Linux/macOS):
# do NOT commit this to gitexport COMETAPI_KEY="sk-YourCometApiKeyHere"export OPENCLAW_ENV="production" # or development
在生產環境請使用平台的祕密機制(例如 Docker secrets、systemd、Kubernetes secrets)。
步驟 1 — 安裝 OpenClaw
方案 A:單行安裝腳本
這是最快捷的方式:
curl -fsSL https://openclaw.ai/install.sh | bash# Verify installationopenclaw --version
此腳本會偵測你的作業系統,並安裝 OpenClaw 與其相依項。
方案 B:透過 npm 全域安裝
若你已習慣自行管理 Node 套件:
npm install -g openclaw@latestopenclaw --version
這會全域安裝 OpenClaw CLI。
選用:Docker 安裝
若你要部署到生產環境或希望隔離:
docker pull openclaw/openclaw:latestdocker run -d --name openclaw -v ~/.openclaw:/root/.openclaw openclaw/openclaw
容器化部署更易於管理相依與工作負載。nClaw version; OpenClaw’s examples follow this pattern.)
步驟 2 — 設定供應商
設定供應商是告訴 OpenClaw 要到哪裡找到你的 LLM 後端。
編輯 OpenClaw 設定檔
OpenClaw 會將設定儲存在下列 JSON 檔案:
~/.openclaw/openclaw.json
你將為 CometAPI 定義一個自訂供應商。
以下是最小化的供應商配置:
base_url告訴 OpenClaw 將 LLM 請求送往 CometAPI 的 OpenAI 相容端點。auth_env指向保存你的 API 金鑰的環境變數。type旗標指定 API 協定類型(OpenAI 風格)。
{
"models": {
"mode": "merge",
"providers": {
"cometapi-openai": {
"baseUrl": "https://api.cometapi.com/v1",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "openai-completions",
"models": [{ "id": "gpt-5.2", "name": "GPT-5.2" }]
},
"cometapi-claude": {
"baseUrl": "https://api.cometapi.com",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "anthropic-messages",
"models": [{ "id": "claude-opus-4-6", "name": "Claude Opus 4.6" }]
},
"cometapi-google": {
"baseUrl": "https://api.cometapi.com/v1beta",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "google-generative-ai",
"models": [{ "id": "gemini-3-pro-preview", "name": "Gemini 3 Pro" }]
}
}
},
"agents": {
"defaults": {
"model": { "primary": "cometapi-claude/claude-opus-4-6" }
}
},
"auth": {
"profiles": {
"cometapi-openai:default": { "provider": "cometapi-openai", "mode": "api_key" },
"cometapi-claude:default": { "provider": "cometapi-claude", "mode": "api_key" },
"cometapi-google:default": { "provider": "cometapi-google", "mode": "api_key" }
}
}
}
將
<YOUR_COMETAPI_KEY>替換為你的 API 金鑰。三個供應商皆可使用同一把金鑰。
你可以從 CometAPI Models Page 將任一模型加入相對應的供應商。
步驟 3 — 設定驗證設定檔
⚠️ 必填!OpenClaw 從此檔案讀取 API 金鑰,而不是從
openclaw.json。若跳過此步,會導致HTTP 401錯誤。
建立 ~/.openclaw/agents/main/agent/auth-profiles.json:
{
"version": 1,
"profiles": {
"cometapi-openai:default": {
"type": "api_key",
"provider": "cometapi-openai",
"key": "<YOUR_COMETAPI_KEY>"
},
"cometapi-claude:default": {
"type": "api_key",
"provider": "cometapi-claude",
"key": "<YOUR_COMETAPI_KEY>"
},
"cometapi-google:default": {
"type": "api_key",
"provider": "cometapi-google",
"key": "<YOUR_COMETAPI_KEY>"
}
},
"lastGood": {
"cometapi-openai": "cometapi-openai:default",
"cometapi-claude": "cometapi-claude:default",
"cometapi-google": "cometapi-google:default"
}
}
重啟閘道:
openclaw gateway restart
用以下指令檢查狀態:
openclaw auth status
列出所有已配置的模型:
openclaw models list
這些指令能確認你的供應商與驗證設定檔是否正確設定。所有模型應顯示 Auth = yes:
Model Auth
cometapi-openai/gpt-5.2 yes
cometapi-claude/claude-opus-4-6 yes
cometapi-google/gemini-3-pro-preview yes
步驟 4 — 執行 OpenClaw 並觀察日誌
啟動/重啟 OpenClaw 並追蹤日誌。重點觀察:
- 外送請求日誌中是否出現
base_url或供應商名稱。 - HTTP 401/403 → 金鑰或權限範圍問題。
- 429 → 觸發速率限制(考慮調整模型/效能)。
- 延遲異常偏高 → 網路或模型限流。
快速診斷指令(範例):
# If OpenClaw runs as a system service:journalctl -u openclaw -f# If running in Docker:docker logs -f openclaw
切換模型
# Set default model
openclaw models set cometapi-claude/claude-opus-4-6
# Or switch in TUI
/model cometapi-openai/gpt-5.2
如何在實際工作流程中使用 OpenClaw 搭配 CometAPI?
整合完成後,你可以建立包含程式碼生成、多模態任務、代理自動化與跨通道發佈的工作流程。
範例工作流程:螢幕截圖解讀
若你的代理支援附檔:
User: Analyze this screenshot and generate a minimal React component.
OpenClaw 會透過 CometAPI 的模型(例如 Kimi K-2.5)送出提示(以及影像資料),並返回程式碼輸出——非常適合用於 UI 工作流程的原型製作。
Slack / Discord 整合
當 CometAPI 作為後端時,你可以將代理回覆路由到任意已配置的平台:
- Slack 頻道
- WhatsApp 群組
- Telegram 機器人
OpenClaw 處理路由與請求解析;CometAPI 負責提供模型回應。
應加入哪些監控與成本控制?
集中到聚合器後,你獲得了更高的控制力——但也需要妥善設定:
監測儀表
- 為每個請求記錄模型名稱、Token 用量、延遲與錯誤碼。
- 以代理與通道標記請求(例如 agent=personal_assistant、channel=telegram),以便成本歸屬。
成本控制旋鈕
- 在供應商配置中設定
max_tokens與timeout_seconds。 - 將便宜模型用於例行任務,將大型模型保留給高價值流程。
- 設定每代理速率限制與每使用者配額(OpenClaw 通常可擴充以強制執行)。
CometAPI 主打效能與成本調校工具;請同時使用兩邊的遙測(OpenClaw 日誌 + CometAPI 使用統計)建立護欄。
如何排除整合中的常見錯誤?
答案:以下是常見失敗模式與快速解法:
修復:OpenClaw 控制面板會顯示一次性權杖;依文件將其貼入控制 UI 設定。社群筆記經常提到這一步。
401 Unauthorized
原因:缺少或錯誤的 COMETAPI_KEY,或未注入至 OpenClaw 行程。
修復:在啟動 OpenClaw 的 Shell 中匯出金鑰,或寫入 OpenClaw 的 .env 並重啟閘道。可用 curl 測試確認。
供應商靜默回退/預設化
原因:models.providers JSON 格式錯誤或缺少 api 風格,導致 OpenClaw 忽略該供應商。
修復:使用 JSON 檢查工具驗證 openclaw.json,並確保 api 符合支援的風格。社群議題中常見此類錯誤配置。
逾時或高延遲
原因:網路路徑或遠端模型延遲。
修復:選擇延遲更低的 Comet 模型,或讓 OpenClaw 與其位於相同雲區域;對延遲敏感的任務可考慮本地模型。文件與部落格皆討論過本地模型與 API 模型的延遲/成本取捨。
過量使用 / 429
原因:觸及 CometAPI 配額或方案限制。
修復:在 Comet 控制台檢查配額;在 OpenClaw 代理動作中加入重試/退避,或在閘道處節流。Comet 與合作夥伴文件都有提及方案配額與建議的退避模式。
閘道權杖遺失 / WebSocket 斷線
原因:在執行 Gateway 時,儀表板設定缺少 OpenClaw 控制權杖。
結語
將 OpenClaw 連接到 CometAPI 很快,並為你的個人助理解鎖強大的多模型後端。但速度並不代表可以忽略安全:測試時將閘道綁定到 localhost、使用允許清單、記錄所有活動,並對具破壞性的行為要求確認。有了這些控管,你可以在約五分鐘內完成從零到可運作的 OpenClaw → CometAPI 代理,同時在實驗過程中保護你的資料與系統。
開發者現在就能透過 CometAPI 存取 kimi k-2.5。開始之前,可在 Playground 探索該模型能力,並參考 API guide 以取得詳細指引。存取前請先登入 CometAPI 並取得 API 金鑰。CometAPI 提供遠低於官方的價格,協助你更輕鬆整合。
準備好了嗎?→ 立即註冊 openclaw!
