OpenClaw(前称 Clawdbot,曾短暂更名为 Moltbot)的爆发速度几乎超过我所见过的任何代理项目。
不到三周,它就突破了 100,000 个 GitHub 星标。人们称它为*“24/7 的 AI 实习生”*,老实说,这个描述并不夸张。它能读取消息、运行 shell 命令、管理文件,并在你忙碌的一天里静静地在后台运行。
但在最初的兴奋过后,一个非常实际的问题开始在各处出现:
“这很酷……但我如何在不烧钱买 API 的情况下运行它?”
这正是我编写这份指南的原因。
OpenClaw(原 Clawdbot)为何备受关注?
要理解技术正向本地执行转变,首先需要弄清 OpenClaw 究竟是什么。从本质上讲,openClaw( Moltbot / Clawdbot)是一个“对话优先”的自治代理。与传统的在浏览器标签页中等待提示的聊天机器人不同,OpenClaw 作为后台守护进程在你的机器上运行。它直接整合 WhatsApp、Telegram、Discord 和 Signal 等消息平台,有效地把你的聊天应用变成你生活的命令行。
从 Clawdbot 到 OpenClaw 的演进
这个项目的历史既动荡又引人入胜。
Clawdbot(2025 年末): 由 Peter Steinberger 创建,最初是 Anthropic 的 Claude 的封装器,旨在执行任务而不仅仅输出文本。它被称为“有‘手’的 Claude”。
Moltbot(2026 年 1 月): 因与 Anthropic 就“Clawd”名称发生商标纠纷,项目更名为“Moltbot”,并采用名为“Molty”的龙虾吉祥物(暗指蜕壳)。
OpenClaw(2026 年 1 月 30 日): 为强调其开源性质,并进一步与特定公司身份保持距离,同时保留“Claw”传承,社区最终选择了 OpenClaw。
OpenClaw 的独特之处在于其权限系统。它可以读取你的电子邮件、检查日历、执行 shell 命令,甚至在本地以 Markdown 文件管理自己的记忆。然而,它的默认配置依赖将所有这些上下文发送到云端 API(主要是 Anthropic 或 OpenAI),这带来了两个关键问题:成本和隐私。
为什么要切换到本地 LLM?
openClaw( Moltbot / Clawdbot)开箱即用的默认体验由 Claude 3.5 Sonnet 或 Opus 提供。虽然这些模型非常智能,但它们按 token 计费。一个 24/7 运行的自治代理——检查邮件、监控服务器日志、总结聊天——每天可能生成数百万个 token。
自主性的成本
自治代理的行为不同于聊天会话。它们会循环。它们会重读上下文。它们会总结日志。它们会一次又一次地检查收件箱。
我见过用户反馈类似:
“我让 Clawdbot 通宵运行以整理我的 Obsidian 资料库,醒来就收到了 40 美元的账单。”
那不是误用——这就是自治的工作方式。
使用本地模型,边际成本降至零(电费除外)。你不再思考“我该不该让它跑?”,而开始思考“我还能自动化什么?”
隐私不是副作用——它才是核心利益
openClaw( Moltbot / Clawdbot)可以读取:
- 电子邮件
- 聊天记录
- 源代码
- 个人文档
OpenClaw 被设计为对你的系统拥有深度访问。它会读取你的私人消息和文件系统。使用 API 时,机器人读取的每个文件都会上传到第三方服务器进行处理。使用本地 LLM,你的数据不会离开本地网络。你的财务文件、私人聊天和代码库将与大科技公司保持隔离。
使用 Ollama 运行 OpenClaw(我的默认推荐)
如果你熟悉终端,Ollama 是当下运行本地 LLM 最简单的方式。
openClaw( Moltbot / Clawdbot)使用兼容 OpenAI 的 API。Ollama 默认就提供一个。这就是全部诀窍。
最低系统与软件清单
- 一台机器,运行最新操作系统(Linux/macOS/Windows + WSL2)。较大模型建议使用本地 GPU 加速;仅 CPU 适合小模型或轻量任务。
- Node.js ≥ 22(OpenClaw 的 CLI 和 Gateway 需要 Node)。
- 如果计划运行本地模型,安装 Ollama(或其他本地 LLM 运行时)。Ollama 默认暴露兼容 OpenAI 的本地 API(通常为
http://localhost:11434)。 - 如果使用 Lynkr 等代理,请安装(npm 或克隆仓库)。Lynkr 可向 OpenClaw 提供类似 Anthropic/OpenAI 的端点,同时路由到你的本地模型。
第 1 步:安装 OpenClaw(快速命令)
OpenClaw 推荐通过 npm/pnpm 安装。运行:
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
引导向导会安装用户级守护进程(systemd/launchd),使 Gateway 在后台持续运行。完成引导后,你可以手动运行 Gateway 以进行调试:
openclaw gateway --port 18789 --verbose
第 2 步:安装 Ollama 并拉取模型
Ollama 的安装与运行非常简单。适用于 macOS/Linux:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama 暴露了与许多 OpenAI 风格客户端兼容的 API;OpenClaw 的提供方集成支持 Ollama,并且通常会自动检测本地的 Ollama 实例,除非你覆盖配置。
第 3 步:最小化的 OpenClaw 模型配置
部署兼容层(Lynkr),或者将 OpenClaw 指向本地端点
由于 openClaw( Moltbot / Clawdbot)历史上使用特定的 API 形态(如 Anthropic 风格端点),最简单的路径是运行一个小型代理,将 OpenClaw 的调用翻译到你的本地服务器 API。
- Lynkr:安装并配置 Lynkr 监听 OpenClaw 期望的端口;将其配置为转发到你的 Ollama/text-generation-webui 实例。社区教程给出了步骤文件和示例
config.json条目。Lynkr 运行后,OpenClaw 可保持原始提供方配置,但实际上会与本地模型通信。
如果你更希望直接修改 OpenClaw 配置,请在 .openclaw 配置中将模型后端 URL 指向你的本地服务器端点:
openClaw( Moltbot / Clawdbot)将配置存储在 ~/.openclaw/openclaw.json。一个偏好本地模型的最小文件如下:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
如果省略 models.providers.ollama 块,openClaw( Moltbot / Clawdbot)在可用时通常会自动检测到本地 Ollama 实例。使用 openclaw models list 和 openclaw models set,无需直接编辑文件即可交互式管理模型设置。
第 4 步:启动 OpenClaw 并测试一条消息
在 Ollama 运行且 Gateway 活跃的情况下:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
如果 Gateway 和模型配置正确,你会看到助手响应,并且消息通过本地 Ollama 模型路由。
我能通过代理来避免修改 OpenClaw 吗?
可以——这正是 Lynkr 等代理工具所做的事情:它们向 openClaw( Moltbot / Clawdbot)呈现 Anthropic/OpenAI 风格的端点,同时监听 OpenClaw 期望的端口,并将内容转发到本地的 Ollama 或 text-generation-webui 实例。这很有价值,因为这是无需 API key、无云端计费、在本地执行模型,它避免了更改 OpenClaw 的内部,同时让你拥有本地控制权。
架构概览(各组件如何通信)
- OpenClaw(agent/app)——核心助手,发起模型调用并编排工具与消息集成。
- LLM 代理(例如 Lynkr)——接收 OpenClaw 的类 API 请求并转发到本地模型服务器(或云端回退)。代理还能实现缓存、token 修剪与内存压缩,以降低成本。
- 本地 LLM 服务器(如 Ollama、独立 ggml 运行时、Llama.cpp、本地容器化模型)——在本机提供模型推理。Ollama 广泛使用,因为它提供易用的本地服务器和模型打包工作流;也可选择其它运行时。
- 可选云端回退——当必要时,代理可将复杂请求路由到云端模型(混合模式)。
为什么使用代理而不是直接修改 openClaw?
隐私与总拥有成本(TCO): 本地推理使数据留在你的机器上,并避免 API 账单。
兼容性: openClaw( Moltbot / Clawdbot)期望特定的 API 表面(Anthropic/“Copilot”风格)。代理保持该表面,使 OpenClaw 几乎无需改动。
安全与灵活: 代理可实现请求路由规则(本地优先、云端回退)、速率限制、请求截断以及其他防护。
示例:配置 Lynkr 路由到本地 Ollama
- 安装 Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- 创建
.env(示例):
cp .env.example .env
编辑 .env:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- 启动 Lynkr:
# if installed globally
lynkr
# if cloned
npm start
Lynkr 默认会宣布一个本地代理(例如:http://localhost:8081)以及一个兼容 OpenAI/Anthropic 的 /v1 端点,OpenClaw 可指向该端点。然后将 OpenClaw 的模型提供方配置为使用 Lynkr 的 base URL(见下段代码)。
将 OpenClaw 指向 Lynkr 端点
可以编辑 ~/.openclaw/openclaw.json 或使用 CLI 设置提供方 base URL:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
现在 openClaw( Moltbot / Clawdbot)会调用 http://localhost:8081/v1(Lynkr),后者将请求路由到本地的 ollama://kimi-k2.5。你能获得与外部提供方无缝衔接的体验,同时数据不离开你的机器。
对于希望通过图形用户界面(GUI)管理模型,或希望使用来自 Hugging Face 的特定量化模型(GGUF 格式)的用户,LM Studio 是首选。
在本地运行自治代理是否安全?
这或许是最关键的问题。当你运行 openClaw( Moltbot / Clawdbot)时,本质上是在把 AI 的 shell 访问权限交给你的电脑。
“Sudo” 问题
如果你让基于云端的 Claude 执行“删除我文档中的所有文件”,它可能会因安全过滤而拒绝。一个本地的、未审查的 Llama 3 模型则不会有这样的抑制。如果 openClaw( Moltbot / Clawdbot)误解了命令,它理论上可能执行破坏性指令。
安全最佳实践
在 Docker 中运行:除非你对风险有充分把握,否则不要在宿主机“裸跑” openClaw( Moltbot / Clawdbot)。使用官方 Docker 镜像以实现环境沙箱化。
下面的 docker-compose.yml 是一个最小示例,演示三个服务:Ollama(本地模型运行时)、Lynkr(代理)和 OpenClaw Gateway(在容器中运行的 CLI)。注意: 请根据需要为 GPU 访问调整卷与设备透传。
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
这只是一个示意性栈;生产部署应根据需要增加网络隔离、资源限制以及 GPU 设备映射。
常见排障步骤与局限
如果 openClaw( Moltbot / Clawdbot)看不到 Ollama
- 确认 Ollama 正在运行且 base URL 可达(
http://127.0.0.1:11434/v1)。 - 使用
openclaw models list和openclaw doctor来暴露配置问题。
如果 Lynkr 路由失败
- 确认 Lynkr 在监听(通常为
http://localhost:8081)。 - 检查
.env中OLLAMA_ENDPOINT和MODEL_PROVIDER是否正确。 - 验证 Lynkr 是否映射 openClaw( Moltbot / Clawdbot)调用的
/v1路径——某些提供方实现期望略有不同的路径;必要时调整基础路径。
模型能力差异
本地模型各有所长:有的擅长编码,有的擅长对话。混合策略(本地优先、云端回退)能提供帮助:将常规任务路由到本地,把复杂推理升级到云端模型,并通过缓存降低成本。Lynkr 和类似代理正是实现这种逻辑。
结论
OpenClaw 的设计以及围绕它的活跃生态,使得如今无需 API 的本地部署切实可行。借助 Ollama 做本地托管、Lynkr 做 API 转换,以及稳健的社区文档,你可以在自己掌控的机器上——从桌面 GPU 到掌上设备——运行能力不俗的代理,而无需把数据发送到第三方 LLM 提供方。
不过,如果权衡利弊后,例如你仍希望通过 API 使用 openClaw( Moltbot / Clawdbot)但没有必要的设备,那么我会推荐 CometAPI. 它提供 Anthropic 和 OpenAI 的端点,并且经常提供折扣——通常比官方价格便宜 20%。
开发者可以通过 CometAPI 访问 和 Claude Sonnet/ Opus 4.5 以及 GPT-5.2,这些最新模型以文章发布时为准。开始之前,可在 Playground 探索模型能力,并查阅 API guide 获取详细说明。在访问前,请确保已登录 CometAPI 并获取 API key。 CometAPI 提供远低于官方价格的方案,帮助你集成。
Ready to Go?→ 今天注册 Gemini 3!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)