如何在本地 LLMs 上不使用 API 运行 openClaw (Moltbot/ Clawdbot )?

CometAPI
AnnaFeb 1, 2026
如何在本地 LLMs 上不使用 API 运行 openClaw (Moltbot/ Clawdbot )?

OpenClaw(前称 Clawdbot,曾短暂更名为 Moltbot)的爆发速度几乎超过我所见过的任何代理项目。

不到三周,它就突破了 100,000 个 GitHub 星标。人们称它为*“24/7 的 AI 实习生”*,老实说,这个描述并不夸张。它能读取消息、运行 shell 命令、管理文件,并在你忙碌的一天里静静地在后台运行。

但在最初的兴奋过后,一个非常实际的问题开始在各处出现:

“这很酷……但我如何在不烧钱买 API 的情况下运行它?”

这正是我编写这份指南的原因。

OpenClaw(原 Clawdbot)为何备受关注?

要理解技术正向本地执行转变,首先需要弄清 OpenClaw 究竟是什么。从本质上讲,openClaw( Moltbot / Clawdbot)是一个“对话优先”的自治代理。与传统的在浏览器标签页中等待提示的聊天机器人不同,OpenClaw 作为后台守护进程在你的机器上运行。它直接整合 WhatsApp、Telegram、Discord 和 Signal 等消息平台,有效地把你的聊天应用变成你生活的命令行。

从 Clawdbot 到 OpenClaw 的演进

这个项目的历史既动荡又引人入胜。

Clawdbot(2025 年末): 由 Peter Steinberger 创建,最初是 Anthropic 的 Claude 的封装器,旨在执行任务而不仅仅输出文本。它被称为“有‘手’的 Claude”。

Moltbot(2026 年 1 月): 因与 Anthropic 就“Clawd”名称发生商标纠纷,项目更名为“Moltbot”,并采用名为“Molty”的龙虾吉祥物(暗指蜕壳)。

OpenClaw(2026 年 1 月 30 日): 为强调其开源性质,并进一步与特定公司身份保持距离,同时保留“Claw”传承,社区最终选择了 OpenClaw。

OpenClaw 的独特之处在于其权限系统。它可以读取你的电子邮件、检查日历、执行 shell 命令,甚至在本地以 Markdown 文件管理自己的记忆。然而,它的默认配置依赖将所有这些上下文发送到云端 API(主要是 Anthropic 或 OpenAI),这带来了两个关键问题:成本和隐私。

为什么要切换到本地 LLM?

openClaw( Moltbot / Clawdbot)开箱即用的默认体验由 Claude 3.5 Sonnet 或 Opus 提供。虽然这些模型非常智能,但它们按 token 计费。一个 24/7 运行的自治代理——检查邮件、监控服务器日志、总结聊天——每天可能生成数百万个 token。

自主性的成本

自治代理的行为不同于聊天会话。它们会循环。它们会重读上下文。它们会总结日志。它们会一次又一次地检查收件箱。

我见过用户反馈类似:

“我让 Clawdbot 通宵运行以整理我的 Obsidian 资料库,醒来就收到了 40 美元的账单。”

那不是误用——这就是自治的工作方式。

使用本地模型,边际成本降至(电费除外)。你不再思考“我该不该让它跑?”,而开始思考“我还能自动化什么?”

隐私不是副作用——它才是核心利益

openClaw( Moltbot / Clawdbot)可以读取:

  • 电子邮件
  • 聊天记录
  • 源代码
  • 个人文档

OpenClaw 被设计为对你的系统拥有深度访问。它会读取你的私人消息和文件系统。使用 API 时,机器人读取的每个文件都会上传到第三方服务器进行处理。使用本地 LLM,你的数据不会离开本地网络。你的财务文件、私人聊天和代码库将与大科技公司保持隔离。

使用 Ollama 运行 OpenClaw(我的默认推荐)

如果你熟悉终端,Ollama 是当下运行本地 LLM 最简单的方式。

openClaw( Moltbot / Clawdbot)使用兼容 OpenAI 的 API。Ollama 默认就提供一个。这就是全部诀窍。

最低系统与软件清单

  • 一台机器,运行最新操作系统(Linux/macOS/Windows + WSL2)。较大模型建议使用本地 GPU 加速;仅 CPU 适合小模型或轻量任务。
  • Node.js ≥ 22(OpenClaw 的 CLI 和 Gateway 需要 Node)。
  • 如果计划运行本地模型,安装 Ollama(或其他本地 LLM 运行时)。Ollama 默认暴露兼容 OpenAI 的本地 API(通常为 http://localhost:11434)。
  • 如果使用 Lynkr 等代理,请安装(npm 或克隆仓库)。Lynkr 可向 OpenClaw 提供类似 Anthropic/OpenAI 的端点,同时路由到你的本地模型。

第 1 步:安装 OpenClaw(快速命令)

OpenClaw 推荐通过 npm/pnpm 安装。运行:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

引导向导会安装用户级守护进程(systemd/launchd),使 Gateway 在后台持续运行。完成引导后,你可以手动运行 Gateway 以进行调试:

openclaw gateway --port 18789 --verbose

第 2 步:安装 Ollama 并拉取模型

Ollama 的安装与运行非常简单。适用于 macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama 暴露了与许多 OpenAI 风格客户端兼容的 API;OpenClaw 的提供方集成支持 Ollama,并且通常会自动检测本地的 Ollama 实例,除非你覆盖配置。

第 3 步:最小化的 OpenClaw 模型配置

部署兼容层(Lynkr),或者将 OpenClaw 指向本地端点

由于 openClaw( Moltbot / Clawdbot)历史上使用特定的 API 形态(如 Anthropic 风格端点),最简单的路径是运行一个小型代理,将 OpenClaw 的调用翻译到你的本地服务器 API。

  • Lynkr:安装并配置 Lynkr 监听 OpenClaw 期望的端口;将其配置为转发到你的 Ollama/text-generation-webui 实例。社区教程给出了步骤文件和示例 config.json 条目。Lynkr 运行后,OpenClaw 可保持原始提供方配置,但实际上会与本地模型通信。

如果你更希望直接修改 OpenClaw 配置,请在 .openclaw 配置中将模型后端 URL 指向你的本地服务器端点:

openClaw( Moltbot / Clawdbot)将配置存储在 ~/.openclaw/openclaw.json。一个偏好本地模型的最小文件如下:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

如果省略 models.providers.ollama 块,openClaw( Moltbot / Clawdbot)在可用时通常会自动检测到本地 Ollama 实例。使用 openclaw models listopenclaw models set,无需直接编辑文件即可交互式管理模型设置。

第 4 步:启动 OpenClaw 并测试一条消息

在 Ollama 运行且 Gateway 活跃的情况下:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

如果 Gateway 和模型配置正确,你会看到助手响应,并且消息通过本地 Ollama 模型路由。

我能通过代理来避免修改 OpenClaw 吗?

可以——这正是 Lynkr 等代理工具所做的事情:它们向 openClaw( Moltbot / Clawdbot)呈现 Anthropic/OpenAI 风格的端点,同时监听 OpenClaw 期望的端口,并将内容转发到本地的 Ollama 或 text-generation-webui 实例。这很有价值,因为这是无需 API key、无云端计费、在本地执行模型,它避免了更改 OpenClaw 的内部,同时让你拥有本地控制权。

架构概览(各组件如何通信)

  • OpenClaw(agent/app)——核心助手,发起模型调用并编排工具与消息集成。
  • LLM 代理(例如 Lynkr)——接收 OpenClaw 的类 API 请求并转发到本地模型服务器(或云端回退)。代理还能实现缓存、token 修剪与内存压缩,以降低成本。
  • 本地 LLM 服务器(如 Ollama、独立 ggml 运行时、Llama.cpp、本地容器化模型)——在本机提供模型推理。Ollama 广泛使用,因为它提供易用的本地服务器和模型打包工作流;也可选择其它运行时。
  • 可选云端回退——当必要时,代理可将复杂请求路由到云端模型(混合模式)。

为什么使用代理而不是直接修改 openClaw?

隐私与总拥有成本(TCO): 本地推理使数据留在你的机器上,并避免 API 账单。

兼容性: openClaw( Moltbot / Clawdbot)期望特定的 API 表面(Anthropic/“Copilot”风格)。代理保持该表面,使 OpenClaw 几乎无需改动。

安全与灵活: 代理可实现请求路由规则(本地优先、云端回退)、速率限制、请求截断以及其他防护。

示例:配置 Lynkr 路由到本地 Ollama

  1. 安装 Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. 创建 .env(示例):
cp .env.example .env

编辑 .env

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. 启动 Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr 默认会宣布一个本地代理(例如:http://localhost:8081)以及一个兼容 OpenAI/Anthropic 的 /v1 端点,OpenClaw 可指向该端点。然后将 OpenClaw 的模型提供方配置为使用 Lynkr 的 base URL(见下段代码)。

将 OpenClaw 指向 Lynkr 端点

可以编辑 ~/.openclaw/openclaw.json 或使用 CLI 设置提供方 base URL:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

现在 openClaw( Moltbot / Clawdbot)会调用 http://localhost:8081/v1(Lynkr),后者将请求路由到本地的 ollama://kimi-k2.5。你能获得与外部提供方无缝衔接的体验,同时数据不离开你的机器。

对于希望通过图形用户界面(GUI)管理模型,或希望使用来自 Hugging Face 的特定量化模型(GGUF 格式)的用户,LM Studio 是首选。

在本地运行自治代理是否安全?

这或许是最关键的问题。当你运行 openClaw( Moltbot / Clawdbot)时,本质上是在把 AI 的 shell 访问权限交给你的电脑。

“Sudo” 问题

如果你让基于云端的 Claude 执行“删除我文档中的所有文件”,它可能会因安全过滤而拒绝。一个本地的、未审查的 Llama 3 模型则不会有这样的抑制。如果 openClaw( Moltbot / Clawdbot)误解了命令,它理论上可能执行破坏性指令。

安全最佳实践

在 Docker 中运行:除非你对风险有充分把握,否则不要在宿主机“裸跑” openClaw( Moltbot / Clawdbot)。使用官方 Docker 镜像以实现环境沙箱化。

下面的 docker-compose.yml 是一个最小示例,演示三个服务:Ollama(本地模型运行时)、Lynkr(代理)和 OpenClaw Gateway(在容器中运行的 CLI)。注意: 请根据需要为 GPU 访问调整卷与设备透传。

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

这只是一个示意性栈;生产部署应根据需要增加网络隔离、资源限制以及 GPU 设备映射。

常见排障步骤与局限

如果 openClaw( Moltbot / Clawdbot)看不到 Ollama

  • 确认 Ollama 正在运行且 base URL 可达(http://127.0.0.1:11434/v1)。
  • 使用 openclaw models listopenclaw doctor 来暴露配置问题。

如果 Lynkr 路由失败

  • 确认 Lynkr 在监听(通常为 http://localhost:8081)。
  • 检查 .envOLLAMA_ENDPOINTMODEL_PROVIDER 是否正确。
  • 验证 Lynkr 是否映射 openClaw( Moltbot / Clawdbot)调用的 /v1 路径——某些提供方实现期望略有不同的路径;必要时调整基础路径。

模型能力差异

本地模型各有所长:有的擅长编码,有的擅长对话。混合策略(本地优先、云端回退)能提供帮助:将常规任务路由到本地,把复杂推理升级到云端模型,并通过缓存降低成本。Lynkr 和类似代理正是实现这种逻辑。

结论

OpenClaw 的设计以及围绕它的活跃生态,使得如今无需 API 的本地部署切实可行。借助 Ollama 做本地托管、Lynkr 做 API 转换,以及稳健的社区文档,你可以在自己掌控的机器上——从桌面 GPU 到掌上设备——运行能力不俗的代理,而无需把数据发送到第三方 LLM 提供方。

不过,如果权衡利弊后,例如你仍希望通过 API 使用 openClaw( Moltbot / Clawdbot)但没有必要的设备,那么我会推荐 CometAPI. 它提供 Anthropic 和 OpenAI 的端点,并且经常提供折扣——通常比官方价格便宜 20%。

开发者可以通过 CometAPI 访问  和 Claude Sonnet/ Opus 4.5 以及 GPT-5.2,这些最新模型以文章发布时为准。开始之前,可在 Playground 探索模型能力,并查阅 API guide 获取详细说明。在访问前,请确保已登录 CometAPI 并获取 API key。 CometAPI 提供远低于官方价格的方案,帮助你集成。

Ready to Go?→ 今天注册 Gemini 3

如果你想了解更多 AI 的技巧、指南和新闻,请关注我们的 VK、 X 和 Discord

阅读更多

一个 API 中超 500 个模型

最高 20% 折扣