领跑这股浪潮的是 Moltbot(原名 Clawdbot),一个从小众开发者工具跃升为病毒式热点的项目,仅用数周就在 GitHub 获得了超过 60,000 个星标。由 Peter Steinberger 创建,Moltbot 代表了 AI 代理的“蜕变”——摆脱网页界面的限制,走入我们每天使用的消息应用和文件系统。
近期关注:该项目因为商标相关请求而从 Clawdbot 更名为 Moltbot。Anthropic 发出商标请求,理由是“Clawd”与“Claude”听起来过于相似。
什么是 Moltbot(Clawdbot),为何会爆红?
Moltbot 是一个开源、自托管的 AI 代理,旨在弥合强大的大型语言模型(LLM)与本地计算机之间的鸿沟。不同于运行在“围墙花园”式浏览器标签页中的 ChatGPT 或 Claude.ai,Moltbot 在你的硬件(Mac、Linux 或 VPS)上以 Gateway 的形式运行。
它将来自 Telegram、WhatsApp、Slack 等平台的自然语言消息翻译为在你的机器上可执行的动作。无论是你在超市时需要在桌面上找一个文件,还是要用手机触发一个复杂的部署脚本,Moltbot 都可以作为具备完整系统访问能力的数字代理。
与众不同之处
- 本地优先的执行与工具:Moltbot 实际上可以在你的主机上运行命令(需同意)、调用外部 API,并使用“技能”,即小型程序或由 Markdown 定义的工作流。
- 多渠道:你在 Telegram、WhatsApp、Slack、Discord 等平台使用同一个助手——它还能主动发消息给你。
- 记忆与持久化:Moltbot 在工作区内以 Markdown 存储记忆文件,并建立索引以便检索,因此助手能在会话间“记住”(详见下文)。
核心能力一览
| 功能 | 说明 |
|---|---|
| 多渠道 | 支持 Telegram、WhatsApp、Discord、Slack、iMessage 等。 |
| 完整电脑访问 | 执行 shell 命令、管理文件并控制浏览器。 |
| 主动式 AI | 不只是等待你的指令;还能发送“心跳”提醒或通知。 |
| 隐私优先 | 你的文件与逻辑保留在本地硬件上;仅提示词会发往 API。 |
| 自我进化 | 能编写自己的“技能”,随时间扩展功能。 |
| 兼容 OpenAI | Moltbot 支持与 OpenAI 兼容的 API 协议;可连接到任何兼容服务。 |
| 自定义 baseUrl | 支持修改 API 端点地址;可轻松在不同提供商之间切换。 |
Clawdbot 如何在没有数据库的情况下“记住”一切?
Moltbot 最具创新性的方面之一是其透明的记忆架构。多数 AI 工具在会话间存在“失忆”问题。Moltbot 通过位于工作区内的一套分层纯 Markdown 文件来解决。该方法确保你可以阅读、编辑并审计你的 AI 对你的了解。
记忆设计是什么,如何运作?
Moltbot 的记忆刻意保持简单且可审计:记忆是代理工作区内的纯 Markdown 文件。文件是事实来源——模型仅“记住”写入磁盘的内容。默认布局为:
memory/YYYY-MM-DD.md— 每日日志(仅追加;会话启动时读取今天和昨天)。MEMORY.md— 你可控的、仅在私人会话中加载的长期记忆。
这种设计有两大好处:
- 可审计性——你可以阅读并编辑助手将用作记忆的内容。
- 工具化的简洁性——记忆插件提供向量/BM25 索引,使代理能快速检索相关记忆条目。
技术实现
- 会话/对话存储:Gateway 追踪会话并将正确的上下文转发到代理运行时。这使代理能在消息与渠道之间保持对话状态。
- 索引本地数据:Moltbot 可以为本地文件与文档建立索引,并通过搜索工具(语义或关键词)暴露以供检索。代理因此能“记住”你的会议记录、片段或代码。
- 工具输出与记忆原语:技能与工具可以写入持久存储(数据库或文件系统),Moltbot 能在后续提示中引用这些条目。许多部署使用 SQLite、Postgres 或本地 JSON/YAML 进行小型设置。
- LLM 嵌入与向量存储:用于语义召回的常见模式是对文档做嵌入并将向量存入向量数据库,然后检索最近邻以纳入提示。Moltbot 的架构支持与模型无关的工具调用,因此你可以插入自己的嵌入 + 向量库组合。
安全提示:由于记忆是持久的且技能可以在主机上运行命令,因此推荐默认设置较为保守:对未知发送者使用 DM 配对、对非主会话进行沙箱隔离,并使用 moltbot doctor 检查以暴露风险配置。始终审阅安全文档,并将入站消息视为不可信输入。
记忆层级
| 文件 | 用途 |
|---|---|
| SOUL.md | 定义代理的性格、语气与核心运行规则。 |
| USER.md | 存储关于你的事实(例如,“我更偏好 Python 而非 Ruby”“我在金融科技行业工作”)。 |
| MEMORY.md | 长期、经整理的永久记忆。 |
| memory/YYYY-MM-DD.md | 每日日志与来自特定日期的原始上下文。 |
当你对 Moltbot 说“记住我喜欢把报告做成 PDF 格式”时,它不会把这存入一个隐藏的 SQL 数据库。它会直接打开 USER.md 并追加一个新的条目。这让代理能在数周的对话中保持上下文,更像一个真正的私人助理,而不是每天早上一个重置的新实例。
Moltbot 设置指南:前提条件与安装
下面是一份实用的设置清单与命令,帮助在 macOS/Linux(Ubuntu)上运行一个基础的 Moltbot 实例。这是面向生产的简版指南——如果你需要 GUI 或托管主机,请跳到 API 托管部分。
你需要准备什么(前提条件)
- 一台运行 macOS 或 Linux 的机器(Windows 可通过 WSL2 使用)。Gateway 与 CLI 需要 Node.js v22+。
- 一个文本编辑器与基本 Shell 使用经验。
- 至少一个 LLM API 密钥(OpenAI、Anthropic、Venice,或本地模型如 Ollama)——Moltbot 本身与模型无关。
- 可选:Docker(若你偏好容器化部署)。
分步安装
- 安装软件包:在终端运行:
npm install -g clawdbot@latest - 启动引导向导:向导是安装的核心。它将引导你完成安全确认与模型选择。
clawdbot onboard --install-daemon - 确认安全风险:Moltbot 会要求你确认其对机器具有近似“root”级别的访问。你必须键入确认才能继续。
- 配置 Gateway:向导会将
clawdbot gateway安装为后台服务(Mac 上为launchd,Linux 上为systemd),使其 24/7 保持在线。
快速安装(macOS / Linux)
此示例使用推荐的 git + npm 方法,与官方文档一致。
# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot
# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli # or: npm ci && npm run build
# Create environment file from example
cp .env.example .env
# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start
Docker(基础)
# docker-compose.yml (simplified)
version: "3.8"
services:
moltbot:
image: moltbot/moltbot:latest
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OTHER_KEYS=...
volumes:
- ./data:/app/data
ports:
- "3000:3000"
运行:
docker compose up -d
安装后:绑定消息渠道
Moltbot 支持多渠道。绑定通常涉及从 Gateway 的 UI 或 CLI 生成一个配对令牌,并使用一个小的“配对 URL”连接 Telegram 机器人或 WhatsApp 账号——具体步骤取决于你选择的渠道连接器(Telegram Bot API vs. grammY 包装器,WhatsApp 通过 Baileys 等)。参阅文档中的 moltbot connect telegram 或 moltbot connect whatsapp。
如何通过 Moltbot 从 Telegram 控制我的电脑(步骤详解)?
下面是一个安全、实用的通过 Telegram 消息控制主机的演练——适用于远程运维、运行脚本、抓取日志或让 Moltbot 执行小任务。重要的安全提示:没有 API 令牌和防火墙时,切勿将你的 Gateway 暴露在公网;仅允许受信任的 Telegram 用户与机器人对话。
1) 使用 BotFather 创建 Telegram 机器人
- 在 Telegram 中私信
@BotFather。 - 发送
/newbot并按提示操作。 - 复制机器人令牌
123456789:ABC-...(BotFather 会展示)。
2) 将令牌添加到你的网关
通过环境变量或配置设置:
export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
# telegram:
# botToken: "123456789:ABC-..."
你也可以通过 moltbot channels add 或 moltbot configure 命令(取决于 CLI 版本)添加令牌。Telegram 文档中也有此快捷设置路径。
3) 运行引导向导并选择 Telegram
运行:
moltbot onboard --install-daemon
在向导中:
- 选择你的模型提供商(Anthropic Opus、OpenAI 或本地)。
- 在渠道提示时选择 Telegram 并粘贴令牌。
- 配置配对/允许列表以限制谁可以向机器人发消息(很重要——设置你的用户 ID,确保只有你能控制它)。
社区教程与引导过程会要求你粘贴主机上的一段命令输出以证明节点配对——按提示执行即可。
4) 安全启用 exec 工具与审批
Moltbot 可通过其 exec 工具运行系统命令,但采用显式审批模型:
- Exec 审批记录在
~/.clawdbot/exec-approvals.json。 - 系统会在聊天中首次请求动作时提示审批;你可以回复
/approve继续(或拒绝)。 - 对于全自动工作流,你可以创建一个受限的允许列表或一组预批准脚本的“bin”。
示例:在 moltbot 配置中启用 exec 工具(或通过 UI/插件):
{
"tools": {
"exec": {
"enabled": true,
"allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
}
}
}
该项目具备明确的 exec 审批流程,并在需要时将审批提示转发到聊天渠道,便于审阅与批准操作。
5) 在 Telegram 中尝试一个安全命令
从你的 Telegram 账号(受允许的用户)发送:
@YourMoltbot Hi — please run: uptime
助手会:
- 请求确认(如果 exec 需要审批)。
- 在主机上运行允许的命令。
- 将输出返回到聊天。
6) 通过技能创建更安全的动作
与其通过聊天直接开放 Shell 访问,更推荐用技能封装动作(例如调用脚本并返回格式化结果的 backup 技能)。技能可以安装/卸载,且更易审查。
如何托管 Moltbot API(网关)并使用 HTTP API?
Moltbot 能否提供供其他程序调用的 API?
能。Moltbot 的 Gateway 可以暴露与 OpenResponses 兼容的 HTTP 端点(如 POST /v1/responses)以及一个 OpenAI 风格的 /v1/chat/completions 兼容层。这些端点默认禁用,必须在网关配置中启用。OpenResponses 的 HTTP 端点直接映射到网关的代理运行路径,因此请求会作为真实的代理会话执行(具备同样的路由与权限)。
什么是 Moltbot 中的 API 代理?
在 Moltbot 中,API 代理是一个位于 Moltbot 代理运行时与上游 LLM 提供商之间的中间服务,例如:
- OpenAI
- Anthropic
- Venice
- Azure OpenAI
- 自托管的 OpenAI 兼容端点
与其让 Moltbot 直接调用提供商,所有请求都会通过代理路由,代理可以:
- 重写请求与响应
- 强制执行速率限制
- 统计令牌使用与成本
- 动态切换模型
- 对 Moltbot 隐藏真实 API 密钥
- 增加认证、日志与缓存
架构示意:
Moltbot → API Proxy → LLM Provider
这种架构显著提升安全性、可观测性与成本控制。
🚀 快速开始:我们推荐使用 CometAPI (apiyi.com) 获取你的 API 密钥。注册即可获得免费额度。它支持所有主流算法,如 Claude Sonnet 4.5、Claude Opus 4.5 与 GPT-5.2,价格通常比官方便宜 10-20%。
第一步:获取你的 API 代理密钥
方法一:设置环境变量。在你的 Moltbot .env 文件中:
OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini
要点:
OPENAI_API_BASE指向你的代理,而非 OpenAIOPENAI_API_KEY是由代理签发的令牌- 实际使用的提供商/模型由代理决定
更新后重启 Moltbot。
方法二:通过 config.json 配置:
- 查找 Moltbot 配置文件
- 打开配置文件并添加或更新
models.providers
配置文件通常位于以下位置:
| 操作系统 | 配置文件路径 |
|---|---|
| macOS | ~/.clawdbot/config.json 或 ~/.moltbot/config.json |
| Linux | ~/.clawdbot/config.json 或 ~/.moltbot/config.json |
| Windows | %USERPROFILE%\.clawdbot\config.json |
你也可以通过命令行找到它:
# See your current config
moltbot config list
# Get the exact path to your config file
moltbot config path
第二步:验证连通性
运行一个简单的测试提示:
moltbot test llm
如果配置正确,Moltbot 将正常收到响应——而无需直接联系上游提供商。
使用托管模型运行 Moltbot 的成本估算
使用托管模型的成本取决于 API 价格,因此选择更便宜的 API 提供商非常重要,这也是我推荐 CometAPI 的原因。
影响价格的因素通常包括:
- 供应商定价。使用托管模型的成本取决于 API 价格,因此选择更便宜的 API 供应商至关重要,这也是我推荐 CometAPI 的原因。
- 旗舰模型与轻量模型的选择;例如 Claude Opus 4.5 与 GLM 4.7 的价格差异显著。
- 处理内容的复杂度。如果你的工作流文本密集(文件解析、长回复),需要为令牌做额外预算。
大致示例(说明性,社区帖子报告的 2026 年 1 月价格):
- 偶尔个人使用(每月几百次响应,混合本地模型与便宜的 API 调用):$0–$50/月。
- 重度个人/专业开发者使用(文件索引、频繁工具调用):$100–$1,000/月。
- 团队或常开生产(多用户 + 网页抓取 + 链式调用):$1,000+/月,除非你积极优化模型使用。
降低成本的方法
- 模型路由:将轻量任务交给更便宜的模型或本地 LLM,把昂贵模型留给长推理——社区测试显示这可将成本降低约 50% 或更多。
- 中继与批量定价:使用提供更优每令牌费率的 API 中继或私有模型托管(Venice、私有端点)。
- 积极缓存与截断:缓存 LLM 输出,截断长历史,用摘要替代重发完整上下文。
Moltbot 的高级 API 代理功能
按任务类型进行模型路由
你可以检查请求负载并进行动态路由:
function selectModel(messages) {
const systemPrompt = messages[0]?.content || "";
if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
return "gpt-4.1";
}
return "gpt-4.1-mini";
}
该模式在不牺牲质量的情况下降低成本。
令牌与成本限制
你可以强制硬性限制:
if (req.body.max_tokens > 2000) {
return res.status(400).json({
error: "Token limit exceeded"
});
}
有些团队也会按 Moltbot 用户 ID 跟踪累计用量。
允许 AI 访问我电脑的 Shell 是否安全?
这是每个 Moltbot 用户最关键的问题。让 LLM 能运行 rm -rf 本质上是有风险的。Moltbot 包含多项护栏以缓解风险:
- 沙箱:你可以在 Docker 容器中运行 Moltbot。这会将代理的“世界”限制在特定文件夹内,避免接触系统文件。
- 显式批准:默认情况下,“主会话”(与你的直接聊天)具有更高信任,但你可以配置机器人在运行任何破坏性 Shell 命令前请求许可。
- 密码保护:如果你暴露了 Moltbot Web UI,务必在
config.json中启用密码认证:
{
"gateway": {
"auth": {
"mode": "password",
"password": "YOUR_STRONG_SECURE_PASSWORD"
}
}
}
结语:
Moltbot 不仅是一个聊天机器人;它是构建个人数字员工的基础设施。通过自托管,你在获得不眠 AI 生产力的同时,重获对数据的控制。无论是通过 Telegram 管理日程,还是躺在沙发上自动化你的 DevOps 流水线,Moltbot 都让我们一窥未来:每个人的“Jarvis”都在房角的 Mac Mini 上运行。
如果你需要一个拥有多家厂商模型(如 Chatgpt-5.2、Claude opus 4.5 等)且价格低于官方的平台,那么 CometAPI 是最佳选择。开始使用前,请在 Playground 中探索模型能力并查阅 API guide 获取详细说明。在访问前,请确保你已登录 CometAPI 并获取 API 密钥。CometAPI 提供远低于官方的价格,帮助你集成。
准备好出发了吗?→ 立即注册 CometAPI!
