Во главе этого движения — Moltbot (ранее известный как Clawdbot), проект, который за считанные недели прошёл путь от нишевого инструмента для разработчиков до вирусной сенсации с более чем 60 000 звёзд на GitHub. Созданный Peter Steinberger, Moltbot олицетворяет «линьку» AI-агента — сбрасывая ограничения веб‑интерфейсов, он поселяется в мессенджерах и файловых системах, которыми мы пользуемся каждый день.
Недавнее событие: проект сменил бренд с Clawdbot на Moltbot после запроса, связанного с товарным знаком, от Anthropic — «Clawd» звучало слишком похоже на «Claude».
Что такое Moltbot (Clawdbot) и почему он стал вирусным?
Moltbot — это открытый, самохостируемый AI‑агент, призванный преодолеть разрыв между мощными крупными языковыми моделями (LLM) и вашим локальным компьютером. В отличие от ChatGPT или Claude.ai, существующих внутри «закрытой» вкладки браузера, Moltbot работает как Gateway на вашем оборудовании (Mac, Linux или VPS).
Он переводит сообщения на естественном языке из таких платформ, как Telegram, WhatsApp и Slack, в исполняемые действия на вашей машине. Нужно найти файл на рабочем столе, пока вы в магазине, или запустить сложный скрипт деплоймента с телефона — Moltbot выступает вашим цифровым прокси с полным доступом к системе.
Почему он отличается
- Локальное выполнение и инструменты (local‑first): Moltbot действительно может запускать команды на вашем хосте (с согласия), вызывать внешние API и использовать «skills» — небольшие программы или определённые в Markdown рабочие процессы.
- Мультиканальность: вы используете одного и того же ассистента из Telegram, WhatsApp, Slack, Discord и других — он может проактивно писать вам.
- Память и постоянство: Moltbot сохраняет файлы памяти в рабочем пространстве (Markdown) и индексирует их для быстрого извлечения, чтобы ассистент «помнил» между сессиями (подробности ниже).
Ключевые возможности одним взглядом
| Feature | Description |
|---|---|
| Multi-Channel | Используйте Telegram, WhatsApp, Discord, Slack, iMessage и другие. |
| Full PC Access | Выполняйте shell‑команды, управляйте файлами и контролируйте браузеры. |
| Proactive AI | Он не просто ждёт вас; может отправлять «heartbeat»‑сигналы или напоминания. |
| Privacy First | Ваши файлы и логика остаются на вашем оборудовании; к API уходят только промпты. |
| Self-Evolution | Может писать собственные «Skills», расширяя функциональность со временем. |
| openai-compatible | Moltbot поддерживает совместимый с OpenAI протокол API; подключается к любому совместимому сервису |
| Custom baseUrl | Поддерживает изменение адреса конечной точки API; легко переключаться между провайдерами |
Как Clawdbot «запоминает» всё без базы данных?
Одна из самых инновационных сторон Moltbot — его прозрачная архитектура памяти. Большинство AI‑инструментов страдает «амнезией» между сессиями. Moltbot решает это с помощью многослойной системы обычных файлов Markdown в вашем рабочем пространстве. Такой подход гарантирует, что вы можете читать, редактировать и аудитировать всё, что ваш AI знает о вас.
Как устроена память и как она работает?
Память Moltbot преднамеренно проста и поддаётся аудиту: память — это простые файлы Markdown внутри рабочей области агента. Файлы — единственный источник истины: модель «помнит» только то, что записано на диск. Стандартный макет использует:
memory/YYYY-MM-DD.md— ежедневные журналы только для добавления (ассистент читает сегодня + вчера при старте сессии).MEMORY.md— кураторская долгосрочная память, которой вы управляете и загружаете только в приватные сессии.
У этого дизайна две ключевые выгоды:
- Аудитируемость — вы можете читать и редактировать то, что ассистент будет использовать как память.
- Простота для инструментов — плагины памяти предоставляют векторную/BM25‑индексацию, чтобы агент быстро находил релевантные записи.
Технический подход
- Хранилище разговоров/сессий: Gateway отслеживает сессии и пересылает правильный контекст в рантайм агента. Это позволяет агенту сохранять состояние беседы между сообщениями и каналами.
- Индексированные локальные данные: Moltbot может индексировать локальные файлы и документы и предоставлять их через инструменты поиска (семантический или по ключевым словам) для извлечения. Так агент «помнит» ваши заметки с встреч, сниппеты или код.
- Выводы инструментов и примитивы памяти: Skills и инструменты могут писать в долговременное хранилище (база данных или файловая система), а Moltbot может ссылаться на эти записи при последующих запросах. Многие развертывания используют SQLite, Postgres или локальные JSON/YAML для небольших установок.
- LLM‑эмбеддинги и векторное хранилище: Для семантического воспоминания обычно документы кодируются в эмбеддинги и хранятся в векторной БД, затем ближайшие соседи извлекаются для включения в промпты. Архитектура Moltbot поддерживает независимые от модели вызовы инструментов, так что вы можете подключить любую комбинацию эмбеддингов и векторного хранилища.
Предупреждение по безопасности: поскольку память постоянна, а skills могут запускать команды на хосте, рекомендуемые значения по умолчанию консервативны: DM‑сопряжение для неизвестных отправителей, песочница для неосновных сессий и проверка moltbot doctor для выявления рискованных конфигураций. Всегда изучайте документацию по безопасности и относитесь к входящим сообщениям как к ненадёжному вводу.
Иерархия памяти
| File | Purpose |
|---|---|
| SOUL.md | Определяет личность агента, тон и базовые правила работы. |
| USER.md | Хранит факты о вас (например: «Я предпочитаю Python вместо Ruby», «Я работаю в финтехе»). |
| MEMORY.md | Долгосрочная, кураторская память, которую агент сохраняет для постоянного воспоминания. |
| memory/YYYY-MM-DD.md | Ежедневные логи и сырый контекст за конкретные даты. |
Когда вы говорите Moltbot: «Запомни, что я люблю отчёты в PDF‑формате», он не сохраняет это в скрытой SQL‑базе данных. Он буквально открывает USER.md и добавляет новый пункт списка. Это позволяет агенту поддерживать контекст в течение недель общения, создавая ощущение настоящего персонального ассистента, а не новой инстанции каждое утро.
Руководство по установке Moltbot: требования и инсталляция
Ниже — практический чек‑лист и команды для запуска базового инстанса Moltbot на macOS/Linux (Ubuntu). Это сжатое, ориентированное на продакшн руководство — если вам нужна GUI или управляемый хостинг, переходите к разделу про API‑хостинг.
Что вам потребуется (пререквизиты)
- Машина под управлением macOS или Linux (Windows возможен через WSL2). Node.js v22+ требуется для gateway и CLI.
- Текстовый редактор и базовые навыки работы с shell.
- Как минимум один ключ LLM API (OpenAI, Anthropic, Venice или локальная модель вроде Ollama) — сам Moltbot модель‑агностичен.
- Необязательно: Docker, если предпочитаете контейнеризированное развертывание.
Пошаговая установка
- Установите пакет: выполните в терминале:
npm install -g clawdbot@latest - Запустите мастера онбординга: мастер — сердце настройки. Он проведёт вас через подтверждения по безопасности и выбор модели.
clawdbot onboard --install-daemon - Подтвердите риски безопасности: Moltbot попросит вас признать, что он имеет доступ, подобный «root». Нужно ввести подтверждение, чтобы продолжить.
- Настройте Gateway: мастер установит
clawdbot gatewayкак фоновую службу (launchdна Mac илиsystemdна Linux), чтобы он оставался онлайн 24/7.
Быстрая установка (macOS / Linux)
Этот пример использует рекомендуемый метод git + npm, соответствующий официальной документации.
# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot
# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli # or: npm ci && npm run build
# Create environment file from example
cp .env.example .env
# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start
Docker (basic)
# docker-compose.yml (simplified)
version: "3.8"
services:
moltbot:
image: moltbot/moltbot:latest
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OTHER_KEYS=...
volumes:
- ./data:/app/data
ports:
- "3000:3000"
Запуск:
docker compose up -d
После установки: привяжите канал сообщений
Moltbot поддерживает несколько каналов. Привязка обычно включает генерацию токена сопряжения из UI или CLI Gateway и использование небольшого «pairing URL» для подключения бота Telegram или аккаунта WhatsApp — конкретные шаги зависят от выбранного коннектора канала (Telegram Bot API vs. grammY‑обёртка, WhatsApp через Baileys и т. п.). См. документацию по moltbot connect telegram или moltbot connect whatsapp.
Как управлять ПК из Telegram через Moltbot (шаг за шагом)?
Ниже — безопасный, практичный пошаговый сценарий управления хостом через сообщения Telegram — полезно для удалённого администрирования, запуска скриптов, получения логов или просьбы к Moltbot выполнить небольшую задачу. Важное замечание по безопасности: не выставляйте ваш Gateway в открытый интернет без токена API и фаервола; разрешайте общение с вашим ботом только доверенным пользователям Telegram.
1) Создайте бота Telegram через BotFather
- В Telegram отправьте сообщение
@BotFather. - Отправьте
/newbotи следуйте подсказкам. - Скопируйте токен бота
123456789:ABC-...(BotFather покажет его).
2) Добавьте токен в ваш gateway
Установите переменную окружения или конфиг:
export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
# telegram:
# botToken: "123456789:ABC-..."
Вы также можете добавить токен через команды moltbot channels add или moltbot configure в зависимости от версии CLI. Документация Telegram описывает этот быстрый путь настройки.
3) Запустите мастера онбординга и выберите Telegram
Выполните:
moltbot onboard --install-daemon
Во время мастера:
- Выберите провайдера модели (Anthropic Opus, OpenAI или локальный).
- Когда будет предложено выбрать каналы, выберите Telegram и вставьте токен.
- Настройте pairing/allowlist, чтобы ограничить круг тех, кто может писать боту (важно — укажите свой user ID, чтобы только вы могли его контролировать).
Гайды сообщества и процесс онбординга попросят вас вставить небольшой вывод команды с вашего хоста для подтверждения сопряжения — следуйте подсказкам.
4) Включите инструмент exec и подтверждения (безопасно)
Moltbot может выполнять системные команды через инструмент exec, но делает это по явной модели подтверждений:
- Подтверждения exec записываются в
~/.clawdbot/exec-approvals.json. - Система впервые запросит подтверждение в чате, когда запрашивается действие; вы можете ответить
/approve, чтобы продолжить (или отказать). - Для полностью автоматизированных сценариев можно создать ограниченный allowlist команд или «bin» из заранее разрешённых скриптов.
Пример: включите инструмент exec в конфиге moltbot (или через UI/плагин):
{
"tools": {
"exec": {
"enabled": true,
"allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
}
}
}
Проект имеет явные потоки подтверждения exec и пересылает запросы на подтверждение в каналы чатов по требованию, упрощая просмотр и утверждение операций.
5) Попробуйте безопасную команду из Telegram
Со своего аккаунта Telegram (разрешённого пользователя) отправьте:
@YourMoltbot Hi — please run: uptime
Ассистент:
- Попросит подтверждение (если exec требует одобрения).
- Запустит разрешённую команду на хосте.
- Вернёт вывод в чат.
6) Создавайте более безопасные действия через skills
Вместо прямого доступа к shell через чат предпочитайте skills, которые инкапсулируют действия (например, skill backup, вызывающий скрипт и возвращающий аккуратно отформатированный результат). Skills можно устанавливать и удалять; их проще проверять.
Как хостить API Moltbot (Gateway) и использовать HTTP API?
Может ли Moltbot обслуживать API, к которому могут обращаться другие программы?
Да. Gateway Moltbot может выдавать HTTP‑эндпоинты, совместимые с OpenResponses (например, POST /v1/responses) и шим в стиле OpenAI /v1/chat/completions. Эти эндпоинты по умолчанию отключены и должны быть включены в конфиге gateway. HTTP‑эндпоинт OpenResponses напрямую отображается на путь запуска агента в gateway, так что запросы выполняются как реальные сессии агента (с тем же маршрутизацией/правами).
Что такое API‑прокси в Moltbot?
API‑прокси в Moltbot — это промежуточный сервис между рантаймом агента и вышестоящими провайдерами LLM, такими как:
- OpenAI
- Anthropic
- Venice
- Azure OpenAI
- Самохостируемые эндпоинты, совместимые с OpenAI
Вместо того чтобы Moltbot вызывал провайдера напрямую, все запросы проходят через прокси, который может:
- Переписывать запросы и ответы
- Принуждать лимиты скорости
- Отслеживать использование токенов и расходы
- Динамически переключать модели
- Маскировать реальные ключи API от Moltbot
- Добавлять аутентификацию, логирование и кэширование
Концептуально:
Moltbot → API Proxy → LLM Provider
Такая архитектура существенно улучшает безопасность, наблюдаемость и контроль затрат.
🚀 Быстрый старт: рекомендуем использовать CometAPI (apiyi.com) для получения ключа API. Регистрация предоставляет бесплатные кредиты. Поддерживаются все основные алгоритмы, такие как Claude Sonnet 4.5, Claude Opus 4.5 и GPT-5.2, и обычно цены на 10–20% ниже официальных.
Шаг 1: Получите ключ API‑прокси
Метод 1: Установите переменные окружения. В вашем .env файле Moltbot:
OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini
Важные моменты:
OPENAI_API_BASEуказывает на ваш прокси, а не на OpenAIOPENAI_API_KEY— это токен, выданный прокси- Прокси решает, какой провайдер/модель фактически используется
Перезапустите Moltbot после обновления этих значений.
Метод 2: Настройка через config.json:
- Найдите конфигурационный файл Moltbot
- Откройте конфиг и добавьте или обновите раздел
models.providers
Конфиг обычно находится здесь:
| Operating System | Config File Path |
|---|---|
| macOS | ~/.clawdbot/config.json or ~/.moltbot/config.json |
| Linux | ~/.clawdbot/config.json or ~/.moltbot/config.json |
| Windows | %USERPROFILE%\.clawdbot\config.json |
Также можно найти через командную строку:
# See your current config
moltbot config list
# Get the exact path to your config file
moltbot config path
Шаг 2: Проверьте подключение
Запустите простой тест‑промпт:
moltbot test llm
Если всё настроено правильно, Moltbot будет получать ответы как обычно — не обращаясь напрямую к вышестоящему провайдеру.
Оценка стоимости использования Moltbot с управляемыми моделями
Стоимость использования управляемой модели зависит от цены API, поэтому выбор недорогого провайдера API очень важен, именно поэтому я рекомендую CometAPI.
На цену обычно влияют:
- Цены поставщика. Стоимость использования управляемой модели зависит от цены API, поэтому выбор более дешёвого вендора критичен, именно поэтому я рекомендую CometAPI.
- Выбор между флагманской и облегчённой моделью; например, разница в цене между Claude Opus 4.5 и GLM 4.7 значительна.
- Сложность обрабатываемого контента. Если ваши процессы «тяжелы» по тексту (парсинг файлов, длинные ответы), учитывайте токены.
Приблизительные примеры (иллюстративно, цены по сообщениям сообщества за январь 2026):
- Эпизодическое личное использование (пара сотен ответов в месяц, смешанные локальные модели и недорогие API‑вызовы): $0–$50/мес..
- Активное личное/профессиональное использование (индексация файлов, множество вызовов инструментов): $100–$1 000/мес..
- Команда или постоянный продакшн (много пользователей + веб‑скрейпинг + чейнинг): $1 000+/мес., если не оптимизировать использование моделей агрессивно.
Способы снизить расходы
- Маршрутизация моделей: отправляйте лёгкие задачи более дешёвым моделям или локальным LLM, а дорогие модели резервируйте для сложного рассуждения — тесты сообщества показывают, что так можно сократить расходы на ≈50% и более.
- Реле и оптовое ценообразование: используйте API‑релеи с более выгодной ценой за токен или приватный хостинг моделей (Venice, приватные эндпоинты).
- Агрессивное кэширование и усечение: кэшируйте вывод LLM, усекайте длинные истории и суммируйте вместо повторной отправки полного контекста.
Расширенные возможности API‑прокси для Moltbot
Маршрутизация моделей по типу задачи
Можно анализировать полезную нагрузку запроса и динамически маршрутизировать:
function selectModel(messages) {
const systemPrompt = messages[0]?.content || "";
if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
return "gpt-4.1";
}
return "gpt-4.1-mini";
}
Этот паттерн снижает расходы без потери качества.
Лимиты токенов и стоимости
Можно вводить жёсткие лимиты:
if (req.body.max_tokens > 2000) {
return res.status(400).json({
error: "Token limit exceeded"
});
}
Некоторые команды также отслеживают накопленное использование по user ID Moltbot.
Безопасно ли давать AI доступ к shell моего компьютера?
Это самый критичный вопрос для любого пользователя Moltbot. Давать LLM возможность выполнить rm -rf по своей природе рискованно. Moltbot включает несколько защитных механизмов:
- Песочница: вы можете запустить Moltbot внутри Docker‑контейнера. Это ограничивает «мир» агента конкретной папкой, не позволяя ему трогать системные файлы.
- Явное подтверждение: по умолчанию «Основные сессии» (прямые чаты с вами) имеют более высокий уровень доверия, но вы можете настроить бота так, чтобы он запрашивал разрешение перед выполнением любых разрушительных команд shell.
- Защита паролем: если вы публикуете веб‑интерфейс Moltbot, всегда включайте аутентификацию по паролю в вашем
config.json:
{
"gateway": {
"auth": {
"mode": "password",
"password": "YOUR_STRONG_SECURE_PASSWORD"
}
}
}
Заключение:
Moltbot — это больше, чем просто чатбот; это инфраструктура для персонального цифрового сотрудника. Хостируя его самостоятельно, вы возвращаете контроль над своими данными и получаете продуктивность AI, который никогда не спит. Используете ли вы его для управления календарём через Telegram или для автоматизации вашего devops‑конвейера с дивана — Moltbot даёт взгляд в будущее, где у каждого есть свой «Jarvis», работающий на Mac Mini в углу комнаты.
Если вам нужна API‑платформа с моделями разных вендоров (например, Chatgpt-5.2, Claude opus 4.5 и т. д.) по цене ниже официальной, то CometAPI — лучший выбор. Для начала изучите возможности модели в Playground и обратитесь к API guide за подробными инструкциями. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API. CometAPI предлагает цену значительно ниже официальной, чтобы помочь вам с интеграцией.
Готовы начать? → Sign up for CometAPI today !
Если хотите больше советов, руководств и новостей об AI, подписывайтесь на нас в VK, X и Discord!
