Как запустить openClaw (Moltbot/ Clawdbot ) на локальных LLM без API

CometAPI
AnnaFeb 1, 2026
Как запустить openClaw (Moltbot/ Clawdbot ) на локальных LLM без API

OpenClaw (ранее Clawdbot, кратко Moltbot) вырос быстрее, чем почти любой агентский проект, который я видел.

Менее чем за три недели он преодолел отметку в 100 000 звёзд на GitHub. Люди называют его «круглосуточным AI-стажёром», и честно говоря, это описание недалеко от истины. Он умеет читать сообщения, выполнять команды shell, управлять файлами и тихо работать в фоне, пока вы занимаетесь своими делами.

Но после первоначального восторга везде стал появляться очень практичный вопрос:

«Это круто… но как запустить его без траты денег на API?»

Именно из-за этого вопроса я и написал это руководство.

Что вызывает шум вокруг OpenClaw (ранее Clawdbot)?

Чтобы понять технологический сдвиг в сторону локального исполнения, нужно сначала оценить, что такое OpenClaw. В своей основе openClaw ( Moltbot / Clawdbot) — автономный агент, «ориентированный на диалог». В отличие от традиционных чат-ботов, которые живут в вкладке браузера и ждут подсказок, OpenClaw работает как фоновой демон на вашей машине. Он напрямую интегрируется с мессенджерами вроде WhatsApp, Telegram, Discord и Signal, фактически превращая ваш чат-приложение в командную строку для вашей жизни.

Эволюция от Clawdbot к OpenClaw

История проекта столь же бурная, сколь и захватывающая.

Clawdbot (конец 2025): Созданный Peter Steinberger, он был запущен как обёртка для Claude от Anthropic, предназначенная для выполнения задач, а не просто вывода текста. Его прозвали «Claude с руками».

Moltbot (январь 2026): После спора о товарном знаке с Anthropic относительно названия «Clawd» проект был переименован в «Moltbot», приняв талисмана-лобстера по имени «Molty» (отсылая к линьке панциря).

OpenClaw (30 января 2026): Чтобы подчеркнуть открытость исходников и ещё больше дистанцироваться от конкретных корпоративных идентичностей, сохранив при этом наследие «Claw», сообщество остановилось на OpenClaw.

OpenClaw выделяется своей системой разрешений. Он может читать вашу почту, проверять календарь, выполнять команды shell и даже управлять собственной памятью в Markdown-файлах, хранящихся локально. Однако его конфигурация по умолчанию подразумевает отправку всего этого контекста в облачные API (в первую очередь Anthropic или OpenAI), что поднимает два критичных вопроса: стоимость и приватность.

Почему стоит перейти на локальные LLM?

«Из коробки» openClaw ( Moltbot / Clawdbot) работает на Claude 3.5 Sonnet или Opus. Хотя эти модели очень умны, их стоимость считается по токенам. Автономный агент, работающий 24/7 — проверяя почту, наблюдая за логами серверов и суммируя чаты — может генерировать миллионы токенов в день.

Стоимость автономии

Автономные агенты ведут себя не как обычные чат-сессии. Они циклятся. Они перечитывают контекст. Они суммируют логи. Они снова и снова проверяют входящие.

Я видел отчёты пользователей вроде:

«Я оставил Clawdbot работать на ночь, чтобы реорганизовать мой Obsidian vault, и проснулся с счётом на $40.»

Это не неправильное использование — так просто работает автономия.

С локальной моделью предельная стоимость падает до нуля (кроме электроэнергии). Вы перестаёте думать «стоит ли мне это запускать?» и начинаете думать «что ещё я могу автоматизировать?»

Приватность — не побочный бонус, а главный

openClaw ( Moltbot / Clawdbot) может читать:

  • Электронные письма
  • Истории чатов
  • Исходный код
  • Личные документы

OpenClaw спроектирован для глубокого доступа к вашей системе. Он читает ваши личные сообщения и файловые системы. При использовании API каждый файл, который бот читает, загружается на сторонний сервер для обработки. При использовании локальной LLM данные никогда не покидают вашу локальную сеть. Ваши финансовые документы, приватные чаты и кодовые базы остаются изолированными от Big Tech.

Запуск OpenClaw с Ollama (моя рекомендация по умолчанию)

Если вам комфортно работать с терминалом, Ollama — это самый простой способ запускать локальные LLM сегодня.

openClaw ( Moltbot / Clawdbot) поддерживает API, совместимые с OpenAI. Ollama по умолчанию предоставляет такой API. В этом весь фокус.

Минимальные требования к системе и ПО

  • Машина с современной ОС (Linux/macOS/Windows + WSL2). Для крупных моделей рекомендуется локальное ускорение на GPU; для небольших моделей или лёгких задач достаточно CPU.
  • Node.js ≥ 22 (CLI и Gateway OpenClaw ожидают наличие Node).
  • Ollama (или другой локальный рантайм LLM), установленный локально, если вы планируете запускать локальные модели. Ollama по умолчанию предоставляет локальный API, совместимый с OpenAI (обычно на http://localhost:11434).
  • Если используете прокси вроде Lynkr, установите его (npm или клон репозитория). Lynkr может предоставить Anthropic/OpenAI-подобную конечную точку для OpenClaw, перенаправляя запросы к локальным моделям.

Шаг 1: Установка OpenClaw (быстрые команды)

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Мастер onboarding устанавливает пользовательский сервис-демон (systemd/launchd), чтобы Gateway постоянно работал в фоне. После onboarding вы можете запустить Gateway вручную для отладки:

openclaw gateway --port 18789 --verbose

Шаг 2: Установка Ollama и загрузка модели

Ollama проста в установке и запуске. На macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama предоставляет API, совместимый со многими OpenAI-стилевыми клиентами; интеграция провайдеров OpenClaw поддерживает Ollama и автоматически обнаружит локальный экземпляр Ollama, если вы не переопределите конфигурацию.

Шаг 3: Минимальная конфигурация модели OpenClaw

разверните совместимый слой (Lynkr) или настройте OpenClaw на локальную конечную точку

Поскольку openClaw ( Moltbot / Clawdbot) исторически работал с определёнными формами API (например, антропик-подобными конечными точками), самый простой путь — запустить небольшой прокси, который преобразует вызовы OpenClaw в API вашего локального сервера.

  • Lynkr: установите и настройте Lynkr для прослушивания порта, который ожидает OpenClaw; сконфигурируйте переадресацию на ваш экземпляр Ollama/text-generation-webui. В сообществе есть пошаговые файлы и примерные записи config.json. После запуска Lynkr OpenClaw может оставаться настроенным на исходного провайдера, но фактически будет общаться с вашей локальной моделью.

Если вы предпочитаете изменить конфигурацию OpenClaw напрямую, укажите URL бэкенда модели в конфигурации .openclaw на конечную точку вашего локального сервера:

openClaw ( Moltbot / Clawdbot) хранит конфигурацию в ~/.openclaw/openclaw.json. Минимальный файл для предпочтения локальной модели выглядит так:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Если вы опустите блок models.providers.ollama, openClaw ( Moltbot / Clawdbot) зачастую автоматически обнаружит локальный экземпляр Ollama при наличии. Используйте openclaw models list и openclaw models set, чтобы интерактивно управлять настройками модели без прямого редактирования файла.

Шаг 4: Запустите OpenClaw и протестируйте сообщение

При запущенных Ollama и Gateway:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Если Gateway и модели настроены корректно, вы увидите ответ ассистента, а сообщение будет маршрутизировано через локальную модель Ollama.

Можно ли обойтись без модификации OpenClaw через прокси?

Да — именно это и делают инструменты прокси, такие как Lynkr: они предоставляют Anthropic/OpenAI-подобную конечную точку для openClaw ( Moltbot / Clawdbot), прослушивают порт, который ожидает OpenClaw, и перенаправляют содержимое на локальный экземпляр Ollama или text-generation-webui. Это ценится, потому что это без ключей API, без облачных счетов и локальное выполнение моделей, при этом вы избегаете изменений внутренних частей OpenClaw и сохраняете локальный контроль.

Архитектурный обзор (какие компоненты с чем общаются)

  • OpenClaw (agent/app) — основной ассистент, который делает вызовы к моделям, оркестрирует инструменты и интеграцию сообщений.
  • LLM-прокси (например, Lynkr) — принимает запросы OpenClaw в стиле API и перенаправляет их на локальные серверы моделей (или облачный резерв). Прокси также может реализовать кэширование, обрезку токенов и сжатие памяти для снижения затрат.
  • Локальный сервер LLM (например, Ollama, самостоятельный ggml-рантайм, Llama.cpp, локальная контейнеризованная модель) — выполняет инференс модели на машине. Ollama широко используется, поскольку предоставляет удобный локальный сервер и рабочий процесс упаковки моделей; возможны другие рантаймы.
  • Необязательный облачный резерв — прокси может маршрутизировать сложные запросы в облачные модели при необходимости (гибридный режим).

Почему использовать прокси вместо патчинга openClaw напрямую?

Приватность и TCO: Локальный инференс удерживает данные на вашей машине и избавляет от счетов за API.

Совместимость: openClaw ( Moltbot / Clawdbot) ожидает определённую поверхность API (Anthropic/«Copilot»-стиль). Прокси сохраняет эту поверхность, поэтому OpenClaw требует минимальных изменений.

Безопасность и гибкость: Прокси может реализовать правила маршрутизации запросов (сначала локально, потом облако), ограничение скорости, обрезку запросов и другие меры защиты.

Пример: настройка Lynkr для маршрутизации на локальную Ollama

  1. Установите Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Создайте файл .env (пример):
cp .env.example .env

Отредактируйте .env:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Запустите Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr по умолчанию объявит локальный прокси (например: http://localhost:8081) и совместимую с OpenAI/Anthropic конечную точку /v1, на которую может указывать OpenClaw. Затем настройте провайдера моделей OpenClaw на использование базового URL Lynkr (см. следующий фрагмент).

Укажите OpenClaw конечную точку Lynkr

Либо отредактируйте ~/.openclaw/openclaw.json, либо используйте CLI, чтобы задать базовый URL вашего провайдера:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Теперь openClaw ( Moltbot / Clawdbot) будет обращаться к http://localhost:8081/v1 (Lynkr), который маршрутизирует в ollama://kimi-k2.5 локально. Вы получаете бесшовный опыт внешнего провайдера, не покидая свою машину.

Для пользователей, предпочитающих графический интерфейс (GUI) для управления моделями или желающих использовать специфические квантованные модели (формат GGUF) из Hugging Face, предпочтительным выбором является LM Studio.

Безопасно ли запускать автономные агенты локально?

Вероятно, это самый важный вопрос. Запуская openClaw ( Moltbot / Clawdbot), вы по сути даёте ИИ доступ к shell вашей машины.

Проблема «Sudo»

Если вы попросите облачный Claude «удалить все файлы в моих документах», он может отказаться из-за фильтров безопасности. Локальная, нецензурируемая модель Llama 3 не имеет таких тормозов. Если openClaw ( Moltbot / Clawdbot) неправильно интерпретирует команду, теоретически он может выполнить разрушительные действия.

Рекомендации по безопасности

Запускайте в Docker: не запускайте openClaw ( Moltbot / Clawdbot) напрямую на «голом» хосте, если вы не полностью уверены в рисках. Используйте официальный образ Docker, который изолирует окружение.

Ниже приведён минимальный docker-compose.yml, демонстрирующий три сервиса: Ollama (локальный рантайм модели), Lynkr (прокси) и OpenClaw Gateway (CLI, запущенный в контейнере). Примечание: адаптируйте тома и проброс устройств для доступа к GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Это иллюстративный стек; для продакшн-развёртываний добавьте сетевую изоляцию, лимиты ресурсов и проброс устройств GPU, где это необходимо.

Распространённые шаги устранения неполадок и ограничения

Если openClaw ( Moltbot / Clawdbot) не видит Ollama

  • Убедитесь, что Ollama запущена и базовый URL доступен (http://127.0.0.1:11434/v1).
  • Используйте openclaw models list и openclaw doctor, чтобы выявить проблемы конфигурации.

Если маршрутизация Lynkr не работает

  • Проверьте, что Lynkr слушает (обычно http://localhost:8081).
  • Проверьте корректность OLLAMA_ENDPOINT и MODEL_PROVIDER в .env.
  • Убедитесь, что Lynkr сопоставляет пути /v1, которые вызывает openClaw ( Moltbot / Clawdbot) — некоторые реализации провайдеров ожидают немного другие пути; при необходимости скорректируйте базовые пути.

Пробелы в возможностях моделей

Локальные модели различаются: одни отлично справляются с кодированием, другие — с чатами. Помогают гибридные стратегии (сначала локально, затем облако): маршрутизируйте рутинные задачи локально и эскалируйте сложные рассуждения в облачные модели с кэшированием для снижения стоимости. Lynkr и подобные прокси реализуют именно такую логику.

Заключение

Дизайн OpenClaw и активная экосистема вокруг него делают локальное, «без-API»-развёртывание практически осуществимым уже сегодня. С такими инструментами, как Ollama для локального хостинга, Lynkr для трансляции API и надёжной документацией сообщества, вы можете запускать способных агентов на машинах под вашим контролем — от настольного GPU до портативного устройства — не отправляя данные сторонним LLM-провайдерам.

Однако если, взвесив плюсы и минусы, вы всё же хотите использовать openClaw ( Moltbot / Clawdbot) через API без необходимого оборудования, я бы рекомендовал CometAPI. Он предоставляет конечные точки Anthropic и OpenAI и часто предлагает скидки — обычно на 20% ниже официальной цены.

Разработчики могут получить доступ к и Claude Sonnet/ Opus 4.5 и GPT-5.2 через CometAPI; последние модели указаны на дату публикации статьи. Чтобы начать, изучите возможности модели в Playground и обратитесь к API guide за подробными инструкциями. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API. CometAPI предлагает цену значительно ниже официальной, чтобы помочь вам интегрироваться.

Готовы начать?→ Зарегистрируйтесь на Gemini 3 сегодня !

Если хотите узнавать больше советов, руководств и новостей об ИИ, подписывайтесь на нас в VK, X и Discord!

Читать далее

500+ моделей в одном API

Скидка до 20%