Jak uruchomić openClaw (Moltbot/ Clawdbot ) na lokalnych LLM bez API

CometAPI
AnnaFeb 1, 2026
Jak uruchomić openClaw (Moltbot/ Clawdbot ) na lokalnych LLM bez API

OpenClaw (dawniej Clawdbot, przez krótki czas Moltbot) wystrzelił szybciej niż niemal każdy projekt agenta, jaki widziałem.

W mniej niż trzy tygodnie przekroczył 100,000 gwiazdek na GitHubie. Ludzie nazywają go „24/7 stażystą AI” i szczerze mówiąc, to określenie niewiele mija się z prawdą. Potrafi czytać wiadomości, uruchamiać polecenia shell, zarządzać plikami i cicho działać w tle, podczas gdy Ty zajmujesz się swoimi sprawami.

Ale po początkowej ekscytacji wszędzie zaczęło pojawiać się bardzo praktyczne pytanie:

„To jest super… ale jak uruchomić to bez przepalania pieniędzy na API?”

To pytanie jest dokładnie powodem, dla którego napisałem ten przewodnik.

O co cały szum wokół OpenClaw (dawniej Clawdbot)?

Aby zrozumieć techniczną zmianę w kierunku lokalnego uruchamiania, trzeba najpierw docenić, czym właściwie jest OpenClaw. W istocie openClaw ( Moltbot / Clawdbot) to autonomiczny agent „conversation-first”. W przeciwieństwie do tradycyjnych chatbotów, które żyją w zakładce przeglądarki i czekają na komendy, OpenClaw działa jako demon w tle na Twoim komputerze. Integruje się bezpośrednio z platformami komunikacyjnymi jak WhatsApp, Telegram, Discord i Signal, skutecznie zamieniając Twoją aplikację do czatu w wiersz poleceń Twojego życia.

Ewolucja od Clawdbot do OpenClaw

Historia projektu jest tak burzliwa, jak fascynująca.

Clawdbot (pod koniec 2025 r.): Stworzony przez Petera Steinbergera, został uruchomiony jako wrapper dla Claude od Anthropic, zaprojektowany do wykonywania zadań, a nie tylko generowania tekstu. Otrzymał przydomek „Claude z rękami”.

Moltbot (styczeń 2026 r.): Po sporze o znak towarowy z Anthropic dotyczącego nazwy „Clawd” projekt przebrandowano na „Moltbot”, przyjmując maskotkę homara o imieniu „Molty” (nawiązanie do linienia pancerza).

OpenClaw (30 stycznia 2026 r.): Aby podkreślić otwartoźródłowy charakter i bardziej zdystansować się od konkretnych tożsamości korporacyjnych, zachowując dziedzictwo „Claw”, społeczność wybrała nazwę OpenClaw.

Tym, co wyróżnia OpenClaw, jest jego system uprawnień. Może czytać Twoje e-maile, sprawdzać kalendarz, wykonywać polecenia shell i nawet zarządzać własną pamięcią w plikach Markdown przechowywanych lokalnie. Jednak jego domyślna konfiguracja polega na wysyłaniu całego tego kontekstu do chmurowych API (głównie Anthropic lub OpenAI), co rodzi dwa krytyczne problemy: koszty i prywatność.

Dlaczego warto przejść na lokalne LLM-y?

Domyślne „out-of-the-box” doświadczenie openClaw ( Moltbot / Clawdbot) jest zasilane przez Claude 3.5 Sonnet lub Opus. Choć te modele są bardzo inteligentne, rozliczane są per token. Autonomiczny agent działający 24/7 — sprawdzający e-maile, monitorujący logi serwerowe i podsumowujący czaty — może generować miliony tokenów dziennie.

Koszt autonomii

Autonomiczne agenty nie zachowują się jak sesje czatu. Zapętlają się. Ponownie czytają kontekst. Podsumowują logi. Sprawdzają skrzynki odbiorcze raz za razem.

Widziałem relacje użytkowników w stylu:

„Zostawiłem Clawdbota działającego przez noc, żeby uporządkował mój skarbiec Obsidian, i obudziłem się z rachunkiem na $40.”

To nie jest nadużycie — tak po prostu działa autonomia.

Z lokalnym modelem koszt krańcowy spada do zero (poza energią elektryczną). Przestajesz myśleć „czy powinienem pozwolić mu działać?” i zaczynasz myśleć „co jeszcze mogę zautomatyzować?”

Prywatność nie jest efektem ubocznym — to główna korzyść

openClaw ( Moltbot / Clawdbot) potrafi czytać:

  • E-maile
  • Historie czatów
  • Kod źródłowy
  • Dokumenty osobiste

OpenClaw jest zaprojektowany do głębokiego dostępu do Twojego systemu. Czyta Twoje prywatne wiadomości i system plików. Korzystając z API, każdy plik, który bot odczytuje, jest przesyłany na serwer strony trzeciej do przetworzenia. Korzystając z lokalnego LLM, żadne dane nie opuszczają Twojej sieci lokalnej. Twoje dokumenty finansowe, prywatne czaty i bazy kodu pozostają odizolowane (air-gapped) od Big Tech.

Uruchamianie OpenClaw z Ollama (moja domyślna rekomendacja)

Jeśli dobrze czujesz się w terminalu, Ollama to dziś najprostszy sposób na uruchamianie lokalnych LLM-ów.

openClaw ( Moltbot / Clawdbot) mówi przez API kompatybilne z OpenAI. Ollama domyślnie wystawia takie API. I to cały trik.

Minimalna lista kontrolna systemu i oprogramowania

  • Maszyna z aktualnym systemem (Linux/macOS/Windows + WSL2). Lokalna akceleracja GPU zalecana dla większych modeli; CPU-only działa dla małych modeli lub lekkich zadań.
  • Node.js ≥ 22 (CLI i Gateway OpenClaw oczekują Node).
  • Ollama (lub inny lokalny runtime LLM) zainstalowana lokalnie, jeśli planujesz uruchamiać modele lokalnie. Ollama wystawia lokalne API kompatybilne z OpenAI domyślnie (zwykle pod http://localhost:11434).
  • Jeśli używasz proxy jak Lynkr, zainstaluj je (npm lub klon repozytorium). Lynkr może prezentować endpoint podobny do Anthropic/OpenAI dla OpenClaw, jednocześnie rutując do lokalnych modeli.

Krok 1: Zainstaluj OpenClaw (szybkie komendy)

OpenClaw rekomenduje instalację przez npm/pnpm. Uruchom:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Kreator onboard instaluję usługę użytkownika (systemd/launchd), aby Gateway działał w tle. Po onboard można uruchamiać Gateway ręcznie do debugowania:

openclaw gateway --port 18789 --verbose

Krok 2: Zainstaluj Ollamę i pobierz model

Ollama jest prosta w instalacji i uruchomieniu. Na macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama wystawia API kompatybilne z wieloma klientami w stylu OpenAI; integracja dostawców OpenClaw wspiera Ollamę i automatycznie wykryje lokalną instancję Ollamy, o ile nie nadpiszesz konfiguracji.

Krok 3: Minimalna konfiguracja modeli OpenClaw

wdrożenie warstwy kompatybilności (Lynkr) lub skonfigurowanie OpenClaw, by wskazywał lokalny endpoint

Ponieważ openClaw ( Moltbot / Clawdbot) historycznie rozmawia z określonymi kształtami API (np. endpointy w stylu Anthropic), najłatwiej jest uruchomić mały proxy, który tłumaczy wywołania OpenClaw na API Twojego lokalnego serwera.

  • Lynkr: zainstaluj i skonfiguruj Lynkr tak, aby nasłuchiwał na porcie oczekiwanym przez OpenClaw; skonfiguruj go do forwardowania do Twojej instancji Ollama/text-generation-webui. Społeczność publikowała samouczki ze step files i przykładowymi wpisami config.json. Po uruchomieniu Lynkr OpenClaw może pozostać skonfigurowany dla oryginalnego dostawcy, ale faktycznie będzie rozmawiał z Twoim lokalnym modelem.

Jeśli wolisz zmienić konfigurację OpenClaw bezpośrednio, skieruj URL backendu modelu w konfiguracji .openclaw na endpoint Twojego lokalnego serwera:

openClaw ( Moltbot / Clawdbot) przechowuje konfigurację w ~/.openclaw/openclaw.json. Minimalny plik preferujący lokalny model wygląda tak:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Jeśli pominiesz blok models.providers.ollama, openClaw ( Moltbot / Clawdbot) często automatycznie wykryje lokalną instancję Ollamy, jeśli jest dostępna. Użyj openclaw models list i openclaw models set, aby interaktywnie zarządzać ustawieniami modeli bez bezpośredniej edycji pliku.

Krok 4: Uruchom OpenClaw i przetestuj wiadomość

Z uruchomioną Ollamą i aktywnym Gateway:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Jeśli Gateway i modele są poprawnie skonfigurowane, zobaczysz odpowiedź asystenta, a wiadomość zostanie obsłużona przez lokalny model Ollama.

Czy mogę uniknąć modyfikowania OpenClaw przez proxy?

Tak — dokładnie to robią narzędzia proxy takie jak Lynkr: prezentują endpoint w stylu Anthropic/OpenAI dla openClaw ( Moltbot / Clawdbot), nasłuchują na porcie oczekiwanym przez OpenClaw i forwardują treść do lokalnej instancji Ollama lub text-generation-webui.. To jest wartościowe, ponieważ to brak klucza API, brak rozliczeń w chmurze i lokalne wykonywanie modelu, unika zmian wewnętrznych OpenClaw przy zapewnieniu lokalnej kontroli.

Przegląd architektury (jakie komponenty ze sobą rozmawiają)

  • OpenClaw (agent/app) — główny asystent, który wykonuje wywołania do modelu oraz orkiestruje narzędzia i integrację wiadomości.
  • Proxy LLM (np. Lynkr) — odbiera żądania w stylu API z OpenClaw i przekazuje je do lokalnych serwerów modeli (lub chmurowego fallbacku). Proxy może też wdrożyć cache, przycinanie tokenów i kompresję pamięci, aby redukować koszty.
  • Lokalny serwer LLM (np. Ollama, standalone ggml runtime, Llama.cpp, lokalny kontener z modelem) — serwuje inferencję na Twojej maszynie. Ollama jest szeroko używana, bo zapewnia łatwy lokalny serwer i workflow pakowania modelu; możliwe są też inne runtime’y.
  • Opcjonalny chmurowy fallback — proxy może kierować złożone żądania do modeli w chmurze (tryb hybrydowy).

Dlaczego używać proxy zamiast patchować openClaw bezpośrednio?

Prywatność i TCO: Lokalna inferencja utrzymuje dane na Twojej maszynie i eliminuje rachunki za API.

Kompatybilność: openClaw ( Moltbot / Clawdbot) oczekuje określonego interfejsu API (styl Anthropic/„Copilot”). Proxy zachowuje ten interfejs, więc OpenClaw wymaga minimalnych zmian.

Bezpieczeństwo i elastyczność: Proxy może wdrożyć reguły routingu (najpierw lokalnie, fallback do chmury), limitowanie stawek, przycinanie żądań oraz inne zabezpieczenia.

Przykład: skonfiguruj Lynkr do routowania do lokalnej Ollamy

  1. Zainstaluj Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Utwórz .env (przykład):
cp .env.example .env

Edytuj .env:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Uruchom Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr domyślnie ogłasza lokalne proxy (na przykład: http://localhost:8081) oraz kompatybilny z OpenAI/Anthropic endpoint /v1, na który może wskazywać OpenClaw. Następnie skonfiguruj dostawcę modelu OpenClaw, aby używał bazowego URL Lynkr (zobacz kolejny fragment).

Skieruj OpenClaw na endpoint Lynkr

Albo edytuj ~/.openclaw/openclaw.json, albo użyj CLI, aby ustawić bazowy URL dostawcy:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Teraz openClaw ( Moltbot / Clawdbot) będzie wywoływać http://localhost:8081/v1 (Lynkr), który rutuje do ollama://kimi-k2.5 lokalnie. Otrzymujesz bezszwowe doświadczenie zewnętrznego dostawcy bez opuszczania swojej maszyny.

Dla użytkowników, którzy wolą graficzny interfejs (GUI) do zarządzania modelami lub chcą używać określonych zkwantowanych modeli (format GGUF) z Hugging Face, LM Studio jest preferowanym wyborem.

Czy bezpiecznie jest uruchamiać autonomiczne agenty lokalnie?

To być może najważniejsze pytanie. Uruchamiając openClaw ( Moltbot / Clawdbot), de facto dajesz AI dostęp powłoki do swojego komputera.

Problem „Sudo”

Jeśli poprosisz Claude w chmurze o „usunie wszystkie pliki w moich dokumentach”, może odmówić ze względu na filtry bezpieczeństwa. Lokalny, niecenzurowany model Llama 3 nie ma takich zahamowań. Jeśli openClaw ( Moltbot / Clawdbot) błędnie zinterpretuje polecenie, teoretycznie może wykonać destrukcyjne komendy.

Najlepsze praktyki bezpieczeństwa

Uruchamiaj w Dockerze: Nie uruchamiaj openClaw ( Moltbot / Clawdbot) bezpośrednio na „gołym” hostcie, chyba że masz absolutną pewność ryzyka. Użyj oficjalnego obrazu Dockera, który odseparuje środowisko.

Poniższy przykład to minimalny docker-compose.yml, który demonstruje trzy usługi: Ollama (lokalny runtime modelu), Lynkr (proxy) i OpenClaw Gateway (CLI uruchamiane w kontenerze). Uwaga: dostosuj wolumeny i przekazywanie urządzeń dla dostępu do GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

To poglądowy stos; wdrożenia produkcyjne powinny dodać izolację sieci, limity zasobów i mapowanie urządzeń GPU tam, gdzie to odpowiednie.

Typowe kroki rozwiązywania problemów i ograniczenia

Jeśli openClaw ( Moltbot / Clawdbot) nie widzi Ollamy

  • Upewnij się, że Ollama działa, a bazowy URL jest osiągalny (http://127.0.0.1:11434/v1).
  • Użyj openclaw models list i openclaw doctor, aby ujawnić problemy z konfiguracją.

Jeśli routowanie Lynkr zawodzi

  • Potwierdź, że Lynkr nasłuchuje (zwykle http://localhost:8081).
  • Sprawdź .env pod kątem poprawności OLLAMA_ENDPOINT i MODEL_PROVIDER.
  • Zweryfikuj, że Lynkr mapuje ścieżki /v1, których używa openClaw ( Moltbot / Clawdbot) — niektóre implementacje dostawców oczekują nieco innych ścieżek; w razie potrzeby dostosuj ścieżki bazowe.

Luki w możliwościach modeli

Modele lokalne są różne: niektóre świetnie radzą sobie z kodowaniem, inne z rozmową. Strategie hybrydowe (najpierw lokalnie, fallback do chmury) mogą pomóc: kieruj rutynowe zadania lokalnie, a złożone rozumowanie eskaluj do modelu w chmurze z cache’owaniem, aby zmniejszyć koszty. Lynkr i podobne proxy implementują dokładnie taką logikę.

Konkluzja

Projekt OpenClaw i aktywny ekosystem wokół niego sprawiają, że lokalne wdrożenie bez API jest praktyczne już dziś. Dzięki narzędziom takim jak Ollama do lokalnego hostowania, Lynkr do tłumaczenia API oraz solidnej dokumentacji społeczności możesz uruchamiać kompetentne agenty na kontrolowanych przez siebie maszynach — od desktopowego GPU po urządzenie przenośne — bez wysyłania danych do zewnętrznego dostawcy LLM.

Jednak jeśli rozważasz plusy i minusy, np. nadal chcesz używać openClaw ( Moltbot / Clawdbot) przez API bez niezbędnego sprzętu, poleciłbym CometAPI. Zapewnia endpointy Anthropic i OpenAI i często oferuje zniżki — zazwyczaj 20% poniżej oficjalnej ceny.

Programiści mogą uzyskać dostęp oraz Claude Sonnet/ Opus 4.5 i GPT-5.2 poprzez CometAPI, najnowsze modele wymienione są na dzień publikacji artykułu. Na początek poznaj możliwości modeli w Playground i skonsultuj się z przewodnikiem API po szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje ceny znacznie niższe niż oficjalne, aby pomóc Ci się zintegrować.

Gotowy do działania? → Zarejestruj się do Gemini 3 już dziś!

Jeśli chcesz poznawać więcej porad, przewodników i aktualności o AI, obserwuj nas na VK, X i Discord!

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki