Openclaw(Moltbot /Clawdbot) : Instrukcja konfiguracji+ Samouczek hostingu API

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Instrukcja konfiguracji+ Samouczek hostingu API

Na czele tej zmiany stoi Moltbot (wcześniej znany jako Clawdbot), projekt, który w zaledwie kilka tygodni przekształcił się z niszowego narzędzia dla deweloperów w viralową sensację z ponad 60,000 gwiazdek na GitHubie. Stworzony przez Petera Steinbergera, Moltbot uosabia „linienie” agenta AI — zrzucenie ograniczeń interfejsów webowych, by zamieszkać w aplikacjach komunikatorów i systemach plików, których używamy na co dzień.

Ostatnie wydarzenie: projekt zmienił nazwę z Clawdbot na Moltbot po prośbie związanej ze znakiem towarowym od Anthropic — uznano, że „Clawd” brzmi zbyt podobnie do „Claude”.

Czym jest Moltbot (Clawdbot) i dlaczego stał się viralem?

Moltbot to otwartoźródłowy, samodzielnie hostowany agent AI zaprojektowany, aby zniwelować lukę między potężnymi dużymi modelami językowymi (LLM) a Twoim lokalnym komputerem. W odróżnieniu od ChatGPT czy Claude.ai, które działają w „zamkniętej” karcie przeglądarki, Moltbot uruchamia się jako Gateway na Twoim sprzęcie (Mac, Linux lub VPS).

Przekłada wiadomości w języku naturalnym z platform takich jak Telegram, WhatsApp i Slack na wykonywalne działania na Twojej maszynie. Niezależnie od tego, czy chcesz znaleźć plik na pulpicie będąc w sklepie, czy uruchomić z telefonu złożony skrypt wdrożeniowy, Moltbot działa jako Twój cyfrowy pełnomocnik z pełnym dostępem do systemu.

Dlaczego jest inny

  • Wykonywanie i narzędzia w trybie local-first: Moltbot może faktycznie uruchamiać polecenia na Twoim hoście (za zgodą), wywoływać zewnętrzne API i używać „skills”, czyli małych programów lub przepływów zdefiniowanych w Markdown.
  • Wielokanałowość: korzystasz z tego samego asystenta w Telegramie, WhatsAppie, Slacku, Discordzie i innych — potrafi proaktywnie wysyłać Ci wiadomości.
  • Pamięć i trwałość: Moltbot zapisuje pliki pamięci w przestrzeni roboczej (Markdown) i indeksuje je do wyszukiwania, dzięki czemu asystent „pamięta” między sesjami (szczegóły poniżej).

Kluczowe możliwości w skrócie

FunkcjaOpis
Multi-ChannelUżywaj Telegrama, WhatsAppa, Discorda, Slacka, iMessage i innych.
Pełny dostęp do PCWykonuj polecenia powłoki, zarządzaj plikami i kontroluj przeglądarki.
Proaktywny AINie tylko czeka — może wysyłać alerty „heartbeat” lub przypomnienia.
Prywatność przede wszystkimTwoje pliki i logika pozostają na Twoim sprzęcie; do API trafiają tylko prompty.
SamoewolucjaMoże pisać własne „Skills”, rozszerzając funkcjonalność w czasie.
zgodny z OpenAIMoltbot obsługuje protokół API kompatybilny z OpenAI; łączy się z każdym zgodnym serwisem
Niestandardowe baseUrlObsługuje modyfikację adresu punktu końcowego API; łatwo przełączaj dostawców

Jak Clawdbot „pamięta” wszystko bez bazy danych?

Jednym z najbardziej innowacyjnych aspektów Moltbot jest jego przejrzysta architektura pamięci. Większość narzędzi AI cierpi na „amnezję” między sesjami. Moltbot rozwiązuje to dzięki warstwowemu systemowi zwykłych plików Markdown w Twojej przestrzeni roboczej. Takie podejście zapewnia, że możesz czytać, edytować i weryfikować dokładnie to, co Twoje AI o Tobie wie.

Na czym polega projekt pamięci i jak działa?

Pamięć Moltbot jest celowo prosta i audytowalna: to zwykłe pliki Markdown w przestrzeni roboczej agenta. Pliki są źródłem prawdy — model „pamięta” tylko to, co zapisano na dysku. Domyślny układ obejmuje:

  • memory/YYYY-MM-DD.md — dzienniki dołączane (append-only) na każdy dzień (asystent na start sesji czyta dziś + wczoraj).
  • MEMORY.md — kuratorowana pamięć długoterminowa, którą kontrolujesz i ładujesz tylko do prywatnych sesji.

Ten projekt ma dwie duże zalety:

  1. Audytowalność — możesz czytać i edytować to, czego asystent będzie używał jako pamięci.
  2. Prostota dla narzędzi — wtyczki pamięci zapewniają indeksowanie wektorowe/BM25, aby agent szybko wyszukiwał istotne wpisy pamięci.

Podejście techniczne

  • Magazyn rozmów/sesji: Gateway śledzi sesje i przekazuje właściwy kontekst do środowiska uruchomieniowego agenta. Dzięki temu agent zachowuje stan rozmowy między wiadomościami i kanałami.
  • Zindeksowane dane lokalne: Moltbot może indeksować lokalne pliki i dokumenty oraz udostępniać je przez narzędzia wyszukiwania (semantyczne lub słowne) do pobierania. W ten sposób agent „pamięta” Twoje notatki ze spotkań, fragmenty czy kod.
  • Wyniki narzędzi i prymitywy pamięci: Skills i narzędzia mogą zapisywać do trwałego magazynu (baza danych lub system plików), a Moltbot może odwoływać się do tych wpisów w późniejszych promptach. Wiele wdrożeń używa SQLite, Postgresa lub lokalnych JSON/YAML dla małych instalacji.
  • Osadzenia LLM i magazyn wektorów: Do semantycznego przywoływania typowy wzorzec to osadzanie dokumentów i przechowywanie wektorów w bazie wektorowej, a następnie pobieranie najbliższych sąsiadów do włączenia w prompt. Architektura Moltbot uwzględnia wywołania narzędzi niezależne od modelu, więc możesz podłączyć dowolną kombinację osadzeń i magazynu wektorów.

Uwaga dotycząca bezpieczeństwa: ponieważ pamięć jest trwała, a skills mogą uruchamiać polecenia na hoście, zalecane ustawienia domyślne są konserwatywne: parowanie DM dla nieznanych nadawców, sandboxing dla sesji niegłównych oraz sprawdzanie moltbot doctor, aby wykrywać ryzykowne konfiguracje. Zawsze przeglądaj dokumentację bezpieczeństwa i traktuj przychodzące wiadomości jako niezaufane dane wejściowe.

Hierarchia pamięci

PlikCel
SOUL.mdDefiniuje osobowość, ton i podstawowe zasady działania agenta.
USER.mdPrzechowuje fakty o Tobie (np. „Preferuję Pythona zamiast Ruby”, „Pracuję w fintechu”).
MEMORY.mdPamięć długoterminowa, kuratorowana i zapisywana do trwałego przywołania.
memory/YYYY-MM-DD.mdDzienniki dzienne i surowy kontekst z konkretnych dat.

Jeśli powiesz Moltbot: „Zapamiętaj, że lubię raporty w formacie PDF”, nie zapisze tego w ukrytej bazie SQL. Dosłownie otwiera USER.md i dopisuje nowy punkt listy. Dzięki temu agent utrzymuje kontekst przez tygodnie rozmów, działając jak prawdziwy osobisty asystent, a nie świeża instancja każdego ranka.


Przewodnik konfiguracji Moltbot: wymagania i instalacja

Niżej znajduje się praktyczna lista kontrolna i polecenia do uruchomienia podstawowej instancji Moltbot na macOS/Linux (Ubuntu). To skondensowany, produkcyjny przewodnik — jeśli potrzebujesz GUI lub zarządzanego hostingu, przejdź do sekcji hostingu API.

Czego potrzebujesz (wymagania wstępne)

  • Maszyna z macOS lub Linux (Windows może działać przez WSL2). Node.js v22+ jest wymagany dla gateway i CLI.
  • Edytor tekstu i podstawowa znajomość powłoki.
  • Co najmniej jeden klucz API do LLM (OpenAI, Anthropic, Venice lub lokalny model jak Ollama) — sam Moltbot jest niezależny od modelu.
  • Opcjonalnie: Docker, jeśli wolisz wdrożenie konteneryzowane.

Instalacja krok po kroku

  1. Zainstaluj pakiet: Uruchom następujące polecenie w terminalu: npm install -g clawdbot@latest
  2. Uruchom kreatora onboardingu: Kreator jest sercem konfiguracji. Przeprowadzi Cię przez potwierdzenia bezpieczeństwa i wybór modelu. clawdbot onboard --install-daemon
  3. Potwierdź ryzyka bezpieczeństwa: Moltbot poprosi Cię o potwierdzenie, że ma dostęp „jak root” do Twojej maszyny. Musisz wpisać potwierdzenie, aby kontynuować.
  4. Skonfiguruj Gateway: Kreator zainstaluje clawdbot gateway jako usługę w tle (launchd na Mac lub systemd na Linux), aby pozostawał online 24/7.

Szybka instalacja (macOS / Linux)

Ten przykład używa zalecanej metody git + npm, zgodnej z oficjalną dokumentacją.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (podstawy)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Uruchom poleceniem:

docker compose up -d

Po instalacji: sparuj kanał komunikacji

Moltbot obsługuje wiele kanałów. Parowanie zwykle polega na wygenerowaniu tokena parowania w UI gateway lub CLI i użyciu krótkiego „pairing URL”, aby podłączyć bota Telegram lub konto WhatsApp — konkretne kroki zależą od wybranego konektora kanału (Telegram Bot API vs. wrapper grammY, WhatsApp przez Baileys itd.). Zobacz dokumentację dla moltbot connect telegram lub moltbot connect whatsapp.

Jak sterować moim PC przez Telegram za pomocą Moltbot (krok po kroku)?

Poniżej znajduje się bezpieczny, praktyczny przewodnik sterowania hostem przez wiadomości Telegram — przydatny do zdalnej administracji, uruchamiania skryptów, pobierania logów lub proszenia Moltbot o wykonanie małego zadania. Ważna uwaga dotycząca bezpieczeństwa: nie wystawiaj Gateway na otwarty Internet bez tokena API i zapory; pozwalaj na kontakt z botem tylko zaufanym użytkownikom Telegrama.

1) Utwórz bota Telegram z BotFather

  1. W Telegramie napisz do @BotFather.
  2. Wyślij /newbot i postępuj zgodnie z instrukcjami.
  3. Skopiuj token bota 123456789:ABC-... (BotFather go wyświetli).

2) Dodaj token do swojego gateway

Ustaw zmienną środowiskową lub konfigurację:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

Możesz też dodać token poleceniami moltbot channels add lub moltbot configure w zależności od wersji CLI. Dokumentacja Telegrama pokazuje ten szybki sposób konfiguracji.

3) Uruchom kreatora onboardingu i wybierz Telegram

Uruchom:

moltbot onboard --install-daemon

W trakcie kreatora:

  • Wybierz dostawcę modelu (Anthropic Opus, OpenAI lub lokalny).
  • Gdy zostaniesz poproszony o kanały, wybierz Telegram i wklej token.
  • Skonfiguruj parowanie/allowlist, aby ograniczyć, kto może pisać do bota (ważne — ustaw swój ID użytkownika, aby tylko Ty mógł go kontrolować).

Przewodniki społeczności i proces onboardingu poproszą Cię o wklejenie krótkiego wyniku polecenia z hosta, aby potwierdzić parowanie węzła — postępuj zgodnie z instrukcjami.

4) Włącz narzędzie exec i zatwierdzenia (bezpiecznie)

Moltbot może uruchamiać polecenia systemowe przez narzędzie exec, ale robi to w ramach jawnego modelu zatwierdzania:

  • Zatwierdzenia exec są zapisywane w ~/.clawdbot/exec-approvals.json.
  • System po raz pierwszy poprosi w czacie o zatwierdzenie żądanej akcji; możesz odpowiedzieć /approve, aby kontynuować (lub odrzucić).
  • Dla w pełni zautomatyzowanych przepływów możesz utworzyć ograniczoną allowlistę poleceń lub „bin” wstępnie zatwierdzonych skryptów.

Przykład: włącz narzędzie exec w konfiguracji moltbot (lub przez UI/wtyczkę):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

Projekt posiada jawne przepływy zatwierdzania exec i przekazuje prośby o zatwierdzenie do kanałów czatu na żądanie, co ułatwia przegląd i akceptację operacji.

5) Wypróbuj bezpieczne polecenie z Telegrama

Ze swojego konta Telegram (dozwolony użytkownik) wyślij:

@YourMoltbot Hi — please run: uptime

Asystent:

  1. Poprosi o potwierdzenie (jeśli exec wymaga zatwierdzenia).
  2. Uruchomi dozwolone polecenie na hoście.
  3. Zwróci wynik do czatu.

6) Twórz bezpieczniejsze akcje dzięki skills

Zamiast dawać bezpośredni dostęp do powłoki przez czat, preferuj skills, które kapsułkują akcje (np. skill backup, który wywołuje skrypt i zwraca ładnie sformatowany wynik). Skills można instalować/odinstalowywać i łatwiej je przeglądać pod kątem bezpieczeństwa.

Jak hostować API Moltbot (Gateway) i używać HTTP API?

Czy Moltbot może udostępniać API, które wywołują inne programy?

Tak. Gateway Moltbot może udostępniać punkty końcowe HTTP kompatybilne z OpenResponses (np. POST /v1/responses) oraz shim w stylu OpenAI dla /v1/chat/completions. Te endpointy są domyślnie wyłączone i należy je włączyć w konfiguracji gateway. Endpoint HTTP OpenResponses odwzorowuje bezpośrednio ścieżkę uruchomienia agenta w gateway, więc żądania wykonywane są jako rzeczywiste sesje agenta (z tym samym rutingiem/uprawnieniami).

Czym jest proxy API w Moltbot?

Proxy API w Moltbot to usługa pośrednicząca między środowiskiem uruchomieniowym agenta Moltbot a dostawcami LLM, takimi jak:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Samodzielnie hostowane endpointy kompatybilne z OpenAI

Zamiast bezpośrednio wywoływać dostawcę, Moltbot kieruje wszystkie żądania przez proxy, które może:

  • Przepisywać żądania i odpowiedzi
  • Wymuszać limity zapytań (rate limits)
  • Śledzić użycie tokenów i koszty
  • Dynamicznie przełączać modele
  • Maskować rzeczywiste klucze API przed Moltbot
  • Dodawać uwierzytelnianie, logowanie i cache

Koncepcyjnie:

Moltbot → API Proxy → LLM Provider

Ta architektura znacząco poprawia bezpieczeństwo, obserwowalność i kontrolę kosztów.

🚀 Szybki start: Polecamy użycie CometAPI (apiyi.com) do uzyskania klucza API. Rejestracja zapewnia darmowe kredyty. Obsługuje wszystkie główne algorytmy, takie jak Claude Sonnet 4.5, Claude Opus 4.5 i GPT-5.2, i zazwyczaj jest o 10–20% tańszy niż oficjalne ceny.

Krok 1: Uzyskaj klucz proxy API

Metoda 1: Ustaw zmienne środowiskowe. W pliku .env Moltbot:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Najważniejsze punkty:

  • OPENAI_API_BASE wskazuje na Twoje proxy, nie na OpenAI
  • OPENAI_API_KEY to token wydany przez proxy
  • Proxy decyduje, który dostawca/model jest faktycznie użyty

Zrestartuj Moltbot po zaktualizowaniu tych wartości.

Metoda 2: Konfiguracja przez config.json:

  • Znalezienie pliku konfiguracji Moltbot
  • Otwórz plik konfiguracji i dodaj lub zaktualizuj models.providers

Plik konfiguracji zwykle znajduje się w jednym z tych miejsc:

System operacyjnyŚcieżka pliku konfiguracyjnego
macOS~/.clawdbot/config.json lub ~/.moltbot/config.json
Linux~/.clawdbot/config.json lub ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

Możesz też znaleźć go z wiersza poleceń:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Krok 2: Zweryfikuj łączność

Uruchom prosty test prompt:

moltbot test llm

Jeśli wszystko skonfigurowano poprawnie, Moltbot będzie otrzymywał odpowiedzi normalnie — bez bezpośredniego kontaktu z dostawcą nadrzędnym.

Szacunki kosztów uruchamiania Moltbot z hostowanymi modelami

Koszt używania zarządzanego modelu zależy od ceny API, więc wybór tańszego dostawcy API jest dość istotny, dlatego polecam CometAPI.

Czynniki wpływające na cenę zazwyczaj zależą od:

  • Cen dostawcy. Koszt używania zarządzanego modelu zależy od ceny API, więc wybór tańszego dostawcy API jest kluczowy, dlatego polecam CometAPI.
  • Wyboru między modelem flagowym a lekkim; na przykład różnica cen między Claude Opus 4.5 a GLM 4.7 jest znacząca.
  • Złożoności przetwarzanej treści. Jeśli Twoje przepływy są „tekstowo ciężkie” (parsowanie plików, długie odpowiedzi), dolicz tokeny.

Szacunkowe przykłady (ilustracyjne, ceny ze stycznia 2026 według postów społeczności):

  • Okazjonalne użycie osobiste (kilkaset odpowiedzi / miesiąc, mieszanka lokalnych modeli i tanich wywołań API): $0–$50/miesiąc.
  • Intensywne użycie osobiste/pro deweloperskie (indeksowanie plików, dużo wywołań narzędzi): $100–$1,000/miesiąc.
  • Zespoły lub produkcja always-on (wielu użytkowników + web scraping + chaining): $1,000+/miesiąc chyba że agresywnie optymalizujesz użycie modeli.

Sposoby na obniżenie kosztów

  • Routing modeli: wysyłaj lekkie zadania do tańszych modeli lub lokalnych LLM, a drogie modele rezerwuj dla zadań wymagających dłuższego rozumowania — testy społeczności sugerują, że może to obciąć koszty o ~50% lub więcej.
  • Relaye i ceny hurtowe: używaj przekaźników API, które oferują lepsze stawki per-token lub prywatny hosting modeli (Venice, prywatne endpointy).
  • Agresywny caching i skracanie: buforuj (cache) odpowiedzi LLM, skracaj długie historie i streszczaj zamiast wysyłać pełny kontekst.

Zaawansowane funkcje proxy API dla Moltbot

Routing modeli według typu zadania

Możesz sprawdzić payload żądania i dynamicznie routować:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Ten wzorzec obniża koszty bez poświęcania jakości.


Limity tokenów i kosztów

Możesz wymuszać twarde limity:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Niektóre zespoły śledzą też skumulowane użycie per ID użytkownika Moltbot.


Czy bezpieczne jest danie AI dostępu do powłoki mojego komputera?

To najważniejsze pytanie dla każdego użytkownika Moltbot. Danie LLM możliwości uruchomienia rm -rf jest z natury ryzykowne. Moltbot zawiera kilka zabezpieczeń, które to ograniczają:

  1. Sandboxing: Możesz uruchomić Moltbot w kontenerze Docker. Ogranicza to „świat” agenta do konkretnego folderu, zapobiegając ingerencji w pliki systemowe.
  2. Jawne zatwierdzanie: Domyślnie „Main Sessions” (bezpośrednie czaty z Tobą) mają wyższy poziom zaufania, ale możesz skonfigurować bota, aby prosił o zgodę przed uruchomieniem jakichkolwiek destrukcyjnych poleceń powłoki.
  3. Ochrona hasłem: Jeśli wystawiasz Moltbot Web UI, zawsze włącz uwierzytelnianie hasłem w config.json:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Na koniec:

Moltbot to coś więcej niż chatbot; to infrastruktura dla osobistego cyfrowego pracownika. Hostując go samodzielnie, odzyskujesz kontrolę nad danymi, zyskując jednocześnie produktywność AI, które nigdy nie śpi. Niezależnie od tego, czy używasz go do zarządzania kalendarzem przez Telegram, czy do automatyzacji pipeline’u devops z kanapy, Moltbot daje przedsmak przyszłości, w której każdy ma własnego „Jarvisa” działającego na Mac Mini w rogu pokoju.

Jeśli chcesz platformę API z modelami od wielu dostawców (takimi jak Chatgpt-5.2, Claude opus 4.5 itd.) w cenie niższej niż oficjalna, CometAPI to najlepszy wybór. Aby zacząć, eksploruj możliwości modeli w Playground i zapoznaj się z przewodnikiem API po szczegółowe instrukcje. Przed dostępem upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.

Ready to Go?→ Sign up for CometAPI today !

Jeśli chcesz poznać więcej porad, przewodników i nowości o AI, obserwuj nas na VK, X i Discord!

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki