Pięciominutowy samouczek konfigurowania OpenClaw przy użyciu CometAPI

CometAPI
AnnaFeb 24, 2026
Pięciominutowy samouczek konfigurowania OpenClaw przy użyciu CometAPI

Na początku roku 2026 OpenClaw — otwartoźródłowe środowisko uruchomieniowe agentów i platforma asystenta AI — wciąż jest szeroko adoptowany przez deweloperów, zespoły badawcze i przedsiębiorstwa, które chcą mieć orkiestrację wielomodelową w kanałach takich jak Slack, Telegram, WhatsApp oraz lokalne wykonywanie z wiersza poleceń. Tymczasem CometAPI wyłoniło się jako potężna bramka LLM zgodna z OpenAI, agregując setki modeli (np. Kimi-K2.5, warianty GPT, Claude) pod jednym punktem końcowym API.

Ten artykuł to praktyczny, krok po kroku przewodnik po tym, jak skonfigurować OpenClaw tak, aby używał CometAPI jako dostawcy modeli. Dowiesz się, jak zainstalować, skonfigurować dostawców, zdefiniować profile uwierzytelniania, zweryfikować działanie oraz przełączać się między modelami — wszystko w oparciu o żywe przykłady konfiguracji i wskazówki oparte na najnowszej dokumentacji i opiniach społeczności.

Czym jest OpenClaw i dlaczego integrować go z CometAPI?

OpenClaw to otwartoźródłowa, zorientowana na urządzenia platforma agentów, która łączy konwersacyjne AI z aplikacjami czatowymi i urządzeniami, których ludzie już używają — WhatsApp, Telegram, Slack, Discord i inne — pozwalając jednocześnie uruchamiać modele tam, gdzie chcesz, i zachować klucze oraz dane pod własną kontrolą. Projekt i jego repozytoria zawierają przykłady pokazujące, jak OpenClaw wybiera dostawców LLM przez konfigurację w stylu bramki.

CometAPI to platforma agregująca API, która udostępnia wielu dostawców modeli poprzez pojedynczy, przypominający OpenAI interfejs REST i zestawy SDK. Dzięki temu to wygodny pojedynczy punkt integracji, jeśli chcesz przełączać modele, testować ceny lub scentralizować obserwowalność bez zmian w kodzie OpenClaw.

Dlaczego połączyć OpenClaw z CometAPI?

OpenClaw jest agnostyczny wobec modeli; uruchamia agentów i przepływy pracy, ale polega na zewnętrznych dostawcach LLM. CometAPI działa jako bramka kompatybilna z OpenAI, pozwalając kierować połączenia do:

  • Rodziny modeli GPT
  • Rodziny modeli Claude
  • Kimi-K2.5 i innych modeli stron trzecich agregowanych przez CometAPI

Daje to wybór, elastyczność, kontrolę kosztów i redundancję.

Jak skonfigurować OpenClaw do używania CometAPI jako dostawcy modeli?

Odpowiedź: Dodaj wpis dostawcy do konfiguracji OpenClaw, który wskazuje na punkt końcowy REST CometAPI, i zmapuj modele do struktury models.providers OpenClaw. Projekt OpenClaw wspiera dodawanie niestandardowych dostawców przez models.providers (ten sam wzorzec używany dla innych bramek) i oczekuje wariantu api, takiego jak "openai-completions" lub "anthropic-messages" w zależności od semantyki dostawcy.

CometAPI obsługuje trzy formaty API. Dodaj jeden lub więcej do ~/.openclaw/openclaw.json:

DostawcaFormat APIBazowy adres URL
cometapi-openaiopenai-completionshttps://api.cometapi.com/v1
cometapi-claudeanthropic-messageshttps://api.cometapi.com
cometapi-googlegoogle-generative-aihttps://api.cometapi.com/v1beta

Jakie są wymagania wstępne do konfiguracji OpenClaw z CometAPI?

Przed integracją upewnij się, że masz odpowiednie środowisko, narzędzia i konta.

Wymagania środowiskowe

Będziesz potrzebować:

  • Środowisko podobne do Uniksa: Linux, macOS lub Windows Subsystem for Linux (WSL2)
  • Zainstalowane Node.js i npm (OpenClaw działa w oparciu o Node)
  • Dostęp do terminala z bash/zsh lub PowerShell

Oficjalna dokumentacja wspomina również, że OpenClaw może działać przez Docker, co jest idealne do odizolowanych i produkcyjnych wdrożeń.

Konta i klucze API

Potrzebujesz:

  1. Konta CometAPI
  2. Ważnego klucza LLM CometAPI (przechowywanego w bezpiecznej zmiennej środowiskowej)
  3. Opcjonalnie: Kont dla dodatkowych dostawców OpenClaw (OpenAI, Anthropic, lokalne modele przez Ollama)

💡 Porada: Używaj bezpiecznego menedżera sekretów lub systemowego schowka na klucze zamiast przechowywania kluczy w jawnym tekście. To zalecenie znajduje się w dokumentacji OpenClaw dla bezpieczeństwa produkcyjnego.

Jak skonfigurować OpenClaw do wywoływania CometAPI? (krok po kroku)

Poniżej znajdziesz zwięzłą, praktyczną, pięciominutową konfigurację. Dokładne nazwy plików lub kluczy zależą od wersji i wdrożenia OpenClaw, ale koncepcje są bezpośrednio przeniesione z oficjalnego repozytorium i dokumentacji OpenClaw.

Krok 0 — Ustaw zmienne środowiskowe (szybka i bezpieczna ścieżka)

Przykład powłoki (Linux/macOS):

# do NOT commit this to gitexport COMETAPI_KEY="sk-YourCometApiKeyHere"export OPENCLAW_ENV="production"   # or development

W produkcji użyj mechanizmu tajemnic Twojej platformy (np. sekrety Dockera, systemd, sekrety Kubernetes).


Krok 1 — Zainstaluj OpenClaw

Opcja A: Jednowierszowa instalacja skryptem

To najszybsza metoda:

curl -fsSL https://openclaw.ai/install.sh | bash# Verify installationopenclaw --version

Skrypt wykryje Twój system operacyjny i zainstaluje OpenClaw wraz z zależnościami.

Opcja B: Globalna instalacja przez npm

Jeśli zarządzasz już pakietami Node:

npm install -g openclaw@latestopenclaw --version

To instaluje globalnie CLI OpenClaw.

Opcjonalnie: Instalacja przez Docker

Jeśli wdrażasz produkcyjnie lub chcesz izolacji:

docker pull openclaw/openclaw:latestdocker run -d --name openclaw -v ~/.openclaw:/root/.openclaw openclaw/openclaw

Wdrożenia konteneryzowane ułatwiają zarządzanie zależnościami i obciążeniami.nClaw version; przykłady OpenClaw podążają za tym wzorcem.)

Krok 2 — Skonfiguruj dostawców

Konfiguracja dostawców informuje OpenClaw, gdzie znajduje się zaplecze LLM.

Edycja pliku konfiguracyjnego OpenClaw

OpenClaw przechowuje swoją konfigurację w pliku JSON pod:

~/.openclaw/openclaw.json

Zdefiniujesz niestandardowego dostawcę dla CometAPI.

Oto minimalna konfiguracja dostawcy:

  • base_url informuje OpenClaw, aby wysyłał żądania LLM do punktu końcowego CometAPI zgodnego z OpenAI.
  • auth_env wskazuje zmienną środowiskową przechowującą Twój klucz API.
  • Flaga type określa typ protokołu API (styl OpenAI).
{
  "models": {
    "mode": "merge",
    "providers": {
      "cometapi-openai": {
        "baseUrl": "https://api.cometapi.com/v1",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "openai-completions",
        "models": [{ "id": "gpt-5.2", "name": "GPT-5.2" }]
      },
      "cometapi-claude": {
        "baseUrl": "https://api.cometapi.com",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "anthropic-messages",
        "models": [{ "id": "claude-opus-4-6", "name": "Claude Opus 4.6" }]
      },
      "cometapi-google": {
        "baseUrl": "https://api.cometapi.com/v1beta",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "google-generative-ai",
        "models": [{ "id": "gemini-3-pro-preview", "name": "Gemini 3 Pro" }]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "cometapi-claude/claude-opus-4-6" }
    }
  },
  "auth": {
    "profiles": {
      "cometapi-openai:default": { "provider": "cometapi-openai", "mode": "api_key" },
      "cometapi-claude:default": { "provider": "cometapi-claude", "mode": "api_key" },
      "cometapi-google:default": { "provider": "cometapi-google", "mode": "api_key" }
    }
  }
}

Zamień <YOUR_COMETAPI_KEY> na swój klucz API. Wszyscy trzej dostawcy używają tego samego klucza.

Możesz dodać dowolny model ze strony CometAPI Models Page do odpowiadającego mu dostawcy.

Krok 3 — Skonfiguruj profile uwierzytelniania

⚠️ Wymagane! OpenClaw odczytuje klucze API z tego pliku, a nie z openclaw.json. Pominięcie tego spowoduje błędy HTTP 401.

Utwórz ~/.openclaw/agents/main/agent/auth-profiles.json:

{
  "version": 1,
  "profiles": {
    "cometapi-openai:default": {
      "type": "api_key",
      "provider": "cometapi-openai",
      "key": "<YOUR_COMETAPI_KEY>"
    },
    "cometapi-claude:default": {
      "type": "api_key",
      "provider": "cometapi-claude",
      "key": "<YOUR_COMETAPI_KEY>"
    },
    "cometapi-google:default": {
      "type": "api_key",
      "provider": "cometapi-google",
      "key": "<YOUR_COMETAPI_KEY>"
    }
  },
  "lastGood": {
    "cometapi-openai": "cometapi-openai:default",
    "cometapi-claude": "cometapi-claude:default",
    "cometapi-google": "cometapi-google:default"
  }
}

Zrestartuj bramkę:

openclaw gateway restart

Sprawdź statusy poleceniem:

openclaw auth status

Aby wyświetlić wszystkie skonfigurowane modele:

openclaw models list

Te polecenia potwierdzą, czy dostawcy i profile uwierzytelniania są skonfigurowane prawidłowo. Wszystkie modele powinny pokazywać Auth = yes:

Model                                        Auth
cometapi-openai/gpt-5.2                      yes
cometapi-claude/claude-opus-4-6              yes
cometapi-google/gemini-3-pro-preview         yes

Krok 4 — Uruchom OpenClaw i obserwuj logi

Uruchom/uruchom ponownie OpenClaw i śledź logi. Zwróć uwagę na:

  • Logi żądań wychodzących pokazujące base_url lub nazwę dostawcy.
  • 401/403 → problem z kluczem lub zakresem.
  • 429 → limit szybkości (rozważ zmianę modelu/wydajności).
  • Niespodziewanie duże opóźnienia → sieć lub dławienie modelu.

Szybkie polecenia diagnostyczne (przykład):

# If OpenClaw runs as a system service:journalctl -u openclaw -f# If running in Docker:docker logs -f openclaw

Przełączanie modeli

# Set default model
openclaw models set cometapi-claude/claude-opus-4-6

# Or switch in TUI
/model cometapi-openai/gpt-5.2

Jak używać OpenClaw z CometAPI w rzeczywistych przepływach pracy?

Po integracji możesz tworzyć przepływy obejmujące generowanie kodu, zadania multimodalne, automatyzację agentów oraz publikowanie w kanałach.

Przykładowy przepływ: Interpretacja zrzutu ekranu

Jeśli Twój agent obsługuje załączniki:

User: Analyze this screenshot and generate a minimal React component.

OpenClaw wysyła prompt (plus dane obrazu) przez model CometAPI (taki jak Kimi K-2.5), który zwraca wynikowy kod — idealny do prototypowania przepływów UI.

Integracja ze Slackiem / Discordem

Gdy CometAPI jest backendem, możesz kierować odpowiedzi agenta do dowolnej skonfigurowanej platformy:

  • Kanały Slack
  • Grupy WhatsApp
  • Boty Telegram

OpenClaw zajmuje się trasowaniem i parsowaniem żądań; CometAPI dostarcza odpowiedzi modeli.

Jakie mechanizmy monitoringu i kontroli kosztów warto dodać?

Centralizacja u agregatora daje kontrolę — ale wymaga konfiguracji:

Instrumentacja

  • Loguj nazwę modelu, użycie tokenów, opóźnienie i kody błędów dla każdego żądania.
  • Otaguj żądania agentem i kanałem (np. agent=personal_assistant, channel=telegram), aby móc przypisać koszty.

Ustawienia kontroli kosztów

  • Ustal max_tokens i timeout_seconds w konfiguracji dostawcy.
  • Używaj tańszych modeli do rutynowych zadań, a duże modele rezerwuj dla przepływów o wysokiej wartości.
  • Skonfiguruj limity szybkości per agent i limity per użytkownik (OpenClaw często można rozszerzyć, aby to egzekwować).

CometAPI reklamuje narzędzia do strojenia wydajności i kosztów; użyj telemetrii z obu stron (logi OpenClaw + metryki użycia CometAPI), aby zbudować zabezpieczenia.

Jak rozwiązywać typowe problemy w tej integracji?

Odpowiedź: Oto najczęstsze tryby awarii i szybkie rozwiązania:

Naprawa: Panel sterowania OpenClaw wyświetli jednorazowy token; wklej go w ustawieniach Control UI zgodnie z dokumentacją. W notatkach społeczności często odwołuje się do tego kroku.

401 Unauthorized

Przyczyna: brakujący, błędny lub nie wstrzyknięty do procesu OpenClaw COMETAPI_KEY.

Rozwiązanie: Wyeksportuj klucz w powłoce, z której uruchamiasz OpenClaw, lub zapisz go w .env OpenClaw i zrestartuj bramkę. Potwierdź testem curl.

Ciche przełączanie / powrót do domyślnego dostawcy

Przyczyna: błędny JSON models.providers lub brakujący wariant api, przez co OpenClaw ignoruje dostawcę.

Rozwiązanie: Zweryfikuj openclaw.json (lint JSON) i upewnij się, że api odpowiada obsługiwanym wariantom. W wątkach społeczności opisano dokładnie taki błąd konfiguracji.

Przekroczenia czasu lub wysoka latencja

Przyczyna: trasa sieciowa lub powolność zdalnego modelu.

Rozwiązanie: Wybierz model Comet o niższej latencji lub uruchom OpenClaw bliżej tego samego regionu chmurowego; rozważ model lokalny dla zadań wrażliwych na opóźnienia. Dokumentacja i blogi omawiają kompromisy między modelami lokalnymi a API (latencja vs koszt).

Nadmierne użycie / 429

Przyczyna: osiągnięcie limitu CometAPI lub ograniczeń planu.

Rozwiązanie: Sprawdź limit w panelu Comet; dodaj logikę ponawiania/backoff w akcjach agenta OpenClaw lub ogranicz żądania na poziomie bramki. Comet i partnerzy opisują limity planów oraz zalecane wzorce backoff.

Brak tokenu bramki / rozłączenia websocket

Przyczyna: brak tokenów kontrolnych OpenClaw w konfiguracji panelu podczas uruchamiania bramki.

Uwaga końcowa

Połączenie OpenClaw z CometAPI jest szybkie i odblokowuje potężne, wielomodelowe zaplecze dla Twojego osobistego asystenta. Ale szybkość to nie wymówka, by ignorować bezpieczeństwo: podczas testów zbindowuj bramkę do localhost, używaj list dozwolonych, loguj wszystko i wymagaj potwierdzeń dla działań destrukcyjnych. Z takimi zabezpieczeniami możesz przejść od zera do działającego agenta OpenClaw → CometAPI w około pięć minut — i zachować ochronę danych i systemów podczas eksperymentów.

Deweloperzy mogą uzyskać dostęp do kimi k-2.5 poprzez CometAPI już teraz. Aby rozpocząć, poznaj możliwości modelu w Playground i zapoznaj się z API guide po szczegółowe instrukcje. Przed dostępem upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby pomóc w integracji.

Gotowy do startu? → Zarejestruj się w OpenClaw już dziś!

Jeśli chcesz więcej wskazówek, poradników i newsów o AI, obserwuj nas na VK, X i Discord!

Dostęp do najlepszych modeli po niskich kosztach

Czytaj więcej