Na początku roku 2026 OpenClaw — otwartoźródłowy runtime agentów i platforma asystenta AI — nadal jest szeroko adoptowany przez programistów, zespoły badawcze i przedsiębiorstwa, które potrzebują orkiestracji wielu modeli w kanałach takich jak Slack, Telegram, WhatsApp oraz lokalne wykonywanie w wierszu poleceń. Tymczasem CometAPI pojawił się jako potężna brama LLM kompatybilna z OpenAI, agregująca setki modeli (np. Kimi-K2.5, warianty GPT, Claude) pod jednym punktem końcowym API.
Ten artykuł jest praktycznym, krok po kroku przewodnikiem, jak skonfigurować OpenClaw, aby używał CometAPI jako dostawcy modeli. Dowiesz się, jak zainstalować, skonfigurować dostawców, zdefiniować profile uwierzytelniania, zweryfikować działanie i przełączać między modelami — wszystko na podstawie żywych przykładów konfiguracji oraz wskazówek opartych na najnowszej dokumentacji i opiniach społeczności.
Czym jest OpenClaw i dlaczego integrować go z CometAPI?
OpenClaw to open-source’owa, urządzeniocentryczna platforma agentów, która łączy konwersacyjne AI z aplikacjami czatowymi i urządzeniami, z których ludzie już korzystają — WhatsApp, Telegram, Slack, Discord i inne — pozwalając jednocześnie uruchamiać modele tam, gdzie chcesz, oraz zachować kontrolę nad kluczami i danymi. Projekt i jego repozytoria zawierają przykłady pokazujące, jak OpenClaw wybiera dostawców LLM przez konfigurację w stylu bramy (gateway).
CometAPI to platforma agregacji API, która udostępnia wielu dostawców modeli przez pojedynczy, interfejs REST w stylu OpenAI oraz SDK. Dzięki temu jest wygodnym, pojedynczym punktem integracji, jeśli chcesz przełączać modele, testować ceny lub scentralizować obserwowalność bez zmiany kodu rdzenia OpenClaw.
Dlaczego połączyć OpenClaw z CometAPI?
OpenClaw jest neutralny względem modeli; uruchamia agentów i przepływy pracy, ale polega na zewnętrznych dostawcach LLM. CometAPI działa jako brama kompatybilna z OpenAI, pozwalając przekierowywać wywołania do:
- modeli z rodziny GPT
- modeli z rodziny Claude
- Kimi-K2.5 oraz innych modeli stron trzecich agregowanych przez CometAPI
Daje to wybór, elastyczność, kontrolę kosztów i redundancję.
Jak skonfigurować OpenClaw do używania CometAPI jako dostawcy modeli?
Odpowiedź: Dodaj wpis dostawcy do konfiguracji OpenClaw wskazujący na punkt końcowy REST CometAPI i zmapuj modele do struktury models.providers OpenClaw. Projekt OpenClaw wspiera dodawanie niestandardowych dostawców przez models.providers (ten sam wzorzec używany dla innych bram) i oczekuje wariantu api, takiego jak "openai-completions" lub "anthropic-messages", w zależności od semantyki dostawcy.
CometAPI obsługuje trzy formaty API. Dodaj jeden lub więcej do ~/.openclaw/openclaw.json:
| Dostawca | Format API | Podstawowy adres URL |
|---|---|---|
| cometapi-openai | openai-completions | https://api.cometapi.com/v1 |
| cometapi-claude | anthropic-messages | https://api.cometapi.com |
| cometapi-google | google-generative-ai | https://api.cometapi.com/v1beta |
Jakie są wymagania wstępne do konfiguracji OpenClaw z CometAPI?
Przed integracją upewnij się, że masz odpowiednie środowisko, narzędzia i konta.
Wymagania dotyczące środowiska
Będziesz potrzebować:
- Środowiska typu Unix: Linux, macOS lub Windows Subsystem for Linux (WSL2)
- Node.js i npm (OpenClaw korzysta pod spodem z Node)
- Dostępu do terminala z bash/zsh lub PowerShell
Oficjalna dokumentacja wspomina też, że OpenClaw może działać przez Docker, co jest idealne dla izolowanych i produkcyjnych wdrożeń.
Konta i klucze API
Potrzebujesz:
- Konta CometAPI
- Ważnego klucza LLM CometAPI (przechowywanego w bezpiecznej zmiennej środowiskowej)
- Opcjonalnie: kont dla dodatkowych dostawców OpenClaw (OpenAI, Anthropic, lokalne modele przez Ollama)
💡 Wskazówka: Użyj bezpiecznego menedżera sekretów lub systemowego sejfu kluczy zamiast przechowywania kluczy w jawnym tekście. Jest to zalecane przez dokumentację OpenClaw dla bezpieczeństwa produkcyjnego.
Jak skonfigurować wywołania OpenClaw do CometAPI? (krok po kroku)
Poniżej zwięzła, praktyczna konfiguracja w pięć minut. Dokładne nazwy plików lub kluczy zależą od wersji OpenClaw i sposobu wdrożenia, ale koncepcje wynikają bezpośrednio z oficjalnego repo OpenClaw i dokumentacji.
Krok 0 — Ustaw zmienne środowiskowe (bezpieczna szybka ścieżka)
Przykład powłoki (Linux/macOS):
# do NOT commit this to gitexport COMETAPI_KEY="sk-YourCometApiKeyHere"export OPENCLAW_ENV="production" # or development
W środowisku produkcyjnym użyj mechanizmu sekretów platformy (np. sekrety Dockera, systemd, sekrety Kubernetes).
Krok 1 — Zainstaluj OpenClaw
Opcja A: Jednolinijkowe polecenie przez skrypt instalacyjny
To najszybszy sposób:
curl -fsSL https://openclaw.ai/install.sh | bash# Verify installationopenclaw --version
Ten skrypt wykrywa Twój system operacyjny i instaluje OpenClaw wraz z zależnościami.
Opcja B: Globalna instalacja npm
Jeśli już zarządzasz pakietami Node:
npm install -g openclaw@latestopenclaw --version
Instaluje globalnie CLI OpenClaw.
Opcjonalnie: instalacja przez Docker
Jeśli wdrażasz na produkcji lub chcesz izolacji:
docker pull openclaw/openclaw:latestdocker run -d --name openclaw -v ~/.openclaw:/root/.openclaw openclaw/openclaw
Wdrożenia konteneryzowane ułatwiają zarządzanie zależnościami i obciążeniami.nClaw version; OpenClaw’s examples follow this pattern.)
Krok 2 — Skonfiguruj dostawców
Konfiguracja dostawców informuje OpenClaw, gdzie znajduje się backend LLM.
Edycja pliku konfiguracji OpenClaw
OpenClaw przechowuje konfigurację w pliku JSON pod adresem:
~/.openclaw/openclaw.json
Zdefiniujesz niestandardowego dostawcę dla CometAPI.
Oto minimalna konfiguracja dostawcy:
base_urlinformuje OpenClaw, aby wysyłał żądania LLM do punktu końcowego CometAPI kompatybilnego z OpenAI.auth_envwskazuje zmienną środowiskową przechowującą Twój klucz API.- Flaga
typeokreśla typ protokołu API (styl OpenAI).
{
"models": {
"mode": "merge",
"providers": {
"cometapi-openai": {
"baseUrl": "https://api.cometapi.com/v1",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "openai-completions",
"models": [{ "id": "gpt-5.2", "name": "GPT-5.2" }]
},
"cometapi-claude": {
"baseUrl": "https://api.cometapi.com",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "anthropic-messages",
"models": [{ "id": "claude-opus-4-6", "name": "Claude Opus 4.6" }]
},
"cometapi-google": {
"baseUrl": "https://api.cometapi.com/v1beta",
"apiKey": "<YOUR_COMETAPI_KEY>",
"api": "google-generative-ai",
"models": [{ "id": "gemini-3-pro-preview", "name": "Gemini 3 Pro" }]
}
}
},
"agents": {
"defaults": {
"model": { "primary": "cometapi-claude/claude-opus-4-6" }
}
},
"auth": {
"profiles": {
"cometapi-openai:default": { "provider": "cometapi-openai", "mode": "api_key" },
"cometapi-claude:default": { "provider": "cometapi-claude", "mode": "api_key" },
"cometapi-google:default": { "provider": "cometapi-google", "mode": "api_key" }
}
}
}
Podmień
<YOUR_COMETAPI_KEY>na swój klucz API. Wszyscy trzej dostawcy używają tego samego klucza.
Możesz dodać dowolny model ze strony CometAPI Models Page do odpowiedniego dostawcy.
Krok 3 — Skonfiguruj profile uwierzytelniania
⚠️ Wymagane! OpenClaw odczytuje klucze API z tego pliku, a nie z
openclaw.json. Pominięcie tego kroku spowoduje błędyHTTP 401.
Utwórz ~/.openclaw/agents/main/agent/auth-profiles.json:
{
"version": 1,
"profiles": {
"cometapi-openai:default": {
"type": "api_key",
"provider": "cometapi-openai",
"key": "<YOUR_COMETAPI_KEY>"
},
"cometapi-claude:default": {
"type": "api_key",
"provider": "cometapi-claude",
"key": "<YOUR_COMETAPI_KEY>"
},
"cometapi-google:default": {
"type": "api_key",
"provider": "cometapi-google",
"key": "<YOUR_COMETAPI_KEY>"
}
},
"lastGood": {
"cometapi-openai": "cometapi-openai:default",
"cometapi-claude": "cometapi-claude:default",
"cometapi-google": "cometapi-google:default"
}
}
Zrestartuj bramę:
openclaw gateway restart
Sprawdź statusy poleceniem:
openclaw auth status
Aby wyświetlić listę wszystkich skonfigurowanych modeli:
openclaw models list
Te polecenia potwierdzają, czy dostawcy i profile uwierzytelniania są poprawnie skonfigurowane. Wszystkie modele powinny pokazywać Auth = yes:
Model Auth
cometapi-openai/gpt-5.2 yes
cometapi-claude/claude-opus-4-6 yes
cometapi-google/gemini-3-pro-preview yes
Krok 4 — Uruchom OpenClaw i obserwuj logi
Uruchom/Restartuj OpenClaw i śledź logi. Szukaj w szczególności:
- Logów wychodzących żądań pokazujących
base_urllub nazwę dostawcy. - 401/403 → problem z kluczem lub zakresem.
- 429 → limit szybkości (rozważ zmianę modelu/wydajności).
- Niespodziewanie długi czas odpowiedzi → problem z siecią lub ograniczanie modelu.
Szybkie polecenia diagnostyczne (przykład):
# If OpenClaw runs as a system service:journalctl -u openclaw -f# If running in Docker:docker logs -f openclaw
Przełączanie modeli
# Set default model
openclaw models set cometapi-claude/claude-opus-4-6
# Or switch in TUI
/model cometapi-openai/gpt-5.2
Jak używać OpenClaw z CometAPI w rzeczywistych przepływach pracy?
Po integracji możesz budować przepływy obejmujące generowanie kodu, zadania multimodalne, automatyzację agentów i publikowanie na kanałach.
Przykładowy przepływ: interpretacja zrzutu ekranu
Jeśli Twój agent obsługuje załączniki:
User: Analyze this screenshot and generate a minimal React component.
OpenClaw wysyła prompt (plus dane obrazu) przez model CometAPI (np. Kimi K-2.5), który zwraca wynik w postaci kodu — idealne do szybkiego prototypowania przepływów UI.
Integracja ze Slack/Discord
Gdy CometAPI jest backendem, możesz kierować odpowiedzi agenta do dowolnej skonfigurowanej platformy:
- Kanały Slack
- Grupy WhatsApp
- Boty Telegram
OpenClaw obsługuje trasowanie i parsowanie żądań; CometAPI dostarcza odpowiedzi modeli.
Jakie monitorowanie i kontrolę kosztów warto dodać?
Centralizując się na agregatorze, zyskujesz kontrolę — ale musisz ją skonfigurować:
Instrumentacja
- Loguj nazwę modelu, użycie tokenów, opóźnienie i kody błędów dla każdego żądania.
- Oznaczaj żądania etykietami agenta i kanału (np. agent=personal_assistant, channel=telegram), aby móc przypisywać koszty.
Mechanizmy kontroli kosztów
- Ustaw
max_tokensitimeout_secondsw konfiguracji dostawcy. - Używaj tańszych modeli do zadań rutynowych, a duże modele rezerwuj dla przepływów o wysokiej wartości.
- Skonfiguruj limity szybkości per agent i limity per użytkownik (OpenClaw często można rozszerzyć, by to egzekwować).
CometAPI oferuje narzędzia do strojenia wydajności i kosztów; użyj telemetrii po obu stronach (logi OpenClaw + metryki zużycia CometAPI), aby stworzyć odpowiednie zabezpieczenia.
Jak rozwiązywać typowe błędy integracji?
Odpowiedź: Oto najczęstsze scenariusze awarii i szybkie sposoby ich rozwiązania:
Naprawa: Panel sterowania OpenClaw wyświetli jednorazowy token; wklej go do ustawień interfejsu Control UI zgodnie z dokumentacją. Notatki społeczności często odnoszą się do tego kroku.
401 Unauthorized
Przyczyna: brakujący, nieprawidłowy lub niezaładowany do procesu OpenClaw COMETAPI_KEY.
Naprawa: Wyeksportuj klucz w powłoce, z której uruchamiasz OpenClaw, lub zapisz go w .env OpenClaw i zrestartuj bramę. Potwierdź testem curl.
Dostawca cicho przełącza się / wraca do domyślnego
Przyczyna: nieprawidłowy JSON w models.providers lub brakujący wariant api, przez co OpenClaw ignoruje dostawcę.
Naprawa: Zweryfikuj openclaw.json (lint JSON) i upewnij się, że api odpowiada obsługiwanym wariantom. W wątkach społeczności ten dokładny błąd konfiguracji jest częsty.
Timeouty lub duże opóźnienia
Przyczyna: trasa sieciowa lub wolność zdalnego modelu.
Naprawa: Wybierz model Comet o niższych opóźnieniach lub uruchom OpenClaw bliżej tego samego regionu chmurowego; rozważ uruchamianie lokalnego modelu dla zadań wrażliwych na opóźnienia. Dokumentacja i blogi omawiają kompromis między modelami lokalnymi a API (opóźnienie vs koszt).
Nadmierne użycie / 429
Przyczyna: osiągnięcie kwoty CometAPI lub limitów planu.
Naprawa: Sprawdź pulpit Comet pod kątem kwot; dodaj logikę ponowień/zapasu (retry/backoff) w akcjach agentów OpenClaw lub dławi żądania na bramie. Dokumentacja Comet i partnerów podkreśla limity planu i zalecane wzorce backoff.
Brak tokenu bramy / rozłączenia websocketów
Przyczyna: brakujące tokeny kontrolne OpenClaw w konfiguracji panelu podczas uruchamiania bramy.
Uwaga końcowa
Połączenie OpenClaw z CometAPI jest szybkie i odblokowuje potężny, wielomodelowy backend dla Twojego asystenta osobistego. Jednak szybkość nie jest wymówką dla ignorowania bezpieczeństwa: podczas testów zwiąż bramę z localhostem, używaj list dozwolonych, loguj wszystko i wymagaj potwierdzeń dla działań destrukcyjnych. Z tymi zabezpieczeniami możesz przejść od zera do działającego agenta OpenClaw → CometAPI w około pięć minut — i utrzymać ochronę danych oraz systemów podczas eksperymentów.
Deweloperzy mogą uzyskać dostęp do kimi k-2.5 przez CometAPI już teraz. Aby rozpocząć, poznaj możliwości modelu w Playground i zajrzyj do przewodnika API po szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i otrzymałeś klucz API. CometAPI oferuje cenę znacznie niższą niż oficjalna, aby ułatwić integrację.
Gotowy do działania? → Zarejestruj się w OpenClaw już dziś!
Jeśli chcesz poznać więcej wskazówek, poradników i nowości o AI, śledź nas na VK, X i Discord!
