CometAPI を使用して OpenClaw を設定するための5分間チュートリアル

CometAPI
AnnaFeb 24, 2026
CometAPI を使用して OpenClaw を設定するための5分間チュートリアル

2026年初頭、OpenClaw — オープンソースのエージェント実行環境兼 AI アシスタントプラットフォーム — は、Slack、Telegram、WhatsApp、ローカルのコマンドライン実行などのチャネルにわたるマルチモデルのオーケストレーションを求める開発者、研究チーム、エンタープライズに引き続き広く採用されています。一方で、CometAPI は強力な OpenAI 互換の LLM ゲートウェイとして台頭し、単一の API エンドポイントで数百のモデル(例:Kimi-K2.5、GPT 系、Claude)を集約しています。

本記事は、OpenClaw が CometAPI をモデルプロバイダーとして利用できるように構成するための実践的なステップバイステップガイドです。インストール、プロバイダー設定、認証プロファイルの定義、動作確認、モデルの切り替えまで、最新ドキュメントとコミュニティの知見に基づくライブ設定例とヒントを通して学べます。

OpenClawとは?なぜCometAPIと統合するのか?

OpenClaw はオープンソースのデバイス中心のエージェントプラットフォームで、人々が既に使っているチャットアプリやデバイス(WhatsApp、Telegram、Slack、Discord など)に会話型 AI を接続しつつ、好きな場所でモデルを実行し、キーやデータを自分の管理下に置けます。プロジェクトとリポジトリには、OpenClaw がゲートウェイ方式の設定で LLM プロバイダーを選択する方法の例が含まれています。

CometAPI は、多数のモデルプロバイダーを単一の OpenAI スタイルの REST インターフェースと SDK で公開する API 集約プラットフォームです。モデルの切り替え、価格の試行、可観測性の一元化を行いつつ OpenClaw のコアコードを変更したくない場合、単一の統合ポイントとして便利です。

なぜOpenClawとCometAPIを組み合わせるのか?

OpenClaw はモデルに依存しない設計で、エージェントやワークフローを実行しますが、外部の LLM プロバイダーに依拠します。CometAPI はOpenAI互換ゲートウェイとして機能し、次の宛先へルーティングできます。

  • GPT ファミリーのモデル
  • Claude ファミリーのモデル
  • Kimi-K2.5 をはじめとする CometAPI が集約する他社モデル

これにより、選択肢、柔軟性、コスト管理、冗長性が得られます。

OpenClawをCometAPIをモデルプロバイダーとして使うように設定するには?

答え: OpenClaw の設定に CometAPI の REST エンドポイントを指すプロバイダーエントリを追加し、モデルを OpenClaw の models.providers 構造にマップします。OpenClaw プロジェクトは models.providers によるカスタムプロバイダーの追加(他のゲートウェイでも使われるパターン)をサポートしており、プロバイダーのセマンティクスに応じて "openai-completions""anthropic-messages" といった api フレーバーを想定します。

CometAPI は3つのAPI形式をサポートします。~/.openclaw/openclaw.json に一つ以上を追加します:

プロバイダーAPI形式ベースURL
cometapi-openaiopenai-completionshttps://api.cometapi.com/v1
cometapi-claudeanthropic-messageshttps://api.cometapi.com
cometapi-googlegoogle-generative-aihttps://api.cometapi.com/v1beta

OpenClawとCometAPIの構成に必要な前提条件は?

統合に先立って、適切な環境、ツール、アカウントを用意してください。

環境要件

次が必要です:

  • Unix系環境: Linux、macOS、または Windows Subsystem for Linux (WSL2)
  • Node.js と npm(OpenClaw は内部で Node を使用)
  • bash/zsh または PowerShell を使えるターミナルアクセス

公式ドキュメントでは、OpenClaw は Docker での実行にも対応しており、分離環境や本番構成に最適とされています。

アカウントとAPIキー

次が必要です:

  1. CometAPI アカウント
  2. 有効な CometAPI LLM キー(安全な環境変数に保存)
  3. 任意: 追加の OpenClaw プロバイダー(OpenAI、Anthropic、Ollama によるローカルモデル)用のアカウント

💡 ヒント: キーはプレーンテキストで保存せず、セキュアなシークレットマネージャや OS キーチェーンを使用しましょう。これは本番環境のセキュリティとして OpenClaw 自身のドキュメントでも推奨されています。

OpenClaw から CometAPI を呼び出すには?(ステップバイステップ)

以下は簡潔で実用的な5分セットアップです。正確なファイル名やキーは OpenClaw のバージョンやデプロイによって異なりますが、公式リポジトリとドキュメントの概念にそのまま対応します。

Step 0 — 環境変数を設定(セキュアで手早い方法)

シェル例(Linux/macOS):

# do NOT commit this to gitexport COMETAPI_KEY="sk-YourCometApiKeyHere"export OPENCLAW_ENV="production"   # or development

本番では、プラットフォームのシークレット機構(例:Docker secrets、systemd、Kubernetes secrets)を使用してください。


Step 1 —OpenClaw をインストール

オプションA: インストーラスクリプトでワンライナー

最速の方法です:

curl -fsSL https://openclaw.ai/install.sh | bash# Verify installationopenclaw --version

このスクリプトは OS を検出し、OpenClaw と依存関係をインストールします。

オプションB: npm のグローバルインストール

すでに Node パッケージを管理している場合:

npm install -g openclaw@latestopenclaw --version

OpenClaw CLI をグローバルにインストールします。

任意: Docker インストール

本番にデプロイする場合や分離環境を望む場合:

docker pull openclaw/openclaw:latestdocker run -d --name openclaw -v ~/.openclaw:/root/.openclaw openclaw/openclaw

コンテナ化されたデプロイは依存関係とワークロードの管理を容易にします。nClaw version; OpenClaw の例はこのパターンに従います。)

Step 2 — プロバイダーを設定

プロバイダーを設定すると、OpenClaw に LLM バックエンドの所在を伝えられます。

OpenClaw の設定ファイルを編集

OpenClaw は次の JSON ファイルに設定を保存します:

~/.openclaw/openclaw.json

CometAPI 用のカスタムプロバイダーを定義します。

最小のプロバイダー設定は次のとおりです:

  • base_url は、LLM リクエストを CometAPI の OpenAI 互換エンドポイントへ送るように指定します。
  • auth_env は、API キーを保持する環境変数を指します。
  • type フラグは API プロトコルタイプ(OpenAI スタイルなど)を指定します。
{
  "models": {
    "mode": "merge",
    "providers": {
      "cometapi-openai": {
        "baseUrl": "https://api.cometapi.com/v1",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "openai-completions",
        "models": [{ "id": "gpt-5.2", "name": "GPT-5.2" }]
      },
      "cometapi-claude": {
        "baseUrl": "https://api.cometapi.com",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "anthropic-messages",
        "models": [{ "id": "claude-opus-4-6", "name": "Claude Opus 4.6" }]
      },
      "cometapi-google": {
        "baseUrl": "https://api.cometapi.com/v1beta",
        "apiKey": "<YOUR_COMETAPI_KEY>",
        "api": "google-generative-ai",
        "models": [{ "id": "gemini-3-pro-preview", "name": "Gemini 3 Pro" }]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "cometapi-claude/claude-opus-4-6" }
    }
  },
  "auth": {
    "profiles": {
      "cometapi-openai:default": { "provider": "cometapi-openai", "mode": "api_key" },
      "cometapi-claude:default": { "provider": "cometapi-claude", "mode": "api_key" },
      "cometapi-google:default": { "provider": "cometapi-google", "mode": "api_key" }
    }
  }
}

<YOUR_COMETAPI_KEY> をあなたの API キーに置き換えてください。3つのプロバイダーすべてが同じキーを使用します。

CometAPI Models ページ にある任意のモデルを対応するプロバイダーに追加できます。

Step 3 — 認証プロファイルを設定

⚠️ 必須! OpenClaw は API キーをこのファイルから読み込み、openclaw.json からは読み込みません。これを省略すると HTTP 401 エラーになります。

~/.openclaw/agents/main/agent/auth-profiles.json を作成:

{
  "version": 1,
  "profiles": {
    "cometapi-openai:default": {
      "type": "api_key",
      "provider": "cometapi-openai",
      "key": "<YOUR_COMETAPI_KEY>"
    },
    "cometapi-claude:default": {
      "type": "api_key",
      "provider": "cometapi-claude",
      "key": "<YOUR_COMETAPI_KEY>"
    },
    "cometapi-google:default": {
      "type": "api_key",
      "provider": "cometapi-google",
      "key": "<YOUR_COMETAPI_KEY>"
    }
  },
  "lastGood": {
    "cometapi-openai": "cometapi-openai:default",
    "cometapi-claude": "cometapi-claude:default",
    "cometapi-google": "cometapi-google:default"
  }
}

ゲートウェイを再起動:

openclaw gateway restart

ステータスを確認:

openclaw auth status

設定済みモデルを一覧表示:

openclaw models list

これらのコマンドで、プロバイダーと認証プロファイルが正しく設定されているかを確認できます。すべてのモデルで Auth = yes が表示されるはずです:

Model                                        Auth
cometapi-openai/gpt-5.2                      yes
cometapi-claude/claude-opus-4-6              yes
cometapi-google/gemini-3-pro-preview         yes

Step 4 — OpenClaw を実行してログを確認

OpenClaw を起動/再起動し、ログを追跡します。特に次を確認します。

  • 送信リクエストログに base_url またはプロバイダー名が出ているか
  • 401/403 → キーやスコープの問題
  • 429 → レート制限(モデル/パフォーマンスの見直しを検討)
  • 予想外の高レイテンシ → ネットワークやモデル側のスロットリング

簡易診断コマンド(例):

# If OpenClaw runs as a system service:journalctl -u openclaw -f# If running in Docker:docker logs -f openclaw

モデルの切り替え

# Set default model
openclaw models set cometapi-claude/claude-opus-4-6

# Or switch in TUI
/model cometapi-openai/gpt-5.2

実際のワークフローで OpenClaw と CometAPI をどう使う?

統合後は、コード生成、マルチモーダルタスク、エージェント自動化、チャネル投稿などを含むワークフローを構築できます。

例: スクリーンショット解釈ワークフロー

エージェントが添付ファイルをサポートしている場合:

User: Analyze this screenshot and generate a minimal React component.

OpenClaw はプロンプト(および画像データ)を CometAPI のモデル(Kimi K-2.5 など)に送信し、コード出力を返します。UI プロトタイピングのワークフローに最適です。

Slack / Discord 連携

CometAPI をバックエンドにすると、エージェントの返信を任意のプラットフォームにルーティングできます。

  • Slack チャンネル
  • WhatsApp グループ
  • Telegram ボット

OpenClaw がルーティングとリクエスト解析を行い、CometAPI がモデル応答を提供します。

どのようなモニタリングとコスト管理を追加すべきか?

アグリゲーターに集約すると制御しやすくなりますが、そのための設定が必要です。

計測

  • すべてのリクエストでモデル名、トークン使用量、レイテンシ、エラーコードを記録
  • リクエストにエージェントやチャネルのタグを付与(例:agent=personal_assistant, channel=telegram)し、コストの帰属を可能にする

コスト制御の調整項目

  • プロバイダー設定で max_tokenstimeout_seconds を設定
  • 日常タスクには安価なモデルを使い、重要なフローでは大規模モデルを使用
  • エージェント単位のレート制限やユーザー単位のクォータを設定(OpenClaw は拡張で実装可能なことが多い)

CometAPI はパフォーマンスとコスト調整のためのツールを提供しています。ガードレールを構築するため、OpenClaw のログと CometAPI の使用状況メトリクスの両方を活用しましょう。

統合時の一般的なエラーはどうトラブルシュートする?

答え: よくある障害モードと迅速な解決策を以下に示します。

Fix: OpenClaw のコントロールパネルにワンタイムトークンが表示されます。ドキュメントに従ってそのトークンを Control UI 設定に貼り付けてください。コミュニティノートでもこの手順が頻繁に言及されています。

401 Unauthorized

原因: COMETAPI_KEY が不足、誤り、または OpenClaw プロセスに注入されていない。

対処: OpenClaw を起動するシェルでキーをエクスポートするか、OpenClaw の .env に記載してゲートウェイを再起動。curl テストで確認。

Provider silently falling back / defaulting

原因: models.providers の JSON が不正、または api フレーバーが欠落し、OpenClaw がプロバイダーを無視している。

対処: openclaw.json を(JSON リントで)検証し、api がサポートされるフレーバーに一致していることを確認。コミュニティのイシューでもこの誤設定がよく報告されています。

Timeouts or high latency

原因: ネットワーク経路またはリモートモデルの遅延。

対処: より低レイテンシの Comet モデルを選ぶか、OpenClaw を同一クラウドリージョン近傍で動かす。レイテンシに敏感なタスクではローカルモデルの利用も検討。ドキュメントやブログで(レイテンシ対コストの)トレードオフが議論されています。

Excess usage / 429s

原因: CometAPI のクォータやプラン上限に到達。

対処: Comet のダッシュボードでクォータを確認。OpenClaw のエージェントアクションにリトライ/バックオフを追加、またはゲートウェイでスロットリング。Comet とパートナーのドキュメントで推奨のバックオフパターンが案内されています。

Gateway token missing / websocket disconnects

原因: ゲートウェイ実行時にダッシュボード設定へ OpenClaw のコントロールトークンが未設定。

まとめ

OpenClaw を CometAPI に接続するのは手早く、パワフルなマルチモデルバックエンドをあなたのパーソナルアシスタントに解放します。ただし、スピードは安全性を無視する理由にはなりません。テスト中はゲートウェイを localhost にバインドし、許可リストを使い、すべてをログに残し、破壊的アクションには確認を要求してください。これらの制御を整えれば、5 分ほどで OpenClaw → CometAPI のエージェントを動かし始め、実験中もデータとシステムを保護できます。

開発者は kimi k-2.5CometAPI 経由で今すぐ利用できます。まずは Playground でモデルの能力を試し、詳細は API ガイド を参照してください。アクセス前に、CometAPI にログインし API キーを取得していることを確認してください。CometAPI は公式価格よりもはるかに低い価格を提供しており、統合を支援します。

準備はいいですか?→ 今すぐ OpenClaw にサインアップ

AI に関するヒント、ガイド、ニュースの詳細は、VKXDiscord をフォローしてください。

トップモデルを 低コストで利用

もっと読む