Openclaw(Moltbot /Clawdbot) : セットアップガイド+ API ホスティングチュートリアル

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : セットアップガイド+ API ホスティングチュートリアル

この流れを牽引しているのがMoltbot(旧称 Clawdbot)です。数週間のうちに GitHub スターが 60,000 以上に達し、ニッチな開発者向けツールからバイラルな話題作へと成長しました。Peter Steinberger によって作られた Moltbot は、AI エージェントの「脱皮」を体現しています—ウェブインターフェースの制約を脱ぎ捨て、私たちが日常的に使うメッセージングアプリやファイルシステムに宿る存在です。

最近のトピック: 商標に関連する要請を受けて、プロジェクトは Clawdbot から Moltbot にリブランドされました。理由は「Clawd」が「Claude」にあまりに類似して聞こえるため、Anthropic が商標に関する要請を行ったためです。

Moltbot(Clawdbot)とは?なぜバイラルなのか

Moltbot は、強力な大規模言語モデル(LLM)とローカルコンピュータの間のギャップを埋めるために設計された、オープンソースの自己ホスト型 AI エージェントです。ブラウザの「囲い込み」タブ内に存在する ChatGPT や Claude.ai と異なり、Moltbot はあなたのハードウェア(Mac、Linux、または VPS)上でゲートウェイとして動作します。

Telegram、WhatsApp、Slack などのプラットフォームからの自然言語メッセージを、マシン上で実行可能なアクションへと変換します。買い物中にデスクトップ上のファイルを探したい場合でも、スマートフォンから複雑なデプロイスクリプトをトリガーしたい場合でも、Moltbot はフルなシステムアクセス権を持つデジタルプロキシとして機能します。

なぜ他と異なるのか

  • ローカル優先の実行とツール: Moltbot はホスト上で実際にコマンドを実行(同意の上)し、外部 API を呼び出し、「スキル」と呼ばれる小さなプログラムや Markdown 定義のワークフローを使用できます。
  • マルチチャネル: Telegram、WhatsApp、Slack、Discord などから同じアシスタントを利用でき、プロアクティブにメッセージを送ることも可能です。
  • メモリと永続性: Moltbot はワークスペース内にメモリファイル(Markdown)を保存し、検索用にインデックス化するため、アシスタントはセッションをまたいで「覚えて」います(詳細は下記)。

中核機能の概要

機能説明
マルチチャネルTelegram、WhatsApp、Discord、Slack、iMessage などを使用可能。
PC へのフルアクセスシェルコマンドの実行、ファイル管理、ブラウザ制御。
プロアクティブな AI待ち受けるだけではなく、「ハートビート」アラートやリマインダーを送信できます。
プライバシー優先ファイルやロジックはあなたのハードウェアに留まり、API に送るのはプロンプトのみ。
自己進化機能拡張のために自ら「スキル」を作成できます。
OpenAI 互換Moltbot は OpenAI 互換の API プロトコルをサポートし、互換サービスに接続します
カスタム baseUrlAPI エンドポイントアドレスの変更をサポートし、プロバイダー間を簡単に切り替え可能

Clawdbot はどのようにデータベースなしで「すべてを覚える」のか?

Moltbot の最も革新的な側面のひとつが、その透明なメモリアーキテクチャです。多くの AI ツールはセッション間の「健忘症」に悩まされます。Moltbot は、ワークスペース内にあるプレーンな Markdown ファイルを使った多層システムでこれを解決します。このアプローチにより、AI があなたについて何を知っているのかを正確に読み、編集し、監査できます。

メモリ設計とは?どのように機能するのか

Moltbot のメモリは意図的にシンプルかつ監査可能です。メモリはエージェントのワークスペース内にあるプレーンな Markdown ファイルです。ファイルが唯一の情報源であり、モデルはディスクに書かれた内容のみを「記憶」します。デフォルトのレイアウトは次の通りです。

  • memory/YYYY-MM-DD.md — 日次の追記専用ログ(セッション開始時に当日+前日を読み込み)
  • MEMORY.md — 長期のキュレートされたメモリ。あなたが制御し、プライベートセッションにのみ読み込み

この設計には 2 つの大きな利点があります。

  1. 監査可能性 — アシスタントがメモリとして使用する内容を、あなたが読み、編集できます。
  2. ツールの単純性 — メモリプラグインはベクター/BM25 インデックスを提供し、関連メモリエントリを素早く検索できます。

技術的アプローチ

  • 会話/セッションストア: ゲートウェイはセッションを追跡し、適切なコンテキストをエージェントランタイムに転送します。これにより、エージェントはメッセージやチャネルをまたいで会話状態を保持できます。
  • ローカルデータのインデックス化: Moltbot はローカルのファイルやドキュメントをインデックス化し、検索ツール(セマンティックまたはキーワード)経由で公開します。これによって、会議メモやスニペット、コードを「覚える」ことができます。
  • ツール出力とメモリプリミティブ: スキルやツールは永続ストア(データベースまたはファイルシステム)へ書き込みでき、Moltbot は後のプロンプトでそれらのエントリを参照できます。多くのデプロイでは、小規模セットアップに SQLite、Postgres、ローカル JSON/YAML が使われます。
  • LLM 埋め込みとベクターストア: セマンティックな想起には、文書を埋め込み、ベクトル DB に保存し、近傍探索でプロンプトへ含めるのが一般的です。Moltbot のアーキテクチャはモデル非依存のツール呼び出しを前提にしているため、任意の埋め込み+ベクターストアの組み合わせを接続できます。

セキュリティ上の注意: メモリは永続化され、スキルがホスト上でコマンドを実行できるため、推奨デフォルトは保守的です。不明な送信者に対する DM ペアリング、メインセッション以外のサンドボックス化、リスクの高い構成を可視化する moltbot doctor チェックを推奨します。セキュリティドキュメントを常に確認し、受信メッセージは信頼できない入力として扱ってください。

メモリ階層

ファイル目的
SOUL.mdエージェントの人格、トーン、基本的な運用ルールを定義します。
USER.mdあなたに関する事実を保存(例: 「Ruby より Python を好む」「フィンテックで働いている」)。
MEMORY.md長期のキュレートされたメモリ。恒久的な想起のために保存します。
memory/YYYY-MM-DD.md特定日付のデイリーログと生のコンテキスト。

あなたが Moltbot に「レポートは PDF 形式が好きだと覚えて」と伝えると、隠れた SQL データベースに保存されるわけではありません。実際に USER.md を開いて新しい箇条書きを追記します。これにより、アシスタントは数週間にわたる会話の文脈を維持でき、毎朝新しいインスタンスではなく真のパーソナルアシスタントのように感じられます。


Moltbot セットアップガイド: 前提条件とインストール

以下は、macOS/Linux(Ubuntu)で基本的な Moltbot インスタンスを動かすための実用的なチェックリストとコマンドです。これは凝縮された本番志向のガイドです — GUI やマネージドホストが必要な場合は API ホスティングのセクションへ進んでください。

必要なもの(前提条件)

  • macOS または Linux を実行するマシン(Windows は WSL2 経由で動作可能)。ゲートウェイと CLI には Node.js v22+ が必要。
  • テキストエディタと基本的なシェルの知識。
  • 少なくとも 1 つの LLM API キー(OpenAI、Anthropic、Venice、または Ollama のようなローカルモデル)—Moltbot 自体はモデル非依存。
  • 任意: Docker(コンテナデプロイを好む場合)。

手順に沿ったインストール

  1. パッケージをインストール: ターミナルで次のコマンドを実行: npm install -g clawdbot@latest
  2. オンボーディングウィザードを起動: ウィザードはセットアップの中心で、セキュリティ確認とモデル選択を案内します。clawdbot onboard --install-daemon
  3. セキュリティリスクの確認: Moltbot はマシンに対して「root に近い」アクセス権を持つことを知らせ、続行には確認の入力が必要です。
  4. ゲートウェイの構成: ウィザードは clawdbot gateway をバックグラウンドサービス(Mac では launchd、Linux では systemd)としてインストールし、24/7 でオンラインに保ちます。

クイックインストール(macOS / Linux)

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker(基本)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

起動方法:

docker compose up -d

インストール後: メッセージングチャネルをペアリング

Moltbot は複数のチャネルをサポートします。ペアリングは通常、ゲートウェイの UI または CLI からペアリングトークンを生成し、Telegram ボットや WhatsApp アカウントを接続するための小さな「ペアリング URL」を使用して行います — 具体的な手順は選択したチャネルコネクタ(Telegram Bot API 対 grammY ラッパー、WhatsApp は Baileys など)によって異なります。moltbot connect telegrammoltbot connect whatsapp のドキュメントを参照してください。

Moltbot 経由で Telegram から PC を制御するには(ステップごと)?

以下は Telegram メッセージでホストを制御するための安全で実用的な手順です — リモート管理、スクリプト実行、ログ取得、ちょっとしたジョブを Moltbot に頼む用途に便利です。重要なセキュリティノート: API トークンとファイアウォールなしでゲートウェイをインターネットへ公開しないでください。信頼できる Telegram ユーザーのみがボットに話しかけられるように設定してください。

1)BotFather で Telegram ボットを作成

  1. Telegram で @BotFather にメッセージを送る。
  2. /newbot を送信し、プロンプトに従う。
  3. ボットトークン 123456789:ABC-... をコピー(BotFather が表示)。

2)トークンをゲートウェイに追加

環境変数または設定に追加:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

CLI のバージョンに応じて moltbot channels addmoltbot configure コマンドからトークンを追加することも可能です。Telegram のドキュメントには、このクイックセットアップの方法が示されています。

3)オンボーディングウィザードを実行し、Telegram を選択

実行:

moltbot onboard --install-daemon

ウィザード内で:

  • モデルプロバイダー(Anthropic Opus、OpenAI、またはローカル)を選択。
  • チャネルの設定で Telegram を選び、トークンを貼り付け。
  • ペアリング/許可リストを構成して、誰がボットにメッセージできるかを制限(重要 — 自分のユーザー ID を設定して、あなただけが制御できるように)。

コミュニティのウォークスルーとオンボーディングプロセスでは、ノードペアリングを証明するためにホストからの小さなコマンド出力を貼り付けるよう求められます — プロンプトに従ってください。

4)exec ツールと承認を有効化(安全に)

Moltbot は exec ツール経由でシステムコマンドを実行できますが、明示的な承認モデルのもとで行います:

  • exec の承認は ~/.clawdbot/exec-approvals.json に記録されます。
  • 初回にアクションが要求されると、システムはチャットで承認を促し、/approve と返信すれば続行(または拒否)できます。
  • 完全自動のワークフローでは、限定的な許可リストや、事前承認済みスクリプトの「bin」を作成できます。

例: moltbot の設定(または UI/プラグイン)で exec ツールを有効化:

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

このプロジェクトには明示的な exec 承認フローがあり、要求時には承認プロンプトをチャットチャネルへ転送するため、操作のレビューと承認が容易です。

5)Telegram から安全なコマンドを試す

許可されたユーザーの Telegram アカウントから送信:

@YourMoltbot Hi — please run: uptime

アシスタントは次を行います:

  1. 確認を要求(exec が承認を必要とする場合)。
  2. ホスト上で許可されたコマンドを実行。
  3. 出力をチャットへ返す。

6)スキルでより安全なアクションを作成

チャット経由で直接シェルアクセスを与える代わりに、アクションを内包するスキル(例: スクリプトを呼び出し、整った結果を返す backup スキル)を推奨します。スキルはインストール/アンインストールが可能で、レビューも容易です。

Moltbot API(ゲートウェイ)をホストして HTTP API を使うには?

Moltbot は他のプログラムから呼び出せる API を提供できるか?

はい。Moltbot のゲートウェイは OpenResponses 互換の HTTP エンドポイント(POST /v1/responses のような)と、OpenAI 風の /v1/chat/completions シムを公開できます。これらのエンドポイントはデフォルトでは無効で、ゲートウェイの設定で有効化する必要があります。OpenResponses の HTTP エンドポイントはゲートウェイのエージェント実行パスに直接マップされるため、リクエストは実際のエージェントセッションとして実行され(同じルーティング/権限が適用されます)。

Moltbot における API プロキシとは?

API プロキシは、Moltbot のエージェントランタイムと、次のような上流の LLM プロバイダーとの間に位置する仲介サービスです:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • 自己ホストの OpenAI 互換エンドポイント

Moltbot がプロバイダーへ直接呼び出すのではなく、すべてのリクエストをプロキシ経由でルーティングすることで、次のことが可能になります:

  • リクエスト/レスポンスの書き換え
  • レート制限の適用
  • トークン使用量とコストの追跡
  • モデルの動的切り替え
  • 実際の API キーを Moltbot から秘匿
  • 認証、ロギング、キャッシュの追加

概念的には:

Moltbot → API Proxy → LLM Provider

このアーキテクチャはセキュリティ、可観測性、コスト管理を大幅に改善します。

🚀 クイックスタート: CometAPI (apiyi.com) で API キーを取得することを推奨します。登録で無料クレジットが付与されます。Claude Sonnet 4.5、Claude Opus 4.5、GPT-5.2 などの主要アルゴリズムをすべてサポートし、通常は公式価格より 10〜20% 安価です。

ステップ 1: API プロキシキーを取得

方法 1: 環境変数を設定。Moltbot の .env ファイルで:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

重要ポイント:

  • OPENAI_API_BASE は OpenAI ではなくプロキシを指します
  • OPENAI_API_KEYプロキシが発行するトークンです
  • 実際に使用するプロバイダー/モデルはプロキシが決定します

値を更新したら Moltbot を再起動してください。

方法 2: config.json で構成:

  • Moltbot の設定ファイルの場所を見つける
  • 設定ファイルを開き、models.providers を追加または更新する

設定ファイルは通常次のいずれかにあります:

オペレーティングシステム設定ファイルのパス
macOS~/.clawdbot/config.json or ~/.moltbot/config.json
Linux~/.clawdbot/config.json or ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

コマンドラインから場所を確認することもできます:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

ステップ 2: 接続性の検証

簡単なテストプロンプトを実行:

moltbot test llm

正しく構成されていれば、Moltbot は上流プロバイダーへ直接接続することなく通常通りレスポンスを受け取ります。

Moltbot をホスト型モデルで運用する際のコスト見積り

マネージドモデルの利用コストは API 価格に依存するため、安価な API プロバイダーの選択が非常に重要です。そのため CometAPI を推奨します。

価格に影響する主な要素:

  • ベンダーの価格。マネージドモデルの利用コストは API 価格に依存するため、より安価な API ベンダーの選択が重要です。これが CometAPI を推奨する理由です。
  • フラッグシップモデルか軽量モデルかの選択。例えば Claude Opus 4.5 と GLM 4.7 の価格差は大きいです。
  • 処理するコンテンツの複雑さ。ワークフローがテキスト中心(ファイル解析、長文応答)であれば、トークンが増えます。

概算例(参考、コミュニティ投稿による 2026年1月時点の価格):

  • たまの個人利用(数百レスポンス/月、ローカルモデルと安価な API コールの混在): $0–$50/月
  • ヘビーな個人/プロ開発者利用(ファイルインデックス、ツール呼び出し多め): $100–$1,000/月
  • チームや常時稼働の本番(多数ユーザー+ウェブスクレイピング+チェイニング): $1,000+/月。ただしモデル利用を積極的に最適化すれば削減可能。

コストを削減する方法

  • モデルルーティング: 軽量タスクは安価なモデルやローカル LLM に送信し、長時間の推論が必要なタスクのみ高価なモデルに回す—コミュニティのテストではコストを約 50% 以上削減可能。
  • リレーとボリューム価格: トークン単価が有利な API リレーやプライベートモデルホスティング(Venice、プライベートエンドポイント)を利用。
  • 積極的なキャッシュと切り詰め: LLM 出力をキャッシュし、長い履歴を切り詰め、全文再送ではなく要約を使用。

Moltbot の高度な API プロキシ機能

タスク種別によるモデルルーティング

リクエストペイロードを検査して動的にルートできます:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

このパターンにより、品質を犠牲にせずコストを削減できます。


トークンおよびコストの制限

ハードリミットを強制できます:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

チームによっては、Moltbot のユーザー ID ごとの累積使用量を追跡することもあります。


AI に PC のシェルアクセスを与えるのは安全か?

これはすべての Moltbot ユーザーにとって最も重要な質問です。LLM に rm -rf 実行の能力を与えることは本質的にリスクがあります。Moltbot は次の複数のガードレールでこれを軽減します:

  1. サンドボックス化: Moltbot をDocker コンテナ内で実行できます。これによりエージェントの「世界」を特定のフォルダへ制限し、システムファイルへ触れないようにします。
  2. 明示的な承認: 既定では「メインセッション」(あなたとの直接チャット)は信頼度が高いですが、破壊的なシェルコマンドを実行する前に許可を求めるよう構成できます。
  3. パスワード保護: Moltbot の Web UI を公開する場合は、必ず config.json でパスワード認証を有効化してください:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

最後に

Moltbot は単なるチャットボットではなく、個人的なデジタル従業員のためのインフラです。自分でホストすることでデータの主導権を取り戻し、眠らない AI の生産性を手に入れられます。Telegram 経由でカレンダーを管理したり、ソファに座ったまま DevOps パイプラインを自動化したりと、Moltbot は誰もが部屋の隅の Mac Mini で「Jarvis」を動かす未来の一端を示しています。

公式より低価格で複数ベンダーのモデル(Chatgpt-5.2Claude opus 4.5 など)を提供する API プラットフォームを探しているなら、CometAPI が最適です。まずは Playground でモデルの能力を試し、詳細手順は API ガイド を参照してください。アクセス前に CometAPI にログインし、API キーを取得していることを確認してください。CometAPI は公式価格より大幅に低い価格を提供し、統合を支援します。

準備はいいですか?→ CometAPI に今すぐ登録

AI に関するヒント、ガイド、ニュースをもっと知りたい方は、VKXDiscord をフォローしてください!

もっと読む

1つのAPIで500以上のモデル

最大20%オフ