OpenClaw(旧称 Clawdbot、短期間は Moltbot)は、私が見てきたほぼどのエージェントプロジェクトよりも速い勢いで爆発的に拡大しました。
わずか3週間足らずで、GitHubのスター数が10万を超えました。人々はそれを“24/7のAIインターン”と呼び、正直その表現は的を射ています。メッセージを読み取り、シェルコマンドを実行し、ファイルを管理し、あなたが日常を過ごしている間、バックグラウンドで静かに動作します。
しかし初期の興奮が落ち着くと、極めて実用的な疑問があらゆるところで上がり始めました。
「これはクールだね…でも、APIにお金を燃やさずにどうやって動かすの?」
まさにその疑問に答えるために、このガイドを書きました。
OpenClaw(旧称 Clawdbot)が話題になっている理由は?
ローカル実行への技術的な移行を理解するには、まず OpenClaw が実際に何であるかを把握する必要があります。本質的には、openClaw( Moltbot / Clawdbot)は「会話を最優先とする」自律型エージェントです。ブラウザタブに常駐してプロンプトを待つ従来のチャットボットとは異なり、OpenClaw はマシン上でバックグラウンドのデーモンとして動作します。WhatsApp、Telegram、Discord、Signal といったメッセージングプラットフォームと直接統合し、実質的にチャットアプリをあなたの生活のためのコマンドラインへと変えます。
Clawdbot から OpenClaw への進化
プロジェクトの歴史は魅力的であると同時に、変転きわまりないものです。
Clawdbot(2025年末): Peter Steinberger によって作られ、Anthropic の Claude をラップする形で公開されました。単なるテキスト出力ではなくタスクを実行することを目的として設計され、「手を持つ Claude」と評されました。
Moltbot(2026年1月): “Clawd”という名称を巡る Anthropic との商標紛争を受け、プロジェクトは“Moltbot”へリブランドし、殻の脱皮を示唆するロブスターのマスコット“Molty”を採用しました。
OpenClaw(2026年1月30日): オープンソース性を強調しつつ、特定企業のアイデンティティからさらに距離を置き、同時に“Claw”の系譜を保持するため、コミュニティは OpenClaw に落ち着きました。
OpenClaw を際立たせているのは、その権限システムです。メールの読み取り、カレンダーの確認、シェルコマンドの実行に加え、ローカルに保存された Markdown ファイル内で独自のメモリを管理することさえできます。しかし、デフォルト構成ではこれらのコンテキストをクラウド API(主に Anthropic または OpenAI)へ送信することに依存しており、重大な課題が2つ生じます:コストとプライバシー。
なぜローカル LLM に切り替えるべきか?
openClaw( Moltbot / Clawdbot)の“箱から出してすぐ使える”デフォルト体験は、Claude 3.5 Sonnet あるいは Opus によって支えられています。これらのモデルは非常に高性能ですが、料金はトークン単位で課金されます。24/7で動作する自律エージェント——メールの確認、サーバーログの監視、チャットの要約——は、1日に数百万トークンを生成し得ます。
自律性のコスト
自律エージェントはチャットセッションのようには振る舞いません。ループし、コンテキストを読み直し、ログを要約し、受信箱を何度もチェックします。
次のような報告をユーザーから見かけました。
「Obsidian のボールトを再整理させるために Clawdbot を一晩動かしておいたら、朝起きたら40ドルの請求が来ていました。」
それは誤用ではありません——自律性とはそういうものです。
ローカルモデルなら、限界費用は(電力を除けば)ゼロになります。「これを動かしておいて大丈夫かな?」という発想から、「他に何を自動化できるだろう?」へと意識が切り替わります。
プライバシーは副次的メリットではなく、主目的です
openClaw( Moltbot / Clawdbot)は次のようなものを読み取れます:
- Emails
- Chat histories
- Source code
- Personal documents
OpenClaw はシステムへ深くアクセスできるよう設計されています。個人メッセージやファイルシステムを読み取ります。API を使用すると、ボットが読むあらゆるファイルは処理のために第三者のサーバーへアップロードされます。ローカル LLM を使えば、データはローカルネットワークの外へ一切出ません。財務文書、プライベートなチャット、コードベースはビッグテックから隔離されたままです。
Ollama で OpenClaw を動かす(私のデフォルト推奨)
ターミナル操作に慣れているなら、Ollama は現在ローカル LLM を動かす最も簡単な方法です。
openClaw( Moltbot / Clawdbot)は OpenAI 互換の API を話します。Ollama はデフォルトでそれを提供します。これがすべての仕掛けです。
最低限のシステム/ソフトウェアチェックリスト
- A machine with a recent OS (Linux/macOS/Windows + WSL2). Local GPU acceleration recommended for larger models; CPU-only works for small models or lightweight tasks.
- Node.js ≥ 22 (OpenClaw’s CLI and Gateway expect Node).
- Ollama (or another local LLM runtime) installed locally if you plan to run local models. Ollama exposes an OpenAI-compatible local API by default (commonly on
http://localhost:11434). - If using a proxy like Lynkr, install it (npm or clone the repo). Lynkr can present an Anthropic/OpenAI-like endpoint to OpenClaw while routing to local models.
ステップ 1: OpenClaw をインストール(クイックコマンド)
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
オンボードウィザードはユーザーサービスのデーモン(systemd/launchd)をインストールし、Gateway がバックグラウンドで動作し続けるようにします。オンボーディング後、デバッグのために Gateway を手動で起動できます。
openclaw gateway --port 18789 --verbose
ステップ 2: Ollama をインストールしてモデルを取得
Ollama のインストールと実行は簡単です。macOS/Linux の例:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama は多くの OpenAI スタイルのクライアントと互換の API を公開します。OpenClaw のプロバイダー統合は Ollama をサポートしており、設定を上書きしない限りローカルの Ollama インスタンスを自動検出します。
ステップ 3: 最小限の OpenClaw モデル設定
互換レイヤー(Lynkr)の導入、または OpenClaw をローカルエンドポイントへ向けて構成
openClaw( Moltbot / Clawdbot)は歴史的に特定の API 形状(例:Anthropic 風のエンドポイント)に対応してきたため、最も簡単なのはローカルサーバーの API へと OpenClaw の呼び出しを変換する小さなプロキシを動かすことです。
- Lynkr:OpenClaw が想定するポートで待ち受けるように Lynkr をインストール・設定し、Ollama や text-generation-webui へ転送するよう構成します。コミュニティのチュートリアルにはステップファイルや
config.jsonのサンプルが掲載されています。Lynkr を起動すれば、OpenClaw は元のプロバイダー設定のままでも実際にはローカルモデルと通信します。
OpenClaw の設定を直接変更したい場合は、.openclaw の構成内でモデルのバックエンド URL をローカルサーバーのエンドポイントへ向けてください。
openClaw( Moltbot / Clawdbot)は ~/.openclaw/openclaw.json に設定を保存します。ローカルモデルを優先する最小構成の例は次のとおりです。
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
もし models.providers.ollama ブロックを省略しても、openClaw( Moltbot / Clawdbot)は利用可能であればローカルの Ollama インスタンスをしばしば自動検出します。openclaw models list と openclaw models set を使えば、ファイルを直接編集せずに対話的にモデル設定を管理できます。
ステップ 4: OpenClaw を起動してメッセージをテスト
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
Gateway とモデルが正しく構成されていれば、アシスタントの応答が表示され、メッセージはローカルの Ollama モデル経由でルーティングされます。
プロキシ経由で OpenClaw を変更せずに運用できますか?
はい——まさに Lynkr のようなプロキシツールがそれを実現します。OpenClaw( Moltbot / Clawdbot)が想定する Anthropic/OpenAI 風のエンドポイントを提示しつつ、OpenClaw の期待するポートで待ち受け、ローカルの Ollama や text-generation-webui インスタンスへ転送します。これは、API キー不要・クラウド課金なし・ローカルモデル実行という価値を提供し、OpenClaw の内部を変更せずにローカルで制御できるため有用です。
アーキテクチャ概要(どのコンポーネントが何と通信するか)
- OpenClaw(エージェント/アプリ) — メインのアシスタント、モデル呼び出しを発行し、ツールとメッセージ統合をオーケストレーションします。
- LLM プロキシ(例:Lynkr) — OpenClaw の API 風リクエストを受け取り、ローカルのモデルサーバー(またはクラウドのフォールバック)へ転送します。プロキシはキャッシュ、トークン削減、メモリ圧縮を実装してコストを下げることもできます。
- ローカル LLM サーバー(例:Ollama、単体の ggml ランタイム、Llama.cpp、ローカルのコンテナ化モデル) — マシン上で推論を提供します。Ollama はローカルサーバーとモデルのパッケージングワークフローを容易にするため広く使われています。他のランタイムも可能です。
- 任意のクラウドフォールバック — プロキシは必要に応じて複雑なリクエストをクラウドモデルへルーティングできます(ハイブリッドモード)。
openClaw を直接改修するのではなくプロキシを使う理由
プライバシーと総保有コスト(TCO): ローカル推論はデータをあなたのマシン内にとどめ、API 請求を避けます。
互換性: openClaw( Moltbot / Clawdbot)は特定の API サーフェス(Anthropic/“Copilot” 風)を想定しています。プロキシはそのサーフェスを維持するため、OpenClaw の変更を最小限にできます。
安全性と柔軟性: プロキシはリクエストルーティング規則(ローカル優先・クラウドフォールバック)、レート制限、リクエスト切り詰め、その他のセーフガードを実装できます。
例:Lynkr を設定してローカルの Ollama へルーティング
- Lynkr をインストール:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
.envを作成(例):
cp .env.example .env
.env を次のように編集:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- Lynkr を起動:
# if installed globally
lynkr
# if cloned
npm start
Lynkr はデフォルトでローカルプロキシ(例:http://localhost:8081)と、OpenAI/Anthropic 互換の /v1 エンドポイントを公開します。次に、OpenClaw のモデルプロバイダーを Lynkr のベース URL に向けて構成します(次のスニペットを参照)。
OpenClaw を Lynkr のエンドポイントへ向ける
~/.openclaw/openclaw.json を編集するか、CLI を使ってプロバイダーのベース URL を設定します。
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
これで openClaw( Moltbot / Clawdbot)は http://localhost:8081/v1(Lynkr)へ呼び出しを行い、ローカルで ollama://kimi-k2.5 へルーティングされます。マシンからデータを出さずに、外部プロバイダーのようなシームレスな体験が得られます。
モデルを Graphical User Interface(GUI)で管理したい、あるいは Hugging Face の特定の量子化モデル(GGUF 形式)を使いたいユーザーには、LM Studio が推奨です。
自律エージェントをローカルで実行するのは安全か?
これはおそらく最も重要な問いです。openClaw( Moltbot / Clawdbot)を実行するということは、実質的に AI にあなたのコンピュータへのシェルアクセスを与えることを意味します。
“Sudo” の問題
クラウド上の Claude に「ドキュメント内のファイルをすべて削除して」と頼めば、安全フィルタにより拒否されるかもしれません。ローカルの、検閲されていない Llama 3 モデルにはそのような抑制がありません。openClaw( Moltbot / Clawdbot)がコマンドを誤解すると、理論上は破壊的なコマンドを実行し得ます。
セキュリティのベストプラクティス
Docker で実行:リスクを十分に理解していない限り、openClaw( Moltbot / Clawdbot)をホストマシンの“ベアメタル”で直接実行しないでください。環境をサンドボックス化する公式の Docker イメージを使用しましょう。
以下の例は、Ollama(ローカルモデルランタイム)、Lynkr(プロキシ)、OpenClaw Gateway(コンテナ内で CLI 実行)の3つのサービスを示す最小の docker-compose.yml です。注: GPU アクセスのため、ボリュームやデバイスのパススルーは適宜調整してください。
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
これは例示的なスタックです。本番環境では、必要に応じてネットワーク分離、リソース制限、GPU デバイスのマッピングを追加してください。
よくあるトラブルシューティングと制約
openClaw( Moltbot / Clawdbot)が Ollama を認識しない場合
- Ensure Ollama is running and the base URL is reachable (
http://127.0.0.1:11434/v1). - Use
openclaw models listandopenclaw doctorto surface configuration issues.
Lynkr のルーティングが失敗する場合
- Confirm Lynkr is listening (usually
http://localhost:8081). - Check
.envforOLLAMA_ENDPOINTandMODEL_PROVIDERcorrectness. - Validate that Lynkr maps the
/v1paths openClaw ( Moltbot / Clawdbot) calls — some provider implementations expect slightly different paths; adjust base paths if needed.
モデル能力のギャップ
ローカルモデルの得意分野はさまざまです。コーディングに秀でたものもあれば、雑談に強いものもあります。ハイブリッド戦略(ローカル優先・クラウドフォールバック)は有効です。定型的なタスクはローカルにルーティングし、複雑な推論はキャッシュを活用してコストを抑えつつクラウドモデルへ振り分けます。Lynkr や同様のプロキシはまさにこのロジックを実装しています。
結論
OpenClaw の設計と活発なエコシステムにより、今日すでにローカルかつ API なしのデプロイが現実的になっています。ローカルホスティングには Ollama、API 変換には Lynkr、そして充実したコミュニティドキュメントがあるため、デスクトップ GPU から携帯デバイスまで、あなたが制御するマシン上で、サードパーティの LLM プロバイダーへデータを送らずに高度なエージェントを動かせます。
しかし、メリット・デメリットを比較検討した結果、必要な装備がなくても API 経由で openClaw( Moltbot / Clawdbot)を使い続けたい場合は、 CometAPI. をお勧めします。Anthropic と OpenAI のエンドポイントを提供し、頻繁に割引を実施しています——一般的に正式価格の20%引きです。
開発者は および Claude Sonnet/ Opus 4.5 と GPT-5.2 に CometAPI 経由でアクセスできます。記載されている最新モデルは記事の公開日時点のものです。まずはモデルの能力を Playground で試し、詳細な手順は API guide を参照してください。アクセス前に、CometAPI にログインし、API キーを取得していることを確認してください。CometAPI は、統合を支援するため公式価格よりもはるかに低い価格を提供しています。
準備はできましたか?→ Sign up for Gemini 3 today!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)