Bagaimana untuk menjalankan openClaw (Moltbot/ Clawdbot ) pada LLM tempatan tanpa API

CometAPI
AnnaFeb 1, 2026
Bagaimana untuk menjalankan openClaw (Moltbot/ Clawdbot ) pada LLM tempatan tanpa API

OpenClaw (dahulunya Clawdbot, seketika Moltbot) telah melonjak lebih pantas daripada hampir mana-mana projek agen yang pernah saya lihat.

Dalam masa kurang tiga minggu, ia melepasi 100,000 bintang GitHub. Orang memanggilnya sebagai “intern AI 24/7”, dan sejujurnya, gambaran itu tidak jauh tersasar. Ia boleh membaca mesej, menjalankan perintah shell, mengurus fail, dan hidup senyap di latar ketika anda melalui hari anda.

Namun selepas keterujaan awal, satu soalan yang sangat praktikal mula timbul di mana-mana:

“Ini menarik… tetapi bagaimana saya menjalankannya tanpa membakar wang untuk API?”

Soalan itulah tepat sebab saya menulis panduan ini.

Apa Yang Membuat OpenClaw (Dahulunya Clawdbot) Begitu Hangat Diperkatakan?

Untuk memahami peralihan teknikal ke arah pelaksanaan setempat, kita perlu terlebih dahulu memahami apa sebenarnya OpenClaw. Pada intinya, openClaw ( Moltbot / Clawdbot) ialah agen autonomi "perbualan-utama". Tidak seperti chatbot tradisional yang hidup dalam tab pelayar dan menunggu arahan, OpenClaw berjalan sebagai daemon latar pada mesin anda. Ia bersepadu terus dengan platform pemesejan seperti WhatsApp, Telegram, Discord, dan Signal, menjadikan aplikasi chat anda seakan baris arahan untuk hidup anda.

Evolusi daripada Clawdbot ke OpenClaw

Sejarah projek ini sama volatilnya dengan keunikannya.

Clawdbot (Akhir 2025): Dicipta oleh Peter Steinberger, ia dilancarkan sebagai pembalut untuk Claude milik Anthropic, direka untuk melaksanakan tugas bukan sekadar mengeluarkan teks. Ia digelar "Claude dengan tangan."

Moltbot (Jan 2026): Berikutan pertikaian tanda dagang dengan Anthropic mengenai nama "Clawd," projek ini dijenamakan semula kepada "Moltbot," mengangkat maskot udang karang bernama "Molty" (merujuk kepada proses molting kulit).

OpenClaw (30 Jan, 2026): Untuk menekankan sifat sumber terbuka dan menjauhkan diri lagi daripada identiti korporat tertentu sambil mengekalkan warisan "Claw", komuniti sepakat pada OpenClaw.

Apa yang membezakan OpenClaw ialah sistem kebenarannya. Ia boleh membaca e-mel anda, menyemak kalendar anda, menjalankan perintah shell, dan malah mengurus memorinya sendiri dalam fail Markdown yang disimpan secara setempat. Namun, konfigurasi lalainya bergantung pada menghantar semua konteks ini ke API awan (terutamanya Anthropic atau OpenAI), yang menimbulkan dua isu kritikal: Kos dan Privasi.

Mengapa Anda Patut Beralih ke LLM Setempat?

Pengalaman "di luar kotak" lalai openClaw ( Moltbot / Clawdbot) dikuasakan oleh Claude 3.5 Sonnet atau Opus. Walaupun model-model ini sangat pintar, harga mereka adalah mengikut token. Agen autonomi yang berjalan 24/7—memeriksa e-mel, memantau log pelayan, dan merumuskan chat—boleh menghasilkan jutaan token sehari.

Kos Autonomi

Agen autonomi tidak berkelakuan seperti sesi chat. Mereka berulang. Mereka membaca semula konteks. Mereka merumuskan log. Mereka menyemak peti masuk berulang kali.

Saya pernah melihat pengguna melaporkan perkara seperti:

“Saya biarkan Clawdbot berjalan sepanjang malam untuk menyusun semula vault Obsidian saya dan bangun dengan bil $40.”

Itu bukan penyalahgunaan — itulah cara autonomi berfungsi.

Dengan model setempat, kos marginal turun ke sifar (selain elektrik). Anda berhenti berfikir “patutkah saya biarkan ini berjalan?” dan mula berfikir “apa lagi yang boleh saya automasikan?”

Privasi Bukan Kesan Sampingan — Ia Perkara Utama

openClaw ( Moltbot / Clawdbot) boleh membaca:

  • E-mel
  • Sejarah chat
  • Kod sumber
  • Dokumen peribadi

OpenClaw direka untuk mempunyai akses mendalam ke sistem anda. Ia membaca mesej peribadi dan sistem fail anda. Apabila menggunakan API, setiap fail yang dibaca bot akan dimuat naik ke pelayan pihak ketiga untuk diproses. Dengan menggunakan LLM setempat, tiada data yang keluar dari rangkaian setempat anda. Dokumen kewangan, chat peribadi, dan pangkalan kod anda kekal terasing daripada Big Tech.

Menjalankan OpenClaw dengan Ollama (Saranan Lalai Saya)

Jika anda selesa dengan terminal, Ollama ialah cara paling mudah untuk menjalankan LLM setempat hari ini.

openClaw ( Moltbot / Clawdbot) menggunakan API yang serasi dengan OpenAI. Ollama mendedahkan satu API secara lalai. Itulah keseluruhan helahnya.

Senarai semak minimum sistem dan perisian

  • Mesin dengan OS terkini (Linux/macOS/Windows + WSL2). Pecutan GPU setempat disarankan untuk model lebih besar; CPU sahaja memadai untuk model kecil atau tugas ringan.
  • Node.js ≥ 22 (CLI dan Gateway OpenClaw memerlukan Node).
  • Ollama (atau runtime LLM setempat lain) dipasang secara setempat jika anda merancang untuk menjalankan model setempat. Ollama mendedahkan API serasi OpenAI secara lalai (kebiasaannya pada http://localhost:11434).
  • Jika menggunakan proksi seperti Lynkr, pasangkannya (npm atau klon repo). Lynkr boleh menawarkan titik akhir seakan Anthropic/OpenAI kepada OpenClaw sambil memintas ke model setempat.

Langkah 1: Pasang OpenClaw (perintah pantas)

OpenClaw mengesyorkan pemasangan melalui npm/pnpm. Jalankan:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

Wizard onboarding memasang daemon perkhidmatan pengguna (systemd/launchd) supaya Gateway kekal berjalan di latar. Selepas onboarding anda boleh menjalankan Gateway secara manual untuk debug:

openclaw gateway --port 18789 --verbose

Langkah 2: Pasang Ollama dan tarik model

Ollama mudah dipasang dan dijalankan. Pada macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama mendedahkan API yang serasi dengan banyak klien gaya OpenAI; integrasi penyedia OpenClaw menyokong Ollama dan akan mengesan instans Ollama setempat secara automatik melainkan anda menimpa konfigurasi.

Langkah 3: Konfigurasi model OpenClaw minimum

gunakan lapisan keserasian (Lynkr) atau konfigurasikan OpenClaw untuk menunjuk ke titik akhir setempat

Disebabkan openClaw ( Moltbot / Clawdbot) secara sejarah bercakap kepada bentuk API tertentu (cth., titik akhir gaya Anthropic), jalan paling mudah ialah menjalankan proksi kecil yang menterjemah panggilan OpenClaw kepada API pelayan setempat anda.

  • Lynkr: pasang dan konfigurasikan Lynkr untuk mendengar pada port yang dijangka oleh OpenClaw; konfigurasikannya untuk ke hadapan ke instans Ollama/text-generation-webui anda. Tutorial komuniti menunjukkan fail langkah dan sampel entri config.json. Selepas Lynkr berjalan, OpenClaw boleh kekal dikonfigurasi untuk penyedia asal tetapi sebenarnya bercakap kepada model setempat anda.

Jika anda lebih suka menukar konfigurasi OpenClaw secara langsung, halakan URL backend model dalam konfigurasi .openclaw ke titik akhir pelayan setempat anda:

openClaw ( Moltbot / Clawdbot) menyimpan konfigurasi di ~/.openclaw/openclaw.json. Fail minimum untuk mengutamakan model setempat adalah seperti berikut:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Jika anda tidak menyertakan blok models.providers.ollama, openClaw ( Moltbot / Clawdbot) selalunya akan mengesan instans Ollama setempat jika ada. Gunakan openclaw models list dan openclaw models set untuk mengurus tetapan model secara interaktif tanpa menyunting fail secara langsung.

Langkah 4: Mulakan OpenClaw dan uji mesej

Dengan Ollama berjalan dan Gateway aktif:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Jika Gateway dan model dikonfigurasikan dengan betul, anda akan melihat pembantu membalas dan mesej dirutekan melalui model Ollama setempat.

Bolehkah saya cuba elakkan mengubah OpenClaw melalui proksi?

Ya — itulah tepatnya yang dilakukan alat proksi seperti Lynkr: ia menawarkan titik akhir gaya Anthropic/OpenAI kepada openClaw ( Moltbot / Clawdbot) sambil mendengar pada port yang dijangka oleh OpenClaw dan memajukan kandungan ke instans Ollama atau text-generation-webui setempat. Ini berharga kerana ia tiada kunci API, tiada bil awan, dan pelaksanaan model setempat, ia mengelak daripada mengubah dalaman OpenClaw sambil memberi anda kawalan setempat.

Gambaran seni bina (komponen mana bercakap dengan apa)

  • OpenClaw (agen/aplikasi) — pembantu utama, yang membuat panggilan model dan mengorchestrasi alat serta integrasi mesej.
  • Proksi LLM (cth., Lynkr) — menerima permintaan gaya API OpenClaw dan memajukannya kepada pelayan model setempat (atau fallback awan). Proksi juga boleh melaksanakan caching, pemangkasan token, dan pemampatan memori untuk mengurangkan kos.
  • Pelayan LLM setempat (cth., Ollama, runtime ggml berdiri sendiri, Llama.cpp, model bekas setempat) — menyajikan inferens model pada mesin. Ollama banyak digunakan kerana ia menyediakan pelayan setempat yang mudah dan aliran kerja pembungkusan model; runtime lain juga boleh.
  • Fallback awan pilihan — proksi boleh memautkan permintaan kompleks ke model awan apabila perlu (mod hibrid).

Mengapa gunakan proksi dan bukan menampal openClaw secara langsung?

Privasi & TCO: Inferens setempat mengekalkan data pada mesin anda dan mengelakkan bil API.

Keserasian: openClaw ( Moltbot / Clawdbot) menjangka permukaan API tertentu (gaya Anthropic/“Copilot”). Proksi mengekalkan permukaan itu supaya OpenClaw memerlukan perubahan minimum.

Keselamatan & fleksibiliti: Proksi boleh melaksanakan peraturan penghalaan permintaan (setempat dahulu, fallback awan), menghadkan kadar, pemangkasan permintaan, dan perlindungan lain.

Contoh: konfigurasikan Lynkr untuk merutekan ke Ollama setempat

  1. Pasang Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Cipta .env (contoh):
cp .env.example .env

Sunting .env dengan:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Mulakan Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Secara lalai Lynkr akan mengumumkan proksi setempat (contohnya: http://localhost:8081) dan titik akhir serasi OpenAI/Anthropic /v1 yang boleh dituju oleh OpenClaw. Kemudian konfigurasikan penyedia model OpenClaw untuk menggunakan URL asas Lynkr (lihat snippet seterusnya).

Halakan OpenClaw ke titik akhir Lynkr

Sama ada sunting ~/.openclaw/openclaw.json atau gunakan CLI untuk menetapkan URL asas penyedia anda:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Kini openClaw ( Moltbot / Clawdbot) akan memanggil http://localhost:8081/v1 (Lynkr), yang merutekan ke ollama://kimi-k2.5 secara setempat. Anda mendapat pengalaman lancar seperti penyedia luaran tanpa meninggalkan mesin anda.

Bagi pengguna yang lebih suka Antara Muka Grafik (GUI) untuk mengurus model mereka, atau yang mahu menggunakan model kuantum tertentu (format GGUF) daripada Hugging Face, LM Studio ialah pilihan yang disukai.

Adakah Selamat Menjalankan Agen Autonomi Secara Setempat?

Ini mungkin soalan paling kritikal. Apabila anda menjalankan openClaw ( Moltbot / Clawdbot), anda pada asasnya memberikan akses shell AI kepada komputer anda.

Masalah "Sudo"

Jika anda meminta Claude berasaskan awan untuk "padam semua fail dalam dokumen saya," ia mungkin enggan kerana penapis keselamatan. Model Llama 3 setempat yang tidak disensor tiada halangan sebegitu. Jika openClaw ( Moltbot / Clawdbot) tersalah tafsir arahan, secara teori ia boleh melaksanakan perintah yang merosakkan.

Amalan Terbaik Keselamatan

Jalankan dalam Docker: Jangan jalankan openClaw ( Moltbot / Clawdbot) terus pada "bare metal" mesin hos anda melainkan anda benar-benar pasti tentang risikonya. Gunakan imej Docker rasmi yang memsandbox persekitaran.

Contoh di bawah ialah docker-compose.yml minimum yang menunjukkan tiga servis: Ollama (runtime model setempat), Lynkr (proksi), dan OpenClaw Gateway (CLI dijalankan dalam kontena). Nota: sesuaikan volum dan passthrough peranti untuk akses GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Ini ialah susunan ilustratif; pelaksanaan produksi harus menambah pengasingan rangkaian, had sumber, dan pemetaan peranti GPU yang sesuai.

Langkah penyelesaian masalah biasa dan batasan

Jika openClaw ( Moltbot / Clawdbot) tidak melihat Ollama

  • Pastikan Ollama berjalan dan URL asas boleh dicapai (http://127.0.0.1:11434/v1).
  • Gunakan openclaw models list dan openclaw doctor untuk mendedahkan isu konfigurasi.

Jika penghalaan Lynkr gagal

  • Sahkan Lynkr sedang mendengar (kebiasaannya http://localhost:8081).
  • Semak .env bagi ketepatan OLLAMA_ENDPOINT dan MODEL_PROVIDER.
  • Sahkan Lynkr memetakan laluan /v1 yang dipanggil openClaw ( Moltbot / Clawdbot) — sesetengah implementasi penyedia menjangka laluan sedikit berbeza; laraskan laluan asas jika perlu.

Jurang keupayaan model

Model setempat berbeza: ada yang hebat dalam pengekodan, yang lainnya dalam chat. Strategi hibrid (setempat dahulu, fallback awan) boleh membantu: rute tugas rutin secara setempat dan eskalasi penaakulan kompleks ke model awan dengan caching untuk mengurangkan kos. Lynkr dan proksi seumpamanya melaksanakan logik ini.

Kesimpulan

Reka bentuk OpenClaw dan ekosistem aktif di sekelilingnya menjadikan pelaksanaan setempat tanpa API boleh dilaksanakan hari ini. Dengan alat seperti Ollama untuk hos setempat, Lynkr untuk terjemahan API, dan dokumentasi komuniti yang mantap, anda boleh menjalankan agen berkeupayaan pada mesin yang anda kawal — dari GPU desktop hingga peranti genggam — tanpa menghantar data anda ke penyedia LLM pihak ketiga.

Namun, jika anda menimbang pro dan kontra, sebagai contoh, jika anda masih mahu menggunakan openClaw ( Moltbot / Clawdbot) melalui API tanpa kelengkapan yang diperlukan, maka saya akan mengesyorkan CometAPI. Ia menyediakan titik akhir Anthropic dan OpenAI dan kerap menawarkan diskaun—umumnya 20% lebih murah daripada harga rasmi.

Pembangun boleh mengakses dan Claude Sonnet/ Opus 4.5 dan GPT-5.2 melalui CometAPI, model terkini yang disenaraikan adalah setakat tarikh penerbitan artikel. Untuk bermula, terokai keupayaan model dalam Playground dan rujuk panduan API untuk arahan terperinci. Sebelum mengakses, pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga jauh lebih rendah daripada harga rasmi untuk membantu anda berintegrasi.

Sedia untuk Bermula?→ Daftar Gemini 3 hari ini !

Jika anda mahu mengetahui lebih banyak tip, panduan dan berita tentang AI ikuti kami di VK, X dan Discord!

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun