Bagaimana cara menjalankan openClaw (Moltbot/ Clawdbot ) pada LLMs lokal tanpa API?

CometAPI
AnnaFeb 1, 2026
Bagaimana cara menjalankan openClaw (Moltbot/ Clawdbot ) pada LLMs lokal tanpa API?

OpenClaw (sebelumnya Clawdbot, sempat Moltbot) telah melonjak lebih cepat daripada hampir semua proyek agen yang pernah saya lihat.

Dalam waktu kurang dari tiga minggu, ia melampaui 100.000 bintang GitHub. Orang menyebutnya sebagai “magang AI 24/7”, dan jujur, deskripsi itu tidak jauh dari kenyataan. Ia dapat membaca pesan, menjalankan perintah shell, mengelola file, dan diam-diam hidup di latar belakang sementara Anda menjalani hari Anda.

Namun setelah kegembiraan awal, sebuah pertanyaan yang sangat praktis mulai muncul di mana-mana:

“Ini keren… tapi bagaimana cara menjalankannya tanpa membakar uang untuk API?”

Pertanyaan itulah tepatnya alasan saya menulis panduan ini.

Apa yang Membuat OpenClaw (Sebelumnya Clawdbot) Begitu Ramai?

Untuk memahami pergeseran teknis menuju eksekusi lokal, seseorang harus terlebih dahulu menghargai apa sebenarnya OpenClaw. Pada intinya, openClaw ( Moltbot / Clawdbot) adalah agen otonom yang “conversation-first”. Berbeda dengan chatbot tradisional yang hidup di tab browser dan menunggu prompt, OpenClaw berjalan sebagai daemon latar belakang di mesin Anda. Ia terintegrasi langsung dengan platform pesan seperti WhatsApp, Telegram, Discord, dan Signal, secara efektif mengubah aplikasi chat Anda menjadi baris perintah untuk hidup Anda.

Evolusi dari Clawdbot ke OpenClaw

Sejarah proyek ini sama volatilnya dengan menariknya.

Clawdbot (Akhir 2025): Dibuat oleh Peter Steinberger, diluncurkan sebagai pembungkus untuk Claude milik Anthropic, dirancang untuk mengeksekusi tugas alih-alih hanya mengeluarkan teks. Dijuluki “Claude with hands.”

Moltbot (Jan 2026): Menyusul sengketa merek dagang dengan Anthropic terkait nama “Clawd,” proyek ini berganti nama menjadi “Moltbot,” mengadopsi maskot lobster bernama “Molty” (merujuk pada pergantian cangkang/moulting).

OpenClaw (30 Jan 2026): Untuk menekankan sifat open-source dan semakin menjauh dari identitas korporat tertentu sambil mempertahankan warisan “Claw,” komunitas akhirnya memilih OpenClaw.

Yang membedakan OpenClaw adalah sistem izinnya. Ia dapat membaca email Anda, memeriksa kalender, mengeksekusi perintah shell, dan bahkan mengelola memorinya sendiri dalam file Markdown yang disimpan secara lokal. Namun, konfigurasi defaultnya bergantung pada mengirim semua konteks ini ke API cloud (terutama Anthropic atau OpenAI), yang memunculkan dua isu krusial: Biaya dan Privasi.

Mengapa Anda Harus Beralih ke LLM Lokal?

Pengalaman “langsung pakai” default openClaw ( Moltbot / Clawdbot) ditenagai oleh Claude 3.5 Sonnet atau Opus. Meski model-model ini sangat cerdas, harganya dihitung per token. Agen otonom yang berjalan 24/7—memeriksa email, memantau log server, dan merangkum chat—dapat menghasilkan jutaan token per hari.

Biaya Otonomi

Agen otonom tidak berperilaku seperti sesi chat. Mereka melakukan loop. Mereka membaca ulang konteks. Mereka merangkum log. Mereka memeriksa kotak masuk lagi dan lagi.

Saya melihat pengguna melaporkan hal-hal seperti:

“Saya membiarkan Clawdbot berjalan semalaman untuk mengatur ulang Obsidian vault saya dan bangun dengan tagihan $40.”

Itu bukan penyalahgunaan — itulah cara kerja otonomi.

Dengan model lokal, biaya marjinal turun menjadi nol (selain listrik). Anda berhenti berpikir “haruskah saya membiarkan ini berjalan?” dan mulai berpikir “apa lagi yang bisa saya otomatisasi?”

Privasi Bukan Manfaat Sampingan — Itulah yang Utama

openClaw ( Moltbot / Clawdbot) dapat membaca:

  • Email
  • Riwayat chat
  • Kode sumber
  • Dokumen pribadi

OpenClaw dirancang untuk memiliki akses mendalam ke sistem Anda. Ia membaca pesan pribadi dan sistem file Anda. Saat menggunakan API, setiap file yang dibaca bot diunggah ke server pihak ketiga untuk diproses. Dengan menggunakan LLM lokal, tidak ada data yang pernah keluar dari jaringan lokal Anda. Dokumen keuangan, chat privat, dan basis kode Anda tetap terisolasi dari Big Tech.

Menjalankan OpenClaw dengan Ollama (Rekomendasi Default Saya)

Jika Anda nyaman dengan terminal, Ollama adalah cara termudah untuk menjalankan LLM lokal saat ini.

openClaw ( Moltbot / Clawdbot) berbicara melalui API yang kompatibel dengan OpenAI. Ollama menyediakannya secara default. Itulah triknya.

Daftar periksa minimum sistem dan perangkat lunak

  • Sebuah mesin dengan OS terbaru (Linux/macOS/Windows + WSL2). Akselerasi GPU lokal direkomendasikan untuk model lebih besar; CPU-only cocok untuk model kecil atau tugas ringan.
  • Node.js ≥ 22 (CLI dan Gateway OpenClaw memerlukan Node).
  • Ollama (atau runtime LLM lokal lain) terpasang secara lokal jika Anda berencana menjalankan model lokal. Ollama mengekspos API lokal yang kompatibel dengan OpenAI secara default (umumnya di http://localhost:11434).
  • Jika menggunakan proxy seperti Lynkr, pasang (npm atau clone repo). Lynkr dapat menghadirkan endpoint bergaya Anthropic/OpenAI ke OpenClaw sambil merutekan ke model lokal.

Langkah 1: Pasang OpenClaw (perintah cepat)

OpenClaw merekomendasikan pemasangan via npm/pnpm. Jalankan:

# pasang OpenClaw CLI secara global (Node >= 22)
npm install -g openclaw@latest
# atau menggunakan pnpm
pnpm add -g openclaw@latest

# jalankan onboarding pertama kali (memasang daemon Gateway)
openclaw onboard --install-daemon

Wizard onboarding memasang daemon layanan pengguna (systemd/launchd) agar Gateway tetap berjalan di latar belakang. Setelah onboarding Anda dapat menjalankan Gateway secara manual untuk debugging:

openclaw gateway --port 18789 --verbose

Langkah 2: Pasang Ollama dan tarik model

Ollama mudah dipasang dan dijalankan. Di macOS/Linux:

# pasang Ollama (installer satu baris)
curl -fsSL https://ollama.com/install.sh | sh

# tarik model asisten yang direkomendasikan (contoh)
ollama pull kimi-k2.5

# verifikasi Ollama berjalan (API default di port 11434)
ollama list
# atau cek HTTP
curl http://localhost:11434/v1/models

Ollama mengekspos API yang kompatibel dengan banyak klien bergaya OpenAI; integrasi penyedia OpenClaw mendukung Ollama dan akan mendeteksi otomatis instance Ollama lokal kecuali Anda menimpa konfigurasi.

Langkah 3: Konfigurasi model minimal OpenClaw

terapkan lapisan kompatibilitas (Lynkr) atau konfigurasikan OpenClaw untuk menunjuk ke endpoint lokal

Karena openClaw ( Moltbot / Clawdbot) secara historis berbicara ke bentuk API tertentu (mis. endpoint bergaya Anthropic), jalur termudah adalah menjalankan proxy kecil yang menerjemahkan panggilan OpenClaw ke API server lokal Anda.

  • Lynkr: pasang dan konfigurasikan Lynkr untuk mendengarkan port yang diharapkan OpenClaw; konfigurasikan agar meneruskan ke instance Ollama/text-generation-webui Anda. Tutorial komunitas menampilkan file langkah dan contoh entri config.json. Setelah Lynkr berjalan, OpenClaw dapat tetap terkonfigurasi untuk penyedia asal tetapi sebenarnya akan berbicara ke model lokal Anda.

Jika Anda memilih mengubah konfigurasi OpenClaw secara langsung, arahkan URL backend model di konfigurasi .openclaw ke endpoint server lokal Anda:

openClaw ( Moltbot / Clawdbot) menyimpan konfigurasi di ~/.openclaw/openclaw.json. File minimal untuk memprioritaskan model lokal tampak seperti ini:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (lokal)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Jika Anda menghilangkan blok models.providers.ollama, openClaw ( Moltbot / Clawdbot) sering kali akan mendeteksi otomatis instance Ollama lokal jika tersedia. Gunakan openclaw models list dan openclaw models set untuk mengelola pengaturan model secara interaktif tanpa langsung mengedit file.

Langkah 4: Mulai OpenClaw dan uji pesan

Dengan Ollama berjalan dan Gateway aktif:

# mulai gateway (jika tidak berjalan sebagai daemon)
openclaw gateway --port 18789 --verbose

# kirim pesan uji ke agen
openclaw agent --message "Hello from local OpenClaw" --thinking low

Jika Gateway dan model dikonfigurasi dengan benar, Anda akan melihat asisten merespons dan pesan dirutekan melalui model Ollama lokal.

Bisakah saya menghindari memodifikasi OpenClaw via proxy?

Ya — itulah yang dilakukan alat proxy seperti Lynkr: mereka menghadirkan endpoint bergaya Anthropic/OpenAI untuk openClaw ( Moltbot / Clawdbot) sambil mendengarkan pada port yang diharapkan OpenClaw dan meneruskan konten ke instance Ollama atau text-generation-webui lokal. Ini bernilai karena tanpa kunci API, tanpa tagihan cloud, dan eksekusi model lokal, menghindari perubahan internal OpenClaw sambil memberi Anda kendali lokal.

Ikhtisar arsitektur (komponen yang saling berbicara)

  • OpenClaw (agent/app) — asisten utama, yang mengeluarkan panggilan model dan mengorkestrasi alat serta integrasi pesan.
  • LLM proxy (mis., Lynkr) — menerima permintaan bergaya API dari OpenClaw dan meneruskan ke server model lokal (atau fallback cloud). Proxy juga dapat menerapkan caching, pemangkasan token, dan kompresi memori untuk mengurangi biaya.
  • Server LLM lokal (mis., Ollama, runtime ggml mandiri, Llama.cpp, model lokal dalam container) — menyajikan inferensi model di mesin. Ollama banyak digunakan karena menyediakan server lokal yang mudah dan alur kerja pengemasan model; runtime lain dimungkinkan.
  • Fallback cloud opsional — proxy dapat merutekan permintaan kompleks ke model cloud bila perlu (mode hibrida).

Mengapa menggunakan proxy alih-alih menambal openClaw secara langsung?

Privasi & TCO: Inferensi lokal menjaga data tetap di mesin Anda dan menghindari tagihan API.

Kompatibilitas: openClaw ( Moltbot / Clawdbot) mengharapkan permukaan API tertentu (gaya Anthropic/“Copilot”). Proxy mempertahankan permukaan itu sehingga OpenClaw membutuhkan perubahan minimal.

Keamanan & fleksibilitas: Proxy dapat menerapkan aturan perutean permintaan (lokal terlebih dahulu, fallback cloud), rate limiting, pemangkasan permintaan, dan pengaman lainnya.

Contoh: konfigurasikan Lynkr untuk merutekan ke Ollama lokal

  1. Pasang Lynkr:
npm install -g lynkr
# atau: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Buat .env (contoh):
cp .env.example .env

Edit .env dengan:

# penyedia utama: Ollama lokal
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# fallback hibrida opsional
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Mulai Lynkr:
# jika dipasang secara global
lynkr

# jika di-clone
npm start

Secara default Lynkr akan mengumumkan proxy lokal (misalnya: http://localhost:8081) dan endpoint /v1 yang kompatibel dengan OpenAI/Anthropic yang dapat dituju oleh OpenClaw. Lalu konfigurasikan penyedia model OpenClaw untuk menggunakan base URL Lynkr (lihat cuplikan berikut).

Arahkan OpenClaw ke endpoint Lynkr

Edit ~/.openclaw/openclaw.json atau gunakan CLI untuk menetapkan base URL penyedia Anda:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Sekarang openClaw ( Moltbot / Clawdbot) akan memanggil http://localhost:8081/v1 (Lynkr), yang merutekan ke ollama://kimi-k2.5 secara lokal. Anda mendapatkan pengalaman mulus seperti penyedia eksternal tanpa meninggalkan mesin Anda.

Bagi pengguna yang lebih suka Graphical User Interface (GUI) untuk mengelola model mereka, atau yang ingin menggunakan model terkuantisasi tertentu (format GGUF) dari Hugging Face, LM Studio adalah pilihan yang disukai.

Apakah Aman Menjalankan Agen Otonom Secara Lokal?

Ini mungkin pertanyaan paling krusial. Saat Anda menjalankan openClaw ( Moltbot / Clawdbot), Anda pada dasarnya memberi akses shell AI ke komputer Anda.

Masalah "Sudo"

Jika Anda meminta Claude berbasis cloud untuk “menghapus semua file di dokumen saya,” ia mungkin menolak karena filter keamanan. Model Llama 3 lokal yang tidak disensor tidak memiliki hambatan seperti itu. Jika openClaw ( Moltbot / Clawdbot) salah menafsirkan perintah, secara teori ia dapat mengeksekusi perintah destruktif.

Praktik Keamanan Terbaik

Jalankan dalam Docker: Jangan jalankan openClaw ( Moltbot / Clawdbot) langsung di “bare metal” mesin host Anda kecuali Anda benar-benar memahami risikonya. Gunakan image Docker resmi yang membuat sandbox lingkungan.

Contoh di bawah ini adalah docker-compose.yml minimal yang mendemonstrasikan tiga layanan: Ollama (runtime model lokal), Lynkr (proxy), dan OpenClaw Gateway (CLI dijalankan dalam container). Catatan: sesuaikan volume dan passthrough perangkat untuk akses GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Ini adalah stack ilustratif; deployment produksi harus menambahkan isolasi jaringan, batas sumber daya, dan pemetaan perangkat GPU jika perlu.

Langkah-langkah pemecahan masalah umum dan keterbatasan

Jika openClaw ( Moltbot / Clawdbot) tidak melihat Ollama

  • Pastikan Ollama berjalan dan base URL dapat dijangkau (http://127.0.0.1:11434/v1).
  • Gunakan openclaw models list dan openclaw doctor untuk menampilkan masalah konfigurasi.

Jika perutean Lynkr gagal

  • Konfirmasi Lynkr mendengarkan (biasanya http://localhost:8081).
  • Periksa .env untuk kebenaran OLLAMA_ENDPOINT dan MODEL_PROVIDER.
  • Validasi bahwa Lynkr memetakan path /v1 yang dipanggil openClaw ( Moltbot / Clawdbot) — beberapa implementasi penyedia mengharapkan path yang sedikit berbeda; sesuaikan base path jika diperlukan.

Kesenjangan kapabilitas model

Model lokal bervariasi: beberapa unggul dalam coding, lainnya dalam chat. Strategi hibrida (lokal terlebih dahulu, fallback cloud) bisa membantu: rute tugas rutin secara lokal dan eskalasi penalaran kompleks ke model cloud dengan caching untuk mengurangi biaya. Lynkr dan proxy serupa menerapkan logika ini.

Kesimpulan

Desain OpenClaw dan ekosistem aktif di sekitarnya membuat deployment lokal tanpa API menjadi praktis saat ini. Dengan alat seperti Ollama untuk hosting lokal, Lynkr untuk translasi API, dan dokumentasi komunitas yang kuat, Anda dapat menjalankan agen yang mumpuni di mesin yang Anda kendalikan — dari GPU desktop hingga perangkat genggam — tanpa mengirim data Anda ke penyedia LLM pihak ketiga.

Namun, jika Anda menimbang pro dan kontra, misalnya, jika Anda masih ingin menggunakan openClaw ( Moltbot / Clawdbot) via API tanpa peralatan yang diperlukan, maka saya akan merekomendasikan CometAPI. Ia menyediakan endpoint Anthropic dan OpenAI dan sering menawarkan diskon—umumnya 20% di bawah harga resmi.

Para pengembang dapat mengakses dan Claude Sonnet/ Opus 4.5 serta GPT-5.2 melalui CometAPI, model terbaru yang tercantum adalah per tanggal publikasi artikel. Untuk memulai, jelajahi kapabilitas model di Playground dan lihat API guide untuk instruksi terperinci. Sebelum mengakses, pastikan Anda telah login ke CometAPI dan memperoleh API key. CometAPI menawarkan harga jauh lebih rendah daripada harga resmi untuk membantu Anda melakukan integrasi.

Siap Mulai?→ Daftar Gemini 3 hari ini !

Jika Anda ingin mengetahui lebih banyak tips, panduan, dan berita tentang AI, ikuti kami di VK, X dan Discord!

Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%