จะรัน openClaw (Moltbot/ Clawdbot ) บน LLMs ในเครื่องโดยไม่ใช้ API ได้อย่างไร

CometAPI
AnnaFeb 1, 2026
จะรัน openClaw (Moltbot/ Clawdbot ) บน LLMs ในเครื่องโดยไม่ใช้ API ได้อย่างไร

OpenClaw (เดิมคือ Clawdbot ช่วงสั้น ๆ ใช้ชื่อ Moltbot) ได้รับความนิยมพุ่งขึ้นเร็วกว่าที่ฉันเคยเห็นแทบทุกโครงการเอเจนต์

ในเวลาไม่ถึงสามสัปดาห์ มันทำยอด GitHub stars เกิน 100,000 คนเรียกมันว่า “อินเทอร์น AI ตลอด 24/7” และเอาจริง ๆ คำบรรยายนั้นก็ไม่ได้ไกลจากความจริงนัก มันอ่านข้อความ รันคำสั่งเชลล์ จัดการไฟล์ และอยู่เงียบ ๆ เบื้องหลังระหว่างที่คุณทำกิจวัตรประจำวัน

แต่หลังจากกระแสแรกเริ่ม คำถามที่ใช้งานได้จริงมาก ๆ ก็เริ่มปรากฏไปทั่วทุกที่:

“มันเจ๋งนะ… แต่จะรันมันยังไงให้ โดยไม่ เผาเงินไปกับ API?”

นั่นแหละคือเหตุผลที่ฉันเขียนคู่มือนี้

อะไรคือกระแสเบื้องหลัง OpenClaw (เดิมคือ Clawdbot)?

เพื่อจะเข้าใจการเปลี่ยนแปลงทางเทคนิคสู่การรันแบบโลคัล เราต้องรู้ก่อนว่า OpenClaw คืออะไร โดยแก่นแท้แล้ว openClaw ( Moltbot / Clawdbot) เป็นเอเจนต์อัตโนมัติแบบ "conversation-first" ต่างจากแชตบ็อตแบบดั้งเดิมที่อยู่ในแท็บเบราว์เซอร์และรอพรอมต์ OpenClaw รันเป็นเดมอนเบื้องหลังบนเครื่องของคุณ มันอินทิเกรตโดยตรงกับแพลตฟอร์มแชตอย่าง WhatsApp, Telegram, Discord และ Signal ทำให้แอปแชตของคุณกลายเป็นเหมือนบรรทัดคำสั่งสำหรับชีวิตประจำวัน

วิวัฒนาการจาก Clawdbot สู่ OpenClaw

ประวัติโครงการผันผวนพอ ๆ กับที่น่าหลงใหล

Clawdbot (ปลายปี 2025): สร้างโดย Peter Steinberger เปิดตัวเป็นตัวหุ้มสำหรับ Claude ของ Anthropic ถูกออกแบบมาเพื่อ “ทำงาน” มากกว่าป้อนข้อความออกอย่างเดียว จนถูกเรียกว่า "Claude ที่มีมือ"

Moltbot (ม.ค. 2026): หลังเกิดข้อพิพาทเครื่องหมายการค้ากับ Anthropic เกี่ยวกับชื่อ "Clawd" โครงการจึงรีแบรนด์เป็น "Moltbot" พร้อมแมสคอตกุ้งล็อบสเตอร์ชื่อ "Molty" (อ้างอิงการลอกคราบของเปลือก)

OpenClaw (30 ม.ค. 2026): เพื่อเน้นความเป็นโอเพนซอร์สและเว้นระยะจากอัตลักษณ์บริษัทเฉพาะ ขณะยังคงมรดก “Claw” ไว้ ชุมชนจึงลงตัวที่ชื่อ OpenClaw

สิ่งที่ทำให้ OpenClaw แตกต่างคือระบบการอนุญาต มันสามารถอ่านอีเมลของคุณ เช็กปฏิทิน รันคำสั่งเชลล์ และแม้แต่จัดการหน่วยความจำของตัวเองในไฟล์ Markdown ที่เก็บโลคัล อย่างไรก็ตาม คอนฟิกเริ่มต้นจะส่งคอนเท็กซ์ทั้งหมดไปยัง API บนคลาวด์ (หลัก ๆ คือ Anthropic หรือ OpenAI) ซึ่งทำให้เกิดสองประเด็นสำคัญ: ต้นทุนและความเป็นส่วนตัว

ทำไมควรเปลี่ยนไปใช้ LLM แบบโลคัล?

ประสบการณ์ “พร้อมใช้ทันที” ของ openClaw ( Moltbot / Clawdbot) ใช้พลังจาก Claude 3.5 Sonnet หรือ Opus แม้โมเดลเหล่านี้จะฉลาดมาก แต่คิดราคาตามโทเคน เอเจนต์อัตโนมัติที่รัน 24/7—เช็กอีเมล เฝ้าดูล็อกเซิร์ฟเวอร์ และสรุปการแชต—สามารถสร้างโทเคนได้เป็นล้านต่อวัน

ต้นทุนของความเป็นอัตโนมัติ

เอเจนต์อัตโนมัติไม่เหมือนเซสชันแชต พวกมันวนลูป อ่านคอนเท็กซ์ซ้ำ สรุปล็อก เช็กกล่องจดหมายแล้วเช็กอีกครั้ง

ฉันเห็นผู้ใช้รายงานว่า:

“ฉันทิ้ง Clawdbot ให้รันข้ามคืนเพื่อจัดระเบียบ Obsidian vault แล้วตื่นมาพร้อมบิล $40”

นั่นไม่ใช่การใช้ผิด — นั่นคือธรรมชาติของความอัตโนมัติ

กับโมเดลโลคัล ต้นทุนส่วนเพิ่มลดลงเหลือ ศูนย์ (ยกเว้นค่าไฟ) คุณจะหยุดคิดว่า “ควรปล่อยให้มันรันไหม?” แล้วเริ่มคิดว่า “จะอัตโนมัติอะไรได้อีกบ้าง?”

ความเป็นส่วนตัวไม่ใช่ผลพลอยได้ — แต่มันคือประเด็นหลัก

openClaw ( Moltbot / Clawdbot) สามารถอ่าน:

  • อีเมล
  • ประวัติการแชต
  • ซอร์สโค้ด
  • เอกสารส่วนตัว

OpenClaw ถูกออกแบบมาให้เข้าถึงระบบของคุณได้ลึก มันอ่านข้อความส่วนตัวและไฟล์บนเครื่อง เมื่อใช้ API ทุกไฟล์ที่บ็อตอ่านจะถูกอัปโหลดไปยังเซิร์ฟเวอร์บุคคลที่สามเพื่อประมวลผล โดยใช้ LLM โลคัล ข้อมูลจะไม่ออกจากเครือข่ายภายในของคุณ เอกสารการเงิน แชตส่วนตัว และโค้ดเบสของคุณยังคงแยกขาดจาก Big Tech

รัน OpenClaw กับ Ollama (คำแนะนำเริ่มต้นของฉัน)

หากคุณคุ้นเคยกับเทอร์มินัล Ollama คือวิธีที่ง่ายที่สุดในการรัน LLM โลคัลในวันนี้

openClaw ( Moltbot / Clawdbot) ใช้ API ที่เข้ากันได้กับ OpenAI ส่วน Ollama ก็เปิดเผย API แบบนั้นโดยค่าเริ่มต้น นั่นคือเคล็ดลับทั้งหมด

เช็กลิสต์ระบบและซอฟต์แวร์ขั้นต่ำ

  • เครื่อง ที่ใช้ OS ทันสมัย (Linux/macOS/Windows + WSL2) แนะนำใช้ GPU โลคัลสำหรับโมเดลขนาดใหญ่; ใช้ CPU อย่างเดียวได้กับโมเดลเล็กหรือภารกิจเบา
  • Node.js ≥ 22 (CLI และ Gateway ของ OpenClaw ต้องใช้ Node)
  • Ollama (หรือรันไทม์ LLM โลคัลอื่น) ติดตั้งในเครื่องหากคุณจะใช้โมเดลโลคัล Ollama เปิด API ที่เข้ากันได้กับ OpenAI โดยค่าเริ่มต้น (มักอยู่ที่ http://localhost:11434)
  • หากใช้พร็อกซีอย่าง Lynkr ให้ติดตั้ง (npm หรือโคลนรีโป) Lynkr สามารถนำเสนอเอนด์พอยต์แบบ Anthropic/OpenAI ให้ OpenClaw ขณะทำการรูทไปยังโมเดลโลคัล

ขั้นตอนที่ 1: ติดตั้ง OpenClaw (คำสั่งด่วน)

OpenClaw แนะนำให้ติดตั้งผ่าน npm/pnpm รัน:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

ตัวช่วย onboarding จะติดตั้งเดมอนเป็นบริการผู้ใช้ (systemd/launchd) เพื่อให้ Gateway รันอยู่เบื้องหลัง หลัง onboarding คุณสามารถรัน Gateway ด้วยตนเองเพื่อดีบัก:

openclaw gateway --port 18789 --verbose

ขั้นตอนที่ 2: ติดตั้ง Ollama และดึงโมเดล

Ollama ติดตั้งและใช้งานได้ตรงไปตรงมา บน macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama เปิด API ที่เข้ากันได้กับคลไคลเอนต์สไตล์ OpenAI จำนวนมาก อินทิเกรชันผู้ให้บริการของ OpenClaw รองรับ Ollama และจะตรวจพบอินสแตนซ์ Ollama โลคัลโดยอัตโนมัติ เว้นแต่คุณจะโอเวอร์ไรด์การตั้งค่า

ขั้นตอนที่ 3: คอนฟิกโมเดล OpenClaw แบบมินิมอล

ปรับใช้เลเยอร์ความเข้ากันได้ (Lynkr) หรือคอนฟิกให้ OpenClaw ชี้ไปที่เอนด์พอยต์โลคัลโดยตรง

เนื่องจาก openClaw ( Moltbot / Clawdbot) เคยคุยกับ API รูปแบบบางอย่าง (เช่นเอนด์พอยต์สไตล์ Anthropic) วิธีง่ายที่สุดคือรันพร็อกซีเล็ก ๆ ที่แปลงคำเรียกของ OpenClaw ให้เป็น API ของเซิร์ฟเวอร์โลคัลของคุณ

  • Lynkr: ติดตั้งและคอนฟิก Lynkr ให้ฟังพอร์ตที่ OpenClaw คาดหวัง; คอนฟิกให้ฟอร์เวิร์ดไปยังอินสแตนซ์ Ollama/text-generation-webui บทเรียนจากชุมชนมีไฟล์ขั้นตอนและตัวอย่าง config.json หลัง Lynkr รันแล้ว OpenClaw สามารถคงคอนฟิกผู้ให้บริการเดิมไว้ แต่จริง ๆ จะคุยกับโมเดลโลคัล

หากคุณอยากแก้คอนฟิกของ OpenClaw โดยตรง ให้ชี้ URL แบ็กเอนด์โมเดลในคอนฟิก .openclaw ไปยังเอนด์พอยต์เซิร์ฟเวอร์โลคัลของคุณ:

openClaw ( Moltbot / Clawdbot) เก็บคอนฟิกไว้ที่ ~/.openclaw/openclaw.json ไฟล์ขั้นต่ำเพื่อให้เลือกโมเดลโลคัลมีหน้าตาแบบนี้:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

หากคุณละบล็อก models.providers.ollama ทิ้งไว้ openClaw ( Moltbot / Clawdbot) มักตรวจพบ Ollama โลคัลโดยอัตโนมัติหากมี ใช้คำสั่ง openclaw models list และ openclaw models set เพื่อจัดการการตั้งค่าโมเดลแบบอินเทอร์แอ็กทีฟโดยไม่ต้องแก้ไฟล์โดยตรง

ขั้นตอนที่ 4: สตาร์ท OpenClaw และทดสอบข้อความ

เมื่อ Ollama รันและ Gateway ทำงาน:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

หาก Gateway และโมเดลคอนฟิกถูกต้อง คุณจะเห็นผู้ช่วยตอบกลับและข้อความถูกรูทผ่านโมเดลโลคัลของ Ollama

ฉันจะหลีกเลี่ยงการแก้ OpenClaw ด้วยพร็อกซีได้ไหม?

ได้ — นั่นคือสิ่งที่เครื่องมือพร็อกซีอย่าง Lynkr ทำ: นำเสนอเอนด์พอยต์สไตล์ Anthropic/OpenAI ให้ openClaw ( Moltbot / Clawdbot) ในขณะที่ฟังพอร์ตที่ OpenClaw คาดหวังและฟอร์เวิร์ดคอนเทนต์ไปยัง Ollama หรือ text-generation-webui โลคัล คุณจะได้ ไม่มี API key ไม่มีบิลคลาวด์ และรันโมเดลโลคัล โดยไม่ต้องเปลี่ยนภายในของ OpenClaw พร้อมยังคงการควบคุมโลคัล

ภาพรวมสถาปัตยกรรม (คอมโพเนนต์ไหนคุยกับอะไร)

  • OpenClaw (agent/app) — ผู้ช่วยหลัก ที่ออกคำเรียกโมเดลและจัดการทูลส์กับการเชื่อมต่อข้อความ
  • LLM proxy (เช่น Lynkr) — รับคำขอสไตล์ API จาก OpenClaw และฟอร์เวิร์ดไปยังเซิร์ฟเวอร์โมเดลโลคัล (หรือคลาวด์สำรอง) พร็อกซีสามารถทำแคช ลดโทเคน และบีบอัดหน่วยความจำเพื่อลดต้นทุน
  • เซิร์ฟเวอร์ LLM โลคัล (เช่น Ollama, รันไทม์ ggml แบบสแตนด์อโลน, Llama.cpp, โมเดลคอนเทนเนอร์โลคัล) — ให้บริการอินเฟอเรนซ์บนเครื่อง Ollama นิยมเพราะมีเซิร์ฟเวอร์โลคัลและเวิร์กโฟลว์แพ็กเกจโมเดลที่ใช้งานง่าย; รันไทม์อื่นก็ใช้ได้
  • คลาวด์สำรองแบบเลือกได้ — พร็อกซีสามารถรูทคำขอที่ซับซ้อนไปยังโมเดลคลาวด์เมื่อจำเป็น (โหมดไฮบริด)

ทำไมใช้พร็อกซีแทนการแพตช์ openClaw โดยตรง?

ความเป็นส่วนตัว & TCO: อินเฟอเรนซ์โลคัลทำให้ข้อมูลอยู่ในเครื่องและหลีกเลี่ยงบิล API

ความเข้ากันได้: openClaw ( Moltbot / Clawdbot) คาดหวังพื้นผิว API แบบเฉพาะ (สไตล์ Anthropic/“Copilot”) พร็อกซีช่วยคงพื้นผิวดังกล่าวไว้เพื่อให้ OpenClaw ต้องเปลี่ยนน้อยที่สุด

ความปลอดภัย & ความยืดหยุ่น: พร็อกซีสามารถตั้งกฎรูทคำขอ (โลคัลก่อน คลาวด์สำรอง) จำกัดอัตรา ตัดคำขอ และเพิ่มการป้องกันอื่น ๆ

ตัวอย่าง: คอนฟิก Lynkr ให้รูทไปยัง Ollama โลคัล

  1. ติดตั้ง Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. สร้าง .env (ตัวอย่าง):
cp .env.example .env

แก้ไข .env ด้วย:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. สตาร์ท Lynkr:
# if installed globally
lynkr

# if cloned
npm start

โดยค่าเริ่มต้น Lynkr จะประกาศพร็อกซีโลคัล (เช่น http://localhost:8081) และเอนด์พอยต์ /v1 ที่เข้ากันได้กับ OpenAI/Anthropic ซึ่ง OpenClaw สามารถชี้ไปได้ จากนั้นคอนฟิกผู้ให้บริการโมเดลของ OpenClaw ให้ใช้ base URL ของ Lynkr (ดูสแนิปถัดไป)

ชี้ให้ OpenClaw ไปยังเอนด์พอยต์ของ Lynkr

จะแก้ ~/.openclaw/openclaw.json หรือใช้ CLI ตั้งค่า base URL ของผู้ให้บริการก็ได้:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

ตอนนี้ openClaw ( Moltbot / Clawdbot) จะเรียก http://localhost:8081/v1 (Lynkr) ซึ่งรูทไปยัง ollama://kimi-k2.5 แบบโลคัล คุณจะได้ประสบการณ์ราบรื่นเหมือนผู้ให้บริการภายนอกโดยไม่ต้องออกจากเครื่องของคุณ

สำหรับผู้ใช้ที่ชอบ GUI เพื่อจัดการโมเดล หรืออยากใช้โมเดลที่ถูกควอนไทซ์เฉพาะ (รูปแบบ GGUF) จาก Hugging Face แนะนำให้ใช้ LM Studio

รันเอเจนต์อัตโนมัติแบบโลคัลปลอดภัยไหม?

นี่อาจเป็นคำถามสำคัญที่สุด เมื่อคุณรัน openClaw ( Moltbot / Clawdbot) คุณกำลังให้ AI เข้าถึงเชลล์ของคอมพิวเตอร์คุณ

ปัญหา "Sudo"

ถ้าคุณขอให้ Claude บนคลาวด์ “ลบไฟล์ทั้งหมดใน Documents ของฉัน” มันอาจปฏิเสธด้วยตัวกรองความปลอดภัย โมเดล Llama 3 แบบโลคัลที่ไม่กรองอาจไม่มีข้อยับยั้งเช่นนั้น หาก openClaw ( Moltbot / Clawdbot) ตีความคำสั่งผิด มันอาจรันคำสั่งที่ทำลายข้อมูลได้ในทางทฤษฎี

แนวปฏิบัติด้านความปลอดภัยที่แนะนำ

รันใน Docker: อย่ารัน openClaw ( Moltbot / Clawdbot) บน “เครื่องจริง” ของโฮสต์โดยตรง เว้นแต่คุณมั่นใจในความเสี่ยง ใช้ Docker image ทางการที่ช่วยทำแซนด์บ็อกซ์สภาพแวดล้อม

ตัวอย่างด้านล่างคือ docker-compose.yml ขั้นต่ำที่แสดงสามเซอร์วิส: Ollama (รันไทม์โมเดลโลคัล), Lynkr (พร็อกซี), และ OpenClaw Gateway (รัน CLI ในคอนเทนเนอร์) หมายเหตุ: ปรับวอลุ่มและการส่งผ่านดีไวซ์เพื่อเข้าถึง GPU ตามความเหมาะสม

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

นี่คือสแต็กเพื่อการสาธิต การดีพลอยจริงควรเพิ่มการแยกเครือข่าย ขีดจำกัดทรัพยากร และการแมปดีไวซ์ GPU ตามความเหมาะสม

ขั้นตอนแก้ปัญหาทั่วไปและข้อจำกัด

หาก openClaw ( Moltbot / Clawdbot) มองไม่เห็น Ollama

  • ตรวจสอบว่า Ollama รันอยู่และ base URL เข้าถึงได้ (http://127.0.0.1:11434/v1)
  • ใช้ openclaw models list และ openclaw doctor เพื่อเปิดเผยปัญหาการคอนฟิก

หากการรูทของ Lynkr ล้มเหลว

  • ยืนยันว่า Lynkr ฟังอยู่ (ปกติ http://localhost:8081)
  • เช็ก .env ว่า OLLAMA_ENDPOINT และ MODEL_PROVIDER ถูกต้อง
  • ตรวจสอบว่า Lynkr แมปเส้นทาง /v1 ที่ openClaw ( Moltbot / Clawdbot) เรียก — การอิมพลีเมนต์ผู้ให้บริการบางรายอาจคาดหวังเส้นทางต่างเล็กน้อย; ปรับ base path หากจำเป็น

ช่องว่างความสามารถของโมเดล

โมเดลโลคัลมีความถนัดต่างกัน: บางตัวเก่งด้านโค้ด บางตัวเก่งด้านแชต กลยุทธ์ไฮบริด (โลคัลก่อน คลาวด์สำรอง) ช่วยได้: รูทงานประจำไปโลคัลและส่งคำขอที่ต้องใช้เหตุผลซับซ้อนไปโมเดลคลาวด์ โดยใช้แคชช่วยลดต้นทุน Lynkr และพร็อกซีลักษณะเดียวกันมีตรรกะนี้พร้อมใช้

บทสรุป

ดีไซน์ของ OpenClaw และระบบนิเวศที่แอ็กทีฟรอบ ๆ ทำให้การดีพลอยแบบโลคัลที่ไม่พึ่ง API เป็นเรื่องที่ทำได้จริงในวันนี้ ด้วยเครื่องมืออย่าง Ollama สำหรับโฮสต์โลคัล Lynkr สำหรับแปล API และเอกสารจากชุมชนที่เข้มแข็ง คุณสามารถรันเอเจนต์ที่มีความสามารถบนเครื่องที่คุณควบคุม—ตั้งแต่เดสก์ท็อปที่มี GPU ไปจนถึงอุปกรณ์พกพา—โดยไม่ต้องส่งข้อมูลไปยังผู้ให้บริการ LLM รายที่สาม

อย่างไรก็ตาม หากคุณชั่งน้ำหนักข้อดีข้อเสียแล้ว และยังอยากใช้ openClaw ( Moltbot / Clawdbot) ผ่าน API โดยไม่มีอุปกรณ์ที่จำเป็น ฉันขอแนะนำ CometAPI. มันมีเอนด์พอยต์ Anthropic และ OpenAI และมักมีส่วนลด—โดยทั่วไปถูกกว่าราคาทางการ 20%

นักพัฒนาสามารถเข้าถึง และ Claude Sonnet/ Opus 4.5 และ GPT-5.2 ผ่าน CometAPI โมเดลล่าสุดที่แสดงรายการเป็นข้อมูล ณ วันที่เผยแพร่บทความ เพื่อเริ่มต้น สำรวจความสามารถของโมเดลใน Playground และดู API guide เพื่อคำแนะนำรายละเอียด ก่อนเข้าถึง โปรดตรวจสอบว่าคุณได้ล็อกอิน CometAPI และได้รับ API key แล้ว CometAPI เสนอราคาที่ต่ำกว่าราคาทางการมากเพื่อช่วยให้คุณอินทิเกรต

Ready to Go?→ Sign up for Gemini 3 today !

หากคุณอยากรู้เคล็ดลับ คู่มือ และข่าวสาร AI เพิ่มเติม ติดตามเราได้บน VK, X และ Discord!

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%