OpenClaw (เดิมคือ Clawdbot ช่วงสั้น ๆ ใช้ชื่อ Moltbot) ได้รับความนิยมพุ่งขึ้นเร็วกว่าที่ฉันเคยเห็นแทบทุกโครงการเอเจนต์
ในเวลาไม่ถึงสามสัปดาห์ มันทำยอด GitHub stars เกิน 100,000 คนเรียกมันว่า “อินเทอร์น AI ตลอด 24/7” และเอาจริง ๆ คำบรรยายนั้นก็ไม่ได้ไกลจากความจริงนัก มันอ่านข้อความ รันคำสั่งเชลล์ จัดการไฟล์ และอยู่เงียบ ๆ เบื้องหลังระหว่างที่คุณทำกิจวัตรประจำวัน
แต่หลังจากกระแสแรกเริ่ม คำถามที่ใช้งานได้จริงมาก ๆ ก็เริ่มปรากฏไปทั่วทุกที่:
“มันเจ๋งนะ… แต่จะรันมันยังไงให้ โดยไม่ เผาเงินไปกับ API?”
นั่นแหละคือเหตุผลที่ฉันเขียนคู่มือนี้
อะไรคือกระแสเบื้องหลัง OpenClaw (เดิมคือ Clawdbot)?
เพื่อจะเข้าใจการเปลี่ยนแปลงทางเทคนิคสู่การรันแบบโลคัล เราต้องรู้ก่อนว่า OpenClaw คืออะไร โดยแก่นแท้แล้ว openClaw ( Moltbot / Clawdbot) เป็นเอเจนต์อัตโนมัติแบบ "conversation-first" ต่างจากแชตบ็อตแบบดั้งเดิมที่อยู่ในแท็บเบราว์เซอร์และรอพรอมต์ OpenClaw รันเป็นเดมอนเบื้องหลังบนเครื่องของคุณ มันอินทิเกรตโดยตรงกับแพลตฟอร์มแชตอย่าง WhatsApp, Telegram, Discord และ Signal ทำให้แอปแชตของคุณกลายเป็นเหมือนบรรทัดคำสั่งสำหรับชีวิตประจำวัน
วิวัฒนาการจาก Clawdbot สู่ OpenClaw
ประวัติโครงการผันผวนพอ ๆ กับที่น่าหลงใหล
Clawdbot (ปลายปี 2025): สร้างโดย Peter Steinberger เปิดตัวเป็นตัวหุ้มสำหรับ Claude ของ Anthropic ถูกออกแบบมาเพื่อ “ทำงาน” มากกว่าป้อนข้อความออกอย่างเดียว จนถูกเรียกว่า "Claude ที่มีมือ"
Moltbot (ม.ค. 2026): หลังเกิดข้อพิพาทเครื่องหมายการค้ากับ Anthropic เกี่ยวกับชื่อ "Clawd" โครงการจึงรีแบรนด์เป็น "Moltbot" พร้อมแมสคอตกุ้งล็อบสเตอร์ชื่อ "Molty" (อ้างอิงการลอกคราบของเปลือก)
OpenClaw (30 ม.ค. 2026): เพื่อเน้นความเป็นโอเพนซอร์สและเว้นระยะจากอัตลักษณ์บริษัทเฉพาะ ขณะยังคงมรดก “Claw” ไว้ ชุมชนจึงลงตัวที่ชื่อ OpenClaw
สิ่งที่ทำให้ OpenClaw แตกต่างคือระบบการอนุญาต มันสามารถอ่านอีเมลของคุณ เช็กปฏิทิน รันคำสั่งเชลล์ และแม้แต่จัดการหน่วยความจำของตัวเองในไฟล์ Markdown ที่เก็บโลคัล อย่างไรก็ตาม คอนฟิกเริ่มต้นจะส่งคอนเท็กซ์ทั้งหมดไปยัง API บนคลาวด์ (หลัก ๆ คือ Anthropic หรือ OpenAI) ซึ่งทำให้เกิดสองประเด็นสำคัญ: ต้นทุนและความเป็นส่วนตัว
ทำไมควรเปลี่ยนไปใช้ LLM แบบโลคัล?
ประสบการณ์ “พร้อมใช้ทันที” ของ openClaw ( Moltbot / Clawdbot) ใช้พลังจาก Claude 3.5 Sonnet หรือ Opus แม้โมเดลเหล่านี้จะฉลาดมาก แต่คิดราคาตามโทเคน เอเจนต์อัตโนมัติที่รัน 24/7—เช็กอีเมล เฝ้าดูล็อกเซิร์ฟเวอร์ และสรุปการแชต—สามารถสร้างโทเคนได้เป็นล้านต่อวัน
ต้นทุนของความเป็นอัตโนมัติ
เอเจนต์อัตโนมัติไม่เหมือนเซสชันแชต พวกมันวนลูป อ่านคอนเท็กซ์ซ้ำ สรุปล็อก เช็กกล่องจดหมายแล้วเช็กอีกครั้ง
ฉันเห็นผู้ใช้รายงานว่า:
“ฉันทิ้ง Clawdbot ให้รันข้ามคืนเพื่อจัดระเบียบ Obsidian vault แล้วตื่นมาพร้อมบิล $40”
นั่นไม่ใช่การใช้ผิด — นั่นคือธรรมชาติของความอัตโนมัติ
กับโมเดลโลคัล ต้นทุนส่วนเพิ่มลดลงเหลือ ศูนย์ (ยกเว้นค่าไฟ) คุณจะหยุดคิดว่า “ควรปล่อยให้มันรันไหม?” แล้วเริ่มคิดว่า “จะอัตโนมัติอะไรได้อีกบ้าง?”
ความเป็นส่วนตัวไม่ใช่ผลพลอยได้ — แต่มันคือประเด็นหลัก
openClaw ( Moltbot / Clawdbot) สามารถอ่าน:
- อีเมล
- ประวัติการแชต
- ซอร์สโค้ด
- เอกสารส่วนตัว
OpenClaw ถูกออกแบบมาให้เข้าถึงระบบของคุณได้ลึก มันอ่านข้อความส่วนตัวและไฟล์บนเครื่อง เมื่อใช้ API ทุกไฟล์ที่บ็อตอ่านจะถูกอัปโหลดไปยังเซิร์ฟเวอร์บุคคลที่สามเพื่อประมวลผล โดยใช้ LLM โลคัล ข้อมูลจะไม่ออกจากเครือข่ายภายในของคุณ เอกสารการเงิน แชตส่วนตัว และโค้ดเบสของคุณยังคงแยกขาดจาก Big Tech
รัน OpenClaw กับ Ollama (คำแนะนำเริ่มต้นของฉัน)
หากคุณคุ้นเคยกับเทอร์มินัล Ollama คือวิธีที่ง่ายที่สุดในการรัน LLM โลคัลในวันนี้
openClaw ( Moltbot / Clawdbot) ใช้ API ที่เข้ากันได้กับ OpenAI ส่วน Ollama ก็เปิดเผย API แบบนั้นโดยค่าเริ่มต้น นั่นคือเคล็ดลับทั้งหมด
เช็กลิสต์ระบบและซอฟต์แวร์ขั้นต่ำ
- เครื่อง ที่ใช้ OS ทันสมัย (Linux/macOS/Windows + WSL2) แนะนำใช้ GPU โลคัลสำหรับโมเดลขนาดใหญ่; ใช้ CPU อย่างเดียวได้กับโมเดลเล็กหรือภารกิจเบา
- Node.js ≥ 22 (CLI และ Gateway ของ OpenClaw ต้องใช้ Node)
- Ollama (หรือรันไทม์ LLM โลคัลอื่น) ติดตั้งในเครื่องหากคุณจะใช้โมเดลโลคัล Ollama เปิด API ที่เข้ากันได้กับ OpenAI โดยค่าเริ่มต้น (มักอยู่ที่
http://localhost:11434) - หากใช้พร็อกซีอย่าง Lynkr ให้ติดตั้ง (npm หรือโคลนรีโป) Lynkr สามารถนำเสนอเอนด์พอยต์แบบ Anthropic/OpenAI ให้ OpenClaw ขณะทำการรูทไปยังโมเดลโลคัล
ขั้นตอนที่ 1: ติดตั้ง OpenClaw (คำสั่งด่วน)
OpenClaw แนะนำให้ติดตั้งผ่าน npm/pnpm รัน:
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
ตัวช่วย onboarding จะติดตั้งเดมอนเป็นบริการผู้ใช้ (systemd/launchd) เพื่อให้ Gateway รันอยู่เบื้องหลัง หลัง onboarding คุณสามารถรัน Gateway ด้วยตนเองเพื่อดีบัก:
openclaw gateway --port 18789 --verbose
ขั้นตอนที่ 2: ติดตั้ง Ollama และดึงโมเดล
Ollama ติดตั้งและใช้งานได้ตรงไปตรงมา บน macOS/Linux:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama เปิด API ที่เข้ากันได้กับคลไคลเอนต์สไตล์ OpenAI จำนวนมาก อินทิเกรชันผู้ให้บริการของ OpenClaw รองรับ Ollama และจะตรวจพบอินสแตนซ์ Ollama โลคัลโดยอัตโนมัติ เว้นแต่คุณจะโอเวอร์ไรด์การตั้งค่า
ขั้นตอนที่ 3: คอนฟิกโมเดล OpenClaw แบบมินิมอล
ปรับใช้เลเยอร์ความเข้ากันได้ (Lynkr) หรือคอนฟิกให้ OpenClaw ชี้ไปที่เอนด์พอยต์โลคัลโดยตรง
เนื่องจาก openClaw ( Moltbot / Clawdbot) เคยคุยกับ API รูปแบบบางอย่าง (เช่นเอนด์พอยต์สไตล์ Anthropic) วิธีง่ายที่สุดคือรันพร็อกซีเล็ก ๆ ที่แปลงคำเรียกของ OpenClaw ให้เป็น API ของเซิร์ฟเวอร์โลคัลของคุณ
- Lynkr: ติดตั้งและคอนฟิก Lynkr ให้ฟังพอร์ตที่ OpenClaw คาดหวัง; คอนฟิกให้ฟอร์เวิร์ดไปยังอินสแตนซ์ Ollama/text-generation-webui บทเรียนจากชุมชนมีไฟล์ขั้นตอนและตัวอย่าง
config.jsonหลัง Lynkr รันแล้ว OpenClaw สามารถคงคอนฟิกผู้ให้บริการเดิมไว้ แต่จริง ๆ จะคุยกับโมเดลโลคัล
หากคุณอยากแก้คอนฟิกของ OpenClaw โดยตรง ให้ชี้ URL แบ็กเอนด์โมเดลในคอนฟิก .openclaw ไปยังเอนด์พอยต์เซิร์ฟเวอร์โลคัลของคุณ:
openClaw ( Moltbot / Clawdbot) เก็บคอนฟิกไว้ที่ ~/.openclaw/openclaw.json ไฟล์ขั้นต่ำเพื่อให้เลือกโมเดลโลคัลมีหน้าตาแบบนี้:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
หากคุณละบล็อก models.providers.ollama ทิ้งไว้ openClaw ( Moltbot / Clawdbot) มักตรวจพบ Ollama โลคัลโดยอัตโนมัติหากมี ใช้คำสั่ง openclaw models list และ openclaw models set เพื่อจัดการการตั้งค่าโมเดลแบบอินเทอร์แอ็กทีฟโดยไม่ต้องแก้ไฟล์โดยตรง
ขั้นตอนที่ 4: สตาร์ท OpenClaw และทดสอบข้อความ
เมื่อ Ollama รันและ Gateway ทำงาน:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
หาก Gateway และโมเดลคอนฟิกถูกต้อง คุณจะเห็นผู้ช่วยตอบกลับและข้อความถูกรูทผ่านโมเดลโลคัลของ Ollama
ฉันจะหลีกเลี่ยงการแก้ OpenClaw ด้วยพร็อกซีได้ไหม?
ได้ — นั่นคือสิ่งที่เครื่องมือพร็อกซีอย่าง Lynkr ทำ: นำเสนอเอนด์พอยต์สไตล์ Anthropic/OpenAI ให้ openClaw ( Moltbot / Clawdbot) ในขณะที่ฟังพอร์ตที่ OpenClaw คาดหวังและฟอร์เวิร์ดคอนเทนต์ไปยัง Ollama หรือ text-generation-webui โลคัล คุณจะได้ ไม่มี API key ไม่มีบิลคลาวด์ และรันโมเดลโลคัล โดยไม่ต้องเปลี่ยนภายในของ OpenClaw พร้อมยังคงการควบคุมโลคัล
ภาพรวมสถาปัตยกรรม (คอมโพเนนต์ไหนคุยกับอะไร)
- OpenClaw (agent/app) — ผู้ช่วยหลัก ที่ออกคำเรียกโมเดลและจัดการทูลส์กับการเชื่อมต่อข้อความ
- LLM proxy (เช่น Lynkr) — รับคำขอสไตล์ API จาก OpenClaw และฟอร์เวิร์ดไปยังเซิร์ฟเวอร์โมเดลโลคัล (หรือคลาวด์สำรอง) พร็อกซีสามารถทำแคช ลดโทเคน และบีบอัดหน่วยความจำเพื่อลดต้นทุน
- เซิร์ฟเวอร์ LLM โลคัล (เช่น Ollama, รันไทม์ ggml แบบสแตนด์อโลน, Llama.cpp, โมเดลคอนเทนเนอร์โลคัล) — ให้บริการอินเฟอเรนซ์บนเครื่อง Ollama นิยมเพราะมีเซิร์ฟเวอร์โลคัลและเวิร์กโฟลว์แพ็กเกจโมเดลที่ใช้งานง่าย; รันไทม์อื่นก็ใช้ได้
- คลาวด์สำรองแบบเลือกได้ — พร็อกซีสามารถรูทคำขอที่ซับซ้อนไปยังโมเดลคลาวด์เมื่อจำเป็น (โหมดไฮบริด)
ทำไมใช้พร็อกซีแทนการแพตช์ openClaw โดยตรง?
ความเป็นส่วนตัว & TCO: อินเฟอเรนซ์โลคัลทำให้ข้อมูลอยู่ในเครื่องและหลีกเลี่ยงบิล API
ความเข้ากันได้: openClaw ( Moltbot / Clawdbot) คาดหวังพื้นผิว API แบบเฉพาะ (สไตล์ Anthropic/“Copilot”) พร็อกซีช่วยคงพื้นผิวดังกล่าวไว้เพื่อให้ OpenClaw ต้องเปลี่ยนน้อยที่สุด
ความปลอดภัย & ความยืดหยุ่น: พร็อกซีสามารถตั้งกฎรูทคำขอ (โลคัลก่อน คลาวด์สำรอง) จำกัดอัตรา ตัดคำขอ และเพิ่มการป้องกันอื่น ๆ
ตัวอย่าง: คอนฟิก Lynkr ให้รูทไปยัง Ollama โลคัล
- ติดตั้ง Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- สร้าง
.env(ตัวอย่าง):
cp .env.example .env
แก้ไข .env ด้วย:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- สตาร์ท Lynkr:
# if installed globally
lynkr
# if cloned
npm start
โดยค่าเริ่มต้น Lynkr จะประกาศพร็อกซีโลคัล (เช่น http://localhost:8081) และเอนด์พอยต์ /v1 ที่เข้ากันได้กับ OpenAI/Anthropic ซึ่ง OpenClaw สามารถชี้ไปได้ จากนั้นคอนฟิกผู้ให้บริการโมเดลของ OpenClaw ให้ใช้ base URL ของ Lynkr (ดูสแนิปถัดไป)
ชี้ให้ OpenClaw ไปยังเอนด์พอยต์ของ Lynkr
จะแก้ ~/.openclaw/openclaw.json หรือใช้ CLI ตั้งค่า base URL ของผู้ให้บริการก็ได้:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
ตอนนี้ openClaw ( Moltbot / Clawdbot) จะเรียก http://localhost:8081/v1 (Lynkr) ซึ่งรูทไปยัง ollama://kimi-k2.5 แบบโลคัล คุณจะได้ประสบการณ์ราบรื่นเหมือนผู้ให้บริการภายนอกโดยไม่ต้องออกจากเครื่องของคุณ
สำหรับผู้ใช้ที่ชอบ GUI เพื่อจัดการโมเดล หรืออยากใช้โมเดลที่ถูกควอนไทซ์เฉพาะ (รูปแบบ GGUF) จาก Hugging Face แนะนำให้ใช้ LM Studio
รันเอเจนต์อัตโนมัติแบบโลคัลปลอดภัยไหม?
นี่อาจเป็นคำถามสำคัญที่สุด เมื่อคุณรัน openClaw ( Moltbot / Clawdbot) คุณกำลังให้ AI เข้าถึงเชลล์ของคอมพิวเตอร์คุณ
ปัญหา "Sudo"
ถ้าคุณขอให้ Claude บนคลาวด์ “ลบไฟล์ทั้งหมดใน Documents ของฉัน” มันอาจปฏิเสธด้วยตัวกรองความปลอดภัย โมเดล Llama 3 แบบโลคัลที่ไม่กรองอาจไม่มีข้อยับยั้งเช่นนั้น หาก openClaw ( Moltbot / Clawdbot) ตีความคำสั่งผิด มันอาจรันคำสั่งที่ทำลายข้อมูลได้ในทางทฤษฎี
แนวปฏิบัติด้านความปลอดภัยที่แนะนำ
รันใน Docker: อย่ารัน openClaw ( Moltbot / Clawdbot) บน “เครื่องจริง” ของโฮสต์โดยตรง เว้นแต่คุณมั่นใจในความเสี่ยง ใช้ Docker image ทางการที่ช่วยทำแซนด์บ็อกซ์สภาพแวดล้อม
ตัวอย่างด้านล่างคือ docker-compose.yml ขั้นต่ำที่แสดงสามเซอร์วิส: Ollama (รันไทม์โมเดลโลคัล), Lynkr (พร็อกซี), และ OpenClaw Gateway (รัน CLI ในคอนเทนเนอร์) หมายเหตุ: ปรับวอลุ่มและการส่งผ่านดีไวซ์เพื่อเข้าถึง GPU ตามความเหมาะสม
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
นี่คือสแต็กเพื่อการสาธิต การดีพลอยจริงควรเพิ่มการแยกเครือข่าย ขีดจำกัดทรัพยากร และการแมปดีไวซ์ GPU ตามความเหมาะสม
ขั้นตอนแก้ปัญหาทั่วไปและข้อจำกัด
หาก openClaw ( Moltbot / Clawdbot) มองไม่เห็น Ollama
- ตรวจสอบว่า Ollama รันอยู่และ base URL เข้าถึงได้ (
http://127.0.0.1:11434/v1) - ใช้
openclaw models listและopenclaw doctorเพื่อเปิดเผยปัญหาการคอนฟิก
หากการรูทของ Lynkr ล้มเหลว
- ยืนยันว่า Lynkr ฟังอยู่ (ปกติ
http://localhost:8081) - เช็ก
.envว่าOLLAMA_ENDPOINTและMODEL_PROVIDERถูกต้อง - ตรวจสอบว่า Lynkr แมปเส้นทาง
/v1ที่ openClaw ( Moltbot / Clawdbot) เรียก — การอิมพลีเมนต์ผู้ให้บริการบางรายอาจคาดหวังเส้นทางต่างเล็กน้อย; ปรับ base path หากจำเป็น
ช่องว่างความสามารถของโมเดล
โมเดลโลคัลมีความถนัดต่างกัน: บางตัวเก่งด้านโค้ด บางตัวเก่งด้านแชต กลยุทธ์ไฮบริด (โลคัลก่อน คลาวด์สำรอง) ช่วยได้: รูทงานประจำไปโลคัลและส่งคำขอที่ต้องใช้เหตุผลซับซ้อนไปโมเดลคลาวด์ โดยใช้แคชช่วยลดต้นทุน Lynkr และพร็อกซีลักษณะเดียวกันมีตรรกะนี้พร้อมใช้
บทสรุป
ดีไซน์ของ OpenClaw และระบบนิเวศที่แอ็กทีฟรอบ ๆ ทำให้การดีพลอยแบบโลคัลที่ไม่พึ่ง API เป็นเรื่องที่ทำได้จริงในวันนี้ ด้วยเครื่องมืออย่าง Ollama สำหรับโฮสต์โลคัล Lynkr สำหรับแปล API และเอกสารจากชุมชนที่เข้มแข็ง คุณสามารถรันเอเจนต์ที่มีความสามารถบนเครื่องที่คุณควบคุม—ตั้งแต่เดสก์ท็อปที่มี GPU ไปจนถึงอุปกรณ์พกพา—โดยไม่ต้องส่งข้อมูลไปยังผู้ให้บริการ LLM รายที่สาม
อย่างไรก็ตาม หากคุณชั่งน้ำหนักข้อดีข้อเสียแล้ว และยังอยากใช้ openClaw ( Moltbot / Clawdbot) ผ่าน API โดยไม่มีอุปกรณ์ที่จำเป็น ฉันขอแนะนำ CometAPI. มันมีเอนด์พอยต์ Anthropic และ OpenAI และมักมีส่วนลด—โดยทั่วไปถูกกว่าราคาทางการ 20%
นักพัฒนาสามารถเข้าถึง และ Claude Sonnet/ Opus 4.5 และ GPT-5.2 ผ่าน CometAPI โมเดลล่าสุดที่แสดงรายการเป็นข้อมูล ณ วันที่เผยแพร่บทความ เพื่อเริ่มต้น สำรวจความสามารถของโมเดลใน Playground และดู API guide เพื่อคำแนะนำรายละเอียด ก่อนเข้าถึง โปรดตรวจสอบว่าคุณได้ล็อกอิน CometAPI และได้รับ API key แล้ว CometAPI เสนอราคาที่ต่ำกว่าราคาทางการมากเพื่อช่วยให้คุณอินทิเกรต
Ready to Go?→ Sign up for Gemini 3 today !
หากคุณอยากรู้เคล็ดลับ คู่มือ และข่าวสาร AI เพิ่มเติม ติดตามเราได้บน VK, X และ Discord!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)