OpenClaw (سابقًا Clawdbot، ولفترة وجيزة Moltbot) نما بوتيرة أسرع من أي مشروع وكيل تقريبًا رأيته.
في أقل من ثلاثة أسابيع، تجاوز 100,000 نجمة على GitHub. يصفه الناس بأنه “متدرب ذكاء اصطناعي 24/7”، وبصراحة، هذا الوصف ليس بعيدًا. يمكنه قراءة الرسائل، تشغيل أوامر shell، إدارة الملفات، والعيش بهدوء في الخلفية بينما تمضي يومك.
لكن بعد الحماس الأولي، بدأ يظهر سؤال عملي جدًا في كل مكان:
“هذا رائع… لكن كيف أشغّله من دون حرق المال على واجهات API؟”
هذا السؤال هو بالضبط سبب كتابتي لهذا الدليل.
ما الذي يثير الضجة حول OpenClaw (سابقًا Clawdbot)؟
لفهم التحول التقني نحو التنفيذ المحلي، يجب أولاً إدراك ماهية OpenClaw فعليًا. في جوهره، openClaw ( Moltbot / Clawdbot) هو وكيل مستقل "يرتكز على المحادثة". على عكس روبوتات الدردشة التقليدية التي تعيش في علامة تبويب متصفح وتنتظر المطالبات، يعمل OpenClaw كخدمة خلفية على جهازك. يتكامل مباشرةً مع منصات المراسلة مثل WhatsApp وTelegram وDiscord وSignal، مما يحول تطبيق الدردشة لديك فعليًا إلى سطر أوامر لحياتك.
التطور من Clawdbot إلى OpenClaw
تاريخ المشروع متقلب بقدر ما هو ممتع.
Clawdbot (أواخر 2025): أنشأه Peter Steinberger، وأطلق كغلاف لـ Claude من Anthropic، صُمّم لتنفيذ المهام بدلًا من مجرد إخراج النص. لُقّب بـ "Claude مع يدين".
Moltbot (يناير 2026): بعد نزاع علامة تجارية مع Anthropic بشأن اسم "Clawd"، أعيدت تسمية المشروع إلى "Moltbot"، مع تبني تميمة الكركند "Molty" (إشارة إلى انسلاخ القوقعة).
OpenClaw (30 يناير 2026): للتأكيد على طبيعته مفتوحة المصدر والابتعاد أكثر عن هويات الشركات المحددة مع الحفاظ على إرث "Claw"، استقر المجتمع على OpenClaw.
ما يميز OpenClaw هو نظام الأذونات الخاص به. يمكنه قراءة بريدك الإلكتروني، التحقق من التقويم، تنفيذ أوامر shell، وحتى إدارة ذاكرته الخاصة في ملفات Markdown مخزنة محليًا. ومع ذلك، يعتمد تكوينه الافتراضي على إرسال كل هذا السياق إلى واجهات برمجة التطبيقات السحابية (أساسًا Anthropic أو OpenAI)، ما يثير قضيتين حاسمتين: التكلفة والخصوصية.
لماذا ينبغي عليك الانتقال إلى نماذج LLM المحلية؟
التجربة "خارج الصندوق" الافتراضية لـ openClaw ( Moltbot / Clawdbot) مدعومة بـ Claude 3.5 Sonnet أو Opus. بينما هذه النماذج ذكية للغاية، يتم تسعيرها لكل رمز (token). الوكيل المستقل الذي يعمل على مدار الساعة — يتحقق من البريد الإلكتروني، يراقب سجلات الخوادم، يلخص المحادثات — يمكن أن ينتج ملايين الرموز يوميًا.
تكلفة الاستقلالية
الوكلاء المستقلون لا يتصرفون مثل جلسات الدردشة. إنهم يكررون. يعيدون قراءة السياق. يلخصون السجلات. يتحققون من صناديق البريد مرارًا وتكرارًا.
لقد رأيت المستخدمين يبلغون عن أمور مثل:
“تركت Clawdbot يعمل طوال الليل لإعادة تنظيم مخزن Obsidian واستيقظت على فاتورة بقيمة 40 دولارًا.”
هذا ليس سوء استخدام — هكذا تعمل الاستقلالية.
مع نموذج محلي، تنخفض التكلفة الحدّية إلى الصفر (باستثناء الكهرباء). تتوقف عن التفكير "هل ينبغي أن أتركه يعمل؟" وتبدأ في التفكير "ما الذي يمكنني أتمتته أيضًا؟"
الخصوصية ليست فائدة جانبية — إنها الفائدة الرئيسية
openClaw ( Moltbot / Clawdbot) يمكنه قراءة:
- البريد الإلكتروني
- سجلات المحادثات
- الشيفرة المصدرية
- المستندات الشخصية
صُمّم OpenClaw ليكون لديه وصول عميق إلى نظامك. يقرأ رسائلك الشخصية وأنظمة ملفاتك. عند استخدام واجهة API، يتم رفع كل ملف يقرؤه الروبوت إلى خادم تابع لجهة خارجية للمعالجة. باستخدام نموذج محلي، لا تغادر أي بيانات شبكتك المحلية. تبقى مستنداتك المالية ومحادثاتك الخاصة ومستودعات الشيفرة معزولة عن شركات التكنولوجيا الكبرى.
تشغيل OpenClaw مع Ollama (توصيتي الافتراضية)
إذا كنت مرتاحًا للتعامل مع الطرفية، فإن Ollama هو أسهل طريقة لتشغيل نماذج LLM المحلية اليوم.
openClaw ( Moltbot / Clawdbot) يتحدث واجهات APIs متوافقة مع OpenAI. يوفر Ollama واحدة بشكل افتراضي. هذه هي الحيلة كلها.
قائمة تحقق للحد الأدنى من النظام والبرمجيات
- جهاز بنظام تشغيل حديث (Linux/macOS/Windows + WSL2). يُنصح بتسريع GPU المحلي للنماذج الأكبر؛ يعمل المعالج فقط لمهام صغيرة أو خفيفة.
- Node.js ≥ 22 (CLI وGateway في OpenClaw يعتمدان على Node).
- Ollama (أو مشغّل نماذج محلي آخر) مثبت محليًا إذا كنت تخطط لتشغيل نماذج محلية. يعرض Ollama واجهة API محلية متوافقة مع OpenAI افتراضيًا (عادةً على
http://localhost:11434). - إذا كنت تستخدم وكيلًا مثل Lynkr، فقم بتثبيته (npm أو استنساخ المستودع). يمكن لـ Lynkr تقديم نقطة نهاية شبيهة بـ Anthropic/OpenAI إلى OpenClaw مع التوجيه إلى النماذج المحلية.
الخطوة 1: تثبيت OpenClaw (أوامر سريعة)
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
يثبت مُرشد الإعداد خدمة مستخدم (systemd/launchd) بحيث يواصل Gateway العمل في الخلفية. بعد الإعداد يمكنك تشغيل Gateway يدويًا لأغراض التصحيح:
openclaw gateway --port 18789 --verbose
الخطوة 2: تثبيت Ollama وسحب نموذج
Ollama سهل التثبيت والتشغيل. على macOS/Linux:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
يعرض Ollama واجهة API متوافقة مع العديد من عملاء OpenAI؛ يدعم تكامل مزوّد OpenClaw خدمة Ollama وسيتعرف تلقائيًا على نسخة Ollama المحلية ما لم تقم بتجاوز الإعدادات.
الخطوة 3: تهيئة نموذج OpenClaw الدنيا
نشر طبقة توافق (Lynkr) أو تهيئة OpenClaw للإشارة إلى نقطة النهاية المحلية
نظرًا لأن openClaw ( Moltbot / Clawdbot) تاريخيًا يتحدث أشكالًا معينة من واجهات API (مثل نقاط Anthropic)، فإن أسهل مسار هو تشغيل وكيل صغير يترجم مكالمات OpenClaw إلى واجهة API لخادمك المحلي.
- Lynkr: قم بتثبيت Lynkr وتهيئته للاستماع على المنفذ الذي يتوقعه OpenClaw؛ قم بتهيئته لإعادة التوجيه إلى مثيل Ollama/text-generation-webui لديك. تعرض شروحات المجتمع ملفات خطوات وعينات
config.json. بعد تشغيل Lynkr، يمكن أن يبقى OpenClaw مُهيّأً للمزوّد الأصلي لكنه سيتحدث فعليًا إلى نموذجك المحلي.
إذا فضّلت تغيير إعدادات OpenClaw مباشرةً، وجّه عنوان URL لواجهة النموذج الخلفية في تكوين .openclaw إلى نقطة النهاية لخادمك المحلي:
openClaw ( Moltbot / Clawdbot) يخزّن التهيئة في ~/.openclaw/openclaw.json. يبدو ملف حد أدنى لتفضيل نموذج محلي هكذا:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
إذا تركت كتلة models.providers.ollama، فغالبًا ما سيكتشف openClaw ( Moltbot / Clawdbot) تلقائيًا نسخة Ollama المحلية إن كانت متاحة. استخدم openclaw models list وopenclaw models set لإدارة إعدادات النموذج بشكل تفاعلي دون تحرير الملف مباشرةً.
الخطوة 4: ابدأ OpenClaw واختبر رسالة
مع تشغيل Ollama وGateway نشط:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
إذا كانت Gateway والنماذج مُهيّأة بشكل صحيح، سترى المساعد يستجيب وتوجّه الرسالة عبر نموذج Ollama المحلي.
هل يمكنني محاولة تجنّب تعديل OpenClaw عبر وكيل (proxy)؟
نعم — هذا بالضبط ما تفعله أدوات الوكيل مثل Lynkr: فهي تقدّم نقطة نهاية بأسلوب Anthropic/OpenAI إلى openClaw ( Moltbot / Clawdbot) بينما تستمع على المنفذ الذي يتوقعه OpenClaw وتعيد توجيه المحتوى إلى مثيل Ollama أو text-generation-webui المحلي. هذه القيمة تكمن في عدم وجود مفتاح API، عدم وجود فوترة سحابية، وتنفيذ النموذج محليًا، ما يتجنب تغيير داخلية OpenClaw مع منحك تحكمًا محليًا.
نظرة معمارية عامة (ما هي المكونات التي تتحدث إلى ماذا)
- OpenClaw (الوكيل/التطبيق) — المساعد الرئيسي الذي يصدر مكالمات للنموذج وينسّق الأدوات وتكامل الرسائل.
- وكيل LLM (مثل Lynkr) — يستقبل طلبات OpenClaw بأسلوب واجهة API ويعيد توجيهها إلى خوادم النماذج المحلية (أو سحابة احتياطية). يمكن للوكيل أيضًا تنفيذ التخزين المؤقت، تقليم الرموز، وضغط الذاكرة لتقليل التكاليف.
- خادم LLM محلي (مثل Ollama، مشغّل ggml مستقل، Llama.cpp، نموذج محلي داخل حاوية) — يقدّم استدلال النموذج على الجهاز. يُستخدم Ollama على نطاق واسع لأنه يوفر خادمًا محليًا وسير عمل لتغليف النماذج بسهولة؛ يمكن استخدام مشغّلات أخرى.
- سحابة اختيارية احتياطية — يمكن للوكيل توجيه الطلبات المعقّدة إلى نماذج سحابية عند الحاجة (وضع هجين).
لماذا تستخدم وكيلًا بدلًا من ترقيع openClaw مباشرةً؟
الخصوصية وإجمالي تكلفة الملكية: يحافظ الاستدلال المحلي على البيانات على جهازك ويتجنب فواتير واجهات API.
التوافق: openClaw ( Moltbot / Clawdbot) يتوقع سطح واجهة معين (أسلوب Anthropic/“Copilot”). يحافظ الوكيل على هذا السطح بحيث يحتاج OpenClaw إلى أدنى تغييرات.
السلامة والمرونة: يمكن للوكيل تنفيذ قواعد توجيه الطلبات (المحلي أولًا، السحابة احتياطية)، تحديد المعدلات، تقليم الطلبات، وغيرها من الضوابط.
مثال: تهيئة Lynkr للتوجيه إلى Ollama المحلي
- ثبّت Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- أنشئ ملف
.env(مثال):
cp .env.example .env
حرّر .env بـ:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- ابدأ Lynkr:
# if installed globally
lynkr
# if cloned
npm start
سيعلن Lynkr افتراضيًا عن وكيل محلي (على سبيل المثال: http://localhost:8081) ونقطة نهاية متوافقة مع OpenAI/Anthropic عند /v1 يمكن لـ OpenClaw الإشارة إليها. ثم قم بتهيئة مزوّد نموذج OpenClaw لاستخدام عنوان الأساس (base URL) الخاص بـ Lynkr (انظر المقتطف التالي).
وجّه OpenClaw إلى نقطة نهاية Lynkr
إما حرّر ~/.openclaw/openclaw.json أو استخدم CLI لضبط عنوان الأساس لمزوّدك:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
الآن سيستدعي openClaw ( Moltbot / Clawdbot) http://localhost:8081/v1 (Lynkr)، الذي يوجّه إلى ollama://kimi-k2.5 محليًا. تحصل على تجربة سلسة لمزوّد خارجي من دون مغادرة جهازك.
بالنسبة للمستخدمين الذين يفضّلون واجهة مستخدم رسومية (GUI) لإدارة نماذجهم، أو الذين يريدون استخدام نماذج مُكمّمة محددة (تنسيق GGUF) من Hugging Face، فإن LM Studio هو الخيار المفضّل.
هل من الآمن تشغيل وكلاء مستقلين محليًا؟
ربما هذا هو السؤال الأكثر أهمية. عندما تشغّل openClaw ( Moltbot / Clawdbot)، فأنت عمليًا تمنح ذكاءً اصطناعيًا وصولًا إلى shell على جهازك.
مشكلة "Sudo"
إذا طلبت من Claude قائم على السحابة "حذف جميع الملفات في مجلد المستندات"، فقد يرفض بسبب مرشحات السلامة. نموذج Llama 3 المحلي وغير المقيّد لا يملك مثل هذه المحاذير. إذا أساء openClaw ( Moltbot / Clawdbot) تفسير أمرٍ ما، فقد ينفّذ نظريًا أوامر مدمّرة.
أفضل ممارسات الأمان
شغّل داخل Docker: لا تشغّل openClaw ( Moltbot / Clawdbot) مباشرةً على "المعدن العاري" لجهازك إلا إذا كنت متأكدًا تمامًا من المخاطر. استخدم الصورة الرسمية لـ Docker التي تعزل البيئة.
المثال أدناه عبارة عن docker-compose.yml أدنى يوضّح ثلاث خدمات: Ollama (مشغّل النموذج المحلي)، Lynkr (وكيل)، وOpenClaw Gateway (CLI يعمل داخل الحاوية). ملاحظة: عدّل وحدات التخزين وتمرير الأجهزة للوصول إلى GPU.
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
هذا كومة توضيحية؛ يجب أن تضيف عمليات النشر الإنتاجية عزلًا للشبكة، حدودًا للموارد، وتعيين أجهزة GPU حيثما يلزم.
خطوات شائعة لاستكشاف الأخطاء وإصلاحها والقيود
إذا لم يرَ openClaw ( Moltbot / Clawdbot) برنامج Ollama
- تأكد من أن Ollama يعمل وأن عنوان الأساس قابل للوصول (
http://127.0.0.1:11434/v1). - استخدم
openclaw models listوopenclaw doctorلإظهار مشكلات التهيئة.
إذا فشل توجيه Lynkr
- أكد أن Lynkr يستمع (عادةً
http://localhost:8081). - تحقق من
.envللتأكد من صحةOLLAMA_ENDPOINTوMODEL_PROVIDER. - تحقق من أن Lynkr يطابق مسارات
/v1التي يستدعيها openClaw ( Moltbot / Clawdbot) — بعض عمليات تنفيذ المزوّدين تتوقع مسارات مختلفة قليلًا؛ اضبط مسارات الأساس إذا لزم الأمر.
فجوات قدرات النماذج
تختلف النماذج المحلية: بعضها يتفوّق في الترميز، وبعضها في الدردشة. يمكن أن تساعد الاستراتيجيات الهجينة (المحلي أولًا، السحابة احتياطية): وجّه المهام الروتينية محليًا وصعّد التفكير المعقّد إلى نموذج سحابي مع التخزين المؤقت لتقليل التكلفة. يطبّق Lynkr ووكلاء مشابهون هذه المنطق تحديدًا.
الخلاصة
تصميم OpenClaw والنظام البيئي النشط المحيط به يجعلان النشر المحلي من دون واجهات API أمرًا عمليًا اليوم. مع أدوات مثل Ollama للاستضافة المحلية، Lynkr لترجمة واجهة API، وتوثيق المجتمع المتين، يمكنك تشغيل وكلاء قادرين على أجهزة تتحكم بها — من GPU مكتبي إلى جهاز محمول — من دون إرسال بياناتك إلى مزوّد LLM تابع لجهة خارجية.
ومع ذلك، إذا وزنت الإيجابيات والسلبيات، على سبيل المثال، إذا كنت لا تزال تريد استخدام openClaw ( Moltbot / Clawdbot) عبر واجهة API من دون المعدات اللازمة، فسأوصي بـ CometAPI. إنها توفر نقاط نهاية Anthropic وOpenAI وتقدم خصومات بشكل متكرر — عمومًا أقل بنسبة 20% من السعر الرسمي.
يمكن للمطورين الوصول إلى وClaude Sonnet/ Opus 4.5 وGPT-5.2 عبر CometAPI، تم إدراج أحدث النماذج اعتبارًا من تاريخ نشر المقال. كبداية، استكشف قدرات النموذج في Playground واطلع على API guide للحصول على تعليمات تفصيلية. قبل الوصول، يرجى التأكد من أنك سجّلت الدخول إلى CometAPI وحصلت على مفتاح API. تقدم CometAPI سعرًا أقل بكثير من السعر الرسمي لمساعدتك على التكامل.
جاهز للانطلاق؟→ سجّل في Gemini 3 اليوم!
إذا كنت تريد معرفة المزيد من النصائح والأدلة والأخبار حول الذكاء الاصطناعي، تابعنا على VK، وX، وDiscord!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)