OpenClaw (önceden Clawdbot, kısa süreliğine Moltbot) şimdiye kadar gördüğüm hemen hemen tüm ajan projelerinden daha hızlı ivme kazandı.
Üç haftadan kısa sürede 100,000 GitHub yıldızını aştı. İnsanlar ona “7/24 yapay zeka stajyeri” diyor ve dürüstçe söylemek gerekirse bu tanım pek de yanlış değil. Mesajları okuyabilir, kabuk komutları çalıştırabilir, dosyaları yönetebilir ve siz gününüze devam ederken arka planda sessizce çalışabilir.
Ancak ilk heyecanın ardından, her yerde çok pratik bir soru belirmeye başladı:
“Bu harika… ama API’lere para harcamadan nasıl çalıştırırım?”
İşte bu soru, bu rehberi yazmamın tam nedeni.
OpenClaw’ın (Eskiden Clawdbot) Ardındaki Heyecan Nedir?
Yerel yürütmeye yönelik teknik değişimi anlamak için önce OpenClaw’ın ne olduğunu kavramak gerekir. Özü itibarıyla openClaw ( Moltbot / Clawdbot) “önce konuşma” yaklaşımına sahip otonom bir ajandır. Tarayıcı sekmesinde yaşayan ve sizden komut bekleyen geleneksel sohbet botlarının aksine, OpenClaw makinenizde arka plan işlemi (daemon) olarak çalışır. WhatsApp, Telegram, Discord ve Signal gibi mesajlaşma platformlarıyla doğrudan entegre olur ve sohbet uygulamanızı adeta hayatınız için bir komut satırına dönüştürür.
Clawdbot’tan OpenClaw’a Evrim
Projenin geçmişi, etkileyici olduğu kadar dalgalıdır.
Clawdbot (2025 sonları): Peter Steinberger tarafından oluşturuldu; metin üretmenin ötesinde görevleri icra etmek üzere tasarlanmış, Anthropic’in Claude’u için bir sarmalayıcı olarak yayımlandı. “Claude with hands” diye anıldı.
Moltbot (Ocak 2026): Anthropic ile “Clawd” adı konusunda yaşanan bir marka ihtilafının ardından proje “Moltbot” olarak yeniden adlandırıldı; kabuk değiştirmeye gönderme yapan “Molty” adlı ıstakoz maskotu benimsendi.
OpenClaw (30 Ocak 2026): Açık kaynak doğasını vurgulamak ve “Claw” mirasını korurken belirli kurumsal kimliklerden daha da uzaklaşmak için topluluk OpenClaw’da karar kıldı.
OpenClaw’ı farklı kılan şey izin sistemidir. E-postalarınızı okuyabilir, takviminizi kontrol edebilir, kabuk komutları çalıştırabilir ve yerel olarak depolanan Markdown dosyalarında kendi belleğini bile yönetebilir. Ancak varsayılan yapılandırması tüm bu bağlamı bulut API’lerine (başlıca Anthropic veya OpenAI) göndermeye dayanır; bu da iki kritik sorun doğurur: Maliyet ve Mahremiyet.
Neden Yerel LLM’lere Geçmelisiniz?
openClaw ( Moltbot / Clawdbot) için “kutudan çıktığı gibi” deneyim Claude 3.5 Sonnet veya Opus ile sağlanır. Bu modeller son derece akıllıdır, ancak token başına fiyatlandırılır. E-postaları kontrol eden, sunucu günlüklerini izleyen ve sohbetleri özetleyen 7/24 çalışan otonom bir ajan bir günde milyonlarca token üretebilir.
Otonominin Maliyeti
Otonom ajanlar sohbet oturumları gibi davranmaz. Döngüye girerler. Bağlamı yeniden okurlar. Günlükleri özetlerler. Gelen kutularını tekrar tekrar kontrol ederler.
Kullanıcılardan şöyle raporlar gördüm:
“Obsidian kasamı yeniden düzenlemesi için Clawdbot’u gece boyunca açık bıraktım ve sabah 40$’lık bir faturayla uyandım.”
Bu kötüye kullanım değil — otonomi böyle çalışır.
Yerel bir modelle marjinal maliyet sıfıra düşer (elektrik hariç). “Bunu çalışmasına izin vermeli miyim?” demek yerine “Daha neleri otomatikleştirebilirim?” demeye başlarsınız.
Mahremiyet Yan Bir Fayda Değil — Esas Faydadır
openClaw ( Moltbot / Clawdbot) şunları okuyabilir:
- E-postalar
- Sohbet geçmişleri
- Kaynak kod
- Kişisel belgeler
OpenClaw sisteminize derin erişim sağlamak üzere tasarlanmıştır. Kişisel mesajlarınızı ve dosya sistemlerinizi okur. API kullanırken botun okuduğu her dosya işlenmek üzere üçüncü taraf bir sunucuya yüklenir. Yerel bir LLM kullanarak hiçbir veri yerel ağınızı terk etmez. Finansal belgeleriniz, özel sohbetleriniz ve kod depolarınız Büyük Teknoloji’den izole kalır.
OpenClaw’ı Ollama ile Çalıştırma (Varsayılan Önerim)
Terminalle rahatınız varsa, Ollama bugün yerel LLM’leri çalıştırmanın en kolay yoludur.
openClaw ( Moltbot / Clawdbot) OpenAI uyumlu API’lerle konuşur. Ollama varsayılan olarak böyle bir API sunar. Tüm numara budur.
Asgari sistem ve yazılım kontrol listesi
- Bir makine ve güncel bir işletim sistemi (Linux/macOS/Windows + WSL2). Daha büyük modeller için yerel GPU hızlandırma önerilir; yalnızca CPU küçük modeller veya hafif görevler için çalışır.
- Node.js ≥ 22 (OpenClaw’un CLI ve Gateway’i Node bekler).
- Ollama (veya başka bir yerel LLM çalışma zamanı), yerel modelleri çalıştıracaksanız makineye kurulu olmalı. Ollama varsayılan olarak OpenAI uyumlu yerel bir API sunar (genellikle
http://localhost:11434üzerinde). - Bir proxy kullanıyorsanız Lynkr’ı kurun (npm veya repoyu klonlayın). Lynkr, OpenClaw’a Anthropic/OpenAI benzeri bir uç nokta sunarken yerel modellere yönlendirme yapabilir.
Adım 1: OpenClaw’ı kurun (hızlı komutlar)
OpenClaw, npm/pnpm ile kurulumu önerir. Şunu çalıştırın:
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
Kurulum sihirbazı, Gateway’in arka planda çalışmaya devam etmesi için bir kullanıcı hizmeti daemon’unu (systemd/launchd) kurar. Onboarding’den sonra hata ayıklama için Gateway’i elle çalıştırabilirsiniz:
openclaw gateway --port 18789 --verbose
Adım 2: Ollama’yı kurun ve bir modeli çekin
Ollama’yı kurmak ve çalıştırmak oldukça basittir. macOS/Linux üzerinde:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama, birçok OpenAI tarzı istemciyle uyumlu bir API sunar; OpenClaw’un sağlayıcı entegrasyonu Ollama’yı destekler ve yapılandırmayı geçersiz kılmadığınız sürece yerel bir Ollama örneğini çoğunlukla otomatik algılar.
Adım 3: Minimal OpenClaw model yapılandırması
Bir uyumluluk katmanı (Lynkr) dağıtın veya OpenClaw’ı yerel uç noktayı gösterecek şekilde yapılandırın
openClaw ( Moltbot / Clawdbot) tarihsel olarak belirli API şekilleriyle (ör. Anthropic tarzı uç noktalar) konuştuğundan, en kolay yol, OpenClaw çağrılarını yerel sunucunuzun API’sine çevirecek küçük bir proxy çalıştırmaktır.
- Lynkr: Lynkr’ı OpenClaw’ın beklediği portta dinleyecek şekilde kurun ve Ollama/text-generation-webui örneğinize iletecek şekilde yapılandırın. Topluluk eğitimleri adım dosyaları ve örnek
config.jsongirdileri gösterir. Lynkr çalıştıktan sonra, OpenClaw orijinal sağlayıcı için yapılandırılmış halde kalabilir ancak gerçekte yerel modelinizle konuşur.
OpenClaw’ın yapılandırmasını doğrudan değiştirmeyi tercih ederseniz, .openclaw yapılandırmasındaki model arka uç URL’sini yerel sunucu uç noktanıza yönlendirin:
openClaw ( Moltbot / Clawdbot) yapılandırmayı ~/.openclaw/openclaw.json içinde depolar. Yerel bir modele öncelik veren minimal bir dosya şöyle görünür:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
models.providers.ollama bloğunu eklemezseniz, openClaw ( Moltbot / Clawdbot) çoğu zaman yerel bir Ollama örneğini mevcutsa otomatik algılar. Dosyayı doğrudan düzenlemeden model ayarlarını etkileşimli olarak yönetmek için openclaw models list ve openclaw models set komutlarını kullanın.
Adım 4: OpenClaw’ı başlatın ve bir mesaj test edin
Ollama çalışırken ve Gateway etkinken:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
Gateway ve modeller doğru şekilde yapılandırılmışsa, asistanın yanıt verdiğini ve mesajın yerel Ollama modeli üzerinden yönlendirildiğini görürsünüz.
OpenClaw’ı proxy üzerinden değiştirmeden kullanmayı deneyebilir miyim?
Evet — Lynkr gibi proxy araçları tam olarak bunu yapar: OpenClaw’a Anthropic/OpenAI tarzı bir uç nokta sunarlar, OpenClaw’ın beklediği portta dinler ve içeriği yerel Ollama veya text-generation-webui örneğine iletirler. Bu, API anahtarı yok, bulut faturalaması yok ve yerel model çalıştırma demektir; OpenClaw’ın iç kısımlarını değiştirmeden yerel kontrol sağlar.
Mimari genel bakış (hangi bileşen neyle konuşuyor)
- OpenClaw (agent/app) — ana asistan; model çağrılarını yapar ve araçlar ile mesaj entegrasyonunu orkestre eder.
- LLM proxy (ör. Lynkr) — OpenClaw’ın API tarzı isteklerini alır ve yerel model sunucularına (veya bulut yedek) iletir. Proxy, maliyeti azaltmak için önbellekleme, token budama ve bellek sıkıştırma da uygulayabilir.
- Yerel LLM sunucusu (ör. Ollama, bağımsız ggml çalışma zamanı, Llama.cpp, yerel konteynerize model) — makine üzerinde çıkarım hizmeti verir. Ollama, kolay yerel sunucu ve model paketleme akışı sağladığı için yaygın olarak kullanılır; diğer çalışma zamanları da mümkündür.
- İsteğe bağlı bulut yedek — proxy gerektiğinde karmaşık istekleri bulut modellere yönlendirebilir (hibrit mod).
openClaw’ı doğrudan yamalamak yerine neden proxy kullanmalı?
Mahremiyet ve Toplam Sahip Olma Maliyeti (TCO): Yerel çıkarım verileri makinenizde tutar ve API faturalarından kaçınır.
Uyumluluk: openClaw ( Moltbot / Clawdbot) belirli bir API yüzeyi (Anthropic/“Copilot” tarzı) bekler. Bir proxy bu yüzeyi korur, böylece OpenClaw’da minimum değişiklik gerekir.
Güvenlik ve esneklik: Proxy, istek yönlendirme kuralları (önce yerel, bulut yedek), hız sınırlama, istek kısaltma ve diğer korumaları uygulayabilir.
Örnek: Lynkr’ı yerel Ollama’ya yönlendirecek şekilde yapılandırın
- Lynkr’ı kurun:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- Bir
.envoluşturun (örnek):
cp .env.example .env
.env dosyasını şu şekilde düzenleyin:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- Lynkr’ı başlatın:
# if installed globally
lynkr
# if cloned
npm start
Lynkr varsayılan olarak yerel bir proxy (örneğin: http://localhost:8081) ve OpenAI/Anthropic uyumlu bir /v1 uç noktası duyurur; OpenClaw bu uç noktayı gösterebilir. Ardından OpenClaw’ın model sağlayıcısını Lynkr temel URL’sini kullanacak şekilde yapılandırın (sonraki parçaya bakın).
OpenClaw’ı Lynkr uç noktasına yönlendirin
~/.openclaw/openclaw.json dosyasını düzenleyin veya CLI ile sağlayıcı temel URL’sini ayarlayın:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
Artık openClaw ( Moltbot / Clawdbot) http://localhost:8081/v1 (Lynkr) adresine çağrı yapacak ve bu da yerelde ollama://kimi-k2.5’e yönlendirilecek. Makinenizden ayrılmadan harici sağlayıcıya benzer kesintisiz bir deneyim elde edersiniz.
Modellerini yönetmek için Grafiksel Kullanıcı Arayüzü (GUI) tercih eden veya Hugging Face’ten belirli quantized (GGUF format) modelleri kullanmak isteyen kullanıcılar için LM Studio tercih edilen seçenektir.
Otonom ajanları yerel olarak çalıştırmak güvenli mi?
Belki de en kritik soru budur. openClaw ( Moltbot / Clawdbot) çalıştırdığınızda, özünde bir yapay zekâya bilgisayarınıza kabuk erişimi verirsiniz.
"Sudo" Problemi
Bulut tabanlı Claude’a “belgelerimdeki tüm dosyaları sil” derseniz, güvenlik filtreleri nedeniyle reddedebilir. Yerel, sansürsüz bir Llama 3 modeli böyle bir çekinceye sahip değildir. openClaw ( Moltbot / Clawdbot) bir komutu yanlış yorumlarsa, teorik olarak yıkıcı komutlar çalıştırabilir.
Güvenlik En İyi Uygulamaları
Docker’da çalıştırın: Risklerinden tamamen emin değilseniz openClaw ( Moltbot / Clawdbot)’ı ana makinenizin “çıplak metalinde” çalıştırmayın. Ortamı izole eden resmi Docker imajını kullanın.
Aşağıdaki örnek, üç hizmeti gösteren minimal bir docker-compose.yml’dir: Ollama (yerel model çalışma zamanı), Lynkr (proxy) ve OpenClaw Gateway (konteyner içinde CLI). Not: GPU erişimi için hacimleri ve aygıt geçişini uyarlayın.
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
Bu örnek bir yığındır; üretim dağıtımları uygun olduğunda ağ izolasyonu, kaynak sınırları ve GPU aygıt eşlemeleri eklemelidir.
Yaygın sorun giderme adımları ve sınırlamalar
openClaw ( Moltbot / Clawdbot) Ollama’yı görmüyorsa
- Ollama’nın çalıştığından ve temel URL’nin erişilebilir olduğundan emin olun (
http://127.0.0.1:11434/v1). - Yapılandırma sorunlarını görmek için
openclaw models listveopenclaw doctorkomutlarını kullanın.
Lynkr yönlendirmesi başarısız oluyorsa
- Lynkr’ın dinlediğini doğrulayın (genellikle
http://localhost:8081). .enviçindekiOLLAMA_ENDPOINTveMODEL_PROVIDERdoğruluğunu kontrol edin.- Lynkr’ın openClaw ( Moltbot / Clawdbot) çağırdığı
/v1yollarını eşlediğini doğrulayın — bazı sağlayıcı uygulamaları biraz farklı yollar bekler; temel yolları gerektiğinde ayarlayın.
Model yetenek boşlukları
Yerel modeller değişkenlik gösterir: bazıları kodlamada, bazıları sohbette iyidir. Hibrit stratejiler (önce yerel, bulut yedek) yardımcı olabilir: rutin görevleri yerelde yönlendirin ve karmaşık akıl yürütmeyi bulut modeline önbellekleme ile yükseltin; maliyeti düşürür. Lynkr ve benzeri proxy’ler tam olarak bu mantığı uygular.
Sonuç
OpenClaw’ın tasarımı ve etrafındaki aktif ekosistem, bugün yerel ve API’siz bir dağıtımı pratik kılar. Yerel barındırma için Ollama, API çevirisi için Lynkr ve güçlü topluluk dokümantasyonu gibi araçlarla, masaüstü GPU’dan elde taşınır cihaza kadar kontrol ettiğiniz makinelerde yetenekli ajanlar çalıştırabilir, verilerinizi üçüncü taraf LLM sağlayıcısına göndermeden bunu gerçekleştirebilirsiniz.
Ancak artılarını ve eksilerini değerlendirirseniz, örneğin gerekli donanım olmadan openClaw ( Moltbot / Clawdbot)’ı API üzerinden kullanmak istiyorsanız, o zaman CometAPI. öneririm. Anthropic ve OpenAI uç noktaları sağlar ve sıklıkla indirimler sunar — genelde resmi fiyattan %20 daha ucuzdur.
Geliştiriciler ve Claude Sonnet/ Opus 4.5 ve GPT-5.2’ye CometAPI aracılığıyla erişebilir; makalenin yayımlanma tarihindeki en güncel modeller listelenmiştir. Başlamak için modelin yeteneklerini Playground’da keşfedin ve ayrıntılı talimatlar için API guide’a başvurun. Erişmeden önce, lütfen CometAPI’ye giriş yaptığınızdan ve API anahtarını edindiğinizden emin olun. CometAPI entegrasyona yardımcı olmak için resmi fiyattan çok daha düşük bir fiyat sunar.
Hazır mısınız?→ Sign up for Gemini 3 today
Daha fazla ipucu, rehber ve AI haberleri için bizi VK, X ve Discord’da takip edin!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)