OpenClaw (precedentemente Clawdbot, brevemente Moltbot) è esploso più rapidamente di quasi qualsiasi progetto di agent che abbia visto.
In meno di tre settimane, ha superato 100.000 stelle su GitHub. Le persone lo chiamano un “tirocinante IA 24/7”, e onestamente questa descrizione non è lontana dalla realtà. Può leggere messaggi, eseguire comandi shell, gestire file e vivere silenziosamente in background mentre svolgi le tue attività quotidiane.
Ma dopo l’entusiasmo iniziale, una domanda molto pratica ha iniziato a comparire ovunque:
“È fantastico… ma come lo eseguo senza bruciare soldi in API?”
Questa domanda è esattamente il motivo per cui ho scritto la guida.
Qual è il fermento attorno a OpenClaw (ex Clawdbot)?
Per capire il cambiamento tecnico verso l’esecuzione locale, bisogna prima comprendere cosa sia realmente OpenClaw. In sostanza, openClaw ( Moltbot / Clawdbot) è un agent autonomo “conversation-first”. A differenza dei chatbot tradizionali che vivono in una scheda del browser e aspettano prompt, OpenClaw gira come un demone in background sulla tua macchina. Si integra direttamente con piattaforme di messaggistica come WhatsApp, Telegram, Discord e Signal, trasformando di fatto la tua app di chat in una riga di comando per la tua vita.
L’evoluzione da Clawdbot a OpenClaw
La storia del progetto è tanto volatile quanto affascinante.
Clawdbot (fine 2025): Creato da Peter Steinberger, è stato lanciato come wrapper per Claude di Anthropic, progettato per eseguire attività piuttosto che limitarsi a generare testo. Fu soprannominato “Claude con le mani”.
Moltbot (gen 2026): In seguito a una disputa sul marchio con Anthropic riguardo al nome “Clawd”, il progetto fu rinominato “Moltbot”, adottando una mascotte a forma di aragosta chiamata “Molty” (in riferimento alla muta del carapace).
OpenClaw (30 gen 2026): Per sottolineare la sua natura open-source e allontanarsi ulteriormente da identità aziendali specifiche mantenendo l’eredità “Claw”, la community ha scelto OpenClaw.
Ciò che distingue OpenClaw è il suo sistema di permessi. Può leggere le tue email, controllare il calendario, eseguire comandi shell e persino gestire la propria memoria in file Markdown archiviati localmente. Tuttavia, la configurazione predefinita si basa sull’invio di tutto questo contesto ad API cloud (principalmente Anthropic o OpenAI), il che solleva due questioni critiche: costo e privacy.
Perché dovresti passare a LLM locali?
L’esperienza “out-of-the-box” di openClaw ( Moltbot / Clawdbot) è alimentata da Claude 3.5 Sonnet o Opus. Sebbene questi modelli siano molto intelligenti, sono tariffati per token. Un agent autonomo che gira 24/7—controllando email, monitorando log di server e riassumendo chat—può generare milioni di token al giorno.
Il costo dell’autonomia
Gli agent autonomi non si comportano come sessioni di chat. Fanno loop. Rileggono il contesto. Riassumono i log. Controllano le caselle di posta più e più volte.
Ho visto utenti segnalare cose come:
“Ho lasciato Clawdbot in esecuzione tutta la notte per riorganizzare il mio vault di Obsidian e mi sono svegliato con una fattura da 40 $.”
Non è un uso improprio — è semplicemente così che funziona l’autonomia.
Con un modello locale, il costo marginale scende a zero (a parte l’elettricità). Smetti di pensare “dovrei lasciarlo girare?” e inizi a pensare “cos’altro posso automatizzare?”
La privacy non è un vantaggio secondario — è quello principale
openClaw ( Moltbot / Clawdbot) può leggere:
- Cronologie delle chat
- Codice sorgente
- Documenti personali
OpenClaw è progettato per avere un accesso profondo al tuo sistema. Legge i tuoi messaggi personali e i file system. Quando si utilizza un’API, ogni file che il bot legge viene caricato su un server di terze parti per l’elaborazione. Utilizzando un LLM locale, nessun dato lascia mai la tua rete locale. I tuoi documenti finanziari, le chat private e i codebase restano isolati (“air-gapped”) dai Big Tech.
Eseguire OpenClaw con Ollama (la mia raccomandazione predefinita)
Se ti trovi a tuo agio con il terminale, Ollama è oggi il modo più semplice per eseguire LLM locali.
openClaw ( Moltbot / Clawdbot) parla API compatibili con OpenAI. Ollama ne espone una per impostazione predefinita. Questo è tutto il trucco.
Checklist minima di sistema e software
- Una macchina con un OS recente (Linux/macOS/Windows + WSL2). È consigliata l’accelerazione GPU locale per modelli più grandi; solo CPU funziona per modelli piccoli o attività leggere.
- Node.js ≥ 22 (il CLI e il Gateway di OpenClaw richiedono Node).
- Ollama (o un altro runtime LLM locale) installato in locale se prevedi di eseguire modelli locali. Ollama espone in default un’API compatibile con OpenAI (tipicamente su
http://localhost:11434). - Se usi un proxy come Lynkr, installalo (npm o clona il repo). Lynkr può presentare a OpenClaw un endpoint in stile Anthropic/OpenAI mentre instrada verso modelli locali.
Passo 1: Installare OpenClaw (comandi rapidi)
OpenClaw consiglia l’installazione via npm/pnpm. Esegui:
# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest
# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon
La procedura guidata di onboarding installa un demone come servizio utente (systemd/launchd) in modo che il Gateway continui a funzionare in background. Dopo l’onboarding puoi eseguire il Gateway manualmente per debug:
openclaw gateway --port 18789 --verbose
Passo 2: Installare Ollama e scaricare un modello
Ollama è semplice da installare ed eseguire. Su macOS/Linux:
# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh
# pull a recommended assistant model (example)
ollama pull kimi-k2.5
# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models
Ollama espone un’API compatibile con molti client in stile OpenAI; l’integrazione dei provider di OpenClaw supporta Ollama e rileverà automaticamente un’istanza locale di Ollama a meno che tu non sovrascriva la configurazione.
Passo 3: Configurazione minima del modello di OpenClaw
distribuire un livello di compatibilità (Lynkr) o configurare OpenClaw per puntare all’endpoint locale
Poiché openClaw ( Moltbot / Clawdbot) storicamente parlava con determinati formati di API (ad es. endpoint in stile Anthropic), il percorso più semplice è eseguire un piccolo proxy che traduca le chiamate di OpenClaw nell’API del tuo server locale.
- Lynkr: installa e configura Lynkr affinché ascolti sulla porta attesa da OpenClaw; configuralo per inoltrare alla tua istanza Ollama/text-generation-webui. I tutorial della community mostrano file di step e
config.jsondi esempio. Dopo l’avvio di Lynkr, OpenClaw può rimanere configurato per il provider originale ma parlerà effettivamente al tuo modello locale.
Se preferisci modificare direttamente la configurazione di OpenClaw, punta l’URL di backend del modello nella configurazione .openclaw al tuo endpoint del server locale:
openClaw ( Moltbot / Clawdbot) archivia la configurazione in ~/.openclaw/openclaw.json. Un file minimale per preferire un modello locale può essere questo:
{
"agent": {
"model": "ollama/kimi-k2.5"
},
"models": {
"providers": {
"ollama": {
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
}
}
}
}
}
Se ometti il blocco models.providers.ollama, openClaw ( Moltbot / Clawdbot) spesso rileverà automaticamente un’istanza locale di Ollama se disponibile. Usa openclaw models list e openclaw models set per gestire in modo interattivo le impostazioni dei modelli senza modificare direttamente il file.
Passo 4: Avviare OpenClaw e testare un messaggio
Con Ollama in esecuzione e il Gateway attivo:
# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose
# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low
Se il Gateway e i modelli sono configurati correttamente, vedrai l’assistente rispondere e il messaggio instradato tramite il modello locale di Ollama.
Posso cercare di evitare di modificare OpenClaw tramite proxy?
Sì — è esattamente ciò che fanno strumenti di proxy come Lynkr: presentano un endpoint in stile Anthropic/OpenAI a openClaw ( Moltbot / Clawdbot) mentre ascoltano sulla porta attesa da OpenClaw e inoltrano i contenuti a un’istanza locale di Ollama o text-generation-webui. È utile perché è niente chiavi API, niente fatturazione cloud ed esecuzione del modello in locale, evita di toccare gli interni di OpenClaw pur dandoti controllo locale.
Panoramica architetturale (quali componenti parlano con quali)
- OpenClaw (agent/app) — l’assistente principale, che effettua chiamate al modello e orchestra strumenti e integrazione dei messaggi.
- LLM proxy (ad es. Lynkr) — riceve richieste nello stile dell’API di OpenClaw e le inoltra ai server di modelli locali (o fallback cloud). Il proxy può anche implementare caching, trimming dei token e compressione della memoria per ridurre i costi.
- Server LLM locale (ad es. Ollama, runtime ggml standalone, Llama.cpp, modello containerizzato locale) — serve inferenza del modello sulla macchina. Ollama è ampiamente utilizzato perché offre un server locale facile e un workflow di packaging dei modelli; sono possibili altri runtime.
- Fallback cloud opzionale — il proxy può inoltrare richieste complesse a modelli cloud quando necessario (modalità ibrida).
Perché usare un proxy invece di applicare patch direttamente a openClaw?
Privacy & TCO: L’inferenza locale mantiene i dati sulla tua macchina ed evita fatture API.
Compatibilità: openClaw ( Moltbot / Clawdbot) si aspetta una superficie API particolare (stile Anthropic/“Copilot”). Un proxy preserva quella superficie, così OpenClaw richiede modifiche minime.
Sicurezza & flessibilità: Il proxy può implementare regole di routing (locale prima, fallback cloud), rate limiting, troncamento delle richieste e altre misure di sicurezza.
Esempio: configurare Lynkr per instradare verso Ollama locale
- Installa Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install
- Crea un
.env(esempio):
cp .env.example .env
Modifica .env con:
# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434
# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...
- Avvia Lynkr:
# if installed globally
lynkr
# if cloned
npm start
Per impostazione predefinita Lynkr annuncerà un proxy locale (per esempio: http://localhost:8081) e un endpoint /v1 compatibile con OpenAI/Anthropic che OpenClaw può utilizzare. Quindi configura il provider del modello di OpenClaw per usare la base URL di Lynkr (vedi lo snippet successivo).
Puntare OpenClaw all’endpoint di Lynkr
Modifica ~/.openclaw/openclaw.json oppure usa la CLI per impostare la base URL del tuo provider:
{
"models": {
"providers": {
"copilot": {
"options": {
"baseURL": "http://localhost:8081/v1"
}
}
}
},
"agent": {
"model": "kimi-k2.5"
}
}
Ora openClaw ( Moltbot / Clawdbot) chiamerà http://localhost:8081/v1 (Lynkr), che instrada in ollama://kimi-k2.5 in locale. Ottieni l’esperienza fluida di un provider esterno senza lasciare la tua macchina.
Per gli utenti che preferiscono un’interfaccia grafica (GUI) per gestire i propri modelli, o che vogliono usare specifici modelli quantizzati (formato GGUF) da Hugging Face, LM Studio è la scelta preferita.
È sicuro eseguire agent autonomi in locale?
Questa è forse la domanda più critica. Quando esegui openClaw ( Moltbot / Clawdbot), stai sostanzialmente dando a un’IA accesso shell al tuo computer.
Il problema “sudo”
Se chiedi a un Claude basato su cloud di “eliminare tutti i file nei miei documenti”, potrebbe rifiutarsi a causa dei filtri di sicurezza. Un modello Llama 3 locale e non censurato non ha tali inibizioni. Se openClaw ( Moltbot / Clawdbot) interpreta male un comando, potrebbe teoricamente eseguire comandi distruttivi.
Best practice di sicurezza
Esegui in Docker: non eseguire openClaw ( Moltbot / Clawdbot) direttamente sul “bare metal” della tua macchina a meno che tu non sia assolutamente consapevole dei rischi. Usa l’immagine ufficiale di Docker che isola l’ambiente.
L’esempio seguente è un docker-compose.yml minimale che mostra tre servizi: Ollama (runtime del modello locale), Lynkr (proxy) e OpenClaw Gateway (CLI eseguito nel container). Nota: adatta volumi e pass-through dei dispositivi per l’accesso alla GPU.
version: "3.8"
services:
ollama:
image: ollama/ollama:latest
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama-data:/var/lib/ollama
lynkr:
build: ./lynkr
restart: unless-stopped
ports:
- "8081:8081"
environment:
- MODEL_PROVIDER=ollama
- OLLAMA_ENDPOINT=http://ollama:11434
openclaw:
image: node:22
working_dir: /workspace
volumes:
- ~/.openclaw:/root/.openclaw
- ./workspace:/workspace
command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
depends_on:
- lynkr
Questo è uno stack illustrativo; le distribuzioni di produzione dovrebbero aggiungere isolamento di rete, limiti di risorse e mappatura dei dispositivi GPU dove appropriato.
Passi comuni di risoluzione dei problemi e limitazioni
Se openClaw ( Moltbot / Clawdbot) non vede Ollama
- Assicurati che Ollama sia in esecuzione e che la base URL sia raggiungibile (
http://127.0.0.1:11434/v1). - Usa
openclaw models listeopenclaw doctorper far emergere problemi di configurazione.
Se l’instradamento di Lynkr fallisce
- Conferma che Lynkr stia ascoltando (di solito
http://localhost:8081). - Controlla
.envper la correttezza diOLLAMA_ENDPOINTeMODEL_PROVIDER. - Verifica che Lynkr mappi i percorsi
/v1chiamati da openClaw ( Moltbot / Clawdbot) — alcune implementazioni di provider si aspettano percorsi leggermente diversi; adatta le basi dei percorsi se necessario.
Lacune nelle capacità dei modelli
I modelli locali variano: alcuni eccellono nel coding, altri nella chat. Strategie ibride (locale prima, fallback cloud) possono aiutare: instrada le attività di routine in locale ed eleva il ragionamento complesso a un modello cloud con caching per ridurre i costi. Lynkr e proxy simili implementano esattamente questa logica.
Conclusione
Il design di OpenClaw e l’ecosistema attivo che lo circonda rendono oggi praticabile un deployment locale senza API. Con strumenti come Ollama per l’hosting locale, Lynkr per la traduzione delle API e una documentazione solida della community, puoi eseguire agent capaci su macchine che controlli — da una GPU desktop a un dispositivo palmare — senza inviare i tuoi dati a un provider LLM di terze parti.
Tuttavia, se valuti pro e contro, ad esempio se vuoi comunque usare openClaw ( Moltbot / Clawdbot) via API senza l’attrezzatura necessaria, allora consiglierei CometAPI. Fornisce endpoint Anthropic e OpenAI e offre spesso sconti—generalmente il 20% in meno rispetto al prezzo ufficiale.
Gli sviluppatori possono accedere e Claude Sonnet/ Opus 4.5 e GPT-5.2 via CometAPI, i modelli più recenti elencati sono alla data di pubblicazione dell’articolo. Per iniziare, esplora le capacità del modello nel Playground e consulta la API guide per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto più basso rispetto al prezzo ufficiale per aiutarti nell’integrazione.
Pronto a partire?→ Sign up for Gemini 3 today !
Se vuoi conoscere altri suggerimenti, guide e notizie sull’IA seguici su VK, X e Discord!
%20on%20local%20LLMs%20without%20API.png&w=3840&q=75)