A guidare questa ondata è Moltbot (precedentemente noto come Clawdbot), un progetto passato da strumento di nicchia per sviluppatori a fenomeno virale con oltre 60,000 stelle su GitHub in poche settimane. Creato da Peter Steinberger, Moltbot rappresenta la “muta” dell’agente AI — che si spoglia dei limiti delle interfacce web per abitare le app di messaggistica e i file system che usiamo ogni giorno.
Attenzione recente: il progetto è stato rinominato da Clawdbot a Moltbot dopo una richiesta legata ai marchi da parte di Anthropic, che ha presentato una richiesta di marchio perché “Clawd” suonava troppo simile a “Claude”.
Che cos’è Moltbot (Clawdbot) e perché è virale?
Moltbot è un agente AI open source e autogestito progettato per colmare il divario tra potenti Large Language Models (LLM) e il tuo computer locale. A differenza di ChatGPT o Claude.ai, che esistono all’interno di una scheda del browser “a giardino recintato”, Moltbot viene eseguito come Gateway sul tuo hardware (Mac, Linux o VPS).
Traduce messaggi in linguaggio naturale da piattaforme come Telegram, WhatsApp e Slack in azioni eseguibili sulla tua macchina. Che tu debba trovare un file sul desktop mentre sei al supermercato o avviare uno script di deployment complesso dal telefono, Moltbot agisce come il tuo proxy digitale con pieno accesso al sistema.
Perché è diverso
- Esecuzione e strumenti local-first: Moltbot può effettivamente eseguire comandi sull’host (con consenso), chiamare API esterne e usare “Skills”, che sono piccoli programmi o workflow definiti in Markdown.
- Multicanale: usi lo stesso assistente su Telegram, WhatsApp, Slack, Discord e altro — può inviarti messaggi in modo proattivo.
- Memoria e persistenza: Moltbot archivia file di memoria nello workspace (Markdown) e li indicizza per il recupero, così l’assistente “ricorda” tra le sessioni (dettagli sotto).
Capacità principali in sintesi
| Funzionalità | Descrizione |
|---|---|
| Multi-Channel | Usa Telegram, WhatsApp, Discord, Slack, iMessage e altro. |
| Full PC Access | Esegui comandi shell, gestisci file e controlla i browser. |
| Proactive AI | Non si limita ad aspettare: può inviare avvisi “heartbeat” o promemoria. |
| Privacy First | I tuoi file e la logica restano sul tuo hardware; solo i prompt vanno all’API. |
| Self-Evolution | Può scrivere le proprie “Skills” per estendere le funzionalità nel tempo. |
| openai-compatible | Moltbot supporta il protocollo API compatibile con OpenAI; si collega a qualsiasi servizio compatibile |
| Custom baseUrl | Supporta la modifica dell’endpoint API; passa tra provider con facilità |
In che modo Clawdbot “ricorda” tutto senza un database?
Uno degli aspetti più innovativi di Moltbot è la sua architettura di memoria trasparente. Molti strumenti AI soffrono di “amnesia” tra le sessioni. Moltbot lo risolve usando un sistema a livelli di semplici file Markdown situati nel tuo workspace. Questo approccio garantisce che tu possa leggere, modificare e verificare esattamente ciò che la tua AI sa di te.
Qual è il design della memoria e come funziona?
La memoria di Moltbot è volutamente semplice e verificabile: la memoria consiste in semplici file Markdown all’interno dello workspace dell’agente. I file sono la fonte di verità — il modello “ricorda” solo ciò che è stato scritto su disco. Il layout predefinito usa:
memory/YYYY-MM-DD.md— log giornalieri append-only (l’assistente legge oggi + ieri all’avvio della sessione).MEMORY.md— memoria a lungo termine curata che puoi controllare e caricare solo in sessioni private.
Questo design ha due grandi vantaggi:
- Auditabilità — puoi leggere e modificare ciò che l’assistente userà come memoria.
- Semplicità per gli strumenti — i plugin di memoria forniscono indicizzazione vettoriale/BM25 così l’agente può cercare rapidamente le voci di memoria pertinenti.
Approccio tecnico
- Archivio conversazioni/sessioni: il gateway tiene traccia delle sessioni e inoltra il contesto corretto al runtime dell’agente. Questo permette all’agente di preservare lo stato della conversazione tra messaggi e canali.
- Dati locali indicizzati: Moltbot può indicizzare file e documenti locali ed esporli tramite strumenti di ricerca (semantica o per parola chiave) per il recupero. È così che l’agente può “ricordare” i tuoi appunti, snippet o codice.
- Output degli strumenti e primitive di memoria: Le Skills e gli strumenti possono scrivere su uno storage durevole (database o filesystem), e Moltbot può far riferimento a tali voci in prompt successivi. Molte installazioni usano SQLite, Postgres o JSON/YAML locali per setup ridotti.
- Embedding LLM e vector store: Per il richiamo semantico lo schema usuale è incorporare i documenti e memorizzare i vettori in un DB vettoriale, quindi recuperare i vicini più prossimi da includere nei prompt. L’architettura di Moltbot supporta chiamate agli strumenti agnostiche rispetto al modello, così puoi collegare la tua combinazione embedding + vector store.
Avvertenza sulla sicurezza: poiché la memoria è persistente e le Skills possono eseguire comandi sull’host, le impostazioni predefinite consigliate sono conservative: abbinamento via DM per mittenti sconosciuti, sandboxing per sessioni non principali e un controllo moltbot doctor per far emergere configurazioni rischiose. Rivedi sempre la documentazione sulla sicurezza e tratta i messaggi in ingresso come input non attendibile.
La gerarchia della memoria
| File | Scopo |
|---|---|
| SOUL.md | Definisce la personalità, il tono e le regole operative principali dell’agente. |
| USER.md | Archivia fatti su di te (es., “Preferisco Python a Ruby”, “Lavoro nel fintech”). |
| MEMORY.md | Memoria a lungo termine curata che l’agente salva per richiamo permanente. |
| memory/YYYY-MM-DD.md | Log giornalieri e contesto grezzo da date specifiche. |
Quando dici a Moltbot: “Ricorda che preferisco i report in formato PDF”, non lo memorizza in un database SQL nascosto. Apre letteralmente USER.md e aggiunge un nuovo punto elenco. Questo permette all’agente di mantenere il contesto per settimane di conversazioni, facendolo sembrare un vero assistente personale anziché una nuova istanza ogni mattina.
Guida all’installazione di Moltbot: prerequisiti e setup
Di seguito trovi una checklist pratica e i comandi per avviare una semplice istanza Moltbot su macOS/Linux (Ubuntu). Questa è una guida condensata, orientata alla produzione — se ti serve una GUI o un host gestito, passa alla sezione di hosting API.
Cosa ti serve (prerequisiti)
- Una macchina con macOS o Linux (Windows può funzionare tramite WSL2). Node.js v22+ è richiesto per il gateway e la CLI.
- Un editor di testo e familiarità di base con la shell.
- Almeno una chiave API LLM (OpenAI, Anthropic, Venice o un modello locale come Ollama) — Moltbot è agnostico rispetto al modello.
- Opzionale: Docker, se preferisci un deployment containerizzato.
Installazione passo-passo
- Installa il pacchetto: Esegui il seguente comando nel terminale:
npm install -g clawdbot@latest - Avvia la procedura guidata di onboarding: Il wizard è il cuore del setup. Ti guiderà tra conferme di sicurezza e selezione del modello.
clawdbot onboard --install-daemon - Conferma i rischi di sicurezza: Moltbot ti chiederà di riconoscere che ha accesso “simile a root” alla tua macchina. Devi digitare una conferma per procedere.
- Configura il Gateway: Il wizard installerà il
clawdbot gatewaycome servizio in background (launchdsu Mac osystemdsu Linux) in modo che resti online 24/7.
Installazione rapida (macOS / Linux)
Questo esempio utilizza il metodo consigliato git + npm che rispecchia la documentazione ufficiale.
# Clona ed entra nel repository
git clone https://github.com/moltbot/moltbot.git
cd moltbot
# Installa via npm (CLI globale) o esegui localmente
npm install -g @moltbot/cli # oppure: npm ci && npm run build
# Crea il file di ambiente dall'esempio
cp .env.example .env
# Modifica .env e aggiungi le tue chiavi API (OPENAI_API_KEY, ANTHROPIC_API_KEY, ecc.)
# Quindi esegui l'onboarding
moltbot onboard --install-daemon
moltbot start
Docker (base)
# docker-compose.yml (semplificato)
version: "3.8"
services:
moltbot:
image: moltbot/moltbot:latest
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OTHER_KEYS=...
volumes:
- ./data:/app/data
ports:
- "3000:3000"
Esegui con:
docker compose up -d
Post-installazione: associa un canale di messaggistica
Moltbot supporta più canali. L’associazione di solito comporta la generazione di un token di pairing dall’interfaccia del gateway o dalla CLI e l’uso di una piccola “pairing URL” per collegare un bot Telegram o un account WhatsApp — i passaggi specifici dipendono dal connettore scelto (Telegram Bot API vs. wrapper grammY, WhatsApp via Baileys, ecc.). Vedi la documentazione per moltbot connect telegram o moltbot connect whatsapp.
Come controllo il mio PC da Telegram via Moltbot(step by step)?
Di seguito una procedura sicura e pratica per controllare un host tramite messaggi Telegram — utile per amministrazione remota, esecuzione script, recupero log o per chiedere a Moltbot di eseguire un piccolo job. Importante nota di sicurezza: non esporre il tuo Gateway a Internet aperta senza un token API e firewall; consenti solo a utenti Telegram fidati di parlare con il tuo bot.
1) Crea un bot Telegram con BotFather
- In Telegram, invia un messaggio a
@BotFather. - Invia
/newbote segui le istruzioni. - Copia il token del bot
123456789:ABC-...(BotFather lo mostrerà).
2) Aggiungi il token al tuo gateway
Imposta la variabile d’ambiente o la configurazione:
export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# oppure aggiungilo al file di configurazione del gateway:
# channels:
# telegram:
# botToken: "123456789:ABC-..."
Puoi anche aggiungere il token tramite i comandi moltbot channels add o moltbot configure a seconda della versione della tua CLI. La documentazione Telegram mostra questo percorso di setup rapido.
3) Esegui il wizard di onboarding e scegli Telegram
Esegui:
moltbot onboard --install-daemon
Durante il wizard:
- Scegli il provider del modello (Anthropic Opus, OpenAI o locale).
- Quando richiesto per i canali, scegli Telegram e incolla il token.
- Configura pairing/allowlist per limitare chi può inviare messaggi al bot (importante — imposta il tuo ID utente così solo tu puoi controllarlo).
Le guide della community e il processo di onboarding ti chiederanno di incollare in output un piccolo comando dal tuo host per provare l’abbinamento del nodo — segui il prompt.
4) Abilita lo strumento exec e le approvazioni (in sicurezza)
Moltbot può eseguire comandi di sistema tramite il suo strumento exec, ma lo fa secondo un modello di approvazione esplicita:
- Le approvazioni di exec vengono registrate in
~/.clawdbot/exec-approvals.json. - Il sistema chiederà in chat un’approvazione la prima volta che viene richiesta un’azione; puoi rispondere con
/approveper continuare (o rifiutare). - Per workflow completamente automatizzati puoi creare una allowlist limitata di comandi o una “bin” di script pre-approvati.
Esempio: abilita lo strumento exec nella configurazione di moltbot (o via UI/plugin):
{
"tools": {
"exec": {
"enabled": true,
"allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
}
}
}
Il progetto ha flussi di approvazione espliciti per exec e inoltra le richieste di approvazione ai canali chat quando necessario, rendendo più semplice rivedere e approvare le operazioni.
5) Prova un comando sicuro da Telegram
Dal tuo account Telegram (l’utente autorizzato) invia:
@YourMoltbot Hi — please run: uptime
L’assistente:
- Chiederà conferma (se exec richiede approvazione).
- Eseguirà il comando consentito sull’host.
- Restituirà l’output in chat.
6) Crea azioni più sicure tramite Skills
Invece di concedere accesso diretto alla shell via chat, preferisci Skills che incapsulano le azioni (ad es., una Skill backup che chiama uno script e restituisce un risultato ben formattato). Le Skills possono essere installate/disinstallate e sono più semplici da revisionare.
Come ospito le API di Moltbot (Gateway) e uso le HTTP API?
Moltbot può offrire un’API chiamabile da altri programmi?
Sì. Il Gateway di Moltbot può esporre endpoint HTTP compatibili con OpenResponses (come POST /v1/responses) e uno shim in stile OpenAI per /v1/chat/completions. Questi endpoint sono disabilitati per impostazione predefinita e devono essere abilitati nella configurazione del gateway. L’endpoint HTTP OpenResponses mappa direttamente al percorso di esecuzione dell’agente del gateway, quindi le richieste vengono eseguite come vere sessioni dell’agente (con lo stesso instradamento/autorizzazioni).
Che cos’è un proxy API in Moltbot?
Un proxy API in Moltbot è un servizio intermediario che si posiziona tra il runtime dell’agente di Moltbot e i provider LLM a monte, come:
- OpenAI
- Anthropic
- Venice
- Azure OpenAI
- Endpoint self-hosted compatibili con OpenAI
Invece che Moltbot chiami direttamente il provider, tutte le richieste vengono instradate attraverso il proxy, che può:
- Riscrivere richieste e risposte
- Applicare rate limit
- Tracciare uso di token e costi
- Cambiare modello dinamicamente
- Mascherare le vere chiavi API da Moltbot
- Aggiungere autenticazione, logging e caching
Concettualmente:
Moltbot → API Proxy → LLM Provider
Questa architettura migliora sensibilmente sicurezza, osservabilità e controllo dei costi.
🚀 Avvio rapido: consigliamo di usare CometAPI (apiyi.com) per ottenere la tua chiave API. La registrazione fornisce crediti gratuiti. Supporta tutti i principali algoritmi, come Claude Sonnet 4.5, Claude Opus 4.5 e GPT-5.2, ed è in genere più economico del 10-20% rispetto ai prezzi ufficiali.
Step 1: Ottieni la tua chiave del proxy API
Metodo 1: Imposta variabili d’ambiente. Nel tuo file .env di Moltbot:
OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini
Punti chiave:
OPENAI_API_BASEpunta al tuo proxy, non a OpenAIOPENAI_API_KEYè un token emesso dal proxy- Il proxy decide quale provider/modello viene effettivamente usato
Riavvia Moltbot dopo aver aggiornato questi valori.
Metodo 2: Configurazione tramite config.json:
- Trovare il file di configurazione di Moltbot
- Apri il file di configurazione e aggiungi o aggiorna
models.providers
Il file di configurazione in genere si trova in uno di questi percorsi:
| Sistema operativo | Percorso del file di configurazione |
|---|---|
| macOS | ~/.clawdbot/config.json o ~/.moltbot/config.json |
| Linux | ~/.clawdbot/config.json o ~/.moltbot/config.json |
| Windows | %USERPROFILE%\.clawdbot\config.json |
Puoi anche trovarlo dalla riga di comando:
# Visualizza la configurazione corrente
moltbot config list
# Ottieni il percorso esatto del file di configurazione
moltbot config path
Step 2: Verifica la connettività
Esegui un prompt di test semplice:
moltbot test llm
Se configurato correttamente, Moltbot riceverà risposte normalmente — senza contattare direttamente il provider a monte.
Stime dei costi per eseguire Moltbot usando modelli hosted
Il costo di utilizzo di un modello gestito dipende dal prezzo dell’API, quindi scegliere un provider API economico è piuttosto importante, motivo per cui raccomando CometAPI.
I fattori di prezzo in genere dipendono da:
- Prezzi del vendor. Il costo di utilizzo di un modello gestito dipende dal prezzo dell’API, quindi scegliere un venditore più economico è cruciale, motivo per cui raccomando CometAPI.
- La scelta tra un modello di punta o leggero; ad esempio, la differenza di prezzo tra Claude Opus 4.5 e GLM 4.7 è significativa.
- La complessità del contenuto elaborato. Se i tuoi workflow sono ricchi di testo (parsing di file, risposte lunghe), considera i token aggiuntivi.
Esempi indicativi (illustrazione, prezzi di gennaio 2026 riportati in post della community):
- Uso personale occasionale (alcune centinaia di risposte/mese, mix di modelli locali e chiamate API economiche): $0–$50/mese.
- Uso personale/pro intensivo (indicizzazione file, molte chiamate a strumenti): $100–$1,000/mese.
- Team o produzione always-on (molti utenti + web scraping + chaining): $1,000+/mese a meno di ottimizzare aggressivamente l’uso dei modelli.
Modi per ridurre i costi
- Instradamento dei modelli: invia i task leggeri a modelli più economici o LLM locali, riserva i modelli costosi al ragionamento impegnativo — i test della community suggeriscono riduzioni dei costi di ~50% o più.
- Relay e prezzi all’ingrosso: usa relay API che offrono tariffe per token migliori o hosting privato dei modelli (Venice, endpoint privati).
- Caching e troncamento aggressivi: metti in cache gli output delle LLM, tronca storici lunghi e riassumi invece di reinviare l’intero contesto.
Funzionalità avanzate del proxy API per Moltbot
Instradamento del modello per tipo di task
Puoi ispezionare il payload della richiesta e instradare dinamicamente:
function selectModel(messages) {
const systemPrompt = messages[0]?.content || "";
if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
return "gpt-4.1";
}
return "gpt-4.1-mini";
}
Questo schema riduce i costi senza sacrificare la qualità.
Limiti di token e costi
Puoi applicare limiti rigidi:
if (req.body.max_tokens > 2000) {
return res.status(400).json({
error: "Limite di token superato"
});
}
Alcuni team tracciano anche l’uso cumulativo per ID utente Moltbot.
È sicuro dare a un’AI l’accesso alla shell del mio computer?
Questa è la domanda più critica per qualsiasi utente Moltbot. Dare a un LLM la possibilità di eseguire rm -rf è intrinsecamente rischioso. Moltbot include diverse protezioni per mitigare questo rischio:
- Sandboxing: Puoi eseguire Moltbot all’interno di un container Docker. Questo limita il “mondo” dell’agente a una cartella specifica, impedendogli di toccare i file di sistema.
- Approvazione esplicita: Per impostazione predefinita, le “Main Sessions” (chat dirette con te) hanno maggiore fiducia, ma puoi configurare il bot affinché chieda il permesso prima di eseguire qualsiasi comando shell distruttivo.
- Protezione con password: Se esponi la Web UI di Moltbot, abilita sempre l’autenticazione con password nel tuo
config.json:
{
"gateway": {
"auth": {
"mode": "password",
"password": "YOUR_STRONG_SECURE_PASSWORD"
}
}
}
Considerazioni finali:
Moltbot è più di un semplice chatbot; è l’infrastruttura per un dipendente digitale personale. Ospitandolo tu stesso, riacquisti il controllo sui tuoi dati ottenendo al contempo la produttività di un’AI che non dorme mai. Che tu lo usi per gestire il calendario via Telegram o per automatizzare la pipeline di devops dal divano, Moltbot è uno sguardo a un futuro in cui ognuno ha il proprio “Jarvis” in esecuzione su un Mac Mini in un angolo della stanza.
Se desideri una piattaforma API con modelli di più vendor (come Chatgpt-5.2, Claude opus 4.5, ecc.) a un prezzo inferiore rispetto a quello ufficiale, allora CometAPI è la scelta migliore. Per iniziare, esplora le capacità del modello nel Playground e consulta la guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. CometAPI offre un prezzo molto inferiore rispetto a quello ufficiale per aiutarti nell’integrazione.
Pronti a iniziare?→ Registrati a CometAPI oggi stesso !
Se vuoi conoscere altri suggerimenti, guide e notizie sull’AI, seguici su VK, X e Discord!
