¿Cómo ejecutar openClaw (Moltbot/ Clawdbot ) en LLMs locales sin API?

CometAPI
AnnaFeb 1, 2026
¿Cómo ejecutar openClaw (Moltbot/ Clawdbot ) en LLMs locales sin API?

OpenClaw (anteriormente Clawdbot, brevemente Moltbot) ha explotado más rápido que casi cualquier proyecto de agentes que he visto.

En menos de tres semanas, superó las 100,000 estrellas en GitHub. La gente lo llama “becario de IA 24/7”, y sinceramente, esa descripción no está muy lejos. Puede leer mensajes, ejecutar comandos de shell, gestionar archivos y vivir silenciosamente en segundo plano mientras sigues con tu día.

Pero tras la emoción inicial, empezó a aparecer por todas partes una pregunta muy práctica:

“Esto es genial… pero ¿cómo lo ejecuto sin quemar dinero en APIs?”

Esa pregunta es exactamente por lo que escribí la guía .

¿Cuál es el revuelo detrás de OpenClaw (antes Clawdbot)?

Para entender el cambio técnico hacia la ejecución local, primero hay que apreciar lo que OpenClaw realmente es. En esencia, openClaw ( Moltbot / Clawdbot) es un agente autónomo "centrado en la conversación". A diferencia de los chatbots tradicionales que viven en una pestaña del navegador y esperan indicaciones, OpenClaw se ejecuta como un daemon en segundo plano en tu máquina. Se integra directamente con plataformas de mensajería como WhatsApp, Telegram, Discord y Signal, convirtiendo efectivamente tu app de chat en una línea de comandos para tu vida.

La evolución de Clawdbot a OpenClaw

La historia del proyecto es tan volátil como fascinante.

Clawdbot (Finales de 2025): Creado por Peter Steinberger, se lanzó como un wrapper para Claude de Anthropic, diseñado para ejecutar tareas en lugar de solo generar texto. Fue apodado "Claude con manos".

Moltbot (Enero de 2026): Tras una disputa de marca con Anthropic respecto al nombre "Clawd", el proyecto se renombró a "Moltbot", adoptando una mascota de langosta llamada "Molty" (en referencia a la muda del caparazón).

OpenClaw (30 de enero de 2026): Para enfatizar su naturaleza de código abierto y distanciarse aún más de identidades corporativas específicas manteniendo la herencia de "Claw", la comunidad se decidió por OpenClaw.

Lo que distingue a OpenClaw es su sistema de permisos. Puede leer tus correos, revisar tu calendario, ejecutar comandos de shell e incluso gestionar su propia memoria en archivos Markdown almacenados localmente. Sin embargo, su configuración predeterminada depende de enviar todo este contexto a APIs en la nube (principalmente Anthropic u OpenAI), lo que plantea dos cuestiones críticas: costo y privacidad.

¿Por qué deberías cambiar a LLMs locales?

La experiencia "lista para usar" de openClaw ( Moltbot / Clawdbot) está impulsada por Claude 3.5 Sonnet u Opus. Aunque estos modelos son altamente inteligentes, se cobran por token. Un agente autónomo que funciona 24/7—revisando correos, monitoreando registros de servidor y resumiendo chats—puede generar millones de tokens al día.

El costo de la autonomía

Los agentes autónomos no se comportan como sesiones de chat. Hacen bucles. Releen el contexto. Resumen registros. Revisan bandejas de entrada una y otra vez.

He visto a usuarios reportar cosas como:

“Dejé Clawdbot funcionando toda la noche para reorganizar mi bóveda de Obsidian y me desperté con una factura de $40.”

Eso no es un mal uso — así es como funciona la autonomía.

Con un modelo local, el costo marginal cae a cero (salvo la electricidad). Dejas de pensar “¿debería dejar esto corriendo?” y comienzas a pensar “¿qué más puedo automatizar?”

La privacidad no es un beneficio secundario — es el principal

openClaw ( Moltbot / Clawdbot) puede leer:

  • Correos electrónicos
  • Historiales de chat
  • Código fuente
  • Documentos personales

OpenClaw está diseñado para tener acceso profundo a tu sistema. Lee tus mensajes personales y sistemas de archivos. Al usar una API, cada archivo que el bot lee se sube a un servidor de terceros para su procesamiento. Al usar un LLM local, ningún dato sale de tu red local. Tus documentos financieros, chats privados y bases de código permanecen aislados de las grandes tecnológicas.

Ejecutar OpenClaw con Ollama (mi recomendación predeterminada)

Si te sientes cómodo con la terminal, Ollama es la forma más sencilla de ejecutar LLMs locales hoy.

openClaw ( Moltbot / Clawdbot) habla APIs compatibles con OpenAI. Ollama expone una por defecto. Ese es todo el truco.

Lista mínima de sistema y software

  • Una máquina con un sistema operativo reciente (Linux/macOS/Windows + WSL2). Se recomienda aceleración local por GPU para modelos más grandes; solo CPU funciona para modelos pequeños o tareas ligeras.
  • Node.js ≥ 22 (la CLI y Gateway de OpenClaw esperan Node).
  • Ollama (u otro runtime local de LLM) instalado localmente si planeas ejecutar modelos locales. Ollama expone una API local compatible con OpenAI por defecto (comúnmente en http://localhost:11434).
  • Si usas un proxy como Lynkr, instálalo (npm o clona el repo). Lynkr puede presentar un endpoint similar a Anthropic/OpenAI a OpenClaw mientras enruta a modelos locales.

Paso 1: Instalar OpenClaw (comandos rápidos)

OpenClaw recomienda instalar vía npm/pnpm. Ejecuta:

# install OpenClaw CLI globally (Node >= 22)
npm install -g openclaw@latest
# or using pnpm
pnpm add -g openclaw@latest

# run first-time onboarding (installs Gateway daemon)
openclaw onboard --install-daemon

El asistente de onboarding instala un daemon de servicio de usuario (systemd/launchd) para que el Gateway siga ejecutándose en segundo plano. Tras el onboarding puedes ejecutar el Gateway manualmente para depuración:

openclaw gateway --port 18789 --verbose

Paso 2: Instalar Ollama y descargar un modelo

Ollama es sencillo de instalar y ejecutar. En macOS/Linux:

# install Ollama (one-line installer)
curl -fsSL https://ollama.com/install.sh | sh

# pull a recommended assistant model (example)
ollama pull kimi-k2.5

# verify Ollama is running (default API on port 11434)
ollama list
# or check HTTP
curl http://localhost:11434/v1/models

Ollama expone una API compatible con muchos clientes estilo OpenAI; la integración de proveedores de OpenClaw admite Ollama y detectará automáticamente una instancia local de Ollama a menos que sobrescribas la configuración.

Paso 3: Configuración mínima del modelo de OpenClaw

despliega una capa de compatibilidad (Lynkr) o configura OpenClaw para apuntar al endpoint local

Dado que openClaw ( Moltbot / Clawdbot) históricamente hablaba con ciertas formas de API (p. ej., endpoints estilo Anthropic), el camino más fácil es ejecutar un pequeño proxy que traduzca las llamadas de OpenClaw a la API de tu servidor local.

  • Lynkr: instala y configura Lynkr para que escuche en el puerto que OpenClaw espera; configúralo para reenviar a tu instancia de Ollama/text-generation-webui. Los tutoriales de la comunidad muestran archivos de pasos y ejemplos de entradas config.json. Una vez que Lynkr esté en ejecución, OpenClaw puede permanecer configurado para el proveedor original pero en realidad hablará con tu modelo local.

Si prefieres cambiar la configuración de OpenClaw directamente, apunta la URL de backend del modelo en la configuración .openclaw a tu endpoint de servidor local:

openClaw ( Moltbot / Clawdbot) almacena la configuración en ~/.openclaw/openclaw.json. Un archivo mínimo para preferir un modelo local se ve así:

{
  "agent": {
    "model": "ollama/kimi-k2.5"
  },
  "models": {
    "providers": {
      "ollama": {
        "name": "Ollama (local)",
        "options": {
          "baseURL": "http://127.0.0.1:11434/v1"
        }
      }
    }
  }
}

Si omites un bloque models.providers.ollama, openClaw ( Moltbot / Clawdbot) a menudo detectará automáticamente una instancia local de Ollama si está disponible. Usa openclaw models list y openclaw models set para gestionar de forma interactiva los ajustes del modelo sin editar directamente el archivo.

Paso 4: Iniciar OpenClaw y probar un mensaje

Con Ollama en ejecución y el Gateway activo:

# start the gateway (if not running as a daemon)
openclaw gateway --port 18789 --verbose

# send a test message to the agent
openclaw agent --message "Hello from local OpenClaw" --thinking low

Si el Gateway y los modelos están correctamente configurados, verás que el asistente responde y el mensaje se enruta mediante el modelo local de Ollama.

¿Puedo intentar evitar modificar OpenClaw mediante un proxy?

Sí — eso es exactamente lo que hacen herramientas proxy como Lynkr: presentan un endpoint estilo Anthropic/OpenAI a openClaw ( Moltbot / Clawdbot) mientras escuchan en el puerto que OpenClaw espera y reenvían el contenido a una instancia local de Ollama o text-generation-webui. Esto es valioso porque es sin clave de API, sin facturación en la nube y ejecución de modelo local, evita cambiar los internos de OpenClaw mientras te da control local.

Descripción arquitectónica (qué componentes se comunican con cuáles)

  • OpenClaw (agent/app) — el asistente principal, que emite llamadas al modelo y orquesta herramientas e integración de mensajes.
  • Proxy de LLM (p. ej., Lynkr) — recibe las solicitudes con estilo API de OpenClaw y las reenvía a servidores de modelos locales (o a la nube como respaldo). El proxy también puede implementar caché, recorte de tokens y compresión de memoria para reducir costos.
  • Servidor de LLM local (p. ej., Ollama, runtime ggml independiente, Llama.cpp, modelo local en contenedor) — sirve inferencia del modelo en la máquina. Ollama es ampliamente usado porque proporciona un servidor local fácil y un flujo de empaquetado de modelos; otros runtimes son posibles.
  • Respaldo en la nube opcional — el proxy puede enrutar solicitudes complejas a modelos en la nube cuando sea necesario (modo híbrido).

¿Por qué usar un proxy en lugar de parchear openClaw directamente?

Privacidad y TCO: La inferencia local mantiene los datos en tu máquina y evita facturas de API.

Compatibilidad: openClaw ( Moltbot / Clawdbot) espera una superficie de API particular (estilo Anthropic/“Copilot”). Un proxy preserva esa superficie para que OpenClaw necesite cambios mínimos.

Seguridad y flexibilidad: El proxy puede implementar reglas de enrutamiento de solicitudes (local primero, respaldo en la nube), limitación de velocidad, truncado de solicitudes y otras salvaguardas.

Ejemplo: configurar Lynkr para enrutar a Ollama local

  1. Instalar Lynkr:
npm install -g lynkr
# or: git clone https://github.com/Fast-Editor/Lynkr.git && npm install

  1. Crear un .env (ejemplo):
cp .env.example .env

Editar .env con:

# primary provider: local Ollama
MODEL_PROVIDER=ollama
OLLAMA_MODEL=kimi-k2.5
OLLAMA_ENDPOINT=http://localhost:11434

# optional hybrid fallback
PREFER_OLLAMA=true
FALLBACK_ENABLED=true
FALLBACK_PROVIDER=openrouter
OPENROUTER_API_KEY=sk-...

  1. Iniciar Lynkr:
# if installed globally
lynkr

# if cloned
npm start

Lynkr por defecto anunciará un proxy local (por ejemplo: http://localhost:8081) y un endpoint compatible con OpenAI/Anthropic /v1 al que OpenClaw puede apuntar. Luego configura el proveedor de modelos de OpenClaw para usar la base URL de Lynkr (ver el siguiente fragmento).

Apuntar OpenClaw al endpoint de Lynkr

Edita ~/.openclaw/openclaw.json o usa la CLI para establecer la base URL de tu proveedor:

{
  "models": {
    "providers": {
      "copilot": {
        "options": {
          "baseURL": "http://localhost:8081/v1"
        }
      }
    }
  },
  "agent": {
    "model": "kimi-k2.5"
  }
}

Ahora openClaw ( Moltbot / Clawdbot) llamará a http://localhost:8081/v1 (Lynkr), que enruta a ollama://kimi-k2.5 localmente. Obtienes la experiencia fluida de un proveedor externo sin salir de tu máquina.

Para usuarios que prefieren una interfaz gráfica de usuario (GUI) para gestionar sus modelos, o que quieren usar modelos cuantizados específicos (formato GGUF) de Hugging Face, LM Studio es la opción preferida.

¿Es seguro ejecutar agentes autónomos localmente?

Esta es quizá la pregunta más crítica. Cuando ejecutas openClaw ( Moltbot / Clawdbot), esencialmente le das a una IA acceso de shell a tu computadora.

El problema del "Sudo"

Si pides a un Claude basado en la nube que "elimine todos los archivos de mis documentos", podría negarse debido a filtros de seguridad. Un modelo local, no censurado, como Llama 3 no tiene tales inhibiciones. Si openClaw ( Moltbot / Clawdbot) interpreta mal un comando, teóricamente podría ejecutar comandos destructivos.

Mejores prácticas de seguridad

Ejecuta en Docker: No ejecutes openClaw ( Moltbot / Clawdbot) directamente en el "metal desnudo" de tu máquina a menos que estés absolutamente seguro de los riesgos. Usa la imagen oficial de Docker que sandboxea el entorno.

El siguiente ejemplo es un docker-compose.yml mínimo que demuestra tres servicios: Ollama (runtime de modelo local), Lynkr (proxy) y OpenClaw Gateway (CLI ejecutada en contenedor). Nota: adapta volúmenes y paso de dispositivos para acceso a GPU.

version: "3.8"
services:
  ollama:
    image: ollama/ollama:latest
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama-data:/var/lib/ollama

  lynkr:
    build: ./lynkr
    restart: unless-stopped
    ports:
      - "8081:8081"
    environment:
      - MODEL_PROVIDER=ollama
      - OLLAMA_ENDPOINT=http://ollama:11434

  openclaw:
    image: node:22
    working_dir: /workspace
    volumes:
      - ~/.openclaw:/root/.openclaw
      - ./workspace:/workspace
    command: sh -c "npm install -g openclaw && openclaw gateway --host 0.0.0.0 --port 18789"
    depends_on:
      - lynkr

Este es un stack ilustrativo; los despliegues de producción deben añadir aislamiento de red, límites de recursos y mapeo de dispositivos GPU cuando corresponda.

Pasos comunes de solución de problemas y limitaciones

Si openClaw ( Moltbot / Clawdbot) no ve Ollama

  • Asegúrate de que Ollama esté en ejecución y la base URL sea accesible (http://127.0.0.1:11434/v1).
  • Usa openclaw models list y openclaw doctor para exponer problemas de configuración.

Si falla el enrutamiento de Lynkr

  • Confirma que Lynkr esté escuchando (normalmente http://localhost:8081).
  • Revisa .env para verificar OLLAMA_ENDPOINT y MODEL_PROVIDER.
  • Valida que Lynkr mapee las rutas /v1 que openClaw ( Moltbot / Clawdbot) llama — algunas implementaciones de proveedor esperan rutas ligeramente diferentes; ajusta las rutas base si es necesario.

Brechas de capacidad del modelo

Los modelos locales varían: algunos sobresalen en programación, otros en chat. Las estrategias híbridas (local primero, respaldo en la nube) pueden ayudar: enruta tareas rutinarias localmente y deriva el razonamiento complejo a un modelo en la nube con caché para reducir costos. Lynkr y proxies similares implementan exactamente esta lógica.

Conclusión

El diseño de OpenClaw y el ecosistema activo a su alrededor hacen que hoy sea práctico un despliegue local sin APIs. Con herramientas como Ollama para hosting local, Lynkr para traducción de API y una documentación comunitaria robusta, puedes ejecutar agentes capaces en máquinas que controlas — desde una GPU de escritorio hasta un dispositivo de mano — sin enviar tus datos a un proveedor de LLM de terceros.

Sin embargo, si sopesas los pros y los contras, por ejemplo, si aún deseas usar openClaw ( Moltbot / Clawdbot) vía la API sin el equipo necesario, entonces te recomendaría CometAPI. Proporciona endpoints de Anthropic y OpenAI y con frecuencia ofrece descuentos—generalmente 20% por debajo del precio oficial.

Los desarrolladores pueden acceder y Claude Sonnet/ Opus 4.5 y GPT-5.2 a través de CometAPI, los modelos más recientes listados son a la fecha de publicación del artículo. Para comenzar, explora las capacidades del modelo en el Playground y consulta la API guide para instrucciones detalladas. Antes de acceder, asegúrate de haber iniciado sesión en CometAPI y obtenido la clave de API. CometAPI ofrece un precio muy inferior al oficial para ayudarte a integrar.

¿Listo para empezar?→ Regístrate en Gemini 3 hoy

Si quieres conocer más consejos, guías y noticias sobre IA síguenos en VK, X y Discord!

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento