Openclaw(Moltbot /Clawdbot) : Guía de Configuración+ Tutorial de Alojamiento de API

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Guía de Configuración+ Tutorial de Alojamiento de API

A la cabeza de esta tendencia está Moltbot (anteriormente conocido como Clawdbot), un proyecto que pasó de ser una herramienta de nicho para desarrolladores a una sensación viral con más de 60.000 estrellas en GitHub en pocas semanas. Creado por Peter Steinberger, Moltbot representa la “muda” del agente de IA: despojándose de las limitaciones de las interfaces web para habitar las aplicaciones de mensajería y los sistemas de archivos que usamos a diario.

Atención reciente: el proyecto cambió de marca de Clawdbot a Moltbot tras una solicitud relacionada con marcas por parte de Anthropic, porque “Clawd” sonaba demasiado similar a “Claude”.

¿Qué es Moltbot (Clawdbot) y por qué es viral?

Moltbot es un agente de IA de código abierto y autoalojado diseñado para cerrar la brecha entre los potentes Modelos de Lenguaje Grandes (LLMs) y tu computadora local. A diferencia de ChatGPT o Claude.ai, que existen dentro de una pestaña de navegador de “entorno cerrado”, Moltbot se ejecuta como una Gateway en tu hardware (Mac, Linux o VPS).

Traduce mensajes en lenguaje natural de plataformas como Telegram, WhatsApp y Slack en acciones ejecutables en tu máquina. Ya sea que necesites encontrar un archivo en tu escritorio mientras estás en el supermercado o activar un script de despliegue complejo desde tu teléfono, Moltbot actúa como tu proxy digital con acceso completo al sistema.

Por qué es diferente

  • Ejecución y herramientas locales (local-first): Moltbot puede realmente ejecutar comandos en tu host (con consentimiento), llamar APIs externas y usar “skills” que son pequeños programas o flujos de trabajo definidos en markdown.
  • Multicanal: usas el mismo asistente desde Telegram, WhatsApp, Slack, Discord y más — puede enviarte mensajes de forma proactiva.
  • Memoria y persistencia: Moltbot guarda archivos de memoria en el workspace (Markdown) y los indexa para su recuperación, de modo que el asistente “recuerda” entre sesiones (detalles abajo).

Capacidades principales de un vistazo

FunciónDescripción
MulticanalUsa Telegram, WhatsApp, Discord, Slack, iMessage y más.
Acceso completo al PCEjecuta comandos de shell, gestiona archivos y controla navegadores.
IA proactivaNo solo espera; puede enviar alertas de “latido” o recordatorios.
Privacidad primeroTus archivos y lógica permanecen en tu hardware; solo los prompts van a la API.
AutoevoluciónPuede escribir sus propias “Skills” para ampliar su funcionalidad con el tiempo.
compatible con OpenAIMoltbot soporta el protocolo de API compatible con OpenAI; conecta con cualquier servicio compatible
baseUrl personalizadoPermite modificar la dirección del endpoint de la API; cambia de proveedor con facilidad

¿Cómo “recuerda” Clawdbot todo sin una base de datos?

Uno de los aspectos más innovadores de Moltbot es su arquitectura de memoria transparente. La mayoría de las herramientas de IA sufren de “amnesia” entre sesiones. Moltbot lo resuelve usando un sistema por capas de archivos Markdown planos ubicados en tu espacio de trabajo. Este enfoque garantiza que puedas leer, editar y auditar exactamente lo que tu IA sabe sobre ti.

¿Cuál es el diseño de la memoria y cómo funciona?

La memoria de Moltbot es deliberadamente simple y auditable: la memoria son archivos Markdown planos dentro del espacio de trabajo del agente. Los archivos son la fuente de la verdad: el modelo solo “recuerda” lo que se ha escrito en disco. El diseño predeterminado utiliza:

  • memory/YYYY-MM-DD.md — registros diarios solo de anexado (el asistente lee hoy + ayer al iniciar la sesión).
  • MEMORY.md — memoria a largo plazo curada que puedes controlar y cargar únicamente en sesiones privadas.

Este diseño tiene dos grandes beneficios:

  1. Auditabilidad — puedes leer y editar lo que el asistente usará como memoria.
  2. Simplicidad para herramientas — los plugins de memoria proporcionan indexación vectorial/BM25 para que el agente pueda buscar rápidamente las entradas de memoria relevantes.

Enfoque técnico

  • Almacenamiento de conversación/sesión: La gateway rastrea las sesiones y reenvía el contexto correcto al runtime del agente. Esto permite al agente preservar el estado de la conversación entre mensajes y canales.
  • Datos locales indexados: Moltbot puede indexar archivos y documentos locales y exponerlos mediante herramientas de búsqueda (semántica o por palabra clave) para su recuperación. Así es como el agente puede “recordar” tus notas de reuniones, fragmentos o código.
  • Salidas de herramientas y primitivas de memoria: Las skills y herramientas pueden escribir en un almacén duradero (base de datos o sistema de archivos), y Moltbot puede referenciar esas entradas en prompts posteriores. Muchas implementaciones usan SQLite, Postgres o JSON/YAML locales para configuraciones pequeñas.
  • Embeddings LLM y almacén vectorial: Para la recuperación semántica, el patrón habitual es generar embeddings de documentos y almacenar vectores en una base de datos vectorial, luego recuperar los vecinos más cercanos para incluirlos en los prompts. La arquitectura de Moltbot admite llamadas a herramientas independientes del modelo, por lo que puedes conectar tu combo de embeddings + almacén vectorial.

Advertencia de seguridad: debido a que la memoria es persistente y las skills pueden ejecutar comandos en el host, las opciones predeterminadas recomendadas son conservadoras: emparejamiento por DM para remitentes desconocidos, sandboxing para sesiones no principales y una comprobación moltbot doctor para mostrar configuraciones de riesgo. Revisa siempre la documentación de seguridad y trata los mensajes entrantes como entrada no confiable.

Jerarquía de memoria

ArchivoPropósito
SOUL.mdDefine la personalidad, el tono y las reglas operativas básicas del agente.
USER.mdAlmacena hechos sobre ti (p. ej., “Prefiero Python a Ruby”, “Trabajo en fintech”).
MEMORY.mdMemorias a largo plazo y curadas que el agente guarda para recuperación permanente.
memory/YYYY-MM-DD.mdRegistros diarios y contexto bruto de fechas específicas.

Cuando le dices a Moltbot: “Recuerda que prefiero mis informes en formato PDF”, no lo almacena en una base de datos SQL oculta. Literalmente abre USER.md y añade una nueva viñeta. Esto permite que el agente mantenga el contexto a lo largo de semanas de conversación, haciéndolo sentir como un asistente personal real en lugar de una instancia fresca cada mañana.


Guía de configuración de Moltbot: requisitos previos e instalación

A continuación se muestra una lista práctica de comprobación y comandos para poner en marcha una instancia básica de Moltbot en macOS/Linux (Ubuntu). Esta es una guía condensada con mentalidad de producción — si necesitas una GUI o un host gestionado, salta a la sección de hosting de API.

Qué necesitarás (requisitos previos)

  • Una máquina con macOS o Linux (Windows puede funcionar vía WSL2). Node.js v22+ es necesario para la Gateway y el CLI.
  • Un editor de texto y familiaridad básica con la shell.
  • Al menos una clave de API de LLM (OpenAI, Anthropic, Venice o un modelo local como Ollama) — Moltbot en sí es independiente del modelo.
  • Opcional: Docker, si prefieres despliegue en contenedores.

Instalación paso a paso

  1. Instala el paquete: Ejecuta el siguiente comando en tu terminal: npm install -g clawdbot@latest
  2. Inicia el asistente de incorporación: El asistente es el corazón de la configuración. Te guiará por confirmaciones de seguridad y selección de modelo. clawdbot onboard --install-daemon
  3. Confirma los riesgos de seguridad: Moltbot te pedirá que reconozcas que tiene acceso “similar a root” a tu máquina. Debes escribir una confirmación para continuar.
  4. Configura la Gateway: El asistente instalará clawdbot gateway como un servicio en segundo plano (launchd en Mac o systemd en Linux) para que se mantenga en línea 24/7.

Instalación rápida (macOS / Linux)

Este ejemplo usa el método recomendado git + npm que refleja la documentación oficial.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (básico)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Ejecuta con:

docker compose up -d

Postinstalación: vincula un canal de mensajería

Moltbot admite múltiples canales. La vinculación suele implicar generar un token de emparejamiento desde la UI o el CLI de la gateway y usar una pequeña “URL de emparejamiento” para conectar un bot de Telegram o una cuenta de WhatsApp — los pasos específicos dependen del conector de canal que elijas (Telegram Bot API vs. wrapper grammY, WhatsApp vía Baileys, etc.). Consulta la documentación de moltbot connect telegram o moltbot connect whatsapp.

¿Cómo controlo mi PC desde Telegram mediante Moltbot (paso a paso)?

A continuación se presenta un recorrido seguro y práctico para controlar un host mediante mensajes de Telegram — útil para administración remota, ejecutar scripts, obtener logs o pedir a Moltbot que ejecute un pequeño trabajo. Nota de seguridad importante: no expongas tu Gateway a Internet abierta sin un token de API y firewall; permite que solo usuarios de Telegram de confianza hablen con tu bot.

1) Crea un bot de Telegram con BotFather

  1. En Telegram, envía un mensaje a @BotFather.
  2. Envía /newbot y sigue las indicaciones.
  3. Copia el token del bot 123456789:ABC-... (BotFather lo mostrará).

2) Añade el token a tu Gateway

Establece la variable de entorno o configuración:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

También puedes añadir el token mediante los comandos moltbot channels add o moltbot configure dependiendo de tu versión del CLI. La documentación de Telegram muestra esta ruta de configuración rápida.

3) Ejecuta el asistente de incorporación y elige Telegram

Ejecuta:

moltbot onboard --install-daemon

Durante el asistente:

  • Elige tu proveedor de modelo (Anthropic Opus, OpenAI o local).
  • Cuando se te pida por los canales, elige Telegram y pega el token.
  • Configura emparejamiento/lista de permitidos para restringir quién puede enviar mensajes al bot (importante — establece tu ID de usuario para que solo tú puedas controlarlo).

Las guías de la comunidad y el proceso de incorporación te pedirán pegar una pequeña salida de comando desde tu host para demostrar el emparejamiento de nodo — sigue las indicaciones.

4) Habilita la herramienta exec y las aprobaciones (de forma segura)

Moltbot puede ejecutar comandos del sistema mediante su herramienta exec, pero lo hace bajo un modelo de aprobación explícita:

  • Las aprobaciones de exec se registran en ~/.clawdbot/exec-approvals.json.
  • El sistema pedirá confirmación en el chat la primera vez que se solicite una acción; puedes responder /approve para continuar (o denegar).
  • Para flujos totalmente automatizados puedes crear una lista limitada de comandos o un “bin” de scripts preaprobados.

Ejemplo: habilitar la herramienta exec en la configuración de moltbot (o mediante UI/plugin):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

El proyecto tiene flujos explícitos de aprobación de exec y reenvía las solicitudes de aprobación a los canales de chat cuando se piden, facilitando la revisión y aprobación de operaciones.

5) Prueba un comando seguro desde Telegram

Desde tu cuenta de Telegram (el usuario permitido) envía:

@YourMoltbot Hi — please run: uptime

El asistente:

  1. Pedirá confirmación (si exec requiere aprobación).
  2. Ejecutará el comando permitido en el host.
  3. Devolverá la salida al chat.

6) Crea acciones más seguras mediante skills

En lugar de dar acceso directo al shell vía chat, prefiere skills que encapsulen acciones (p. ej., una skill backup que llame a un script y devuelva un resultado bien formateado). Las skills pueden instalarse/desinstalarse y son más fáciles de revisar.

¿Cómo alojo la API de Moltbot (Gateway) y uso la API HTTP?

¿Puede Moltbot ofrecer una API que otros programas puedan llamar?

Sí. La Gateway de Moltbot puede exponer endpoints HTTP compatibles con OpenResponses (como POST /v1/responses) y un shim al estilo OpenAI /v1/chat/completions. Estos endpoints están deshabilitados por defecto y deben habilitarse en la configuración de la gateway. El endpoint HTTP de OpenResponses se mapea directamente a la ruta de ejecución del agente de la gateway, por lo que las solicitudes se ejecutan como sesiones reales de agente (con el mismo enrutamiento/permisos).

¿Qué es un proxy de API en Moltbot?

Un proxy de API en Moltbot es un servicio intermediario que se sitúa entre el runtime del agente de Moltbot y los proveedores de LLM upstream, como:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Endpoints autogestionados compatibles con OpenAI

En lugar de que Moltbot llame directamente al proveedor, todas las solicitudes se enrutan a través del proxy, que puede:

  • Reescribir solicitudes y respuestas
  • Aplicar límites de tasa
  • Rastrear uso de tokens y costos
  • Cambiar modelos dinámicamente
  • Ocultar claves API reales de Moltbot
  • Añadir autenticación, logging y caché

Conceptualmente:

Moltbot → API Proxy → LLM Provider

Esta arquitectura mejora drásticamente la seguridad, la observabilidad y el control de costos.

🚀 Inicio rápido: recomendamos usar CometAPI (apiyi.com) para obtener tu clave de API. El registro ofrece créditos gratuitos. Soporta todos los algoritmos principales, como Claude Sonnet 4.5, Claude Opus 4.5 y GPT-5.2, y suele ser entre un 10–20% más barato que los precios oficiales.

Paso 1: Obtén tu clave del proxy de API

Método 1: Configurar variables de entorno. En tu archivo .env de Moltbot:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Puntos clave:

  • OPENAI_API_BASE apunta a tu proxy, no a OpenAI
  • OPENAI_API_KEY es un token emitido por el proxy
  • El proxy decide qué proveedor/modelo se usa realmente

Reinicia Moltbot después de actualizar estos valores.

Método 2: Configuración a través de config.json:

  • Encontrar el archivo de configuración de Moltbot
  • Abre tu archivo de configuración y añade o actualiza models.providers

El archivo de configuración suele estar en uno de estos lugares:

Sistema operativoRuta del archivo de configuración
macOS~/.clawdbot/config.json o ~/.moltbot/config.json
Linux~/.clawdbot/config.json o ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

También puedes encontrarlo usando la línea de comandos:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Paso 2: Verifica la conectividad

Ejecuta una solicitud de prueba simple:

moltbot test llm

Si está configurado correctamente, Moltbot recibirá respuestas con normalidad — sin contactar nunca al proveedor upstream directamente.

Estimaciones de costos para ejecutar Moltbot usando modelos alojados

El costo de usar un modelo gestionado depende del precio de la API, por lo que elegir un proveedor de API barato es bastante importante, razón por la cual recomiendo CometAPI.

Los factores de precio suelen depender de:

  • Precio del proveedor. El costo de usar un modelo gestionado depende del precio de la API, por lo que elegir un proveedor de API más barato es crucial, razón por la cual recomiendo CometAPI.
  • La elección entre un modelo insignia o uno ligero; por ejemplo, la diferencia de precio entre Claude Opus 4.5 y GLM 4.7 es significativa.
  • La complejidad del contenido procesado. Si tus flujos son intensivos en texto (análisis de archivos, respuestas largas), añade tokens.

Ejemplos aproximados (ilustrativos, precios de enero de 2026 según publicaciones de la comunidad):

  • Uso personal ocasional (unos cientos de respuestas/mes, mezcla de modelos locales y llamadas API baratas): $0–$50/mes.
  • Uso personal/pro desarrollador pesado (indexación de archivos, muchas llamadas de herramientas): $100–$1.000/mes.
  • Equipo o producción siempre activa (muchos usuarios + web scraping + encadenamiento): $1.000+/mes a menos que optimices agresivamente el uso de modelos.

Formas de reducir costos

  • Enrutamiento de modelos: envía tareas ligeras a modelos más baratos o LLM locales, reserva los modelos costosos para razonamiento de largo recorrido — pruebas de la comunidad sugieren que esto puede reducir costos en ~50% o más.
  • Relays y precios por volumen: usa relays de API que ofrezcan mejores tarifas por token o hosting privado de modelos (Venice, endpoints privados).
  • Caché agresiva y truncamiento: cachea salidas de LLM, trunca historiales largos y resume en lugar de reenviar el contexto completo.

Funciones avanzadas del proxy de API para Moltbot

Enrutamiento de modelos por tipo de tarea

Puedes inspeccionar el payload de la solicitud y enrutar dinámicamente:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Este patrón reduce costos sin sacrificar calidad.


Límites de tokens y costos

Puedes imponer límites estrictos:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Algunos equipos también rastrean el uso acumulado por ID de usuario de Moltbot.


¿Es seguro dar a una IA acceso shell a mi computadora?

Esta es la pregunta más crítica para cualquier usuario de Moltbot. Dar a un LLM la capacidad de ejecutar rm -rf es intrínsecamente arriesgado. Moltbot incluye varias salvaguardas para mitigar esto:

  1. Aislamiento (sandboxing): Puedes ejecutar Moltbot dentro de un contenedor Docker. Esto limita el “mundo” del agente a una carpeta específica, evitando que toque archivos del sistema.
  2. Aprobación explícita: Por defecto, las “Sesiones principales” (chats directos contigo) tienen mayor confianza, pero puedes configurar el bot para pedir permiso antes de ejecutar cualquier comando de shell destructivo.
  3. Protección por contraseña: Si expones la Web UI de Moltbot, siempre habilita la autenticación por contraseña en tu config.json:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Reflexiones finales:

Moltbot es más que un chatbot; es la infraestructura para un empleado digital personal. Al alojarlo tú mismo, recuperas el control de tus datos mientras obtienes la productividad de una IA que nunca duerme. Ya sea que lo uses para gestionar tu calendario vía Telegram o para automatizar tu pipeline de devops desde el sofá, Moltbot es un vistazo a un futuro donde todos tienen su propio “Jarvis” ejecutándose en un Mac Mini en la esquina de la habitación.

Si quieres una plataforma de API con modelos de múltiples proveedores (como Chatgpt-5.2, Claude opus 4.5, etc.) con un precio más bajo que el oficial, entonces CometAPI es la mejor opción. Para comenzar, explora las capacidades del modelo en el Playground y consulta la guía de API para instrucciones detalladas. Antes de acceder, asegúrate de haber iniciado sesión en CometAPI y obtenido la clave de API. CometAPI ofrece un precio mucho más bajo que el oficial para ayudarte a integrar.

¿Listo para empezar?→ Regístrate en CometAPI hoy ¡

Si quieres conocer más consejos, guías y noticias sobre IA, síguenos en VK, X y Discord!

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento