Openclaw(Moltbot /Clawdbot) : Guia de configuração+ Tutorial de hospedagem de API

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Guia de configuração+ Tutorial de hospedagem de API

À frente dessa transformação está o Moltbot (anteriormente conhecido como Clawdbot), um projeto que passou de uma ferramenta de nicho para desenvolvedores a uma sensação viral com mais de 60.000 estrelas no GitHub em poucas semanas. Criado por Peter Steinberger, o Moltbot representa a "muda" do agente de IA — abandonando as limitações das interfaces web para habitar os aplicativos de mensagens e os sistemas de arquivos que usamos todos os dias.

Atenção recente: o projeto rebranding de Clawdbot para Moltbot após uma solicitação relacionada a marca da Anthropic porque "Clawd" soava muito semelhante a "Claude."

O que é o Moltbot (Clawdbot) e por que viralizou?

Moltbot é um agente de IA open-source, auto-hospedado, projetado para fazer a ponte entre poderosos Modelos de Linguagem de Grande Porte (LLMs) e o seu computador local. Diferente do ChatGPT ou Claude.ai, que existem dentro de uma aba de navegador em "jardim murado", o Moltbot roda como um Gateway no seu hardware (Mac, Linux ou VPS).

Ele traduz mensagens em linguagem natural de plataformas como Telegram, WhatsApp e Slack em ações executáveis na sua máquina. Seja para localizar um arquivo na sua área de trabalho enquanto você está no supermercado ou acionar um script de deploy complexo a partir do seu telefone, o Moltbot atua como seu procurador digital com acesso total ao sistema.

Por que é diferente

  • Execução e ferramentas local-first: o Moltbot pode realmente executar comandos no seu host (com consentimento), chamar APIs externas e usar “skills”, que são pequenos programas ou fluxos definidos em markdown.
  • Multicanal: você usa o mesmo assistente no Telegram, WhatsApp, Slack, Discord e mais — ele pode enviar mensagens proativas para você.
  • Memória e persistência: o Moltbot armazena arquivos de memória no workspace (Markdown) e os indexa para recuperação, para que o assistente “lembre” entre sessões (detalhes abaixo).

Capacidades principais em um relance

RecursoDescrição
MulticanalUse Telegram, WhatsApp, Discord, Slack, iMessage e mais.
Acesso total ao PCExecute comandos de shell, gerencie arquivos e controle navegadores.
IA proativaEle não apenas espera por você; pode enviar alertas de "batimento" ou lembretes.
Privacidade em primeiro lugarSeus arquivos e lógica permanecem no seu hardware; apenas os prompts vão para a API.
AutoevoluçãoPode escrever suas próprias "Skills" para ampliar sua funcionalidade ao longo do tempo.
openai-compatibleO Moltbot suporta o protocolo de API compatível com OpenAI; conecta-se a qualquer serviço compatível
Custom baseUrlSuporta modificar o endereço do endpoint da API; altere entre provedores com facilidade

Como o Clawdbot "lembra" de tudo sem um banco de dados?

Um dos aspectos mais inovadores do Moltbot é sua arquitetura de memória transparente. A maioria das ferramentas de IA sofre de "amnésia" entre sessões. O Moltbot resolve isso usando um sistema em camadas de arquivos Markdown simples localizados no seu workspace. Essa abordagem garante que você possa ler, editar e auditar exatamente o que sua IA sabe sobre você.

Como é o design de memória e como funciona?

A memória do Moltbot é propositalmente simples e auditável: a memória são arquivos Markdown simples dentro do workspace do agente. Os arquivos são a fonte da verdade — o modelo só “lembra” do que foi escrito em disco. O layout padrão usa:

  • memory/YYYY-MM-DD.md — logs diários apenas de append (o assistente lê hoje + ontem ao iniciar a sessão).
  • MEMORY.md — memória de longo prazo curada que você controla e só carrega em sessões privadas.

Esse design tem dois grandes benefícios:

  1. Auditoria — você pode ler e editar o que o assistente usará como memória.
  2. Simplicidade para ferramentas — plugins de memória fornecem indexação por vetor/BM25 para que o agente possa pesquisar rapidamente entradas de memória relevantes.

Abordagem técnica

  • Store de conversa/sessão: o gateway rastreia sessões e encaminha o contexto correto para o runtime do agente. Isso permite que o agente preserve o estado da conversa entre mensagens e canais.
  • Dados locais indexados: o Moltbot pode indexar arquivos e documentos locais e expô-los por meio de ferramentas de busca (semântica ou por palavra-chave) para recuperação. É assim que o agente pode "lembrar" suas atas de reunião, snippets ou código.
  • Saídas de ferramentas e primitivos de memória: Skills e ferramentas podem escrever em um store durável (banco de dados ou filesystem), e o Moltbot pode referenciar essas entradas em prompts posteriores. Muitas implantações usam SQLite, Postgres ou JSON/YAML local para setups pequenos.
  • Embeddings de LLM e vector store: para recall semântico, o padrão usual é embedar documentos e armazenar vetores em um banco de vetores, depois recuperar os vizinhos mais próximos para incluir nos prompts. A arquitetura do Moltbot acomoda chamadas de ferramentas agnósticas ao modelo, então você pode plugar sua combinação de embedding + vector store.

Advertência de segurança: como a memória é persistente e as skills podem executar comandos no host, os padrões recomendados são conservadores: pareamento por DM para remetentes desconhecidos, sandboxing para sessões não principais e um check moltbot doctor para destacar configurações arriscadas. Sempre revise a documentação de segurança e trate mensagens recebidas como entrada não confiável.

A hierarquia de memória

ArquivoFinalidade
SOUL.mdDefine a personalidade, o tom e as regras operacionais centrais do agente.
USER.mdArmazena fatos sobre você (por exemplo, "Prefiro Python a Ruby", "Trabalho em fintech").
MEMORY.mdMemórias curadas de longo prazo que o agente salva para recall permanente.
memory/YYYY-MM-DD.mdLogs diários e contexto bruto de datas específicas.

Quando você diz ao Moltbot: "Lembre-se de que eu gosto dos meus relatórios em formato PDF", ele não armazena isso em um banco SQL oculto. Ele literalmente abre o USER.md e adiciona um novo bullet point. Isso permite que o agente mantenha contexto ao longo de semanas de conversa, fazendo-o parecer um verdadeiro assistente pessoal em vez de uma instância nova toda manhã.


Guia de configuração do Moltbot: pré-requisitos e instalação

Abaixo há um checklist prático e comandos para colocar uma instância básica do Moltbot em funcionamento no macOS/Linux (Ubuntu). Este é um guia condensado, voltado para produção — se você precisa de uma GUI ou host gerenciado, pule para a seção de hospedagem de API.

O que você vai precisar (pré-requisitos)

  • Uma máquina rodando macOS ou Linux (Windows pode funcionar via WSL2). Node.js v22+ é necessário para o gateway e o CLI.
  • Um editor de texto e noções básicas de shell.
  • Pelo menos uma chave de API de LLM (OpenAI, Anthropic, Venice ou um modelo local como Ollama) — o Moltbot em si é agnóstico ao modelo.
  • Opcional: Docker, se você preferir implantação conteinerizada.

Instalação passo a passo

  1. Instale o pacote: Execute o seguinte comando no seu terminal: npm install -g clawdbot@latest
  2. Inicie o assistente de onboarding: O wizard é o coração da configuração. Ele vai guiá-lo por confirmações de segurança e seleção de modelo. clawdbot onboard --install-daemon
  3. Confirme os riscos de segurança: O Moltbot pedirá que você reconheça que ele tem acesso semelhante a "root" à sua máquina. Você deve digitar uma confirmação para prosseguir.
  4. Configure o Gateway: O wizard instalará o clawdbot gateway como um serviço em background (launchd no Mac ou systemd no Linux) para que fique online 24/7.

Instalação rápida (macOS / Linux)

Este exemplo usa o método recomendado git + npm que espelha a documentação oficial.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (básico)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Execute com:

docker compose up -d

Pós-instalação: emparelhe um canal de mensagens

O Moltbot suporta múltiplos canais. O emparelhamento geralmente envolve gerar um token de pareamento a partir da UI ou CLI do gateway e usar uma pequena "URL de pareamento" para conectar um bot do Telegram ou uma conta do WhatsApp — as etapas específicas dependem do conector de canal que você escolher (Telegram Bot API vs. wrapper grammY, WhatsApp via Baileys, etc.). Consulte a documentação para moltbot connect telegram ou moltbot connect whatsapp.

Como controlo meu PC pelo Telegram via Moltbot (passo a passo)?

A seguir está um passo a passo seguro e prático para controlar um host via mensagens do Telegram — útil para administração remota, execução de scripts, obtenção de logs ou pedir ao Moltbot para executar um pequeno job. Nota de segurança importante: não exponha seu Gateway à Internet aberta sem um token de API e firewall; permita apenas usuários confiáveis do Telegram conversarem com seu bot.

1) Crie um bot do Telegram com o BotFather

  1. No Telegram, envie mensagem para @BotFather.
  2. Envie /newbot e siga as instruções.
  3. Copie o token do bot 123456789:ABC-... (o BotFather irá exibí-lo).

2) Adicione o token ao seu gateway

Defina a variável de ambiente ou configuração:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

Você também pode adicionar o token via comandos moltbot channels add ou moltbot configure, dependendo da versão do seu CLI. A documentação do Telegram mostra esse caminho de configuração rápido.

3) Execute o assistente de onboarding e escolha Telegram

Execute:

moltbot onboard --install-daemon

Durante o wizard:

  • Escolha seu provedor de modelo (Anthropic Opus, OpenAI ou local).
  • Quando solicitado pelos canais, escolha Telegram e cole o token.
  • Configure pareamento/allowlist para restringir quem pode enviar mensagens ao bot (importante — defina seu ID de usuário para que apenas você possa controlá-lo).

Tutoriais da comunidade e o processo de onboarding pedirão que você cole uma pequena saída de comando do seu host para provar o pareamento do node — siga o prompt.

4) Habilite a ferramenta exec e aprovações (com segurança)

O Moltbot pode executar comandos de sistema via sua ferramenta exec, mas faz isso sob um modelo de aprovação explícita:

  • Aprovações de exec são registradas em ~/.clawdbot/exec-approvals.json.
  • O sistema solicitará no chat uma aprovação na primeira vez que uma ação for requisitada; você pode responder /approve para continuar (ou negar).
  • Para fluxos totalmente automatizados, você pode criar uma allowlist limitada de comandos ou um “bin” de scripts pré-aprovados.

Exemplo: habilite a ferramenta exec na configuração do moltbot (ou via UI/plugin):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

O projeto possui fluxos de aprovação explícitos para exec e encaminha prompts de aprovação para canais de chat quando solicitado, facilitando revisar e aprovar operações.

5) Tente um comando seguro pelo Telegram

Do seu Telegram (o usuário permitido), envie:

@YourMoltbot Hi — please run: uptime

O assistente irá:

  1. Pedir confirmação (se exec exigir aprovação).
  2. Executar o comando permitido no host.
  3. Retornar a saída para o chat.

6) Crie ações mais seguras via skills

Em vez de conceder acesso direto ao shell via chat, prefira skills que encapsulem ações (por exemplo, uma skill backup que chama um script e retorna um resultado bem formatado). As skills podem ser instaladas/desinstaladas e são mais fáceis de revisar.

Como hospedo a API do Moltbot (Gateway) e uso a API HTTP?

O Moltbot pode servir uma API que outros programas possam chamar?

Sim. O Gateway do Moltbot pode expor endpoints HTTP compatíveis com OpenResponses (como POST /v1/responses) e um shim no estilo OpenAI /v1/chat/completions. Esses endpoints são desativados por padrão e devem ser habilitados na configuração do gateway. O endpoint HTTP OpenResponses mapeia diretamente para o caminho de execução do agente no gateway, então as requisições são executadas como sessões reais de agente (com o mesmo roteamento/permissões).

O que é um API Proxy no Moltbot?

Um API proxy no Moltbot é um serviço intermediário que fica entre o runtime do agente do Moltbot e provedores de LLM upstream como:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Endpoints auto-hospedados compatíveis com OpenAI

Em vez de o Moltbot chamar o provedor diretamente, todas as requisições são roteadas pelo proxy, que pode:

  • Reescrever requisições e respostas
  • Impor limites de taxa
  • Rastrear uso de tokens e custos
  • Trocar modelos dinamicamente
  • Mascarar chaves reais de API do Moltbot
  • Adicionar autenticação, logging e caching

Conceitualmente:

Moltbot → API Proxy → LLM Provider

Essa arquitetura melhora dramaticamente a segurança, observabilidade e controle de custos.

🚀 Quick Start: Recomendamos usar a CometAPI (apiyi.com) para obter sua chave de API. O cadastro concede créditos gratuitos. Ela suporta todos os principais algoritmos, como Claude Sonnet 4.5, Claude Opus 4.5 e GPT-5.2, e geralmente é 10–20% mais barata que os preços oficiais.

Etapa 1: Obtenha sua chave de proxy de API

Método 1: Definir variáveis de ambiente. No arquivo .env do Moltbot:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Pontos-chave:

  • OPENAI_API_BASE aponta para o seu proxy, não para a OpenAI
  • OPENAI_API_KEY é um token emitido pelo proxy
  • O proxy decide qual provedor/modelo é realmente usado

Reinicie o Moltbot após atualizar esses valores.

Método 2: Configurar via config.json:

  • Encontrando o arquivo de configuração do Moltbot
  • Abra seu arquivo de configuração e adicione ou atualize models.providers

O arquivo de configuração geralmente fica em um destes locais:

Sistema operacionalCaminho do arquivo de configuração
macOS~/.clawdbot/config.json ou ~/.moltbot/config.json
Linux~/.clawdbot/config.json ou ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

Você também pode encontrá-lo usando a linha de comando:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Etapa 2: Verifique a conectividade

Execute um prompt de teste simples:

moltbot test llm

Se configurado corretamente, o Moltbot receberá respostas normalmente — sem jamais contatar diretamente o provedor upstream.

Estimativas de custo para executar o Moltbot usando modelos hospedados

O custo de usar um modelo gerenciado depende do preço da API, então escolher um provedor de API barato é bastante importante, razão pela qual recomendo a CometAPI.

Os fatores de preço normalmente dependem de:

  • Preços do fornecedor. O custo de usar um modelo gerenciado depende do preço da API, então escolher um fornecedor de API mais barato é crucial, razão pela qual recomendo a CometAPI.
  • A escolha entre um modelo flagship ou leve; por exemplo, a diferença de preço entre Claude Opus 4.5 e GLM 4.7 é significativa.
  • A complexidade do conteúdo sendo processado. Se seus fluxos forem pesados em texto (parsing de arquivos, respostas longas), inclua tokens.

Exemplos aproximados (ilustrativos, preços de jan/2026 relatados em posts da comunidade):

  • Uso pessoal ocasional (algumas centenas de respostas/mês, modelos locais mistos e chamadas de API baratas): $0–$50/mês.
  • Uso pessoal intenso/pro dev (indexação de arquivos, muitas chamadas de ferramentas): $100–$1.000/mês.
  • Equipe ou produção sempre ativa (muitos usuários + raspagem web + encadeamentos): $1.000+/mês a menos que você otimize agressivamente o uso de modelos.

Maneiras de reduzir custos

  • Roteamento de modelos: envie tarefas leves para modelos mais baratos ou LLMs locais, reserve modelos caros para raciocínio de longa duração — testes da comunidade sugerem que isso pode reduzir custos em ~50% ou mais.
  • Relays & preços em volume: use relays de API que ofereçam melhores taxas por token ou hosting privado de modelos (Venice, endpoints privados).
  • Caching agressivo & truncamento: faça cache de saídas de LLM, trunque históricos longos e resuma em vez de reenviar o contexto completo.

Recursos avançados de API Proxy para o Moltbot

Roteamento de modelos por tipo de tarefa

Você pode inspecionar o payload da requisição e rotear dinamicamente:

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Esse padrão reduz custos sem sacrificar qualidade.


Limites de tokens e custos

Você pode impor limites rígidos:

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Algumas equipes também rastreiam o uso cumulativo por ID de usuário do Moltbot.


É seguro dar acesso de shell de IA ao meu computador?

Essa é a pergunta mais crítica para qualquer usuário do Moltbot. Dar a um LLM a capacidade de rodar rm -rf é inerentemente arriscado. O Moltbot inclui várias proteções para mitigar isso:

  1. Sandboxing: você pode executar o Moltbot dentro de um container Docker. Isso limita o "mundo" do agente a uma pasta específica, impedindo-o de tocar nos arquivos do sistema.
  2. Aprovação explícita: por padrão, "Sessões Principais" (chats diretos com você) têm maior confiança, mas você pode configurar o bot para pedir permissão antes de executar comandos de shell destrutivos.
  3. Proteção por senha: se você expuser a Web UI do Moltbot, sempre habilite autenticação por senha no seu config.json:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Considerações finais:

O Moltbot é mais do que um chatbot; é a infraestrutura para um funcionário digital pessoal. Ao hospedá-lo você mesmo, recupera o controle sobre seus dados ao mesmo tempo em que ganha a produtividade de uma IA que nunca dorme. Quer você o use para gerenciar sua agenda via Telegram ou para automatizar seu pipeline de DevOps do seu sofá, o Moltbot é um vislumbre de um futuro em que todos têm seu próprio "Jarvis" rodando em um Mac Mini no canto da sala.

Se você quer uma plataforma de API com modelos de vários fornecedores (como Chatgpt-5.2, Claude opus 4.5, etc.) com preço mais baixo do que o oficial, então a CometAPI é a melhor escolha. Para começar, explore os recursos do modelo no Playground e consulte o guia da API para instruções detalhadas. Antes de acessar, certifique-se de que você fez login na CometAPI e obteve a chave de API. A CometAPI oferece um preço muito abaixo do oficial para ajudar na integração.

Pronto para começar? → Sign up for CometAPI today !

Se você quer mais dicas, guias e novidades sobre IA, siga-nos no VK, X e Discord!

Leia Mais

500+ Modelos em Uma API

Até 20% de Desconto