Openclaw(Moltbot /Clawdbot) : Installatiegids+ API hosting Zelfstudie

CometAPI
AnnaJan 29, 2026
Openclaw(Moltbot /Clawdbot) : Installatiegids+ API hosting Zelfstudie

De voortrekker hiervan is Moltbot (voorheen bekend als Clawdbot), een project dat in enkele weken van een niche‑ontwikkelaarstool uitgroeide tot een virale sensatie met meer dan 60.000 GitHub‑sterren. Gemaakt door Peter Steinberger, vertegenwoordigt Moltbot het ‘vervellen’ van de AI‑agent — het afwerpen van de beperkingen van webinterfaces om de berichtenapps en bestandssystemen te bewonen die we elke dag gebruiken.

Recente aandacht: het project is omgedoopt van Clawdbot naar Moltbot na een merkgerelateerde aanvraag van Anthropic, omdat “Clawd” te veel leek op “Claude”.

Wat is Moltbot (Clawdbot) en waarom is het viraal?

Moltbot is een open‑source, zelfgehoste AI‑agent die is ontworpen om de kloof te overbruggen tussen krachtige Large Language Models (LLM’s) en je lokale computer. In tegenstelling tot ChatGPT of Claude.ai, die bestaan binnen een ‘afgeschermde’ browsertab, draait Moltbot als een Gateway op je hardware (Mac, Linux of VPS).

Het vertaalt berichten in natuurlijke taal van platforms zoals Telegram, WhatsApp en Slack naar uitvoerbare acties op je machine. Of je nu een bestand op je desktop wilt vinden terwijl je in de supermarkt staat of een complex implementatiescript vanaf je telefoon wilt triggeren, Moltbot fungeert als je digitale proxy met volledige systeemtoegang.

Waarom het anders is

  • Lokale uitvoering & tools eerst: Moltbot kan daadwerkelijk commando’s op je host uitvoeren (met toestemming), externe API’s aanroepen en “Skills” gebruiken die kleine programma’s of in Markdown gedefinieerde workflows zijn.
  • Multi‑channel: je gebruikt dezelfde assistent via Telegram, WhatsApp, Slack, Discord en meer — hij kan je proactief berichten.
  • Geheugen & persistentie: Moltbot slaat geheugendossiers op in de workspace (Markdown) en indexeert ze voor retrieval, zodat de assistent “onthoudt” over sessies heen (details hieronder).

Kernmogelijkheden in één oogopslag

FunctieBeschrijving
Multi‑channelGebruik Telegram, WhatsApp, Discord, Slack, iMessage en meer.
Volledige pc‑toegangVoer shellcommando’s uit, beheer bestanden en bedien browsers.
Proactieve AIHet wacht niet alleen op jou; het kan “heartbeat”-meldingen of herinneringen sturen.
Privacy eerstJe bestanden en logica blijven op je hardware; alleen prompts gaan naar de API.
Zelf‑evolutieHet kan zijn eigen “Skills” schrijven om de functionaliteit in de tijd uit te breiden.
openai-compatibleMoltbot ondersteunt het OpenAI‑compatibele API‑protocol; verbindt met elke compatibele service
Custom baseUrlOndersteunt het wijzigen van het API‑endpointadres; schakel eenvoudig tussen providers

Hoe “herinnert” Clawdbot alles zonder een database?

Een van de meest innovatieve aspecten van Moltbot is de transparante geheugenarchitectuur. De meeste AI‑tools lijden aan “amnesie” tussen sessies. Moltbot lost dit op met een gelaagd systeem van platte Markdown‑bestanden in je workspace. Deze aanpak zorgt ervoor dat je precies kunt lezen, bewerken en auditen wat je AI over je weet.

Wat is het geheugenontwerp en hoe werkt het?

Het geheugen van Moltbot is bewust eenvoudig en te auditen: geheugen bestaat uit platte Markdown‑bestanden in de agent‑workspace. De bestanden zijn de bron van waarheid — het model “herinnert” alleen wat naar schijf is geschreven. De standaardindeling gebruikt:

  • memory/YYYY-MM-DD.md — dagelijkse append‑only logs (de assistent leest vandaag + gisteren bij sessiestart).
  • MEMORY.md — gecurateerd langetermijngeheugen dat je beheert en alleen laadt in private sessies.

Dit ontwerp heeft twee grote voordelen:

  1. Auditability — je kunt lezen en bewerken wat de assistent als geheugen zal gebruiken.
  2. Eenvoud voor tooling — memory‑plugins leveren vector/BM25‑indexering zodat de agent snel relevante geheugenitems kan zoeken.

Technische aanpak

  • Gespreks-/sessiestore: De gateway volgt sessies en stuurt de juiste context door naar de agentruntime. Dit stelt de agent in staat om de gesprekstoestand over berichten en kanalen heen te behouden.
  • Geïndexeerde lokale data: Moltbot kan lokale bestanden en documenten indexeren en ze via zoektools (semantisch of trefwoord) beschikbaar maken voor retrieval. Zo kan de agent je notulen, snippets of code “onthouden”.
  • Tooluitvoer en geheugenprimitieven: Skills en tools kunnen naar een duurzame opslag (database of bestandssysteem) schrijven en Moltbot kan later naar die items verwijzen. Veel deployments gebruiken SQLite, Postgres of lokale JSON/YAML voor kleine setups.
  • LLM‑embeddings & vectorstore: Voor semantische recall is het gebruikelijk om documenten te embedden en vectoren op te slaan in een vectordatabase, en vervolgens dichtstbijzijnde buren op te halen om in prompts op te nemen. De architectuur van Moltbot ondersteunt model‑agnostische toolcalls, zodat je elke combinatie van embedding + vectorstore kunt inpluggen.

Beveiligingskanttekening: omdat geheugen persistent is en skills commando’s op de host kunnen uitvoeren, zijn de aanbevolen defaults conservatief: DM‑koppeling voor onbekende afzenders, sandboxing voor niet‑hoofd­sessies, en een moltbot doctor‑check om risicovolle configuraties zichtbaar te maken. Bekijk altijd de beveiligingsdocumentatie en behandel inkomende berichten als onbetrouwbare input.

De geheugenhiërarchie

BestandDoel
SOUL.mdDefinieert de persoonlijkheid, toon en kernregels van de agent.
USER.mdSlaat feiten over jou op (bijv. “Ik geef de voorkeur aan Python boven Ruby”, “Ik werk in fintech”).
MEMORY.mdLangetermijn, gecurateerde herinneringen die de agent bewaart voor permanente recall.
memory/YYYY-MM-DD.mdDagelijkse logs en ruwe context van specifieke data.

Wanneer je tegen Moltbot zegt: “Onthoud dat ik mijn rapporten graag in PDF‑indeling wil”, slaat het dit niet op in een verborgen SQL‑database. Het opent letterlijk USER.md en voegt een nieuw bullet‑punt toe. Hierdoor kan de agent wekenlang context behouden, waardoor het aanvoelt als een echte persoonlijke assistent in plaats van elke ochtend een frisse instantie.


Moltbot‑installatiegids: vereisten en installatie

Hieronder staat een praktische checklist en commando’s om een basisinstantie van Moltbot te draaien op macOS/Linux (Ubuntu). Dit is een compacte, productiegerichte gids — als je een GUI of beheerde host nodig hebt, ga dan naar de API‑hostingsectie.

Wat je nodig hebt (vereisten)

  • Een machine met macOS of Linux (Windows kan werken via WSL2). Node.js v22+ is vereist voor de gateway en CLI.
  • Een teksteditor en basiskennis van de shell.
  • Ten minste één LLM‑API‑sleutel (OpenAI, Anthropic, Venice of een lokaal model zoals Ollama) — Moltbot zelf is model‑agnostisch.
  • Optioneel: Docker, als je liever containerized deployment gebruikt.

Stapsgewijze installatie

  1. Installeer het pakket: Voer het volgende commando uit in je terminal: npm install -g clawdbot@latest
  2. Start de onboarding‑wizard: De wizard is het hart van de setup. Deze leidt je door beveiligingsbevestigingen en modelselectie. clawdbot onboard --install-daemon
  3. Bevestig beveiligingsrisico’s: Moltbot zal je vragen te erkennen dat het “root‑achtige” toegang tot je machine heeft. Je moet een bevestiging typen om verder te gaan.
  4. Configureer de Gateway: De wizard installeert de clawdbot gateway als achtergrondservice (launchd op Mac of systemd op Linux) zodat deze 24/7 online blijft.

Snelle installatie (macOS / Linux)

Dit voorbeeld gebruikt de aanbevolen git + npm‑methode die de officiële documentatie weerspiegelt.

# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot

# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli   # or: npm ci && npm run build

# Create environment file from example
cp .env.example .env

# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start

Docker (basis)

# docker-compose.yml (simplified)
version: "3.8"
services:
  moltbot:
    image: moltbot/moltbot:latest
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OTHER_KEYS=...
    volumes:
      - ./data:/app/data
    ports:
      - "3000:3000"

Starten met:

docker compose up -d

Na installatie: koppel een berichtenkanaal

Moltbot ondersteunt meerdere kanalen. Het koppelen houdt meestal in dat je een koppelings‑token genereert vanuit de gateway‑UI of CLI en een kleine “pairing URL” gebruikt om een Telegram‑bot of WhatsApp‑account te verbinden — de specifieke stappen zijn afhankelijk van de gekozen kanaalconnector (Telegram Bot API vs. grammY‑wrapper, WhatsApp via Baileys, enz.). Zie de docs voor moltbot connect telegram of moltbot connect whatsapp.

Hoe bestuur ik mijn pc via Telegram met Moltbot (stap voor stap)?

Hieronder staat een veilige, praktische walkthrough om een host te besturen via Telegram‑berichten — handig voor remote beheer, het draaien van scripts, logs ophalen of Moltbot een kleine taak laten uitvoeren. Belangrijke beveiligingsopmerking: stel je Gateway niet open op het internet zonder een API‑token en firewall; sta alleen vertrouwde Telegram‑gebruikers toe om met je bot te praten.

1) Maak een Telegram‑bot met BotFather

  1. Stuur in Telegram een bericht naar @BotFather.
  2. Stuur /newbot en volg de prompts.
  3. Kopieer de bot‑token 123456789:ABC-... (BotFather toont deze).

2) Voeg de token toe aan je gateway

Stel de omgevingsvariabele of configuratie in:

export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
#   telegram:
#     botToken: "123456789:ABC-..."

Je kunt de token ook toevoegen via de commando’s moltbot channels add of moltbot configure, afhankelijk van je CLI‑versie. De Telegram‑documentatie toont dit snelle pad.

3) Voer de onboarding‑wizard uit en kies Telegram

Voer uit:

moltbot onboard --install-daemon

Tijdens de wizard:

  • Kies je modelprovider (Anthropic Opus, OpenAI of lokaal).
  • Kies bij de kanalen Telegram en plak de token.
  • Configureer pairing/allowlist om te beperken wie de bot mag berichten (belangrijk — stel je gebruikers‑ID in zodat alleen jij hem kunt bedienen).

Community‑walkthroughs en het onboardingproces vragen je om een kleine commandoutput van je host te plakken om node‑koppeling te bewijzen — volg de prompt.

4) Schakel de exec‑tool en goedkeuringen in (veilig)

Moltbot kan systeemcommando’s uitvoeren via de exec‑tool, maar doet dit onder een expliciet goedkeuringsmodel:

  • Exec‑goedkeuringen worden vastgelegd in ~/.clawdbot/exec-approvals.json.
  • Het systeem vraagt in de chat om goedkeuring de eerste keer dat een actie wordt aangevraagd; je kunt reageren met /approve om door te gaan (of weigeren).
  • Voor volledig geautomatiseerde workflows kun je een beperkte allowlist van commando’s maken of een “bin” met vooraf goedgekeurde scripts.

Voorbeeld: schakel de exec‑tool in de moltbot‑config in (of via UI/plugin):

{
  "tools": {
    "exec": {
      "enabled": true,
      "allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
    }
  }
}

Het project heeft expliciete exec‑goedkeuringsflows en stuurt goedkeuringsprompts door naar chatkanalen wanneer daarom wordt gevraagd, waardoor het eenvoudiger wordt om bewerkingen te beoordelen en goed te keuren.

5) Probeer een veilig commando vanuit Telegram

Stuur vanaf je Telegram‑account (de toegestane gebruiker):

@YourMoltbot Hi — please run: uptime

De assistent zal:

  1. Om bevestiging vragen (als exec goedkeuring vereist).
  2. Het toegestane commando op de host uitvoeren.
  3. De output naar de chat terugsturen.

6) Maak veiligere acties via Skills

In plaats van directe shelltoegang via chat te geven, geef de voorkeur aan Skills die acties inkapselen (bijv. een backup‑Skill die een script aanroept en een netjes geformatteerd resultaat teruggeeft). Skills kunnen worden geïnstalleerd/verwijderd en zijn makkelijker te beoordelen.

Hoe host ik de Moltbot‑API (Gateway) en gebruik ik de HTTP‑API?

Kan Moltbot een API aanbieden die andere programma’s kunnen aanroepen?

Ja. De Gateway van Moltbot kan OpenResponses‑compatibele HTTP‑endpoints aanbieden (zoals POST /v1/responses) en een OpenAI‑achtige /v1/chat/completions‑shim. Deze endpoints zijn standaard uitgeschakeld en moeten in de gateway‑config worden ingeschakeld. Het OpenResponses‑HTTP‑endpoint komt direct overeen met het uitvoerpad van de gatewayagent, dus verzoeken worden uitgevoerd als echte agentsessies (met dezelfde routing/permissions).

Wat is een API‑proxy in Moltbot?

Een API‑proxy in Moltbot is een tussenliggende service die zit tussen de agentruntime van Moltbot en upstream‑LLM‑providers zoals:

  • OpenAI
  • Anthropic
  • Venice
  • Azure OpenAI
  • Zelfgehoste OpenAI‑compatibele endpoints

In plaats van dat Moltbot de provider direct aanroept, worden alle verzoeken via de proxy gerouteerd, die kan:

  • Verzoeken en responses herschrijven
  • Rate‑limits afdwingen
  • Tokengebruik en kosten bijhouden
  • Modellen dynamisch schakelen
  • Echte API‑sleutels voor Moltbot maskeren
  • Authenticatie, logging en caching toevoegen

Conceptueel:

Moltbot → API Proxy → LLM Provider

Deze architectuur verbetert beveiliging, observability en kostenbeheersing aanzienlijk.

🚀 Quick Start: We raden aan om CometAPI (apiyi.com) te gebruiken om je API‑sleutel te verkrijgen. Registratie levert gratis credits op. Het ondersteunt alle grote modellen, zoals Claude Sonnet 4.5, Claude Opus 4.5 en GPT‑5.2, en is doorgaans 10–20% goedkoper dan officiële prijzen.

Stap 1: Verkrijg je API‑proxy‑sleutel

Methode 1: Stel omgevingsvariabelen in. In je Moltbot‑.env‑bestand:

OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini

Belangrijke punten:

  • OPENAI_API_BASE wijst naar je proxy, niet naar OpenAI
  • OPENAI_API_KEY is een door de proxy uitgegeven token
  • De proxy bepaalt welke provider/model daadwerkelijk wordt gebruikt

Herstart Moltbot nadat je deze waarden hebt bijgewerkt.

Methode 2: Configureren via config.json:

  • Het Moltbot‑configuratiebestand vinden
  • Open je configuratiebestand en voeg models.providers toe of werk het bij

Het configuratiebestand staat meestal op een van deze locaties:

BesturingssysteemPad naar configuratiebestand
macOS~/.clawdbot/config.json of ~/.moltbot/config.json
Linux~/.clawdbot/config.json of ~/.moltbot/config.json
Windows%USERPROFILE%\.clawdbot\config.json

Je kunt het ook vinden via de commandoregel:

# See your current config
moltbot config list

# Get the exact path to your config file
moltbot config path

Stap 2: Verifieer connectiviteit

Voer een eenvoudige testprompt uit:

moltbot test llm

Als het correct is geconfigureerd, ontvangt Moltbot normaal reacties — zonder ooit direct contact op te nemen met de upstream‑provider.

Kostenramingen voor het draaien van Moltbot met gehoste modellen

De kosten van het gebruik van een beheerd model hangen af van de API‑prijs, dus het kiezen van een goedkope API‑provider is belangrijk; daarom raad ik CometAPI aan.

Prijsfactoren zijn doorgaans afhankelijk van:

  • Leveranciersprijzen. De kosten van een beheerd model hangen af van de API‑prijs, dus het kiezen van een goedkopere API‑leverancier is cruciaal, wat de reden is dat ik CometAPI aanbeveel.
  • De keuze tussen een vlaggenschip- of lichtgewichtmodel; bijvoorbeeld, het prijsverschil tussen Claude Opus 4.5 en GLM 4.7 is significant.
  • De complexiteit van de te verwerken content. Als je workflows tekst‑intensief zijn (bestandparsing, lange antwoorden), neem extra tokens op.

Indicatieve voorbeelden (illustratief, prijzen per januari 2026 uit communityberichten):

  • Af en toe persoonlijk gebruik (enkele honderden responses/maand, gemixte lokale modellen en goedkope API‑calls): $0–$50/maand.
  • Zwaar persoonlijk/pro‑developer gebruik (bestandindexering, veel tool‑calls): $100–$1.000/maand.
  • Team of always‑on productie (veel gebruikers + webscraping + chaining): $1.000+/maand tenzij je het modelgebruik agressief optimaliseert.

Manieren om kosten te verlagen

  • Modelrouting: stuur lichtgewichttaken naar goedkopere modellen of lokale LLM’s, reserveer dure modellen voor langdurige reasoning — communitytests suggereren dat dit de kosten met ~50% of meer kan verlagen.
  • Relays & bulkkortingen: gebruik API‑relays die betere per‑token tarieven bieden of private modelhosting (Venice, private endpoints).
  • Agressieve caching & truncatie: cache LLM‑outputs, kort lange geschiedenissen in en vat samen in plaats van volledige context steeds opnieuw te sturen.

Geavanceerde API‑proxy‑functies voor Moltbot

Modelrouting op basis van taaktype

function selectModel(messages) {
  const systemPrompt = messages[0]?.content || "";
  if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
    return "gpt-4.1";
  }
  return "gpt-4.1-mini";
}

Dit patroon verlaagt de kosten zonder kwaliteit op te offeren.


Token‑ en kostenlimieten

if (req.body.max_tokens > 2000) {
  return res.status(400).json({
    error: "Token limit exceeded"
  });
}

Sommige teams volgen ook cumulatief gebruik per Moltbot‑gebruikers‑ID.


Is het veilig om een AI shelltoegang tot mijn computer te geven?

Dit is de meest kritieke vraag voor elke Moltbot‑gebruiker. Een LLM de mogelijkheid geven om rm -rf te draaien is inherent riskant. Moltbot bevat verschillende vangrails om dit te mitigeren:

  1. Sandboxing: Je kunt Moltbot binnen een Docker‑container draaien. Dit beperkt de “wereld” van de agent tot een specifieke map, zodat hij je systeembestanden niet kan aanraken.
  2. Expliciete goedkeuring: Standaard hebben “Main Sessions” (directe chats met jou) meer vertrouwen, maar je kunt de bot zo configureren dat deze toestemming vraagt voordat destructieve shellcommando’s worden uitgevoerd.
  3. Wachtwoordbeveiliging: Als je de Moltbot‑web‑UI blootstelt, schakel dan altijd wachtwoorda uthenticatie in je config.json in:
{
  "gateway": {
    "auth": {
      "mode": "password",
      "password": "YOUR_STRONG_SECURE_PASSWORD"
    }
  }
}

Tot slot:

Moltbot is meer dan alleen een chatbot; het is de infrastructuur voor een persoonlijke digitale medewerker. Door het zelf te hosten, krijg je weer controle over je data terwijl je de productiviteit van een AI krijgt die nooit slaapt. Of je het nu gebruikt om je agenda via Telegram te beheren of om je devops‑pijplijn vanaf de bank te automatiseren, Moltbot is een glimp van een toekomst waarin iedereen zijn eigen “Jarvis” op een Mac Mini in de hoek van de kamer heeft draaien.

Als je een API‑platform wilt met modellen van meerdere leveranciers (zoals Chatgpt-5.2, Claude opus 4.5, enz.) dat lager geprijsd is dan officieel, dan is CometAPI de beste keuze. Begin met het verkennen van de mogelijkheden van het model in de Playground en raadpleeg de API‑handleiding voor gedetailleerde instructies. Zorg ervoor dat je bent ingelogd bij CometAPI en een API‑sleutel hebt verkregen voordat je toegang krijgt. CometAPI biedt een prijs die veel lager is dan de officiële prijs om je te helpen integreren.

Klaar om te starten? → Meld je vandaag aan bij CometAPI!

Als je meer tips, gidsen en nieuws over AI wilt weten, volg ons op VK, X en Discord!

Lees Meer

500+ modellen in één API

Tot 20% korting