I spissen for denne bølgen står Moltbot (tidligere kjent som Clawdbot), et prosjekt som gikk fra et nisjeverktøy for utviklere til en viral sensasjon med over 60 000 GitHub-stjerner på bare noen uker. Skapt av Peter Steinberger, representerer Moltbot «skallskiftet» til AI-agenten—den kvitter seg med begrensningene ved webgrensesnitt og tar bolig i meldingsappene og filsystemene vi bruker hver dag.
Nylig oppmerksomhet: prosjektet rebrandet fra Clawdbot til Moltbot etter en varemerkerelatert henvendelse fra Anthropic, fordi «Clawd» lød for likt «Claude.»
Hva er Moltbot (Clawdbot), og hvorfor er det viralt?
Moltbot er en åpen kildekode, selvhostet AI-agent designet for å bygge bro mellom kraftige Large Language Models (LLMs) og din lokale datamaskin. I motsetning til ChatGPT eller Claude.ai, som eksisterer innenfor et «lukket økosystem» i en nettleserfane, kjører Moltbot som en Gateway på maskinvaren din (Mac, Linux eller VPS).
Den oversetter naturlige språkmeldinger fra plattformer som Telegram, WhatsApp og Slack til kjørbare handlinger på maskinen din. Enten du trenger å finne en fil på skrivebordet mens du er på butikken, eller trigge et komplekst deploy-script fra telefonen, fungerer Moltbot som din digitale fullmektig med full systemtilgang.
Hvorfor det er annerledes
- Lokal-først kjøring og verktøy: Moltbot kan faktisk kjøre kommandoer på verten (med samtykke), kalle eksterne API-er og bruke «skills» som er små programmer eller markdown-definerte arbeidsflyter.
- Flerkanals: du bruker den samme assistenten fra Telegram, WhatsApp, Slack, Discord og mer — den kan proaktivt sende deg meldinger.
- Minne og persistens: Moltbot lagrer minnefiler i arbeidsområdet (Markdown) og indekserer dem for gjenfinning slik at assistenten «husker» på tvers av økter (detaljer nedenfor).
Kjernemuligheter i korte trekk
| Funksjon | Beskrivelse |
|---|---|
| Flerkanals | Bruk Telegram, WhatsApp, Discord, Slack, iMessage og mer. |
| Full PC-tilgang | Kjør skallkommandoer, administrer filer og kontroller nettlesere. |
| Proaktiv AI | Den venter ikke bare på deg; den kan sende «heartbeat»-varsler eller påminnelser. |
| Personvern først | Filene og logikken din forblir på maskinvaren; kun forespørsler går til API-et. |
| Selvutvikling | Den kan skrive sine egne «Skills» for å utvide funksjonaliteten over tid. |
| OpenAI‑kompatibel | Moltbot støtter OpenAI‑kompatibel API‑protokoll; kobles til enhver kompatibel tjeneste |
| Egendefinert baseUrl | Støtter endring av API‑endepunktets adresse; bytt mellom leverandører med letthet |
Hvordan «husker» Clawdbot alt uten en database?
Et av de mest innovative aspektene ved Moltbot er dens transparente minnearkitektur. De fleste AI-verktøy lider av «amnesi» mellom økter. Moltbot løser dette ved å bruke et lagdelt system av enkle Markdown-filer i arbeidsområdet ditt. Denne tilnærmingen sikrer at du kan lese, redigere og revidere nøyaktig hva AI-en vet om deg.
Hva er minnedesignet, og hvordan fungerer det?
Moltbots minne er med vilje enkelt og reviderbart: minnet er rene Markdown-filer inne i agentens arbeidsområde. Filene er kilden til sannhet — modellen «husker» kun det som er skrevet til disk. Standardoppsettet bruker:
memory/YYYY-MM-DD.md— daglige append‑only logger (assistenten leser i dag + i går ved øktstart).MEMORY.md— kuratert langtidsminne som du kan kontrollere og kun laste inn i private økter.
Dette designet har to store fordeler:
- Revisjonsmulighet — du kan lese og redigere det assistenten vil bruke som minne.
- Enkelhet for verktøy — minne‑pluginer tilbyr vektor/BM25‑indeksering slik at agenten raskt kan søke etter relevante minneoppføringer.
Teknisk tilnærming
- Samtale-/øktlager: Gatewayen sporer økter og videresender riktig kontekst til agentens kjøremiljø. Dette gjør at agenten kan bevare samtalestatus på tvers av meldinger og kanaler.
- Indekserte lokale data: Moltbot kan indeksere lokale filer og dokumenter og eksponere dem via søkeverktøy (semantisk eller nøkkelord) for gjenfinning. Slik kan agenten «huske» møtenotater, utdrag eller kode.
- Verktøyutdata og minne‑primitiver: Skills og verktøy kan skrive til en varig lagring (database eller filsystem), og Moltbot kan referere til de oppføringene ved senere forespørsler. Mange utrullinger bruker SQLite, Postgres eller lokal JSON/YAML for små oppsett.
- LLM‑embeddinger og vektorlagring: For semantisk gjenkalling er det vanlige mønsteret å embedde dokumenter og lagre vektorer i en vektor‑DB, og deretter hente nærmeste naboer for å inkludere i forespørsler. Moltbots arkitektur rommer modell‑agnostiske verktøyskall, så du kan koble inn din embedding + vektorlagrings‑kombinasjon.
Sikkerhetsforbehold: fordi minnet er vedvarende og skills kan kjøre kommandoer på verten, er anbefalte standarder konservative: DM‑paring for ukjente avsendere, sandboxing for ikke‑hovedøkter, og en moltbot doctor‑sjekk for å avdekke risikable konfigurasjoner. Gå alltid gjennom sikkerhetsdokumentasjonen og behandl innkommende meldinger som ikke‑tiltrodd input.
Minnehierarkiet
| Fil | Formål |
|---|---|
| SOUL.md | Definerer agentens personlighet, tone og kjerneoperasjonsregler. |
| USER.md | Lagrer fakta om deg (f.eks. «Jeg foretrekker Python fremfor Ruby», «Jeg jobber i fintech»). |
| MEMORY.md | Langtids, kuraterte minner som agenten lagrer for permanent gjenkalling. |
| memory/YYYY-MM-DD.md | Daglige logger og råkontekst fra spesifikke datoer. |
Når du sier til Moltbot: «Husk at jeg liker rapportene mine i PDF‑format», lagrer den ikke dette i en skjult SQL‑database. Den åpner bokstavelig talt USER.md og legger til et nytt punkt. Dette gjør at agenten kan opprettholde kontekst over uker med samtale, og får den til å føles som en ekte personlig assistent i stedet for en fersk instans hver morgen.
Veiledning for Moltbot-oppsett: forutsetninger og installasjon
Nedenfor er en praktisk sjekkliste og kommandoer for å få en grunnleggende Moltbot‑instans i gang på macOS/Linux (Ubuntu). Dette er en komprimert, produksjonsorientert veiledning — hvis du trenger en GUI eller en administrert vert, hopp til avsnittet om API‑hosting.
Hva du trenger (forutsetninger)
- En maskin som kjører macOS eller Linux (Windows kan fungere via WSL2). Node.js v22+ kreves for gateway og CLI.
- En teksteditor og grunnleggende kjennskap til skall.
- Minst én LLM‑API‑nøkkel (OpenAI, Anthropic, Venice eller en lokal modell som Ollama) — Moltbot i seg selv er modell‑agnostisk.
- Valgfritt: Docker, hvis du foretrekker containerisert distribusjon.
Trinnvis installasjon
- Installer pakken: Kjør følgende kommando i terminalen din:
npm install -g clawdbot@latest - Start onboarding-veiviseren: Veiviseren er hjertet av oppsettet. Den vil lede deg gjennom sikkerhetsbekreftelser og modellvalg.
clawdbot onboard --install-daemon - Bekreft sikkerhetsrisikoer: Moltbot vil be deg bekrefte at den har «root‑lignende» tilgang til maskinen din. Du må skrive en bekreftelse for å fortsette.
- Konfigurer Gatewayen: Veiviseren installerer
clawdbot gatewaysom en bakgrunnstjeneste (launchdpå Mac ellersystemdpå Linux) slik at den er online 24/7.
Hurtiginstallasjon (macOS / Linux)
Dette eksemplet bruker den anbefalte git + npm‑metoden som speiler den offisielle dokumentasjonen.
# Clone and enter repo
git clone https://github.com/moltbot/moltbot.git
cd moltbot
# Install via npm (global CLI) or run locally
npm install -g @moltbot/cli # or: npm ci && npm run build
# Create environment file from example
cp .env.example .env
# Edit .env and add your API keys (OPENAI_API_KEY, ANTHROPIC_API_KEY, etc.)
# Then run onboarding
moltbot onboard --install-daemon
moltbot start
Docker (grunnleggende)
# docker-compose.yml (simplified)
version: "3.8"
services:
moltbot:
image: moltbot/moltbot:latest
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OTHER_KEYS=...
volumes:
- ./data:/app/data
ports:
- "3000:3000"
Kjør med:
docker compose up -d
Etter installasjon: koble til en meldingskanal
Moltbot støtter flere kanaler. Tilkobling innebærer vanligvis å generere en parings‑token fra gateway‑UI eller CLI og bruke en liten «parings‑URL» for å koble til en Telegram‑bot eller WhatsApp‑konto — de spesifikke trinnene avhenger av kanaltilkobleren du velger (Telegram Bot API vs. grammY‑wrapper, WhatsApp via Baileys, osv.). Se dokumentasjonen for moltbot connect telegram eller moltbot connect whatsapp.
Hvordan kontrollerer jeg PC-en min fra Telegram via Moltbot (trinn for trinn)?
Nedenfor er en sikker, praktisk gjennomgang for å kontrollere en vert via Telegram‑meldinger — nyttig for fjernadministrasjon, kjøre script, hente logger eller be Moltbot om å utføre en liten jobb. Viktig sikkerhetsmerknad: ikke eksponer Gatewayen din for det åpne Internett uten en API‑token og brannmur; tillat kun betrodde Telegram‑brukere å snakke med boten din.
1) Opprett en Telegram-bot med BotFather
- I Telegram, send melding til
@BotFather. - Send
/newbotog følg instruksjonene. - Kopier bot‑tokenet
123456789:ABC-...(BotFather viser det).
2) Legg til tokenet i gatewayen din
Sett miljøvariabelen eller konfigurasjonen:
export TELEGRAM_BOT_TOKEN="123456789:ABC-..."
# or add to your gateway's config file:
# channels:
# telegram:
# botToken: "123456789:ABC-..."
Du kan også legge til tokenet via moltbot channels add eller moltbot configure avhengig av CLI‑versjonen din. Telegram‑dokumentasjonen viser denne raske oppsettveien.
3) Kjør onboarding-veiviseren og velg Telegram
Kjør:
moltbot onboard --install-daemon
Under veiviseren:
- Velg din modellleverandør (Anthropic Opus, OpenAI eller lokal).
- Når du blir bedt om kanaler, velg Telegram og lim inn tokenet.
- Konfigurer paring/allowlist for å begrense hvem som kan sende meldinger til boten (viktig — sett bruker‑ID‑en din slik at kun du kan kontrollere den).
Fellesskapsgjennomganger og onboarding‑prosessen vil be deg lime inn en liten kommandoutskrift fra verten din for å bevise node‑paring — følg instruksjonene.
4) Aktiver exec-verktøyet og godkjenninger (trygt)
Moltbot kan kjøre systemkommandoer via sitt exec‑verktøy, men det gjør det under en eksplisitt godkjenningsmodell:
- Exec‑godkjenninger logges i
~/.clawdbot/exec-approvals.json. - Systemet vil be i chat om godkjenning første gang en handling forespørres; du kan svare
/approvefor å fortsette (eller avslå). - For fullt automatiserte arbeidsflyter kan du opprette en begrenset allowlist med kommandoer eller en «bin» med forhåndsgodkjente script.
Eksempel: aktiver exec‑verktøyet i moltbot‑konfigurasjon (eller via UI/plugin):
{
"tools": {
"exec": {
"enabled": true,
"allowlist": ["/usr/local/bin/backup.sh", "/usr/bin/uptime"]
}
}
}
Prosjektet har eksplisitte exec‑godkjenningsflyter og videresender godkjenningsforespørsler til chatkanaler ved behov, noe som gjør det enklere å gjennomgå og godkjenne operasjoner.
5) Prøv en trygg kommando fra Telegram
Fra Telegram‑kontoen din (den tillatte brukeren) send:
@YourMoltbot Hi — please run: uptime
Assistenten vil:
- Be om bekreftelse (hvis exec krever godkjenning).
- Kjøre den tillatte kommandoen på verten.
- Returnere utdata til chatten.
6) Lag tryggere handlinger via skills
I stedet for å gi direkte skalltilgang via chat, foretrekk skills som kapsler inn handlinger (f.eks. en backup‑skill som kaller et script og returnerer et pent formatert resultat). Skills kan installeres/avinstalleres og er tryggere å gjennomgå.
Hvordan hoster jeg Moltbot API (Gateway) og bruker HTTP‑API-et?
Kan Moltbot tilby et API som andre programmer kan kalle?
Ja. Moltbots Gateway kan eksponere OpenResponses‑kompatible HTTP‑endepunkter (som POST /v1/responses) og en OpenAI‑stil /v1/chat/completions‑shim. Disse endepunktene er deaktivert som standard og må aktiveres i gateway‑konfigurasjonen. OpenResponses‑HTTP‑endepunktet mapper direkte til gatewayens agent‑kjørevei, slik at forespørsler kjøres som ekte agentøkter (med samme ruting/tillatelser).
Hva er en API-proxy i Moltbot?
En API‑proxy i Moltbot er en mellomliggende tjeneste som sitter mellom Moltbots agent‑kjøremiljø og oppstrøms LLM‑leverandører som:
- OpenAI
- Anthropic
- Venice
- Azure OpenAI
- Selvhostede OpenAI‑kompatible endepunkter
I stedet for at Moltbot kaller leverandøren direkte, rutes alle forespørsler gjennom proxyen, som kan:
- Omskrive forespørsler og svar
- Håndheve rate‑begrensninger
- Spore token‑bruk og kostnader
- Bytte modeller dynamisk
- Maskere ekte API‑nøkler fra Moltbot
- Legge til autentisering, logging og caching
Konseptuelt:
Moltbot → API Proxy → LLM Provider
Denne arkitekturen forbedrer dramatisk sikkerhet, innsyn og kostnadskontroll.
🚀 Quick Start: Vi anbefaler å bruke CometAPI (apiyi.com) for å skaffe API‑nøkkelen din. Registrering gir deg gratis kreditter. Den støtter alle de store algoritmene, som Claude Sonnet 4.5, Claude Opus 4.5 og GPT‑5.2, og er vanligvis 10–20 % billigere enn offisielle priser.
Trinn 1: Hent API-proxy-nøkkelen din
Metode 1: Sett miljøvariabler. I din Moltbot .env-fil:
OPENAI_API_BASE=https://cometapi.com/v1
OPENAI_API_KEY=moltbot-internal-token
OPENAI_MODEL=gpt-4.1-mini
Nøkkelpunkter:
OPENAI_API_BASEpeker til proxyen din, ikke OpenAIOPENAI_API_KEYer en proxy‑utstedt token- Proxyen avgjør hvilken leverandør/modell som faktisk brukes
Start Moltbot på nytt etter at du har oppdatert disse verdiene.
Metode 2: Konfigurer via config.json:
- Finne Moltbot‑konfigurasjonsfilen
- Åpne konfigurasjonsfilen din og legg til eller oppdater
models.providers
Konfigurasjonsfilen ligger vanligvis på ett av disse stedene:
| Operativsystem | Konfigurasjonsfilsti |
|---|---|
| macOS | ~/.clawdbot/config.json eller ~/.moltbot/config.json |
| Linux | ~/.clawdbot/config.json eller ~/.moltbot/config.json |
| Windows | %USERPROFILE%\.clawdbot\config.json |
Du kan også finne den via kommandolinjen:
# See your current config
moltbot config list
# Get the exact path to your config file
moltbot config path
Trinn 2: Verifiser tilkobling
Kjør en enkel testprompt:
moltbot test llm
Hvis det er riktig konfigurert, vil Moltbot motta svar som normalt—uten noen gang å kontakte oppstrøms leverandør direkte.
Kostnadsestimater for å kjøre Moltbot med hostede modeller
Kostnaden for å bruke en administrert modell avhenger av API‑prisen, så å velge en billig API‑leverandør er ganske viktig, og derfor anbefaler jeg CometAPI.
Prisfaktorer avhenger typisk av:
- Leverandørpriser. Kostnaden for å bruke en administrert modell avhenger av API‑prisen, så å velge en billigere API‑leverandør er avgjørende, og derfor anbefaler jeg CometAPI.
- Valget mellom en flaggskipsmodell eller en lettvektsmodell; for eksempel er prisforskjellen mellom Claude Opus 4.5 og GLM 4.7 betydelig.
- Kompleksiteten i innholdet som behandles. Hvis arbeidsflytene dine er teksttunge (filparsing, lange svar), legg til tokens.
Omtrentlig eksempler (illustrative, priser fra jan. 2026 rapportert i community‑innlegg):
- Sporadisk personlig bruk (noen hundre svar/måned, blandede lokale modeller og billige API‑kall): $0–$50/måned.
- Tung personlig/proff utviklerbruk (filindeksering, mange verktøyskall): $100–$1 000/måned.
- Team eller alltid‑på produksjon (mange brukere + webskraping + kjeding): $1 000+/måned med mindre du optimaliserer modellbruken aggressivt.
Måter å kutte kostnader
- Modellruting: send lette oppgaver til billigere modeller eller lokale LLM-er, reserver dyre modeller for langvarig resonnering — testing i fellesskapet antyder at dette kan kutte kostnader med ~50 % eller mer.
- Relays og bulkpriser: bruk API‑reléer som tilbyr bedre per‑token‑satser eller privat modellhosting (Venice, private endepunkter).
- Aggressiv caching og trunkering: cache LLM‑utganger, trunker lange historikker, og oppsummer i stedet for å sende full kontekst på nytt.
Avanserte API-proxy-funksjoner for Moltbot
Modellruting etter oppgavetype
Du kan inspisere forespørselspayloaden og rute dynamisk:
function selectModel(messages) {
const systemPrompt = messages[0]?.content || "";
if (systemPrompt.includes("shell") || systemPrompt.includes("automation")) {
return "gpt-4.1";
}
return "gpt-4.1-mini";
}
Dette mønsteret reduserer kostnader uten å ofre kvalitet.
Token- og kostnadsgrenser
Du kan håndheve harde grenser:
if (req.body.max_tokens > 2000) {
return res.status(400).json({
error: "Token limit exceeded"
});
}
Noen team sporer også kumulativ bruk per Moltbot‑bruker‑ID.
Er det trygt å gi en AI skalltilgang til PC-en min?
Dette er det mest kritiske spørsmålet for enhver Moltbot‑bruker. Å gi en LLM muligheten til å kjøre rm -rf er iboende risikabelt. Moltbot inkluderer flere sikkerhetsrekkverk for å redusere dette:
- Sandboxing: Du kan kjøre Moltbot inne i en Docker‑container. Dette begrenser agentens «verden» til en spesifikk mappe, og hindrer den i å berøre systemfilene dine.
- Eksplicit godkjenning: Som standard har «Main Sessions» (direkte chatter med deg) høyere tillit, men du kan konfigurere boten til å be om tillatelse før den kjører destruktive skallkommandoer.
- Passordbeskyttelse: Hvis du eksponerer Moltbot‑nettgrensesnittet, aktiver alltid passordautentisering i
config.json:
{
"gateway": {
"auth": {
"mode": "password",
"password": "YOUR_STRONG_SECURE_PASSWORD"
}
}
}
Avsluttende tanker:
Moltbot er mer enn bare en chatbot; det er infrastrukturen for en personlig digital medarbeider. Ved å hoste den selv, gjenvinner du kontrollen over dataene dine samtidig som du får produktiviteten til en AI som aldri sover. Enten du bruker den til å administrere kalenderen din via Telegram eller til å automatisere devops‑rørledningen fra sofaen, er Moltbot et glimt inn i en fremtid der alle har sin egen «Jarvis» som kjører på en Mac Mini i hjørnet av rommet.
Hvis du vil ha en API‑plattform med flere leverandørmodeller (for eksempel Chatgpt-5.2, Claude opus 4.5, etc.) som er priset lavere enn den offisielle, er CometAPI det beste valget. For å komme i gang, utforsk modellens kapabiliteter i Playground og se API‑guiden for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du har logget inn på CometAPI og fått API‑nøkkelen. CometAPI tilbyr en pris langt lavere enn den offisielle prisen for å hjelpe deg med integrering.
Klar til å starte? → Registrer deg for CometAPI i dag!
Hvis du vil ha flere tips, guider og nyheter om AI, følg oss på VK, X og Discord!
