Der Aufstieg autonomer KI-Agenten hat ein neues Paradigma in Softwaresystemen eingeführt: persistent machine cognition. Anders als herkömmliche Chatbots, die zustandslos arbeiten, ermöglichen moderne Agenten-Frameworks wie OpenClaw kontinuierliche, kontextbewusste KI-Workflows. Im Zentrum dieser Fähigkeit steht das OpenClaw-Speichersystem, das dem Agenten erlaubt, Wissen über Sitzungen hinweg zu speichern, abzurufen und weiterzuentwickeln.
Persistenter Speicher verwandelt KI-Assistenten von kurzlebigen Gesprächswerkzeugen in zustandsbehaftete Systeme, die sich an Entscheidungen erinnern, Präferenzen lernen und Wissen auf Projektebene über die Zeit hinweg pflegen können. In der Praxis bedeutet das, dass Entwickler nicht länger bei jeder Interaktion mit dem Agenten den Kontext wiederholt erklären oder Workflows neu initialisieren müssen ( If you are still wondering how to get started and configure OpenClaw, this is Five-minute tutorial on configuring OpenClaw with CometAPI).
Diese architektonische Verschiebung bringt jedoch auch komplexe Engineering-Herausforderungen mit sich:
- Wie werden Speicherinhalte gespeichert und abgerufen?
- Wie steuern Entwickler das Speicherverhalten?
- Welche Sicherheitsimplikationen hat persistenter Agentenspeicher?
- Wie kann der Speicher skalieren, ohne LLM-Kontextfenster zu überfrachten?
Dieser Artikel bietet eine tiefgehende technische Untersuchung des OpenClaw-Speichersystems, einschließlich seiner Architektur, seines Speichermodells, der Abrufpipeline, Steuerungsmechanismen und Sicherheitsaspekte.
Was ist OpenClaw?
OpenClaw ist ein Open-Source-, Workspace-first-Persönlicher-KI-Assistent, den Sie auf Ihren eigenen Geräten ausführen. Er verbindet sich mit Chat-Plattformen (WhatsApp, Telegram, Slack, Discord usw.), stellt eine Gateway-Kontrollebene bereit und—entscheidend für diesen Artikel—bewahrt das, was er sich "merkt", als einfache Dateien in einem Workspace-Verzeichnis auf. Dieses Design macht den Speicher sowohl transparent als auch direkt kontrollierbar: Speicher ist keine verborgene Datenbank im Modell; die Dateien im Agenten-Workspace sind die maßgebliche Quelle.
Zustandslose vs. zustandsbehaftete KI-Systeme
Traditionelle Konversations-KI-Systeme arbeiten in einem zustandslosen Modus. Jede Interaktion wird unabhängig verarbeitet, ohne Kenntnis vorheriger Sitzungen, es sei denn, sie wird explizit im Prompt bereitgestellt.
Dies führt zu mehreren Einschränkungen:
- Kontext wird zwischen Sitzungen zurückgesetzt
- Benutzer müssen Informationen wiederholen
- Langzeitlernen ist unmöglich
- Workflows können nicht fortbestehen
OpenClaw behebt diese Einschränkung durch die Einführung von persistentem Speicher, der direkt im Agenten-Workspace abgelegt wird.
Statt sich ausschließlich auf das Kontextfenster des Sprachmodells zu verlassen, hält OpenClaw eine lokale Speicherschicht als strukturierte Dateien vor, die der Agent lesen und aktualisieren kann.
Das ermöglicht:
- Kontextkontinuität über Sitzungen hinweg
- Langfristige Wissensspeicherung
- Personalisierte KI-Assistenten
- Workflow-Automatisierung über längere Zeiträume
So macht OpenClaw aus KI-Assistenten zustandslose Antwortgeber zu wissensbehafteten Agenten.
Speicherarchitektur — die vier relevanten Ebenen
Die OpenClaw-Laufzeit organisiert Informationen in Ebenen. Das Verständnis dieser Ebenen ist der Schlüssel, um zu steuern, was der Agent sich merkt und worauf er zugreifen kann.
1) Workspace-Bootstrap-Dateien — der langlebige Kern
Dateien wie SOUL.md, AGENTS.md, IDENTITY.md, TOOLS.md und MEMORY.md liegen im Wurzelverzeichnis des Workspaces und werden als Bootstrap-Material behandelt. Sie werden beim Sitzungsstart von der Festplatte neu geladen und sind der langlebigste Speicher: Sie überstehen Token-Verdichtung und werden bei der Prompt-Erstellung aus der Datei und nicht aus der flüchtigen Sitzungshistorie erneut eingeführt. Verwenden Sie diese Dateien für langlebige Fakten (Benutzervorlieben, rechtliche Einschränkungen, Projektentscheidungen).
2) Tages-/Sitzungsdateien — kurz- bis mittelfristiger Kontext
OpenClaw sammelt Gesprächstranskripte und speichert Sitzungsdateien (zum Beispiel tägliche Notizen unter einem Ordner memory/). Diese sind nützlich für den jüngsten Kontext und die Sitzungsfortführung, können aber beschnitten oder verdichtet werden, wenn das Kontextfenster Ihres Agenten zu groß wird. Viele Nutzer verwenden tägliche Notizdateien wie memory/2026-03-10.md, um Ad-hoc-Fakten festzuhalten.
3) LLM-Kontextfenster — flüchtig, aber entscheidend
Der Prompt jeder Runde wird aus einer Kombination von Bootstrap-Dateien, jüngster Sitzungshistorie und abgerufenen Speicherergebnissen konstruiert. Dieser In-Prompt-Kontext ist das, was das LLM tatsächlich "sieht", wenn es eine Antwort erzeugt; er ist flüchtig (durch Token-Budgets begrenzt) und wird in jeder Runde neu zusammengesetzt. Wenn Sie möchten, dass der Agent konsistent handelt, stellen Sie sicher, dass wesentliche Direktiven in den Bootstrap-Dateien stehen—nicht nur in flüchtigen Nachrichten.
4) Semantischer Index/Memory-Plugin — schnelle Wiederauffindbarkeit
Damit der Agent relevante frühere Notizen findet, verwendet OpenClaw ein Memory-Plugin (Standard: memory-core), das semantische Suche über die Markdown-Dateien und optionale externe Vektor-Stores (sqlite-vec, LanceDB, QMD usw.) bereitstellt. Der Index ist getrennt von den Dateien: Dateien sind die maßgebliche Quelle; der Index beschleunigt den Abruf. Sie können Plugins wechseln, um das Backend-Verhalten zu ändern (Embedding-Anbieter, Retrieval-Algorithmus, Persistenz).
Wie funktioniert der OpenClaw-Speicher?
Gateway-basierte Agentenarchitektur
OpenClaw verwendet eine gateway-zentrierte Architektur, die die Kommunikation zwischen mehreren Systemkomponenten orchestriert.
Kernkomponenten:
| Komponente | Funktion |
|---|---|
| Gateway | Zentraler Prozess zur Verwaltung der Kommunikation |
| Brain | LLM-Reasoning-Engine |
| Hands | Ausführungsschicht (Shell, Dateisystem, Browser) |
| Memory | Persistenter Wissensspeicher |
| Channels | Messaging-Schnittstellen |
| Skills | Erweiterbare Automatisierungsmodule |
Innerhalb dieser Architektur fungiert der Speicher als langfristige Speicherschicht für das Agentenwissen.
Speicher als Dateien (die kanonische Wahrheit)
OpenClaw stellt einfache Markdown-Dateien im Agenten-Workspace in den Mittelpunkt seines Speichermodells. Der Agent schreibt in diese Dateien und liest daraus; sie sind der persistente, vom Menschen editierbare Speicher. Das LLM "merkt" sich nur, was auf die Festplatte geschrieben wurde—flüchtiger Sitzungskontext ist davon getrennt. Typische Dateien und Konventionen umfassen:
MEMORY.md— kuratierte, langlebige Speichereinträge (Entscheidungen, Benutzerprofildaten, persistente Präferenzen).memory/YYYY-MM-DD.md— nur anhängbare Tagesprotokolle, die als flüchtiger/täglicher Speicher dienen.USER.md,SOUL.md,AGENTS.md— weitere Workspace-Dateien, die Persönlichkeit oder Verhalten des Agenten beeinflussen.
Diese Dateien befinden sich im Agenten-Workspace (Standard~/.openclaw/workspace) und können jederzeit von Ihnen gelesen oder bearbeitet werden.
Zwei Zugriffswege: dateibasiert + indexbasiert
Da einfache Dateien für semantische Suche im großen Maßstab ineffizient sind, kombiniert OpenClaw die Markdown-Quelle mit einem Index (einem Vektor-Store plus optionalem BM25-Textindex). Der Index wird vom agentenseitigen Tool memory_search verwendet; gezielte Lesevorgänge nutzen memory_get, das direkt einen Datei-/Zeilenbereich liest. Der hybride Indexierungsansatz—Embeddings (Vektor) + BM25 (Schlüsselwort)—liefert sowohl semantisches Erinnern als auch zuverlässige exakte Treffer. Die typische Indexspeicherung ist eine lokale SQLite-Datei, die für Vektorsuche erweitert ist (z. B. ~/.openclaw/agents/<agentId>/index.sqlite).
memory_search(query, topK)— gibt eine sortierte Liste passender Snippets mit Metadaten (Pfad, Zeilen, Score) zurück. Verwenden Sie dies, wenn der Agent "zuerst suchen" soll, bevor er antwortet.memory_get(path, startLine, endLine)— gibt einen Rohabschnitt einer Markdown-Datei zurück; verwenden Sie dies, wenn Sie bereits wissen, wo sich die Information befindet.
Das sind eingebaute Agenten-Tools; Skills und benutzerdefinierter Code können sie bei Bedarf aufrufen.
Lebenszyklus: Schreiben, Indizieren, Abrufen, Flush, Verdichtung
OpenClaw implementiert einen expliziten Speicherlebenszyklus:
- Schreiben — der Agent schreibt Speicher in Markdown-Dateien, wenn ein speicherwürdiges Ereignis eintritt (explizite Aufforderung, protokollierte Entscheidung oder ein automatischer Speicher-Flush).
- Indizieren — ein Datei-Watcher und Batch-Job indexieren neue/geänderte Dateien inkrementell in den Vektor- + BM25-Store.
- Abrufen — der Agent ruft während einer Sitzung
memory_search(semantisch) odermemory_get(gezielt) auf. - Speicher-Flush (Vorverdichtung) — wenn der Sitzungskontext die Modellfenstergrenze erreicht, löst OpenClaw einen stillen Agenten-Turn aus, um alles, was aus Sicht des Agenten bewahrt werden muss, vor der Verdichtung auf die Festplatte zu schreiben (konfigurierbar).
- Verdichtung — das System komprimiert oder fasst den Kontext zusammen, um die aktive Sitzung klein zu halten; die Speicherdateien sind die langlebige Rückfallebene.
Chunking- und Embedding-Pipeline (technisches Detail)
Beim Indexieren werden Dateien in Chunks zerlegt (übliche Heuristiken: ~300–500 Token pro Chunk mit Überlappung), dann wird jeder Chunk mit einem von Ihnen gewählten Anbieter (OpenAI, Gemini, lokale GGUF-Embeddings usw.) in ein Embedding umgewandelt. Die resultierenden Vektoren werden zusammen mit Quellmetadaten (Dateipfad, Start-/Endzeile, Zeitstempel) für den Abruf gespeichert. Der Abruf erfolgt durch Berechnung des Query-Embeddings, eine Nächste-Nachbarn-Suche im Vektorraum und optionaler Kombination mit BM25-Scores sowie einem Reranker. Dieser hybride Ansatz verbessert die Präzision bei faktischen Anfragen und bewahrt gleichzeitig semantisches Erinnern bei paraphrasierten Inhalten.
Konkret: So steuern Sie den Speicher (Befehle, Dateien, Konfiguration)
Nachfolgend finden Sie schrittweise, praktische Maßnahmen, die Betreiber und Entwickler nutzen sollten, um den OpenClaw-Speicher zu inspizieren, zu ändern und zu steuern. Die Beispiele gehen von einer Standard-Local-Installation aus, bei der der Standard-Workspace ~/.openclaw/workspace ist (Sie können dies über agents.defaults.workspace überschreiben).
Rohspeicherdateien prüfen und sichern
Speicher ist Markdown. Sichern Sie den Workspace oder kopieren Sie zumindest MEMORY.md und den Ordner memory/.
Shell-Beispiel:
# show workspace location (recommended)openclaw config get agents.defaults.workspace# copy memory files to a timestamped backupcp -r ~/.openclaw/workspace ~/.openclaw/workspace-backup-$(date +%F-%H%M)# or only memory files:cp ~/.openclaw/workspace/MEMORY.md ~/backups/opencaw-MEMORY-$(date +%F).mdcp -r ~/.openclaw/workspace/memory ~/backups/opencaw-memory-$(date +%F)/
Dokumentation und Community-Leitfäden empfehlen ausdrücklich, MEMORY.md + memory/ für Export/Backup zu kopieren.
MEMORY.md bearbeiten — die empfohlene Methode, langfristige Fakten zu hinterlegen
Legen Sie stabile Präferenzen und Fakten in MEMORY.md ab. Diese Datei wird beim Sitzungsstart gelesen und direkt in den Kontext eingebracht.
Beispielausschnitt aus MEMORY.md:
# MEMORY.md## User preferences- timezone: Asia/Tokyo- prefers_brief_responses: true- default_calendar: personal@gmail.com## Projects- acme-internal: deploy target Cloudflare Workers, main repo: github.com/org/acme
Nach dem Bearbeiten ist kein Neustart für das Lesen der Datei in neuen Sitzungen erforderlich; für Plugin-Indizes kann jedoch ein Reindexing nötig sein (siehe unten).
Speicher programmatisch schreiben (Node.js-Beispiel)
Da Speicher Dateien sind, können einfache Skripte Einträge anhängen oder erstellen. Das ist nützlich, wenn ein externes System Fakten im Agenten-Workspace protokollieren möchte.
// append-memory.js (Node.js)import {writeFileSync, appendFileSync} from 'fs';import {homedir} from 'os';import path from 'path';const ws = path.join(homedir(), '.openclaw', 'workspace');const mdPath = path.join(ws, 'memory', `${new Date().toISOString().slice(0,10)}.md`);// ensure folder exists and append a factappendFileSync(mdPath, `\n- ${new Date().toISOString()}: Completed deployment for project X\n`);console.log(`Wrote to ${mdPath}`);
Tipp: Verwenden Sie openclaw config get agents.defaults.workspace, um den Workspace-Pfad vor dem Schreiben zu bestätigen.
Reindexing und Plugin-Steuerung
Wenn Sie Speicherdateien ändern und auf semantische Suche angewiesen sind, ist ein Reindexing (oder das Warten auf den automatischen Indexer des Plugins) erforderlich.
- Prüfen, welches Plugin aktiv ist:
openclaw config get plugins.slots.memory - Reindexieren (abhängig vom Plugin—viele Plugins bieten eine CLI wie
openclaw memory reindexoder erfordern einen Neustart des Gateways).
Beispielkonfigurationsausschnitt zum Deaktivieren von Memory-Plugins (erzwingt reines Datei-Verhalten):
// ~/.openclaw/openclaw.json (partial){ "plugins": { "slots": { "memory": "none" } }}
Nach Änderung der Plugin-Einstellungen starten Sie das Gateway neu, um die Konfiguration zu aktivieren:
openclaw gateway restart
In den Dokumenten und Konfigurationsreferenzen werden insbesondere plugins.slots.memory und plugins.installs als Steuerungen für das Memory-Plugin-Management aufgeführt.
Speicher-Backends austauschen — Beispiel: ein LanceDB-Plugin hinzufügen
Es gibt Community-Plugins, die das Standard-Speicher-Backend durch höher skalierende Vektor-Stores ersetzen. Beispielmuster (aus einem weit verbreiteten Community-Plugin):
# from your workspace rootcd ~/.openclaw/workspacegit clone https://github.com/win4r/memory-lancedb-pro.git plugins/memory-lancedb-procd plugins/memory-lancedb-pronpm install# then update openclaw.json to activate the 'memory-lancedb-pro' plugin# and restart gateway:openclaw gateway restart
Das README des Plugins und die Autoren empfehlen absolute Pfade in plugins.load.paths sowie explizite Umgebungsvariablen für Embedding-API-Schlüssel.
CLI-Speichersuche und Fehlerbehebung
OpenClaw stellt CLI-Helfer wie openclaw memory bereit, um den semantischen Index zu durchsuchen oder zu verwalten. Behalten Sie plugin-spezifische Probleme im Blick (beispielsweise berichteten QMD-Backend-Nutzer über Index/Such-Mismatches, die eine Neukonfiguration erforderten). Wenn Ergebnisse fehlen, reindexieren Sie und prüfen Sie Plugin-Logs.
Speicher als Dateien (die kanonische Wahrheit)
OpenClaw stellt einfache Markdown-Dateien im Agenten-Workspace in den Mittelpunkt seines Speichermodells. Der Agent schreibt in diese Dateien und liest daraus; sie sind der persistente, vom Menschen editierbare Speicher. Das LLM "merkt" sich nur, was auf die Festplatte geschrieben wurde—flüchtiger Sitzungskontext ist davon getrennt. Typische Dateien und Konventionen umfassen:
MEMORY.md— kuratierte, langlebige Speichereinträge (Entscheidungen, Benutzerprofildaten, persistente Präferenzen).memory/YYYY-MM-DD.md— nur anhängbare Tagesprotokolle, die als flüchtiger/täglicher Speicher dienen.USER.md,SOUL.md,AGENTS.md— weitere Workspace-Dateien, die Persönlichkeit oder Verhalten des Agenten beeinflussen.
Diese Dateien befinden sich im Agenten-Workspace (Standard~/.openclaw/workspace) und können jederzeit von Ihnen gelesen oder bearbeitet werden.
Fazit
Das Speichersystem von OpenClaw stellt einen grundlegenden Wandel in der KI-Architektur dar.
Anstelle flüchtiger Gespräche führt die Plattform persistente, entwicklergesteuerte Speicherebenen ein, die es KI-Agenten ermöglichen, im Laufe der Zeit Wissen anzusammeln.
Das Design betont:
- Transparenz durch dateibasierte Speicherung
- Skalierbarkeit durch embeddingbasiertes Retrieval
- Entwicklerkontrolle über Konfiguration
- Erweiterbarkeit durch Plugins
Persistenter Speicher bringt jedoch auch neue Engineering- und Sicherheitsherausforderungen mit sich, die Entwickler sorgfältig managen müssen.
Da autonome Agenten leistungsfähiger und breiter eingesetzt werden, werden Speichersysteme wie das von OpenClaw wahrscheinlich zu einem Kernbestandteil der nächsten Generation intelligenter Softwaresysteme.
CometAPI integriert sich jetzt in OpenClaw. Wenn Sie nach APIs suchen, die Claude, Gemini und die GPT-5-Serie unterstützen, ist CometAPI die beste Wahl für die Nutzung von OpenClaw, und die API-Preise werden fortlaufend rabattiert.). OpenClaw hat kürzlich seine Kompatibilität mit GPT-5.4 aktualisiert und seinen Workflow optimiert. Jetzt können Sie OpenClaw auch über CometAPIs GPT-5.4 konfigurieren.
Ready to Go?→ Jetzt für OpenClaw registrieren !
Wenn Sie weitere Tipps, Anleitungen und Neuigkeiten zu KI erhalten möchten, folgen Sie uns auf VK, X und Discord!
