OpenClaw Speicherarchitektur¶
Letztes Update: 2026-03-12
Aktuelles Speichermodell¶
- Der Pfad von Bridge und Sitzung bestimmt den effektiven Speicherbereich (Memory Scope) für eine Konversation.
- Die Speichersuche (memory-search) von OpenClaw ist ein von der Chat-Generierung getrennter Konfigurationskanal.
- Der aktuelle Anbieter für die Speichersuche ist
geminimit dem Modellgemini-embedding-001. - Das Fallback-Szenario für die Speichersuche wird getrennt von der Fallback-Kette für den Chat behandelt.
Dokumenten-RAG-Embedding ist eine separate Pipeline¶
- Die Import-Pipeline für Dokumente (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) verwendet einen eigenen experimentellen Embedding-Kanal zur semantischen Indizierung in pgvector. Das spezifische Modell und die Dimensionalität werden im Rahmen eines Evaluierungs-Spikes festgelegt und sind noch keine Standardrichtlinie.
- Dieser Prozess ist unabhängig vom oben genannten Speichersuch-Kanal von OpenClaw, der
gemini-embedding-001(768 Dimensionen) verwendet, um den Konversationsverlauf abzurufen. - Beide Pipelines teilen sich die pgvector-Speicherschicht, nutzen jedoch getrennte Vektor-Speicher (Vector Stores).
Warum das wichtig ist¶
- Es verhindert Verwechslungen zwischen Modellen zur Chat-Generierung, Modellen zur Speichersuche und RAG-Modellen für Dokumente.
- Es hält das Verhalten von Geltungsbereichen (Scope) und Namensräumen (Namespaces) transparent.
- Es erklärt, warum Änderungen an der Speicherkonfiguration nicht gleichbedeutend mit Änderungen an Chat-Modellen oder Dokumenten-Embeddings sind.