Skip to content

OpenClaw Speicherarchitektur

Letztes Update: 2026-03-12

Aktuelles Speichermodell

  • Der Pfad von Bridge und Sitzung bestimmt den effektiven Speicherbereich (Memory Scope) für eine Konversation.
  • Die Speichersuche (memory-search) von OpenClaw ist ein von der Chat-Generierung getrennter Konfigurationskanal.
  • Der aktuelle Anbieter für die Speichersuche ist gemini mit dem Modell gemini-embedding-001.
  • Das Fallback-Szenario für die Speichersuche wird getrennt von der Fallback-Kette für den Chat behandelt.

Dokumenten-RAG-Embedding ist eine separate Pipeline

  • Die Import-Pipeline für Dokumente (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) verwendet einen eigenen experimentellen Embedding-Kanal zur semantischen Indizierung in pgvector. Das spezifische Modell und die Dimensionalität werden im Rahmen eines Evaluierungs-Spikes festgelegt und sind noch keine Standardrichtlinie.
  • Dieser Prozess ist unabhängig vom oben genannten Speichersuch-Kanal von OpenClaw, der gemini-embedding-001 (768 Dimensionen) verwendet, um den Konversationsverlauf abzurufen.
  • Beide Pipelines teilen sich die pgvector-Speicherschicht, nutzen jedoch getrennte Vektor-Speicher (Vector Stores).

Warum das wichtig ist

  • Es verhindert Verwechslungen zwischen Modellen zur Chat-Generierung, Modellen zur Speichersuche und RAG-Modellen für Dokumente.
  • Es hält das Verhalten von Geltungsbereichen (Scope) und Namensräumen (Namespaces) transparent.
  • Es erklärt, warum Änderungen an der Speicherkonfiguration nicht gleichbedeutend mit Änderungen an Chat-Modellen oder Dokumenten-Embeddings sind.

Verwandte öffentliche Referenzen