OpenClaw Geheugen Architectuur¶
Laatst bijgewerkt: 2026-03-12
Huidig Geheugenmodel¶
- Het bridge/sessie pad bepaalt de effectieve geheugenscope voor een conversatie.
- OpenClaw geheugen-zoeken (memory-search) is een configuratiebaan die gescheiden is van OpenClaw chat generatie.
- De huidige provider voor geheugen-zoeken is
geminimet modelgemini-embedding-001. - Fallback voor geheugen-zoeken wordt afzonderlijk behandeld van de chat fallback-keten.
Document RAG Embedding Is Een Aparte Pipeline¶
- De document import-pipeline (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) gebruikt een eigen experimentele embedding baan voor semantische indexering in pgvector. Het specifieke model en de dimensionaliteit worden bepaald door een evaluatie-spike en zijn nog geen standaardbeleid.
- Dit proces staat los van de bovenstaande OpenClaw geheugen-zoek baan, die
gemini-embedding-001(768 dimensies) gebruikt om conversatiehistorie op te halen. - De twee pipelines delen de pgvector opslaglaag, maar gebruiken gescheiden vector stores.
Waarom dit belangrijk is¶
- Het voorkomt verwarring tussen modellen voor chat generatie, modellen voor geheugen-zoeken en RAG modellen voor documenten.
- Het houdt het gedrag van scope en namespaces expliciet.
- Het legt uit waarom wijzigingen in geheugenconfiguratie niet hetzelfde zijn als wijzigingen in chatmodellen of document-embeddings.