Skip to content

OpenClaw Geheugen Architectuur

Laatst bijgewerkt: 2026-03-12

Huidig Geheugenmodel

  • Het bridge/sessie pad bepaalt de effectieve geheugenscope voor een conversatie.
  • OpenClaw geheugen-zoeken (memory-search) is een configuratiebaan die gescheiden is van OpenClaw chat generatie.
  • De huidige provider voor geheugen-zoeken is gemini met model gemini-embedding-001.
  • Fallback voor geheugen-zoeken wordt afzonderlijk behandeld van de chat fallback-keten.

Document RAG Embedding Is Een Aparte Pipeline

  • De document import-pipeline (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) gebruikt een eigen experimentele embedding baan voor semantische indexering in pgvector. Het specifieke model en de dimensionaliteit worden bepaald door een evaluatie-spike en zijn nog geen standaardbeleid.
  • Dit proces staat los van de bovenstaande OpenClaw geheugen-zoek baan, die gemini-embedding-001 (768 dimensies) gebruikt om conversatiehistorie op te halen.
  • De twee pipelines delen de pgvector opslaglaag, maar gebruiken gescheiden vector stores.

Waarom dit belangrijk is

  • Het voorkomt verwarring tussen modellen voor chat generatie, modellen voor geheugen-zoeken en RAG modellen voor documenten.
  • Het houdt het gedrag van scope en namespaces expliciet.
  • Het legt uit waarom wijzigingen in geheugenconfiguratie niet hetzelfde zijn als wijzigingen in chatmodellen of document-embeddings.

Gerelateerde Publieke Referenties