Architettura della memoria di OpenClaw¶
Ultimo aggiornamento: 2026-03-12
Modello di memoria attuale¶
- Il percorso bridge/sessione determina l'ambito di memoria (memory scope) effettivo per una conversazione.
- La ricerca in memoria di OpenClaw (memory-search) è una corsia di configurazione separata rispetto alla generazione della chat di OpenClaw.
- Il provider attuale per la ricerca in memoria è
geminicon il modellogemini-embedding-001. - Le soluzioni di fallback per la ricerca in memoria sono gestite separatamente dalla catena di fallback della chat.
L'embedding dei documenti RAG è una pipeline separata¶
- La pipeline di acquisizione dei documenti (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) utilizza un proprio canale di embedding sperimentale per l'indicizzazione semantica in pgvector. Il modello specifico e le dimensioni sono stabiliti in fase di test delimitati (spike) e non rappresentano ancora una policy predefinita.
- Questa funzionalità è distinta dalla corsia di ricerca in memoria di OpenClaw precedentemente menzionata, che impiega
gemini-embedding-001(768 dimensioni) per estrarre la cronologia della conversazione. - Entrambe le pipeline condividono il livello di archiviazione di pgvector, ma salvano i dati in archivi vettoriali separati.
Perché è importante¶
- Evita confusione tra modelli di generazione di chat, modelli di ricerca nella memoria e modelli RAG per documenti.
- Mantiene l'ambito (scope) e il comportamento degli spazi dei nomi (namespace) espliciti.
- Spiega perché i cambiamenti nella configurazione della memoria non sono la stessa cosa dei cambiamenti nel modello di chat o negli embedding dei documenti.