Skip to content

Architettura della memoria di OpenClaw

Ultimo aggiornamento: 2026-03-12

Modello di memoria attuale

  • Il percorso bridge/sessione determina l'ambito di memoria (memory scope) effettivo per una conversazione.
  • La ricerca in memoria di OpenClaw (memory-search) è una corsia di configurazione separata rispetto alla generazione della chat di OpenClaw.
  • Il provider attuale per la ricerca in memoria è gemini con il modello gemini-embedding-001.
  • Le soluzioni di fallback per la ricerca in memoria sono gestite separatamente dalla catena di fallback della chat.

L'embedding dei documenti RAG è una pipeline separata

  • La pipeline di acquisizione dei documenti (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) utilizza un proprio canale di embedding sperimentale per l'indicizzazione semantica in pgvector. Il modello specifico e le dimensioni sono stabiliti in fase di test delimitati (spike) e non rappresentano ancora una policy predefinita.
  • Questa funzionalità è distinta dalla corsia di ricerca in memoria di OpenClaw precedentemente menzionata, che impiega gemini-embedding-001 (768 dimensioni) per estrarre la cronologia della conversazione.
  • Entrambe le pipeline condividono il livello di archiviazione di pgvector, ma salvano i dati in archivi vettoriali separati.

Perché è importante

  • Evita confusione tra modelli di generazione di chat, modelli di ricerca nella memoria e modelli RAG per documenti.
  • Mantiene l'ambito (scope) e il comportamento degli spazi dei nomi (namespace) espliciti.
  • Spiega perché i cambiamenti nella configurazione della memoria non sono la stessa cosa dei cambiamenti nel modello di chat o negli embedding dei documenti.

Riferimenti pubblici correlati