Arquitectura de memoria de OpenClaw¶
Última actualización: 2026-03-12
Modelo actual de memoria¶
- La ruta del puente/sesión determina el alcance efectivo de la memoria (memory scope) para una conversación.
- La búsqueda en memoria (memory-search) de OpenClaw es un carril de configuración separado del canal de generación de chat.
- El proveedor actual para la búsqueda en memoria es
geminicon el modelogemini-embedding-001. - La ruta de contingencia (fallback) para la búsqueda en memoria se trata por separado de la cadena de contingencia del chat.
El embedding de RAG de documentos es un pipeline separado¶
- El pipeline de ingesta de documentos (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) emplea su propio carril experimental de embedding para la indexación semántica hacia pgvector. El modelo específico y su dimensionalidad se determinan en una etapa de evaluación (spike) y todavía no son la política estándar.
- Este proceso es diferente de la búsqueda en memoria de OpenClaw mencionada arriba, la cual emplea
gemini-embedding-001(768 dimensiones) para extraer el historial de conversación. - Ambos pipelines comparten la capa de almacenamiento de pgvector, pero guardan los datos en almacenes vectoriales distintos.
Por qué es importante esto¶
- Previene la confusión entre modelos de generación de chat, modelos de búsqueda en memoria y modelos de RAG para documentos.
- Mantiene explícito el comportamiento de alcance (scope) y los espacios de nombres (namespace).
- Explica por qué los cambios en la configuración de la memoria no equivalen a modificaciones en el modelo de chat o en los embeddings de documentos.