Skip to content

Arquitectura de memoria de OpenClaw

Última actualización: 2026-03-12

Modelo actual de memoria

  • La ruta del puente/sesión determina el alcance efectivo de la memoria (memory scope) para una conversación.
  • La búsqueda en memoria (memory-search) de OpenClaw es un carril de configuración separado del canal de generación de chat.
  • El proveedor actual para la búsqueda en memoria es gemini con el modelo gemini-embedding-001.
  • La ruta de contingencia (fallback) para la búsqueda en memoria se trata por separado de la cadena de contingencia del chat.

El embedding de RAG de documentos es un pipeline separado

  • El pipeline de ingesta de documentos (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) emplea su propio carril experimental de embedding para la indexación semántica hacia pgvector. El modelo específico y su dimensionalidad se determinan en una etapa de evaluación (spike) y todavía no son la política estándar.
  • Este proceso es diferente de la búsqueda en memoria de OpenClaw mencionada arriba, la cual emplea gemini-embedding-001 (768 dimensiones) para extraer el historial de conversación.
  • Ambos pipelines comparten la capa de almacenamiento de pgvector, pero guardan los datos en almacenes vectoriales distintos.

Por qué es importante esto

  • Previene la confusión entre modelos de generación de chat, modelos de búsqueda en memoria y modelos de RAG para documentos.
  • Mantiene explícito el comportamiento de alcance (scope) y los espacios de nombres (namespace).
  • Explica por qué los cambios en la configuración de la memoria no equivalen a modificaciones en el modelo de chat o en los embeddings de documentos.

Referencias públicas relacionadas