Skip to content

Arquitetura de Memória do OpenClaw

Última atualização: 2026-03-12

Modelo de Memória Atual

  • O caminho ponte/sessão determina o escopo de memória (memory scope) efetivo para uma conversa.
  • A pesquisa em memória do OpenClaw (memory-search) é uma via de configuração separada da geração de chat do OpenClaw.
  • O provedor atual para pesquisa em memória é o gemini com o modelo gemini-embedding-001.
  • A contingência (fallback) para pesquisa de memória é tratada separadamente da cadeia de fallback de chat.

O Embedding de Documentos RAG é um Pipeline Separado

  • O pipeline de ingestão de documentos (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) usa sua própria via experimental de embedding para indexação semântica no pgvector. O modelo específico e a dimensionalidade são determinados por um pico de avaliação (spike) e ainda não são a política padrão canônica.
  • Esse processo é diferente da via de pesquisa em memória do OpenClaw acima, que usa o gemini-embedding-001 (768 dimensões) para recuperar o histórico de conversas.
  • Ambos os pipelines compartilham a camada de armazenamento do pgvector, mas usam armazenamentos de vetores (vector stores) separados.

Por Que Isso é Importante

  • Evita a confusão entre modelos de geração de chat, modelos de pesquisa em memória e modelos de RAG de documentos.
  • Mantém o comportamento de escopo (scope) e namespaces explícito.
  • Explica por que as alterações na configuração da memória não são o mesmo que as alterações no modelo de chat ou nos embeddings de documentos.

Referências Públicas Relacionadas