Skip to content

Architecture de la mémoire OpenClaw

Dernière mise à jour : 2026-03-12

Modèle de mémoire actuel

  • Le chemin pont/session détermine la portée effective de la mémoire (memory scope) pour une conversation.
  • La recherche en mémoire d'OpenClaw (memory-search) est un canal de configuration distinct de la génération de chat.
  • Le fournisseur actuel pour la recherche en mémoire est gemini avec le modèle gemini-embedding-001.
  • Le repli (fallback) de la recherche en mémoire est traité séparément de la chaîne de repli du chat.

L'embedding RAG de documents est un pipeline distinct

  • Le pipeline d'intégration de documents (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) utilise son propre canal d'embedding expérimental pour l'indexation sémantique dans pgvector. Le modèle spécifique et la dimensionnalité sont déterminés par une évaluation délimitée (spike) et ne constituent pas encore la politique par défaut.
  • Ceci est distinct du canal de recherche en mémoire d'OpenClaw mentionné ci-dessus, qui utilise gemini-embedding-001 (768 dimensions) pour la récupération de l'historique conversationnel.
  • Les deux pipelines partagent la même couche de stockage pgvector mais utilisent des bases vectorielles (vector stores) séparées.

Pourquoi c'est important

  • Cela évite la confusion entre les modèles de génération de chat, les modèles de recherche en mémoire et les modèles RAG de documents.
  • Cela maintient le comportement de la portée (scope) et des espaces de noms (namespace) explicite.
  • Cela explique pourquoi les modifications de configuration de la mémoire ne sont pas identiques aux modifications du modèle de chat ou des embeddings de documents.

Références publiques associées