Skip to content

Архитектура памяти OpenClaw

Последнее обновление: 2026-03-12

Текущая модель памяти

  • Путь bridge/сессия определяет эффективную область действия памяти (memory scope) для разговора.
  • Поиск в памяти OpenClaw (memory-search) настраивается в отдельном канале, независимо от генерации чата.
  • Текущим провайдером для поиска в памяти является gemini с моделью gemini-embedding-001.
  • Резервный путь для поиска в памяти рассматривается отдельно от цепочки резервных моделей чата.

Эмбеддинги для RAG документов — это отдельный пайплайн

  • Пайплайн загрузки документов (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) использует собственный экспериментальный канал эмбеддингов для семантического индексирования в pgvector. Конкретная модель и размерность определяются в рамках ограниченного оценочного спайка и пока не являются канонической политикой по умолчанию.
  • Этот процесс работает отдельно от упомянутого выше канала поиска в памяти OpenClaw, который использует gemini-embedding-001 (768 измерений) для извлечения истории разговоров.
  • Оба пайплайна используют общий слой хранения pgvector, но хранят данные в отдельных векторных хранилищах.

Почему это важно

  • Это предотвращает путаницу между моделями генерации чата, моделями поиска в памяти и RAG моделями для документов.
  • Это сохраняет поведение scope (области видимости) и namespace (пространств имен) явным.
  • Это объясняет, почему изменения в настройках памяти отличаются от изменений в моделях чата или эмбеддингах документов.

Связанные публичные справочники