Skip to content

Architektura pamięci OpenClaw

Ostatnia aktualizacja: 2026-03-12

Aktualny model pamięci

  • Ścieżka integracji (bridge) oraz parametry sesji decydują o faktycznym obszarze działania pamięci (memory scope) dla pojedynczej konwersacji.
  • Wyszukiwanie w historii OpenClaw to proces całkowicie odseparowany od kanału generowania czatu.
  • Aktualnym dostawcą modelu dla wyszukiwania w pamięci jest gemini w wariancie gemini-embedding-001.
  • Modele awaryjne (fallback) dla mechanizmu pamięci są rozpatrywane osobno, poza łańcuchem zastępczym zarezerwowanym dla chatu.

Embedding dokumentów w systemie RAG stanowi odrębny proces

  • Cykl pobierania dokumentów (PDF, DOCX, PPTX, JSON, HTML, Google Docs/Drive) bazuje na własnym, eksperymentalnym modelu wektoryzacji celem semantycznego zindeksowania zawartości do bazy pgvector. Model docelowy i ostateczna wymiarowość są określane na bazie odrębnych testów ewaluacyjnych.
  • Obszar ten funkcjonuje równolegle, nie krzyżując się z wymienioną wcześniej gałęzią pamięci OpenClaw, opartą o gemini-embedding-001 (wymiar: 768) przeznaczoną do wyszukiwania w zapisach konwersacji.
  • Choć obie warstwy dzielą między sobą silnik magazynujący (pgvector), ich wektory rezydują w zamkniętych, wydzielonych przestrzeniach.

Dlaczego jest to istotne

  • Podział ten niweluje ewentualne ryzyko pomyłek konfiguracyjnych na linii model czatu, system pamięci asystenta a zasoby dokumentowe RAG.
  • Pomaga utrzymać czytelną architekturę zakresów działania i wydzielonych przestrzeni nazw.
  • Potwierdza regułę mówiącą o tym, iż zmiany konfiguracji dla warstwy historii konwersacji nie mają wprost pokrycia w modelach wiodących czy wektoryzatorach treści w dokumentach.

Powiązane dokumenty publiczne