핵심 요약
OpenClaw 기반 클로드 에이전트의 정체성을 유지하면서 컨텍스트 주입량을 89.5% 줄이고 대화 이력을 무손실로 관리하는 4단계 프레임워크를 공유한다.
배경
작성자는 'Frank'라는 지속성 AI 에이전트를 운영하며 쌓인 정체성과 데이터를 잃지 않기 위해, 기존의 파괴적인 최적화 방식 대신 새로운 4단계 아키텍처를 개발하고 이를 오픈소스로 공개했다.
의미 / 영향
이 토론은 지속성 AI 에이전트 운영 시 단순한 토큰 절감보다 정체성과 맥락의 보존이 더 중요함을 시사한다. 볼트 아키텍처와 무손실 이력 관리의 조합이 상용 솔루션의 한계를 극복하는 실질적인 대안이 될 수 있음이 확인됐다.
커뮤니티 반응
작성자가 직접 운영하는 에이전트인 Frank가 게시물을 작성했다는 점에 주목하며, 구체적인 수치와 오픈소스 코드가 포함된 최적화 방법론에 대해 긍정적인 반응을 보였다.
실용적 조언
- 에이전트의 정체성이 이미 구축된 경우 자동화된 최적화 프롬프트를 사용하지 말고 수동으로 파일을 리팩터링하여 맥락 손실을 방지하라.
- lossless-claw 설정 시 incrementalMaxDepth를 -1로 설정하여 무제한 검색 깊이를 확보하라.
- 텔레그램 백필 시 --until 옵션을 사용하여 기존 데이터와의 중복을 방지하고 깨끗한 경계를 설정하라.
언급된 도구
OpenClaw추천
클로드 에이전트 실행 및 컨텍스트 관리 프레임워크
lossless-claw추천
SQLite 기반 무손실 대화 이력 관리 도구
QMD추천
BM25 및 벡터 검색 기반 개인 지식 베이스 인덱싱 도구
섹션별 상세
볼트(Vault) 아키텍처를 통한 컨텍스트 슬리밍을 구현했다. 모든 메시지에 45,903바이트의 운영 세부 정보를 주입하는 대신, 작업 공간 파일을 얇은 포인터로 리팩터링하고 실제 데이터는 vault/ 디렉토리로 분리했다. 이를 통해 주입되는 컨텍스트를 약 2,183토큰으로 줄여 89.5%의 절감 효과를 거두었다. 에이전트는 현재 작업에 관련이 있을 때만 볼트 파일을 로드하여 추론 효율성을 높인다.
lossless-claw를 도입하여 무손실 대화 관리를 실현했다. OpenClaw의 기본 방식인 슬라이딩 윈도우 컨텍스트 압축은 오래된 메시지를 자동으로 삭제하지만, lossless-claw는 SQLite에 계층적 요약본을 DAG 형태로 저장한다. 에이전트는 lcm_grep 및 lcm_expand 도구를 사용하여 수개월 전의 대화 내용도 무제한 깊이로 검색하고 복원할 수 있다.
텔레그램 대화 이력 백필과 개인 지식 베이스(QMD) 통합을 완료했다. 순수 파이썬 스크립트를 사용하여 과거의 텔레그램 대화 데이터를 lossless-claw의 SQLite 데이터베이스로 가져와 에이전트가 첫날부터의 기억을 가질 수 있게 했다. 또한 BM25와 벡터 검색을 결합한 QMD를 통해 에이전트가 대화 외부의 개인 노트나 프로젝트 문서를 검색할 수 있는 4계층 회상 스택을 구축했다.
실무 Takeaway
- 볼트 아키텍처 적용 시 컨텍스트 주입량을 45,903바이트에서 2,183토큰으로 약 90% 절감 가능하다.
- lossless-claw는 SQLite 기반 DAG 구조를 통해 대화 이력을 삭제 없이 영구 보존하며 무제한 검색을 지원한다.
- QMD를 활용하면 에이전트가 대화 이력뿐만 아니라 외부 개인 지식 베이스까지 BM25 및 벡터 검색으로 참조할 수 있다.
- 이미 정체성이 형성된 에이전트의 경우 자동화 프롬프트 대신 수동 리팩터링을 통해 중요한 맥락을 보존해야 한다.
언급된 리소스
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료