핵심 요약
AI 에이전트 개발 시 상태 관리와 장기 기억 저장은 복잡한 과제이며, 기존 솔루션은 LLM을 CRUD 경로에 포함해 지연 시간이 길어지는 문제가 존재한다. mnemora는 이를 해결하기 위해 4가지 메모리 유형(Working, Semantic, Episodic, Procedural)을 단일 API로 제공하는 서버리스 메모리 데이터베이스를 제안한다. AWS 인프라를 기반으로 10ms 미만의 읽기 속도를 보장하며, LangChain, LangGraph, CrewAI 등 주요 프레임워크와의 통합을 지원한다. 사용자는 클라우드 서비스를 이용하거나 AWS CDK를 통해 직접 호스팅할 수 있어 유연한 도입이 가능하다.
배경
Python 프로그래밍, AWS 기본 지식, AI 에이전트 프레임워크(LangChain 등)에 대한 이해
대상 독자
AI 에이전트 및 LLM 애플리케이션 개발자, MLOps 엔지니어
의미 / 영향
에이전트 메모리 관리가 파편화된 도구에서 통합된 서버리스 솔루션으로 진화하고 있음을 보여준다. 특히 인프라 비용과 지연 시간 문제를 동시에 해결하려는 시도가 돋보인다.
섹션별 상세
mnemora는 AI 에이전트의 요구사항에 맞춰 네 가지 메모리 계층을 제공한다. Working Memory는 10ms 미만의 키-값 상태 저장을 담당하고, Semantic Memory는 자동 임베딩과 벡터 검색을 지원하며, Episodic Memory는 세션 이력을 타임시리즈로 기록하고, Procedural Memory는 도구 정의와 프롬프트 템플릿을 관리한다.
성능 최적화를 위해 CRUD(생성, 읽기, 수정, 삭제) 경로에서 LLM 호출을 제거했다. 이를 통해 데이터 접근 시 발생하는 지연 시간을 최소화했으며, Semantic Memory의 경우 0.95 이상의 유사도를 가진 중복 데이터는 자동으로 병합하여 저장 효율을 높인다.
AWS 기반의 완전 서버리스 아키텍처를 채택하여 운영 부담을 줄였다. DynamoDB는 핫 데이터와 상태 관리에 사용되고, Aurora Serverless v2(pgvector)는 벡터 검색에, S3는 콜드 데이터 저장에 활용되며, 임베딩은 Amazon Bedrock Titan 모델을 사용한다.
주요 AI 에이전트 프레임워크와의 네이티브 통합을 지원한다. LangGraph의 CheckpointSaver, LangChain의 Memory 컴포넌트, CrewAI의 Storage 인터페이스를 위한 전용 클래스를 제공하여 기존 워크플로우에 쉽게 추가할 수 있다.
사용자는 npx cdk deploy 명령 한 번으로 전체 스택을 자신의 AWS 계정에 배포할 수 있다. 유휴 상태 시 비용은 월 약 15달러 수준이며, Aurora는 사용하지 않을 때 0으로 스케일링되어 비용 효율적인 운영이 가능하다.
실무 Takeaway
- 에이전트의 상태 관리와 벡터 검색을 분리된 도구가 아닌 mnemora 단일 API로 통합하여 개발 복잡성을 낮출 수 있다.
- CRUD 작업에서 LLM을 배제하여 10ms 미만의 고속 데이터 접근이 가능하므로 실시간 응답이 중요한 에이전트 서비스에 적합하다.
- AWS CDK를 통한 셀프 호스팅 지원으로 데이터 거버넌스를 유지하면서도 서버리스의 비용 효율성을 누릴 수 있다.
언급된 리소스
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료