핵심 요약
기존 RAG 방식은 문서를 단편적으로 조회할 뿐 세션 간 지식이 축적되지 않는 한계가 있다. Memex는 LLM이 원시 소스를 읽고 마크다운 형태의 영구적인 위키를 직접 구축 및 유지 관리하도록 설계된 시스템이다. 사용자가 새로운 소스를 추가하면 LLM이 기존 페이지를 업데이트하고 모순을 확인하며 지식을 통합한다. 리눅스 마운트 네임스페이스를 통한 강력한 파일 시스템 격리를 제공하여 보안성을 확보하면서도 CLI 기반의 간결한 워크플로우를 지원한다.
배경
Node.js >= 20, Linux 환경 (mount namespace 지원 필요), Claude CLI 설치 및 API 권한
대상 독자
개인적인 지식 관리(PKM)를 자동화하거나 연구/비즈니스 데이터를 체계적으로 축적하고 싶은 개발자
의미 / 영향
이 프로젝트는 LLM을 단순한 '질의응답기'에서 '지식 관리자'로 격상시키는 시도이다. 특히 마크다운이라는 범용 포맷을 사용함으로써 특정 벤더에 종속되지 않는 영구적인 지식 베이스를 구축할 수 있게 한다. 이는 향후 AI 에이전트가 사용자의 과거 맥락을 완벽히 이해하고 업무를 수행하는 개인화된 AI 환경의 기초가 될 수 있다.
섹션별 상세
sudo memex serve
memex create my-wiki --name "My Knowledge Base"
memex login my-wiki
memex ingest my-wiki paper.pdf notes.md article.html
memex query my-wiki "What are the key themes across these documents?"Memex 서버를 실행하고 위키 생성, 인증, 데이터 주입 및 쿼리를 수행하는 기본 CLI 명령어 예시
{
"mcpServers": {
"notion": {
"command": "npx",
"args": ["-y", "@notionhq/mcp-server"],
"env": {
"NOTION_API_KEY": "secret_..."
}
}
}
}MCP 서버 설정을 통해 Notion과 같은 외부 데이터 소스를 연결하는 구성 예시
실무 Takeaway
- 단순 검색(RAG) 대신 LLM이 직접 관리하는 마크다운 위키를 사용하면 세션 간 지식 단절 문제를 해결하고 장기적인 지식 자산을 구축할 수 있다.
- 리눅스 마운트 네임스페이스 격리를 통해 별도의 도커(Docker) 없이도 LLM에게 안전한 파일 시스템 편집 권한을 부여할 수 있다.
- MCP 서버를 활용하면 로컬 파일뿐만 아니라 Notion, Slack 등 흩어진 기업 데이터를 하나의 통합된 위키로 자동 컴파일할 수 있다.
언급된 리소스
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.