핵심 요약
Claude Code를 중심으로 GPT와 Gemini를 CLI로 연결하고 마크다운 파일 기반의 컨텍스트 레이어를 통해 세션 간 지식을 축적하는 다중 에이전트 워크플로이다.
배경
Claude Code, GPT, Gemini 등 여러 AI 모델을 동시에 사용하면서 발생하는 컨텍스트 단절 문제를 해결하기 위해 파일 시스템 기반의 통합 워크플로를 구축하고 그 결과를 공유했다.
의미 / 영향
이 토론은 RAG나 에이전트 프레임워크 같은 복잡한 기술 없이도 마크다운과 CLI라는 단순한 도구만으로 고도화된 AI 협업 환경을 구축할 수 있음을 입증했다. 특히 세션 종료 시 지식을 구조화하여 저장하는 습관이 AI 워크스페이스의 장기적인 성능을 결정하는 핵심 요소임을 시사한다.
커뮤니티 반응
작성자의 체계적인 워크플로에 대해 매우 긍정적인 반응이며, 특히 SOUL.md를 통한 페르소나 설정과 CLI 기반의 모델 간 협업 방식에 대해 구체적인 구현 방법을 묻는 질문이 많다.
주요 논점
단일 모델에 의존하기보다 여러 모델의 강점을 결합하고 세션 기록을 자산화하는 것이 생산성 향상에 필수적이다.
합의점 vs 논쟁점
합의점
- AI 모델 간의 컨텍스트 공유를 위해 구조화된 마크다운 파일을 사용하는 방식이 매우 효율적이다.
- 모델에게 명확한 역할과 한계를 부여하는 페르소나 설정이 협업의 품질을 결정한다.
논쟁점
- 3개의 유료 구독 모델을 동시에 유지하는 비용 대비 효율성에 대해서는 사용자마다 의견이 갈릴 수 있다.
실용적 조언
- 처음부터 3개 모델을 쓰기보다 Claude와 리뷰용 모델 1개로 시작하여 워크플로를 익히는 것이 좋다.
- SOUL.md 파일은 최소 100줄 이상으로 상세하게 작성하여 모델의 행동 경계를 확실히 정해야 한다.
- 세션 로그는 한 세션당 20줄 이내로 핵심만 기록하여 컨텍스트가 비대해지는 것을 방지해야 한다.
전문가 의견
- 파일 시스템을 프로토콜로 사용하는 방식은 복잡한 DB 연동 없이도 모델 간의 강력한 데이터 결합을 가능하게 하는 실용적인 아키텍처이다.
- 서로 다른 학습 데이터를 가진 모델들을 교차 검증(Cross-runtime QA)에 활용하는 것은 소프트웨어 품질 관리 측면에서 매우 유효한 전략이다.
언급된 도구
메인 오케스트레이터 및 복잡한 분석, 코딩 수행
GPT 모델을 통한 코드 리뷰 및 디버깅 실행
웹 조사 및 구글 워크스페이스 통합 활용
축적된 세션 지식 및 결정 사항 시각화/관리
섹션별 상세
codex exec --skip-git-repo-check "Review this function for edge cases"
gemini -m gemini-3-flash-preview -p "Search for recent benchmarks on X"
claude -p "Summarize the last 3 session log entries"별도의 API 미들웨어 없이 CLI 명령어를 통해 서로 다른 AI 모델을 직접 호출하고 협업시키는 예시
실무 Takeaway
- 파일 시스템을 컨텍스트 프로토콜로 활용하여 여러 모델 간의 지식 파편화 문제를 해결하고 세션 간 연속성을 확보했다.
- 서로 다른 엔진(Claude vs GPT)을 교차 리뷰에 투입하면 단일 모델이 놓치기 쉬운 스키마 오류나 엣지 케이스를 효과적으로 포착한다.
- 세션 종료 시의 자동화된 기록(Session Closer)이 단순한 도구 모음을 시간이 지날수록 똑똑해지는 지능형 시스템으로 변모시킨다.
- 복잡한 프레임워크 대신 CLI 명령어와 공유 마크다운 파일이라는 단순한 기본 요소(Primitives)만으로도 강력한 멀티 에이전트 환경 구축이 가능하다.
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.