핵심 요약
주요 AI 연구소의 논문을 매일 수집하여 주제별 가속도와 연구소별 특성을 분석해 제공하는 오픈 소스 성격의 대시보드 도구이다.
배경
수많은 AI 연구소에서 쏟아지는 논문을 효율적으로 추적하기 위해 개발자가 직접 구축한 도구이다. Semantic Scholar와 arXiv 등에서 데이터를 가져와 Gemini Flash로 요약하고 연구소별 활동량을 시각화한다.
의미 / 영향
이 도구는 개별 연구자가 감당하기 힘든 방대한 AI 논문 홍수 속에서 핵심 연구소의 동향을 선별적으로 파악하는 데 실질적인 도움을 준다. 특히 연구소별 출력 속도와 주제별 가속도 데이터는 향후 연구 방향 설정 및 기술 예측에 유용한 지표가 될 것이다.
커뮤니티 반응
대체로 긍정적이며, 연구소 선정 기준이나 주제 분류의 정확도에 대한 관심이 높다.
합의점 vs 논쟁점
합의점
- AI 연구의 양이 방대해짐에 따라 이를 큐레이션하고 시각화하는 도구가 필요하다.
- 연구소별 소속 매칭(Affiliation matching)은 데이터 정제 과정에서 가장 까다로운 부분 중 하나이다.
실용적 조언
- AI 연구 동향을 파악할 때 개별 논문 검색보다 연구소별 출력 속도(Velocity)를 확인하면 트렌드 파악이 빠르다.
- BibTeX/Markdown 내보내기 기능을 활용해 개인 연구 노트나 논문 관리 도구와 연동 가능하다.
언급된 도구
Gemini Flash추천
논문 요약 생성
Next.js 16추천
웹 프론트엔드 프레임워크
Supabase추천
데이터베이스 및 백엔드 인프라
섹션별 상세
Lattice는 DeepMind, OpenAI, Anthropic 등 20개 이상의 주요 AI 연구소와 KAIST를 포함한 글로벌 기관의 논문을 매일 추적한다. Semantic Scholar API와 arXiv, HuggingFace Daily Papers를 통해 데이터를 수집하며, OpenAlex와 LLM 추출 방식을 결합한 소속 매칭 파이프라인을 사용하여 약 500개 조직의 데이터를 정밀하게 분류한다.
수집된 논문은 안전 및 정렬(Safety & Alignment), 역량(Capabilities), 인프라(Infrastructure), 응용(Applications) 등 4개 카테고리 내 24개 세부 주제로 자동 분류된다. 'Research Radar' 기능을 통해 특정 주제의 연구가 주간 단위로 얼마나 가속화되고 있는지 시각적으로 확인할 수 있어 최신 트렌드 파악에 용이하다.
기술 스택으로는 Next.js 16, Supabase(Postgres), Vercel을 사용하며 GitHub Actions를 통해 매일 오전 6시(UTC)에 자동으로 데이터를 갱신한다. 논문 요약에는 Gemini Flash 모델을 활용하여 효율성을 높였으며, 사용자 편의를 위해 로그인 없이 로컬 스토리지만을 사용하는 익명 접근 방식을 채택했다.
실무 Takeaway
- 주요 AI 연구소 20곳의 논문 발행 현황과 주제별 집중도를 한눈에 파악할 수 있다.
- 특정 연구 주제의 가속도를 측정하는 'Research Radar'를 통해 기술 트렌드 변화를 실시간으로 감지한다.
- BibTeX, Markdown, JSON 등 다양한 형식의 데이터 내보내기 기능을 지원하여 연구 관리를 돕는다.
- 로그인 없이 익명으로 사용 가능하며 Gemini Flash를 활용한 효율적인 요약 정보를 제공한다.
언급된 리소스
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료