핵심 요약
생물학 분야에서 LLM의 활용은 사실에 근거한 실행 가능한 설명이 부족하다는 한계가 있었다. 이 논문은 생물학적 추론을 구조화된 액션 그래프로 정형화하고, 멀티 에이전트 프레임워크인 VCR-Agent를 통해 검증 가능한 메커니즘 추론을 자동화함으로써 신약 개발 및 세포 반응 예측의 신뢰성을 높인다.
왜 중요한가
생물학 분야에서 LLM의 활용은 사실에 근거한 실행 가능한 설명이 부족하다는 한계가 있었다. 이 논문은 생물학적 추론을 구조화된 액션 그래프로 정형화하고, 멀티 에이전트 프레임워크인 VCR-Agent를 통해 검증 가능한 메커니즘 추론을 자동화함으로써 신약 개발 및 세포 반응 예측의 신뢰성을 높인다.
핵심 기여
구조화된 설명 형식 정의
생물학적 추론을 모호한 자연어 대신 명확한 메커니즘 액션 그래프로 표현하는 형식을 도입하여 해석 가능성과 반증 가능성을 확보했다.
VCR-Agent 멀티 에이전트 프레임워크
지식 검색을 담당하는 Report Generator와 이를 구조화된 형식으로 변환하는 Explanation Constructor, 그리고 사실 관계를 검증하는 Verifier로 구성된 자율 추론 시스템을 제안했다.
VC-Traces 데이터셋 공개
Tahoe-100M 아틀라스를 기반으로 검증된 메커니즘 설명 트레이스를 포함하는 대규모 데이터셋을 구축하여 관련 연구를 지원한다.
검증기 기반 필터링 파이프라인
약물-표적 상호작용(DTI) 및 차등 발현(DE) 검증기를 통해 LLM의 환각 현상을 억제하고 논리적 일관성을 강제하는 파이프라인을 구현했다.
핵심 아이디어 이해하기
기존 LLM은 수학이나 프로그래밍처럼 결정론적인 규칙이 있는 분야에서는 강한 추론 능력을 보이지만, 생물학처럼 파편화된 문헌 지식에 의존하는 분야에서는 환각 현상이 심하고 검증이 어렵다. 이는 LLM이 생성하는 설명이 구조화되지 않은 자유 형식의 자연어이기 때문에 발생하는 문제이다.
VCR-Agent는 이 문제를 해결하기 위해 생물학적 추론 과정을 'Mechanistic Action Graph'라는 구조화된 데이터로 변환한다. 이는 마치 코드를 실행하여 결과를 확인하듯, 생물학적 인과 관계를 노드(액션)와 엣지(의존성)로 연결하여 각 단계가 생물학적 사실과 일치하는지 개별적으로 검증할 수 있게 만든다.
결과적으로 LLM은 단순한 텍스트 생성을 넘어, 외부 지식 베이스에서 추출된 사실을 바탕으로 논리적인 그래프를 설계하는 '메커니즘 설계자' 역할을 수행한다. 이러한 구조적 제약은 모델이 학습 데이터에 없는 새로운 약물이나 세포 환경에서도 생물학적으로 타당한 가설을 세울 수 있는 유도 편향(Inductive Bias)을 제공한다.
관련 Figure

Binimetinib 약물이 세포 내에서 어떻게 작용하는지를 액션 프리미티브 코드로 표현한 예시와 이를 시각화한 그래프이다. 각 노드가 특정 생물학적 사건을 나타내며 화살표가 인과 관계를 명시함을 보여준다.
구조화된 추론 트레이스와 대응되는 유향 비순환 그래프(DAG) 예시
방법론
VCR-Agent 프레임워크는 크게 세 단계로 작동한다. 첫째, Report Generator가 입력된 섭동(Perturbation)과 세포 컨텍스트에서 엔티티를 추출하고 StarkPrimeKG, Harmonizome, PubMed, Wikipedia 등 외부 지식 베이스에서 관련 사실을 검색하여 종합적인 자연어 보고서를 생성한다.
둘째, Explanation Constructor가 생성된 보고서를 바탕으로 미리 정의된 20개의 액션 프리미티브(Action Primitives)를 사용하여 구조화된 설명을 생성한다. 각 액션은 [입력 엔티티 → 메커니즘 연산 → 출력 상태 변화]의 논리 구조를 가지며, 이들은 유향 비순환 그래프(DAG) 형태로 연결되어 인과 관계를 형성한다.
셋째, Verifier-based Filtering 단계에서 생성된 각 액션의 타당성을 검증한다. 예를 들어 binds_to 액션의 경우 Boltz-2 모델을 사용한 DTI 검증기가 [약물과 단백질 구조 입력 → 물리적 결합 확률 계산 → 임계값 초과 여부 확인] 과정을 거쳐 물리적 개연성을 평가한다. regulates_expression 액션은 실제 실험 데이터와 대조하여 유전자 발현 방향의 일치 여부를 확인한다.
관련 Figure

입력 데이터로부터 엔티티 추출, 지식 검색, 보고서 생성, 구조화된 설명 생성, 그리고 최종 검증기로 이어지는 파이프라인을 보여준다. 각 모듈이 어떻게 상호작용하여 최종적으로 검증된 메커니즘 그래프를 도출하는지 설명한다.
VCR-Agent 멀티 에이전트 프레임워크의 전체 구조도
주요 결과
실험 결과, VCR-Agent는 기존의 오픈 소스 및 폐쇄형 LLM 대비 구조적 유효성(Validity)과 검증 가능성(Verifiability) 측면에서 압도적인 성능을 보였다. 특히 Claude-4 기반의 VCR-Agent는 1.000의 유효성을 기록하며 복잡한 생물학적 제약 조건을 완벽하게 준수했다.
TahoeQA 벤치마크를 통한 하위 작업 평가에서, 구조화된 설명을 학습 데이터로 사용한 모델(SFT-Prompt)은 단순 라벨 예측 모델 대비 유전자 발현 예측 정확도(F1-score)가 크게 향상되었다. 구체적으로 Differential Expression 작업에서 평균 F1-score 0.435를 기록하여 기본 SFT(0.292) 대비 약 49%의 성능 향상을 보였다.
또한 검증기 기반 필터링을 통해 잘못된 DTI 주장의 28.2%를 제거하고, 유전자 발현 관련 환각의 87.3%를 정제함으로써 데이터셋의 신뢰도를 높였다. 이는 구조화된 추론이 단순한 설명 도구를 넘어 모델의 예측 성능을 가이드하는 강력한 감독 신호가 될 수 있음을 입증한다.
관련 Figure

차등 발현 예측 및 변화 방향 예측 작업에서 VCR-Agent 기반 모델(갈색)이 기존 통계 모델 및 일반 LLM 대비 높은 F1-score를 기록함을 보여준다. 특히 구조화된 설명을 프롬프트로 제공했을 때 성능 향상이 가장 뚜렷하다.
TahoeQA 벤치마크에서의 성능 비교 차트
기술 상세
VCR-Agent의 핵심 아키텍처는 지식 획득과 추론 생성을 분리한 2단계 파이프라인이다. Report Generator는 HunFlair2를 사용한 NER과 StarkPrimeKG 등의 다중 소스 검색을 통해 컨텍스트를 보강하며, Explanation Constructor는 이를 DAG 구조의 DSL(Domain Specific Language)로 변환한다.
액션 공간(Action Space)은 시스템 초기화, 대사, 조절, 기능, 상호작용, 표현형, 단백질 항상성의 7개 카테고리, 20개 프리미티브로 구성된다. 각 프리미티브는 엄격한 인자 스키마(Argument Schema)를 따르며, 이는 자동화된 검증기가 각 인자의 생물학적 타당성을 수치적으로 평가할 수 있게 한다.
검증 파이프라인은 Boltz-2 기반의 구조적 결합 예측과 Tahoe-100M 기반의 실험 데이터 대조를 결합한다. DTI 검증기는 단백질-리간드 복합체의 결합 에너지를 모사하여 확률 점수를 산출하고, DE 검증기는 통계적 유의성(p < 0.05)과 발현 변화량(log2 fold change)을 기준으로 환각을 필터링한다.
한계점
현재 구현된 검증기는 약물-표적 상호작용(DTI)과 차등 발현(DE)에 집중되어 있어, 대사 반응이나 후성유전학적 변화 등 다른 액션 타입에 대한 전수 검증에는 한계가 있다. 또한 외부 지식 베이스 자체의 편향이나 불완전성이 생성된 보고서의 품질에 영향을 미칠 수 있다.
실무 활용
가상 세포 모델의 예측 결과에 대한 생물학적 근거를 제공하고, 신약 후보 물질의 작용 기전(MoA)을 자율적으로 분석하는 데 활용 가능하다.
- 특정 약물 처리에 따른 세포 내 유전자 발현 변화의 인과 관계 추론
- 신규 화합물의 표적 단백질 결합 및 하위 신호 전달 경로 영향 분석
- 세포주별 유전적 변이에 따른 약물 반응 차이의 메커니즘 설명 생성
- 생물학적 지식 그래프와 문헌 정보를 결합한 가설 생성 자동화
코드 공개 여부: 공개
코드 저장소 보기키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.