핵심 요약
LLM이 단순히 텍스트를 생성하는 것을 넘어 인간의 고등 인지 기능인 창의적 사고 과정을 얼마나 유사하게 모사하는지 뇌과학적으로 입증했습니다. 특히 모델의 크기와 학습 목표가 뇌 활동과의 정렬도에 미치는 영향을 분석하여, 향후 인간의 사고 방식을 더 가깝게 모사하는 AI 설계 방향을 제시합니다.
왜 중요한가
LLM이 단순히 텍스트를 생성하는 것을 넘어 인간의 고등 인지 기능인 창의적 사고 과정을 얼마나 유사하게 모사하는지 뇌과학적으로 입증했습니다. 특히 모델의 크기와 학습 목표가 뇌 활동과의 정렬도에 미치는 영향을 분석하여, 향후 인간의 사고 방식을 더 가깝게 모사하는 AI 설계 방향을 제시합니다.
핵심 기여
능동적 창의 사고 과업에서의 Brain-LLM 정렬 최초 분석
수동적인 언어 처리를 넘어 Alternate Uses Task(AUT)라는 능동적 창의 사고 과업 수행 중 발생하는 fMRI 데이터와 LLM의 내부 표현 간의 정렬도를 체계적으로 조사했다.
모델 규모 및 창의적 성능과 뇌 정렬도의 상관관계 입증
모델의 파라미터 수가 증가하고 창의적 과업 성능(AUT 점수)이 높을수록, 창의성과 직결된 뇌 영역인 Default Mode Network(DMN)와의 정렬도가 선형적으로 증가함을 확인했다.
사후 학습 목표에 따른 기능적 정렬 변화 규명
창의성 최적화 학습은 고창의성 뇌 반응과의 정렬을 강화하는 반면, Chain-of-Thought와 같은 추론 중심 학습은 창의적 신경 기하학에서 벗어나 분석적 처리 방향으로 모델을 유도함을 발견했다.
핵심 아이디어 이해하기
기존의 AI와 뇌의 비교 연구는 주로 글을 읽거나 듣는 수동적인 상황에서의 언어 처리 네트워크에 집중했다. 하지만 창의적 사고는 뇌의 여러 영역이 복합적으로 작용하는 고차원적 인지 과정이다. 특히 아무런 외부 자극이 없을 때 활성화되지만 상상이나 아이디어 생성 시 핵심 역할을 하는 Default Mode Network(DMN)와 계획 및 통제를 담당하는 Frontoparietal Network(FPN)의 상호작용이 중요하다.
이 논문은 LLM의 내부 벡터 공간(Embedding)이 이러한 인간의 창의적 신경 기하학을 얼마나 닮았는지 Representational Similarity Analysis(RSA)를 통해 측정한다. Transformer 아키텍처의 초기 레이어보다는 추상화가 진행된 상위 레이어에서 인간의 창의적 사고 패턴과 더 유사한 구조가 나타난다는 점을 발견했다.
결과적으로 LLM이 더 크고 성능이 좋을수록 인간이 창의적인 아이디어를 떠올릴 때의 뇌 상태와 더 비슷해지지만, 학습 방식에 따라 이 정렬이 깨질 수도 있다. 예를 들어 정답을 찾아가는 논리적 추론(Convergent Thinking) 학습은 오히려 확산적 사고(Divergent Thinking)를 담당하는 뇌의 패턴과는 멀어지게 만든다는 사실을 밝혀냈다.
방법론
170명의 피험자가 물건의 대안적 용도를 찾는 AUT 과업을 수행하는 동안 촬영한 fMRI 데이터를 활용한다. 대조군으로 물건의 물리적 특성을 답하는 비창의적 과업(OCT) 데이터를 병행 사용한다.
LLM의 중간 레이어 활성화 값을 추출하여 Representational Dissimilarity Matrices(RDMs)를 구축한다. n개의 자극에 대해 각 자극 쌍 간의 거리를 계산하여 (n x n) 행렬을 만든다. fMRI 데이터에서도 동일한 자극에 대한 뇌 영역별(DMN, FPN, SMN) 반응으로 RDMs를 생성한다.
두 RDMs 간의 상관관계를 계산하는 Representational Similarity Analysis(RSA)를 수행한다. [LLM RDM과 fMRI RDM 입력] → [두 행렬의 상삼각 성분 간 Pearson 상관계수 계산] → [정렬도 점수 산출] → [모델이 인간의 신경 구조를 얼마나 모사하는지 수치화] 과정을 거친다.
모델의 크기(270M~72B), 레이어 깊이, 사후 학습 목표(창의성 최적화, 인간 행동 모사, 추론 최적화)를 변수로 설정하여 정렬도의 변화를 분석한다. 특히 프롬프트 입력 단계와 응답 생성 단계로 나누어 단계별 정렬 변화를 추적한다.
관련 Figure

인간의 AUT/OCT 과업 수행 중 측정된 fMRI RDM과 LLM의 내부 활성화 RDM 간의 유사도를 계산하여 정렬도를 측정하는 과정을 보여준다. 고창의성과 저창의성 응답군을 분리하여 분석하는 구조를 명시하고 있다.
fMRI 뇌 데이터와 LLM 모델 데이터를 RSA를 통해 비교하는 전체 연구 방법론 다이어그램
주요 결과
DMN 영역에서의 정렬도는 모델 크기(r=0.58, p<0.05) 및 AUT 성능(r=0.51, p<0.05)과 강한 양의 상관관계를 보였다. 이는 모델이 고도화될수록 창의적 사고를 담당하는 인간의 뇌 구조와 유사해짐을 의미한다.
LLM의 레이어 깊이가 깊어질수록 뇌와의 정렬도가 높아지는 경향(r=0.54, p<0.05)이 확인됐다. 초기 레이어의 구문적 처리를 넘어 상위 레이어의 추상적 인지 표현이 인간의 사고 방식과 더 밀접하게 연결되어 있음을 시사한다.
사후 학습 목표에 따라 정렬 양상이 극명하게 갈렸다. 창의성 최적화 모델(CrPO)은 고창의성 뇌 반응과의 정렬을 유지하면서 저창의성 반응과의 정렬을 선택적으로 줄였다. 반면 추론(CoT) 학습 모델은 고창의성 뇌 반응과 음의 정렬을 보이며 분석적 처리 방식으로 신경 기하학이 재편되었다.
관련 Figure

모델 크기가 커질수록(r=0.58), 그리고 모델의 창의적 성능이 높을수록(r=0.51) 인간 뇌의 DMN 영역과 더 높은 정렬도를 보임을 수치적으로 증명한다.
모델 크기 및 AUT 점수에 따른 DMN 영역의 RSA 예측력 상관관계 그래프
기술 상세
본 연구는 LLM의 내부 표현이 인간의 고차원적 인지 기능인 '확산적 사고(Divergent Thinking)'의 신경 기하학을 반영하는지 RSA를 통해 검증했다. 특히 DMN(Default Mode Network)과 FPN(Frontoparietal Network)이라는 두 핵심 네트워크를 타겟팅했다.
실험 결과, 모델의 규모 확장이 단순히 성능 향상뿐만 아니라 DMN과의 구조적 유사성을 높인다는 점을 발견했다. 그러나 이러한 정렬은 프롬프트 단계에서 가장 강력하며, 모델이 실제 응답을 생성하는 과정에서는 인간의 창의적 인지와 점차 분리되는 '단계 의존적(Stage-dependent)' 특성을 보였다.
가장 중요한 발견은 학습 목표(Training Objective)가 모델의 내부 기하학을 기능적으로 재구성한다는 것이다. CoT(Chain-of-Thought) 학습은 모델을 수렴적 사고(Convergent Thinking)에 최적화시켜, 확산적 사고를 담당하는 뇌 영역과의 정렬을 의도치 않게 저하시킬 수 있음을 실험적으로 증명했다.
관련 Figure

창의성 최적화 모델(CrPO)은 고창의성 반응과 정렬을 유지하지만, 추론 최적화 모델(DeepSeek-R1 Distill)은 고창의성 반응과 음의 정렬을 보이는 역전 현상을 시각화한다.
다양한 사후 학습 모델별 고창의성 및 저창의성 뇌 반응 정렬도 비교 바 차트
한계점
본 연구는 언어 전용 모델만을 대상으로 했으며, 뇌 데이터의 시간적 해상도 한계로 인해 사고의 실시간 역동성을 완전히 포착하기 어렵다. 또한 생성된 응답의 길이가 모델 크기에 따라 달라지는 점이 정렬도 계산에 영향을 줄 수 있는 잠재적 요인으로 언급되었다.
실무 활용
인간의 창의적 사고 과정을 더 잘 모사하는 AI 모델을 설계하거나 평가하는 새로운 지표로 활용될 수 있다.
- 창의적 글쓰기나 아이디어 생성 도구의 성능을 인간의 뇌 반응 정렬도 기준으로 평가
- 특정 인지 능력을 강화하기 위한 사후 학습(Post-training) 데이터셋 및 목표 함수 설계 가이드
- AI 모델의 내부 표현이 인간의 신경학적 타당성을 갖는지 검증하는 벤치마크 구축
코드 공개 여부: 비공개
키워드
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.