본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
멀티 헤드 어텐션 (mha) 용어 설명 | AI Trends
mha
멀티 헤드 어텐션
중급
트랜스포머 모델의 핵심 구성 요소로, 입력 데이터를 여러 개의 헤드로 나누어 병렬적으로 어텐션 연산을 수행함으로써 다양한 문맥적 관계를 학습한다.
비슷한 개념
multi-head-attention
attention-head
transformer
softmax-attention
transformer-architecture
qkv-attention
attention-map
attention-mechanism
← 용어 사전 전체 보기