본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
전역 어텐션 (global-attention) 용어 설명 | AI Trends
global-attention
전역 어텐션
고급
입력 데이터의 모든 부분 간의 관계를 계산하여 멀리 떨어진 정보 간의 연결성을 파악하는 메커니즘으로, CNN의 국소적 수용장 한계를 극복하는 데 도움을 준다.
비슷한 개념
transformer-attention
multimodal-attention
multi-head-attention
full-attention
spatio-temporal-attention
mha
omni-attention
spatiotemporal-attention
← 용어 사전 전체 보기