본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
정류 선형 유닛 (relu) 용어 설명 | AI Trends
relu
정류 선형 유닛
입문
입력이 0보다 작으면 0을, 0보다 크면 입력값을 그대로 출력하는 활성화 함수이다. 신경망 학습 시 기울기 소실 문제를 완화하며 계산 효율성이 높아 널리 사용된다.
비슷한 개념
dying-relu
he-initialization
gated-linear-unit
activation-function
piecewise-linear-function
glu
kaiming-initialization
universal-activation-function
← 용어 사전 전체 보기