뉴럴 탄젠트 커널
학습률이 매우 작고 네트워크 폭이 무한대일 때 딥러닝 모델의 학습 과정을 선형 모델로 근사하여 분석할 수 있게 해주는 이론적 도구이다. 본 논문에서는 태스크 산술의 작동 원리를 수학적으로 증명하기 위한 선형화 가설의 기반으로 사용된다.