델타 규칙
신경망 학습에서 오차를 줄이기 위해 가중치를 조정하는 기본 원리이다. RWKV-7은 이를 확장하여 상태 전이에 적용함으로써 표현력을 높였다.
RNN의 부활? RWKV-7이 선형 어텐션의 이론적 한계를 깨는 방법