활성화 기반 가중치 양자화
Activation-aware Weight Quantization의 약자로, 모델 실행 시 활성화 값이 큰 중요한 가중치를 보존하며 양자화하는 기법이다. 일반적인 양자화보다 모델의 추론 성능 손실이 적은 것이 특징이다.