FP16 정밀도
부동소수점을 16비트로 표현하는 방식으로 메모리 사용량을 줄이고 연산 속도를 높입니다. 하지만 정밀도가 낮아 그래디언트 누적 과정에서 버그가 발생할 경우 모델 학습의 안정성을 해칠 수 있습니다.