저정밀도 데이터
데이터를 표현하는 비트(bit) 수를 줄여 연산량과 메모리 사용량을 최소화하는 기법이다. 정밀도를 일부 희생하는 대신 AI 모델의 추론 속도를 획기적으로 높이고 전력 소모를 줄이는 데 기여한다.