본문으로 건너뛰기
fp8-quantization
FP8 양자화
고급
모델의 가중치를 8비트 부동소수점 형식으로 변환하여 메모리 사용량을 줄이고 추론 속도를 높이는 최적화 기법이다.
비슷한 개념
int-8-quantization
quantization
w8a8-quantization
int8
fp8-distillation
int8-quantization
fp8
fp8-kv-cache
← 용어 사전 전체 보기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지