mixed-precision
FP32와 BF16/FP16 정밀도를 혼합 사용하여 연산 속도를 높이면서도 모델의 정확도 손실을 최소화하는 학습 기술이다.
코드 한 줄로 H100 학습 속도 59% 향상시키는 방법
코드 한 줄로 H100 학습 속도 59% 끌어올리는 비결
Wan 2.1 LoRA 학습, 왜 얼굴만 안 닮을까? 커뮤니티의 해결책은?
10년 된 노트북 3대로 LLM 학습 성공? Rust가 여는 저사양 파인튜닝의 미래
2013년형 구형 노트북 3대로 LLM 파인튜닝에 성공하다