Transformers 5.8.0: DeepSeek-V4 및 EXAONE-4.5 지원
Transformers 5.7.0: Laguna MoE 및 DEIMv2 모델 지원
Transformers 5.6.2: Qwen MoE 모델 FP8 오류 수정
Transformers 5.6.1: Flash Attention 오류 수정
Transformers 5.6.0: OpenAI Privacy Filter 및 QianfanOCR 지원
Transformers 5.5.4: Tokenizer 및 Qwen2.5-VL 수정 패치
Transformers 5.5.3: Gemma4 device_map 지원 수정
Transformers 5.5.2: Gemma4 최적화 및 추론 버그 수정
Transformers 5.5.1: Gemma 4 및 vLLM 수정 패치
Transformers 5.4.0: Mistral 4·Jina v3 지원 및 이미지 프로세서 통합
Transformers 5.3.0: EuroBERT·Higgs Audio V2 지원 및 양자화 백엔드 확장
Transformers 5.2.0: GLM-5·Qwen3.5 지원 및 Attention 인터페이스 변경
Transformers 5.1.0: EXAONE-MoE 지원 및 생성 캐시 구조 변경
Transformers 5.0.0: 5년 만의 메이저 업데이트 및 아키텍처 대개편
Transformers 5.0.0rc3: GLM-4.7·MiniMax-M2 지원 및 레거시 제거
Transformers 4.57.6: Qwen2-VL 모델 타입 로딩 버그 수정
Transformers 4.57.5: QwenVL 및 학습률 스케줄러 파싱 수정
Transformers 4.57.4: vLLM 연동 및 오프라인 로딩 수정
Transformers 5.0.0rc2: MoE 성능 최적화 및 신규 모델 지원
Transformers 5.0.0rc1: 기본 dtype 'auto' 변경 및 신규 모델 지원