본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
Releases
/
huggingface/transformers
/
v5.6.1
돌아가기
릴리즈 이동
Transformers 5.6.1: Flash Attention 오류 수정
patch
Notable
5시간 전
Flash Attention 실행 시 발생하던 AttributeError 문제를 해결한 긴급 패치 릴리즈입니다.
버그 수정
•
flash_attention_forward 함수에서 s_aux가 None일 때 발생하던 AttributeError를 수정했습니다.
관련 토론
토론 시작하기
아직 관련 토론이 없습니다.
댓글
최신순
인기순
댓글을 작성하려면 로그인이 필요합니다.
로그인
이 레포의 다른 릴리즈
v5.6.0
22시간 전
v5.5.4
9일 전
v5.5.3
13일 전
v5.5.2
14일 전
v5.5.1
14일 전