어텐션 토큰
트랜스포머 아키텍처에서 모델이 다음 단어를 예측할 때 집중(Attention)하는 데이터 단위이다. 특정 토큰에 가중치를 둠으로써 모델이 문맥상 중요한 논리 연산자에 더 집중하게 만들 수 있다.