선호도 최적화
모델이 생성한 여러 결과물 중 인간이나 특정 기준이 선호하는 답변을 더 자주 생성하도록 모델의 가중치를 조정하는 학습 기법이다. RLHF나 DPO 등이 대표적이며, 모델의 출력을 특정 목적에 맞게 정렬하는 데 필수적이다.