정책 최적화
강화학습에서 에이전트가 보상을 최대화하기 위해 취하는 행동 지침(정책)을 직접적으로 수정하며 학습하는 방식이다. LLM에서는 특정 프롬프트에 대해 최적의 응답 토큰을 생성하도록 가중치를 갱신하는 과정을 의미한다.