문맥 편향
AI 모델이 자신이 생성한 텍스트나 코드의 논리적 오류를 스스로 찾아내지 못하고 긍정적으로 편향되어 평가하는 현상이다. 모델이 생성 과정의 맥락을 공유하고 있기 때문에 발생하는 문제로, 이를 방지하기 위해 별도의 독립적인 모델이 결과물만 보고 평가하는 방식이 권장된다. nightshift는 이 편향을 제거하여 코드의 객관적 품질을 확보한다.