헤징
AI 모델이 답변 시 확신을 피하고 모호하거나 중립적인 태도를 취하는 현상이다. 안전 가이드라인이 과도하게 적용될 때 발생하며, 사용자가 명확한 의견이나 결론을 원할 때 답변의 유용성을 떨어뜨리는 요인이 된다.