역전의 저주
LLM이 'A는 B이다'라는 사실을 학습해도 'B는 A이다'라는 역방향 추론에 실패하는 현상이다. 이는 모델의 학습 데이터 처리 방식이 양방향 논리 구조를 완벽히 포착하지 못함을 보여주며 지식의 비대칭성 문제를 야기한다.