grounding-problem
기호나 언어가 실제 세계의 물리적 대상이나 경험과 연결되지 못하는 문제이다. 텍스트로만 학습한 모델이 실제 물리 법칙이나 인과 관계를 진정으로 이해하는지 판단하는 중요한 기준이 된다.
LLM의 '창발적 이해'는 환상일까? 통계적 모방과 일반화의 경계
LLM은 지능인가, 아니면 고도로 정교한 통계적 흉내인가?