next-token-prediction
주어진 문맥 다음에 올 가장 확률 높은 단어를 예측하는 LLM의 핵심 학습 메커니즘이다. 이 방식이 실제 언어 이해를 가능케 하는지, 아니면 정교한 통계적 모방에 그치는지에 대한 대립의 중심에 있다.
LLM의 '창발적 이해'는 환상일까? 통계적 모방과 일반화의 경계
AI 에이전트는 생각하지 않는다, 보상을 향해 검색할 뿐이다
LLM은 지능인가, 아니면 고도로 정교한 통계적 흉내인가?
AI가 평균으로 수렴할 때, 인간의 전문성은 더 빛난다
AI가 짠 코드는 버그가 1.7배? 생산성 함정에서 벗어나는 법