perplexity
언어 모델이 다음 토큰을 얼마나 잘 예측하는지 나타내는 지표로 값이 낮을수록 모델의 예측 성능이 좋음을 의미한다. 확률 분포의 불확실성을 측정하며 모델 간의 성능 비교에 필수적인 척도로 활용된다.
GPT-5의 적은 연산력이 아닌 AI 자신이다: 500달러 현상금의 AI 탐지 챌린지
10억 파라미터급에서 증명된 Wave Field LLM의 확장성
필드 기반 상호작용의 증명: 8억 파라미터 모델 학습 성공
삼성 갤럭시 S26, 퍼플렉시티 품고 '멀티 에이전트' 생태계 구축
CPU만으로 학습 완료? MatMul 없는 29M 파라미터 모델의 탄생