scaling-laws
모델의 크기, 데이터 양, 컴퓨팅 자원이 증가함에 따라 모델의 성능이 예측 가능한 방식으로 향상된다는 법칙이다. 최근에는 학습뿐만 아니라 추론 단계에서의 스케일링 법칙에 대한 연구가 활발히 진행되고 있다.
7B 모델에서 트랜스포머를 이겼다? 차세대 아키텍처의 스케일링 잠재력
"다음 토큰 예측은 한계인가?" 얀 르쿤이 제시한 에너지 기반 추론의 미래
4.5시간의 끝장 토론: 2026년 AI 기술과 산업의 미래 전망
10년 전 "딥러닝은 쉽다"고 외쳤던 전문가의 뼈아픈 반성문
"데이터 효율성이 AGI의 핵심" 세쿼이아가 주목한 20대 천재들의 AI 연구소