model-distillation
거대한 모델(Teacher)의 지식을 더 작고 효율적인 모델(Student)로 전이시키는 기법이다. FLUX.2 [dev] 모델은 이 기법을 통해 성능은 유지하면서도 추론 속도를 획기적으로 높였다.
Claude 4.6과 Gemini 3.1의 격돌, 그리고 펜타곤과의 AI 세이프가드 전쟁
1,600만 건의 데이터 탈취, Anthropic이 밝힌 중국 AI 기업들의 모델 증류 수법
AI가 일자리를 뺏는 게 아니라, AI를 쓰는 사람이 안 쓰는 사람을 대체한다
Character.AI가 공개한 6비트 그래디언트 압축과 효율적 학습 비결
Claude 4.5와 Nova 2 등장, 앤드류 응이 제안하는 초간단 AI 에이전트 구축법