핵심 요약
텐센트가 기존 Hunyuan 아키텍처를 완전히 재구축하여 '빠른 생각'과 '느린 생각'을 통합한 Hy3 Preview 모델을 공개했습니다. 이 모델은 총 295B 파라미터를 보유하고 있으나 추론 시에는 단 21B 파라미터만 활성화하는 MoE 구조를 채택하여 극강의 효율성을 추구합니다. 차별화된 전문가 크기 설계와 P-Penalty Loss 기법을 통해 타 모델이 37B~40B 활성 파라미터로 달성하는 성능을 21B만으로 구현했습니다. 특히 복잡한 추론, 코딩, 도구 사용(Tool Use) 및 긴 문맥 이해 능력에서 비약적인 발전을 보였으며, 텐센트의 위안바오(Yuanbao)와 코드버디(CodeBuddy) 등 내부 서비스에 즉시 통합되었습니다. 이는 하드웨어 확장에만 의존하지 않고 아키텍처 혁신과 데이터 품질에 집중하여 실무 에이전트 성능을 극대화한 사례입니다.
빠른 이해
요약 브리프
텐센트가 공개한 Hy3 Preview는 295B 파라미터 중 21B만 활성화하는 MoE 구조로, 적은 자원으로도 고성능 추론과 코딩이 가능한 모델입니다. 아키텍처 재구축을 통해 긴 문맥 이해와 도구 사용 능력을 극대화했으며, 텐센트 내부 제품군에 즉시 적용되어 실무 에이전트로서의 강력한 성능을 입증했습니다.
새로운 점
동일 성능 대비 활성 파라미터 수를 절반 가까이 줄인 차별화된 전문가 크기 설계와 P-Penalty Loss 기반의 MoE 최적화 기법
핵심 메커니즘
입력 토큰 난이도 분석 -> 차별화된 크기의 전문가(Expert) 중 최적 경로 할당(Routing) -> P-Penalty Loss로 소형 전문가 활성화 유도 -> 고효율 추론 결과 출력
핵심 수치
- Total Parameters: 295B
- Activated Parameters: 21B- 업계 표준 37B-40B 대비 절반 수준으로 고효율 달성
- Development Time: < 3 months- 아키텍처 재구축부터 출시까지 소요된 기간
섹션별 상세
Hy3 Preview의 핵심 아키텍처와 효율성
텐센트 제품 생태계 내 실무 적용
벤치마크 성과 및 에이전트 역량
실무 Takeaway
- Hy3 Preview는 21B 활성 파라미터만으로 40B급 모델의 성능을 내는 MoE 아키텍처를 통해 추론 비용과 속도를 획기적으로 개선했다
- 차별화된 전문가 크기 설계와 P-Penalty Loss 기법을 적용하여 토큰 난이도별 최적의 연산 자원을 할당하는 정교한 라우팅을 구현했다
- 100페이지 이상의 장문 이해와 코드 생성을 결합하여 실행 가능한 HTML 게임을 즉시 제작할 수 있는 수준의 에이전트 능력을 확보했다
- 텐센트의 소셜, 게임, 광고 등 실제 비즈니스 데이터와 Co-Design을 통해 실무 시나리오에 최적화된 학습 및 진화를 달성했다
언급된 리소스
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.