핵심 요약
DeepL은 고객 수요에 대응하기 위해 기존 언어 지원 범위를 3배 이상 확장하여 70개 이상의 신규 언어를 동시에 출시했다. 이를 위해 연구팀은 개별 언어 쌍마다 모델을 만들던 기존 방식에서 벗어나, 하나의 모델이 여러 언어를 처리하는 LLM 기반의 새로운 스케일링 접근 방식을 도입했다. 또한 모든 플랫폼이 동일한 비즈니스 로직을 공유할 수 있도록 기술 인프라를 통합하여 기능 파리티를 확보했다. 이러한 기술적, 조직적 혁신을 통해 문서 번역과 언어 감지 성능을 유지하면서도 전례 없는 속도로 글로벌 서비스를 확장할 수 있었다.
배경
기계 번역(NMT) 기본 개념, LLM 아키텍처 이해, API 및 백엔드 인프라 구조
대상 독자
AI 제품 매니저, 기계 번역 엔지니어, 글로벌 서비스 확장 전략가
의미 / 영향
DeepL의 이번 확장은 전용 모델 중심의 번역 시장이 범용 LLM 기술을 활용한 대규모 다국어 지원 체제로 완전히 전환되었음을 시사한다. 이는 향후 번역 서비스의 경쟁력이 단순한 언어 쌍의 품질을 넘어 얼마나 빠르고 일관되게 다양한 언어와 플랫폼을 통합할 수 있는지에 달려 있음을 보여준다.
섹션별 상세
과거에는 각 언어 쌍마다 전용 모델을 구축했으나 이번 확장에서는 하나의 모델이 여러 언어를 동시에 처리할 수 있는 LLM 기반 구조를 채택했다. 이 접근 방식은 언어 추가의 확장성을 획기적으로 높였으며 유사한 언어 그룹의 데이터를 효율적으로 활용하여 학습 데이터가 부족한 언어의 품질도 개선하는 효과를 거두었다.
2025년 초에 완료된 새로운 기술 인프라는 웹, 모바일 앱, 문서 번역, API 등 모든 플랫폼의 백엔드 역할을 수행한다. 과거에는 플랫폼별로 비즈니스 로직을 개별 구현해야 했으나 이제는 연구팀의 모델이 준비되는 즉시 모든 플랫폼에서 동시에 테스트와 배포가 가능한 환경을 갖추어 출시 기간을 수개월에서 수일로 단축했다.
지원 언어가 100개를 넘어서면서 사용자가 원하는 언어를 빠르게 찾을 수 있도록 즐겨찾기 기능과 세션 기억 기능을 언어 선택기에 도입했다. 또한 서로 유사한 언어가 늘어남에 따라 발생할 수 있는 오작동을 방지하기 위해 연구팀은 새로운 파라미터와 가중치를 적용한 고성능 언어 감지 모델을 개발하여 자동 감지 정확도를 높였다.
70개 이상의 언어를 출시하며 텍스트뿐만 아니라 문서 번역에서도 일관된 품질을 유지하는 데 집중했다. 특히 왼쪽에서 오른쪽으로 읽는 언어(LTR)와 오른쪽에서 왼쪽으로 읽는 언어(RTL) 간의 번역 시에도 원본 문서의 레이아웃이 깨지지 않도록 플랫폼별 맞춤형 테스트 프로세스를 강화하여 사용자 경험의 단절을 방지했다.
실무 Takeaway
- AI 서비스 확장 시 개별 모델 방식보다 다국어 통합 LLM 구조를 채택하는 것이 운영 효율성과 확장성 측면에서 유리하다.
- 플랫폼 간 기능 격차를 줄이기 위해 비즈니스 로직을 통합 관리하는 백엔드 인프라를 선제적으로 구축해야 한다.
- 지원 항목이 급증할 때는 사용자 편의를 위해 검색 및 개인화 기능인 즐겨찾기 등을 UX에 즉시 반영해야 한다.
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료