핵심 요약
Trae IDE가 무제한 요청 요금제에서 고비용 토큰 기반으로 전환하고 로컬 LLM 연동을 제한하자 사용자들이 Cursor 등 대안으로 이탈하고 있다.
배경
Trae IDE가 2026년 2월 요금 체계를 구독형에서 토큰 기반으로 변경함에 따라 사용 비용이 급격히 상승했다. 작성자는 로컬 LLM 연동 시도 실패와 과도한 비용 청구를 경험한 후 서비스 해지와 대안 탐색을 선언했다.
의미 / 영향
AI 개발 도구 시장이 수익화 단계로 접어들면서 구독형에서 종량제로의 전환이 가속화되고 있다. 이는 헤비 유저들의 이탈과 로컬 LLM을 활용한 오픈소스 대안(VS Code + 로컬 엔진)에 대한 수요를 다시금 자극할 것으로 보인다.
커뮤니티 반응
대체로 작성자의 불만에 공감하며, AI 도구들의 수익화 전략 변화에 따른 사용자 이탈 현상이 논의되고 있다. 많은 사용자가 유사한 비용 폭증 경험을 공유하며 로컬 LLM 지원 복구를 요구하는 분위기이다.
주요 논점
01반대다수
토큰 기반 요금제는 예측 불가능한 고비용을 초래하며 로컬 지원을 막는 것은 사용자 기만이다.
합의점 vs 논쟁점
합의점
- 새로운 요금제 하에서 에이전트 기능을 사용하는 것은 경제적으로 비효율적이다.
- 로컬 LLM 지원은 사용자 선택권과 비용 절감을 위해 반드시 필요하다.
논쟁점
- Trae IDE의 성능이 타 대안(Cursor 등) 대비 유료 결제를 유지할 만큼 독보적인가에 대한 의견 차이가 존재한다.
실용적 조언
- 비용 절감을 위해 Gemini-Flash와 같은 저렴한 모델을 우선적으로 사용한다.
- 토큰 소모를 줄이기 위해 대화 컨텍스트를 주기적으로 초기화한다.
- GitHub 이슈 #597에 참여하여 로컬 LLM 지원 재개를 강력히 요구한다.
전문가 의견
- 장기적인 프로젝트에서 지속적 메모리와 에이전트 기능을 사용할 경우 토큰 기반 과금은 개인 개발자에게 감당하기 어려운 수준의 비용을 발생시킨다.
언급된 도구
Trae IDE비추천
AI 기반 통합 개발 환경
LM Studio추천
로컬 LLM 실행 및 관리
Cursor추천
AI 기반 코드 에디터 대안
Ollama추천
로컬 LLM 서빙 도구
섹션별 상세
요금 체계 변경에 따른 비용 폭증이 발생했다. 기존 프로 플랜은 월 10달러에 600회의 빠른 요청과 무제한 느린 요청을 제공했으나, 새로운 토큰 기반 시스템에서는 하루 127회 요청에 38달러가 청구됐다. 특히 긴 문맥(Long Context)과 지속적 메모리(Persistent Memory)를 사용하는 에이전트 기능이 비용 상승의 주범으로 지목됐다.
로컬 LLM 지원 축소 및 연동의 어려움이 심화됐다. 과거에는 Ollama 등을 통해 로컬 LLM을 쉽게 연결할 수 있었으나, 현재는 해당 옵션이 목록에서 사라지는 등 클라우드 모델 사용을 강제하는 방향으로 변경됐다. 작성자는 LM Studio를 통한 우회 시도마저 실패하며 개발 도구가 수익 창출을 위한 돈 구덩이로 변질됐다고 비판했다.
비용 최적화를 위한 실무적 팁이 공유됐다. 고비용 구조에서 살아남기 위해 Gemini-Flash와 같은 저렴한 모델을 사용하고, 대화 문맥을 자주 초기화하여 토큰 소모를 줄일 것을 권장했다. 또한 에이전트 기능이나 SOLO 모드를 일상적인 작업에 남용하지 말아야 한다는 구체적인 가이드라인을 제시했다.
실무 Takeaway
- Trae IDE의 요금제가 구독형에서 토큰 기반으로 변경되며 사용자의 비용 부담이 수십 배 증가했다.
- 로컬 LLM(Ollama 등) 지원이 약화되면서 사용자들이 고비용 클라우드 모델 사용을 강요받는 상황이다.
- 비용 절감을 위해 Gemini-Flash 사용 및 잦은 컨텍스트 초기화가 필수적이며, Cursor나 로컬 VS Code 조합이 대안으로 부상하고 있다.
언급된 리소스
GitHubTrae GitHub Issue #597
AI 분석 전체 내용 보기
AI 요약 · 북마크 · 개인 피드 설정 — 무료