token-usage
AI 모델이 텍스트를 처리하는 기본 단위인 토큰의 소비량이다. Claude Code는 명령을 내릴 때마다 현재 컨텍스트를 다시 계산하므로 토큰 소진이 매우 빠를 수 있다.
코드 전체 대신 인터페이스만? LLM 토큰 사용량 80% 절감하는 비결
"클로드는 대화 전체를 기억한다?" GPT 유저가 전하는 클로드 적응기
GPT-5.2의 굴욕? LLM 판별자 테스트에서 드러난 의외의 가성비 모델
"어제 뭐 했지?" 파편화된 AI 코딩 기록을 스탠드업으로 자동 정리
1분 만에 사용량 100% 소모? Claude Code 컨텍스트 관리의 함정