context-engineering
LLM의 제한된 컨텍스트 윈도우 내에 가장 관련성 높고 압축된 정보만을 배치하여 모델의 성능을 높이고 비용을 절감하는 기법이다. 불필요한 토큰 소모를 방지하고 모델의 집중력을 유지하는 데 필수적이다.
코드 리뷰가 3일에서 1일로? AI 에이전트로 SDLC 생산성 극대화하기
AI가 개발자를 대체할까? 1969년부터 반복된 꿈과 2026년의 냉혹한 현실
코딩 몰라도 AI 에이전트 쓴다? 앤스로픽의 야심작 Cowork 공개
토큰 사용량 46.9% 절감, Cursor가 공개한 코딩 에이전트 최적화 비결
토큰 사용량 66% 절감하며 SOTA 달성한 Tavily의 딥 리서치 에이전트 설계 전략