본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
LLM 캐싱 (llm-caching) 용어 설명 | AI Trends
llm-caching
LLM 캐싱
중급
동일하거나 유사한 질문에 대한 AI의 답변을 데이터베이스에 저장해 두었다가 재사용하여 비용과 응답 시간을 줄이는 기술이다.
비슷한 개념
api-caching
caching-layer
semantic-cache
prompt-caching
cache-utilization
system-prompt-caching
semantic-query-caching
context-caching
← 용어 사전 전체 보기