로컬 LLM 스택
클라우드 API 대신 개인용 컴퓨터 환경에서 대규모 언어 모델을 실행하기 위한 소프트웨어 조합이다. Ollama, LM Studio와 같은 추론 엔진을 포함하며 데이터 프라이버시 보호와 오프라인 작업이 가능하다는 장점이 있다.