본문으로 건너뛰기
AI Trends
피드
트렌딩
커뮤니티
공지
로그인
피드
트렌딩
커뮤니티
공지
라마 서버 (llama-server) 용어 설명 | AI Trends
llama-server
라마 서버
중급
llama.cpp 프로젝트에서 제공하는 경량 HTTP 서버로, 로컬 환경에서 LLM을 API 형태로 서빙하여 다른 애플리케이션과 연동할 수 있게 한다.
비슷한 개념
llamaindex
llm-proxy
llama-bench
local-llm-stack
llama-cpp
lm-studio
openai-compatible-api
open-webui
← 용어 사전 전체 보기