핵심 요약
이 프로젝트는 여러 LLM 공급자의 API 키를 효율적으로 관리하고 자동 순환시키는 Node.js 기반의 프록시 서버이다. 특정 키가 속도 제한(HTTP 429)에 도달하면 지능적인 셔플링 알고리즘을 통해 즉시 다른 유효한 키로 요청을 전달한다. OpenAI 및 Gemini 호환 API를 모두 지원하며, SSE 스트리밍 응답을 완벽하게 통과시켜 실시간 챗봇 서비스에 적합하다. 별도의 외부 의존성 없이 실행 가능하며, 관리자 패널을 통해 실시간으로 키 사용량을 모니터링하고 설정을 변경할 수 있다.
배경
Node.js 설치, OpenAI 또는 Gemini 호환 API 키, 기본적인 curl 명령어 사용 지식
대상 독자
여러 LLM API를 통합 관리하고 비용 및 속도 제한 문제를 해결하려는 개발자
의미 / 영향
이 도구는 소규모 개발자나 스타트업이 여러 무료/저가형 API 키를 묶어 고가용성 서비스를 구축할 수 있게 돕습니다. 특히 특정 모델에 종속되지 않고 여러 공급자(Groq, Cerebras 등)를 유연하게 교체하며 사용할 수 있는 인프라를 제공합니다.
섹션별 상세
curl -X POST "http://localhost:8990/groq/chat/completions" \
-H "Authorization: Bearer [STATUS_CODES:429][ACCESS_KEY:your-access-key]" \
-H "Content-Type: application/json" \
-d '{ "model": "openai/gpt-oss-120b", "messages": [ { "role": "user", "content": "Hello!" } ] }'Groq 공급자를 통해 OpenAI 호환 API 요청을 보내는 예시
curl -X POST "http://localhost:8990/gemini/models/gemini-2.5-flash:generateContent" \
-H "x-goog-api-key: [STATUS_CODES:429][ACCESS_KEY:your-access-key]" \
-H "Content-Type: application/json" \
-d '{ "contents": [ { "parts": [ { "text": "Hello!" } ] } ] }'Gemini 호환 API에 대한 로테이션 요청 예시



실무 Takeaway
- 무료 티어 API 키 여러 개를 활용하여 유료 플랜 없이도 높은 처리량의 LLM 서비스를 구축할 수 있다.
- Access Key 기능을 사용하여 특정 공급자에 대한 접근 권한을 제어함으로써 프록시 서버의 보안을 강화할 수 있다.
- 디바운싱 기술이 적용된 파일 로깅 시스템을 통해 성능 저하 없이 모든 API 요청 내역을 logs.jsonl 파일로 기록하고 분석할 수 있다.
언급된 리소스
AI 요약 · 북마크 · 개인 피드 설정 — 무료
출처 · 인용 안내
인용 시 "요약 출처: AI Trends (aitrends.kr)"를 표기하고, 사실 확인은 원문 보기 기준으로 진행해 주세요. 자세한 기준은 운영 정책을 참고해 주세요.