onnx
서로 다른 AI 프레임워크 간에 모델을 공유하고 최적화하여 실행할 수 있도록 돕는 개방형 표준 포맷이다. Vespa와 같은 검색 엔진에서 다양한 임베딩 모델을 하드웨어 가속을 통해 효율적으로 추론하는 데 사용된다.
MLX 모델을 브라우저로: WebGPU 기반 ONNX 변환 도구 등장
목소리도 벡터 연산으로? Qwen3 음성 임베딩의 놀라운 활용법
128GB 맥 스튜디오도 버겁다? 로컬 LLM 코딩의 냉혹한 현실
복잡한 AI 데이터 파이프라인, Nexla와 Vespa로 코드 없이 구축하기
AI 에이전트끼리 소통하는 SNS 등장? 엔비디아-OpenAI 투자 결렬 위기까지