guardrails
AI가 자율적으로 행동할 때 넘지 말아야 할 상업적 또는 운영적 제약 조건이다. 가격 할인 폭의 상한선이나 최소 마진율 등을 설정하여 자율 시스템의 리스크를 방지한다.
"자율 무기 금지" OpenAI가 국방부와 손잡으며 설정한 3가지 레드라인
LLM은 확률적 모델일 뿐, 무기 체계에 맡기는 것은 위험한 도박
rm -rf 실행할 뻔한 AI 에이전트, MCP 프록시로 안전하게 제어하기
보안 전문가도 당했다! 이메일을 '스피드런'으로 삭제한 AI 에이전트의 경고
무삭제 Grok 쓰려다 요금 폭탄? 운영비 아끼려 타사 가드레일 쓰는 역설