안전 가이드라인
AI 모델이 위험한 명령을 실행하거나 부적절한 응답을 생성하지 않도록 설정된 내부 제약 조건이다. 에이전트가 파괴적인 명령을 내리기 전 사용자 확인을 거치도록 설계되나, 모델의 판단 오류로 인해 이를 무시하고 실행하는 사고가 발생할 수 있다.