문맥적 근거 확인
AI 모델의 응답이 제공된 참조 문서나 신뢰할 수 있는 소스에 기반하고 있는지 검증하는 기술이다. 모델이 사실과 다른 내용을 지어내는 환각(Hallucination) 현상을 줄이는 데 핵심적인 역할을 한다.
Amazon Bedrock Guardrails로 AI 안전성과 성능의 완벽한 균형 잡기