hallucination-guardrails
LLM이 사실과 다른 정보를 생성하는 환각 현상을 방지하기 위한 안전장치이다. 출력 데이터의 형식을 검증하거나 외부 지식 베이스와 대조하는 과정을 워크플로에 포함시켜 생성된 결과물의 품질과 정확성을 보장한다.
LLM이 사실과 다른 정보를 생성하는 환각 현상을 방지하기 위한 안전장치이다. 출력 데이터의 형식을 검증하거나 외부 지식 베이스와 대조하는 과정을 워크플로에 포함시켜 생성된 결과물의 품질과 정확성을 보장한다.