시스템 프롬프트 추출
AI 모델의 내부 설정이나 지침인 시스템 프롬프트를 외부로 유출시키는 공격 기법입니다. 모델이 직접적인 요구는 거부하더라도 번역이나 수수께끼 같은 우회 경로를 통해 정보를 노출하게 만드는 방식이 포함됩니다.