자세 조작
LLM이 특정 작업을 수행하기 전에 해석적 입장을 취하도록 유도하는 새로운 공격 클래스이다. 페이로드나 주입 시그니처 없이 언어의 뉘앙스만으로 모델의 추론 상태를 변화시켜 기존 보안 필터를 우회한다. 모델의 최종 판단을 공격자가 의도한 방향으로 강력하게 유도할 수 있어 보안상 매우 중요하다.