프롬프트 인젝션
LLM에 악의적인 입력을 주입하여 모델의 원래 지시사항을 무시하고 공격자가 원하는 동작을 수행하게 만드는 공격 기법이다. 모델의 안전 가이드라인을 우회할 수 있어 보안의 핵심 과제로 꼽힌다.