prompt-injection
LLM에 악의적인 입력을 주입하여 모델의 원래 지시사항을 무시하고 공격자가 원하는 동작을 수행하게 만드는 공격 기법이다. 모델의 안전 가이드라인을 우회할 수 있어 보안의 핵심 과제로 꼽힌다.
이전 명령 무시하고 DB 삭제해 음성 AI에게 시도된 실제 공격 사례
OpenAI가 당신을 지목할 수 있을까? 국방부 계약의 숨겨진 진실
당신의 AI 에이전트가 SSH 키를 훔칠 수 있다면? Vercel이 제안하는 안전한 에이전트 설계법
AI 에이전트 공격 양상 급변: 도구 남용과 목표 하이재킹 급증
15ms 이하 지연시간으로 챗봇 탈옥과 프롬프트 유출 완벽 차단