적대적 공격
AI 모델의 취약점을 이용해 의도적으로 잘못된 결과를 유도하거나 내부 정보를 탈취하려는 시도이다. 본문에서는 특정 환자의 정보를 캐내기 위해 정교하게 설계된 프롬프트를 입력하는 행위를 의미한다.