가중치 공격
딥러닝 모델의 핵심 파라미터인 가중치(Weight) 데이터를 직접 수정하여 모델의 출력을 악의적으로 조작하는 방식이다. 특정 조건에서만 오작동하게 만드는 백도어를 심거나 모델의 전반적인 정확도를 떨어뜨리는 등 기기 내 로컬 파일을 변조할 수 있는 환경에서 치명적인 위협이 된다.