안전 튜닝
AI 모델이 유해하거나 제한된 정보를 생성하지 않도록 학습 과정에서 특정 가이드라인을 주입하는 기술적 조치이다. 모델의 가중치를 조정하여 특정 키워드나 주제에 대해 방어적인 답변을 하도록 유도하며, 이는 배포 지역의 법규나 기업의 윤리 정책을 준수하는 데 필수적인 역할을 한다.