본문으로 건너뛰기

llm-bias

거대 언어 모델 편향

중급

LLM이 학습 데이터에 포함된 인간의 선입견이나 통계적 불균형을 학습하여 특정 집단에 대해 차별적이거나 왜곡된 결과를 출력하는 현상이다. 이는 모델의 의도가 아니라 학습 데이터에 존재하는 사회적 패턴을 통계적으로 재현하는 과정에서 발생하며, 공정성 있는 AI 구현을 위해 반드시 해결해야 할 과제이다.