사후 확신 편향
어떤 사건의 결과를 알고 난 뒤, 마치 처음부터 그 결과를 예측할 수 있었던 것처럼 생각하는 경향이다. 데이터 어노테이션 시 미래의 정보를 바탕으로 과거의 결정을 정당화하면 모델에게 잘못된 학습 신호를 줄 수 있어 엄격한 통제가 필요하다.
자율주행 AI가 '왜' 그렇게 운전했는지 설명할 수 있게 된다면?
단순 인식을 넘어 추론으로: 자율주행 AI의 '왜'를 가르치는 방법