아마도 정확한 학습
아마도 정확한 학습(Probably Approximately Correct)은 기계학습 모델이 높은 확률로 작은 오차 범위를 가질 수 있음을 보장하는 이론적 틀이다. 적대적 후회 경계에서 유도된 일반화 경계를 통해 모델이 충분한 데이터를 학습했을 때 실제 분포에서도 잘 작동할 것임을 수학적으로 증명하는 데 사용된다.