배치 크기 제약
모델 학습 시 한 번에 처리하는 데이터 묶음의 크기 제한을 의미합니다. GPU 노드 수가 늘어날 때 배치 크기를 무한정 키울 수 없기 때문에 하드웨어 스케일링의 효율이 저하되는 원인이 됩니다.