동기식 파라미터 서버
분산 학습 환경에서 마스터 노드가 모든 워커 노드의 그래디언트를 수집하고 가중치를 업데이트한 뒤 다시 배포하는 구조이다. 모든 노드가 동일한 모델 상태를 유지하며 학습의 안정성을 보장한다.