stacking
여러 모델의 예측 결과를 새로운 데이터셋의 피처로 사용하여 최종 메타 모델을 학습시키는 앙상블 기법이다. 개별 모델들이 가진 장점을 결합하여 단일 모델보다 높은 일반화 성능을 얻는 것이 목적이다.
내 모델의 결과를 GBDT 피처로 넣으면 성능이 올라갈까?