1. 스태킹 앙상블 기법을 활용할 때, 기반 모델(메타 모델)을 어떤 기준으로 선정하면 좋을지 고민해봅시다
개별 알고리즘으로 예측한 데이터 기반으로 다시 예측 수행하는 방식이므로, 기반 모델들의 성능이 좋아야 함. 과적합이 없는 모델이 좋을 것이고, 모델들끼리 단점을 보완할 수 있는 것이 좋을 것이다. (똑같은 오류를 범하지 않도록)
2. XGBoost와 LightGBM의 차이점, 특성, 장단점 등을 비교분석 해봅시다

XGBoost는 상대적으로 학습 속도가 느리고, 메모리 소모가 큼. 과적합을 규제할 수 있다는 장점이 있음.
LightGBM은 반대로 큰 데이터셋에서 매우 빠른 학습 속도를 가짐. 더 작은 메모리 사용량. 예측 성능은 XGBoost와 비슷하지만 기능상 더 다양함.
리프 종심 트리 분할이라는 특징을 가짐. 카테고리형 피처의 자동 변환과 최적 분할을 할 수 있음.
하지만 과적합 가능성이 증가함.