앙상블 기법
- 단일 머신러닝 모델을 연결하여 더 효율적인 모델을 만드는 기법
- 앙상블의 아이디어는 많은 시행의 결과가 이성적으로 합리적인 결과를 기대함
- 크게 Bagging과 Boosting 방법으로 나눈다.
Bagging(bootstrap agrregating)
- 샘플을 여러번 뽑아(Bootstrap) 각 모델을 학습시켜 결과물을 집계(Aggregration)
- Train데이터에서 임의로 여러개의 샘플을 추출하여 모델 학습하는 과정을 반복하여 개별 학습모델을 생성
- 각 모델은 서로 독립적
- 각 모델별로 Test 데이터를 예측한 값으로 투표(Voting) 또는 평균(Regression)을 통해 최종 예측
- 이러한 Bagging 기법을 이용한 모델이 Random Forest
Boosting
- 잘못 분류된 샘플에 더 많은 가중치를 주어 학습
- Bagging과 달리 모델 결과에 가중치를 주어 다음 모델에 영향을 끼침(Sequential 하다)
- 잘못 분류된 데이터에 집중하여 새로운 분류 규칙을 만드는 단계를 반복
- Boosting 모델
- Adaboost
- XGBoost
- LightGBM
- CatBoost
Bagging과 Boosting의 장단점
- Boosting은 Bagging의 비해 오류가 적다.
- Boosting은 Overfitting 될 가능성이 있으며 속도가 느리다
https://icim.nims.re.kr/post/easyMath/838
'Machine learning Deep learning' 카테고리의 다른 글
[ML] 머신러닝 모델 정확성 증가 방법 (0) | 2022.01.18 |
---|---|
[ML/DL] Feature Selection Method (0) | 2022.01.16 |
[DL] 딥러닝 인공신경망 종류 (0) | 2022.01.06 |
[Kaggle][House Prices]보스턴 집값 예측 for Begginers (0) | 2021.12.19 |
기계 학습 알고리즘 (Machine Learning Algorithm) (0) | 2019.03.12 |