Ensemble learning
- 참조
- Ensemble method: 여러개의 머신 러닝 알고리즘으로부터 예측을 결합하는 기술
Types of Ensemble Learning (model combining method)
- Bosststrap Aggregation (Bagging)
- Majority Voting / Bagging / Random forest
- Majority Voting(다수결)
- 가장 단순한 모델 결합 방법으로 전혀 다른 모형도 결합할 수 있다. 다수결 방법은 Hard Voting과 Soft Voting 두 가지로 나뉘어진다.
- Hard voting: 단순 투표, 개별 모형의 결과 기준
- Soft voting: 가중치 투표, 개별 모형의 조건부 확률의 합 기준
- Scikit-Learn의 ensemble 서브패키지는 다수결 방법을 위한 VotingClassifier 클래스를 제공한다.
- estimators: 개별 모형 목록, 리스트나 named parameter 형식으로 입력
- voting: 문자열{hard, soft} hard voting인지 soft voting인지 선택 ( 디폴트로는 hard)
- weight: 사용자 가중치 리스트
[ML] Random Forest Regression
Ensemble learning 참조 Ensemble method: 여러개의 머신 러닝 알고리즘으로부터 예측을 결합하는 기술 Types of Ensemble Learning (model combining method) Boosting AdaBoost / Gradient Boost Bosststrap Agg..
hororolol.tistory.com
ML에서 모델 결합 - Bagging과 Boosting 개념설명
Bagging과 Boosting 주로 머신러닝에서 많이 사용하는 기법 2가지를 설명드리겠습니다. 1. 앙상블 기법 ( Ensemble) Bagging과 Boosting이 해당 된다. 동일한 학습 알고리즘을 사용하여 여러모델을 학습시킨
riverzayden.tistory.com
'AI > 이론' 카테고리의 다른 글
기계학습과 데이터마이닝 (0) | 2021.02.18 |
---|---|
인공지능, 기계학습, 데이터 마이닝 (0) | 2021.02.18 |
[ML] 머신러닝(기계학습) 분류 (0) | 2021.02.11 |
[ML] Logistic regression, Binary Cross-Entropy Loss, binary classifcation (0) | 2021.02.08 |
[ML] Regression 종류 (0) | 2021.02.04 |