[머신러닝 기초] Bagging(배깅) vs Boosting(부스팅)
🟩Bagging ◼ 주어진 데이터를 모집단으로 가정하고, 부표본(subsample)을 반복추출(복원추출)하여 표본이 얻어진 상황을 재현함 ◼ 부표본으로부터 분석을 진행하고 얻어진 분석결과들을 부표본의 반복추출 시 반복 재현 ◼ 기대값은 Regression의 경우 평균값으로, Classfication의 경우 Voting 으로 최종결과를 결정 ◼ 반복수행이 많아질수록 원데이터의 크기가 클수록, 표본의 크기가 클수록 추정된 Bootstap 추정치 결과는 참값에 가까워짐 ◼ 반복수를 많이 늘리거나 표본의 크기를 키워도 결국 원데이터의 모수로 수렴, 따라서 원데이터의 크기가 작으면 Boostrap 추정치의 신뢰도가 떨어짐 🟩Boosting ◼ Weak learner를 결합하여 Strong leaner를 만드는 머..
Data Science&AI
2021. 7. 17. 14:19
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Tableau vs QuickSight
- 추천시스템
- amzaon quicksight
- 데이터 드리프트
- 비즈니스 관점 AI
- pandas-ai
- 시계열딥러닝
- 모델 드리프트 대응법
- Data Drift Detection
- SQLD
- amazon Q
- data drift
- Model Drift Detection
- On-premise BI vs Cloud BI
- 오토인코더
- Data Drift와 Concept Drift 차이
- 생성형BI
- 영화 인턴
- AutoEncoder
- Generative BI
- SQLD 정리
- pandas-gpt
- SQLD자격증
- NHITS설명
- 모델 드리프트
- Concept Drift
- 영어공부
- 최신시계열
- 모델 배포
- Model Drift
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함