[머신러닝 기초] Bagging(배깅) vs Boosting(부스팅)
🟩Bagging ◼ 주어진 데이터를 모집단으로 가정하고, 부표본(subsample)을 반복추출(복원추출)하여 표본이 얻어진 상황을 재현함 ◼ 부표본으로부터 분석을 진행하고 얻어진 분석결과들을 부표본의 반복추출 시 반복 재현 ◼ 기대값은 Regression의 경우 평균값으로, Classfication의 경우 Voting 으로 최종결과를 결정 ◼ 반복수행이 많아질수록 원데이터의 크기가 클수록, 표본의 크기가 클수록 추정된 Bootstap 추정치 결과는 참값에 가까워짐 ◼ 반복수를 많이 늘리거나 표본의 크기를 키워도 결국 원데이터의 모수로 수렴, 따라서 원데이터의 크기가 작으면 Boostrap 추정치의 신뢰도가 떨어짐 🟩Boosting ◼ Weak learner를 결합하여 Strong leaner를 만드는 머..
Data Science&AI
2021. 7. 17. 14:19
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 오토인코더
- 생성형BI
- amzaon quicksight
- Model Drift Detection
- Tableau vs QuickSight
- NHITS설명
- 비즈니스 관점 AI
- pandas-ai
- On-premise BI vs Cloud BI
- data drift
- SQLD 정리
- SQLD자격증
- Generative BI
- Model Drift
- 영어공부
- AutoEncoder
- 시계열딥러닝
- SQLD
- 모델 드리프트
- 데이터 드리프트
- 모델 드리프트 대응법
- 추천시스템
- Data Drift Detection
- pandas-gpt
- 영화 인턴
- 최신시계열
- Concept Drift
- amazon Q
- Data Drift와 Concept Drift 차이
- 모델 배포
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함