본문 바로가기 메뉴 바로가기

MiMi's Self-development Blog

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

MiMi's Self-development Blog

검색하기 폼
  • 분류 전체보기 (101)
    • Data Science&AI (39)
    • Data Engineering (8)
    • 독서 (6)
    • 영어 (28)
    • 경제 & 시사 (20)
  • 방명록

배깅 (1)
[머신러닝 기초] Bagging(배깅) vs Boosting(부스팅)

🟩Bagging ◼ 주어진 데이터를 모집단으로 가정하고, 부표본(subsample)을 반복추출(복원추출)하여 표본이 얻어진 상황을 재현함 ◼ 부표본으로부터 분석을 진행하고 얻어진 분석결과들을 부표본의 반복추출 시 반복 재현 ◼ 기대값은 Regression의 경우 평균값으로, Classfication의 경우 Voting 으로 최종결과를 결정 ◼ 반복수행이 많아질수록 원데이터의 크기가 클수록, 표본의 크기가 클수록 추정된 Bootstap 추정치 결과는 참값에 가까워짐 ◼ 반복수를 많이 늘리거나 표본의 크기를 키워도 결국 원데이터의 모수로 수렴, 따라서 원데이터의 크기가 작으면 Boostrap 추정치의 신뢰도가 떨어짐 🟩Boosting ◼ Weak learner를 결합하여 Strong leaner를 만드는 머..

Data Science&AI 2021. 7. 17. 14:19
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • amzaon quicksight
  • 오토인코더
  • Model Drift Detection
  • NHITS설명
  • 모델 드리프트 대응법
  • On-premise BI vs Cloud BI
  • Model Drift
  • SQLD자격증
  • 모델 드리프트
  • 생성형BI
  • SQLD
  • data drift
  • 최신시계열
  • amazon Q
  • 영화 인턴
  • Tableau vs QuickSight
  • 영어공부
  • pandas-gpt
  • Generative BI
  • 모델 배포
  • 데이터 드리프트
  • pandas-ai
  • Data Drift Detection
  • 비즈니스 관점 AI
  • Data Drift와 Concept Drift 차이
  • 시계열딥러닝
  • 추천시스템
  • SQLD 정리
  • Concept Drift
  • AutoEncoder
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바