본문 바로가기 메뉴 바로가기

MiMi's Self-development Blog

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

MiMi's Self-development Blog

검색하기 폼
  • 분류 전체보기 (101)
    • Data Science&AI (39)
    • Data Engineering (8)
    • 독서 (6)
    • 영어 (28)
    • 경제 & 시사 (20)
  • 방명록

언더피팅 (1)
[딥러닝] Underfitting이 발생한다면?

딥러닝 학습 시 DNN 모델의 Training Loss 결과가 기대성능보다 높고, Validation Loss 역시 높을 경우, Underfitting이 발생한다고 할 수 있다. 이러한 경우 어떻게 아키텍처를 수정하는 게 좋을까? 중요 포인트는 네트워크의 Capacity를 올리는 것! 이다 FNN(Feedforward Neural Network)을 사용한 경우, (1) Epoch 수를 늘린다 (2) DropOut 적용 확률을 줄인다 (3) 레이어 당 노드 수를 늘린다 CNN(Convolutional Neural Network)을 사용한 경우 (1) Convolution 커널 수를 늘린다 (2) Convolution 레이어 수를 늘린다 (3) L2-Regularization term λ를 줄인다

Data Science&AI 2021. 5. 15. 19:30
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • AutoEncoder
  • data drift
  • 영화 인턴
  • 비즈니스 관점 AI
  • 데이터 드리프트
  • amzaon quicksight
  • Data Drift와 Concept Drift 차이
  • SQLD자격증
  • pandas-ai
  • pandas-gpt
  • NHITS설명
  • 모델 드리프트 대응법
  • Concept Drift
  • 생성형BI
  • SQLD 정리
  • 모델 배포
  • Model Drift
  • Data Drift Detection
  • amazon Q
  • Model Drift Detection
  • 추천시스템
  • 시계열딥러닝
  • Tableau vs QuickSight
  • SQLD
  • 영어공부
  • On-premise BI vs Cloud BI
  • Generative BI
  • 오토인코더
  • 최신시계열
  • 모델 드리프트
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바