티스토리 뷰
GRU(Gated Recurrent Unit)
2개의 Gate를 이용해 현 단계의 인풋과 이전 히든 정보 비율을 조절합니다.
1️⃣ Reset gate : 새로운 hidden을 생성할 때 현재 입력 정보와 관련없는 과거의 정보를 drop
2️⃣ Update gate : 과거의 정보를 얼마나 기억할지를 결정
만약, r(Reset Gate)가 0에 가까우면, 과거 히든의 정보는 이번 step의 feature을 만드는 데에 기여도가 낮다.
만약, z(Update Gate)가
1) 0에 가까운 경우, 과거의 정보를 그대로 복사(이번 스텝의 정보는 히든을 만드는 데 기여X)
→ Vanishing gradient가 줄어든다.
2) 1에 가까운 경우, 과거 히든을 그대로 복사하는 부분은 줄어들고
이번 스텝에서 만들어진 벡터를 크게 반영하여 이번 스텝의 히든을 만든다.
[참고문헌]
'Data Science&AI' 카테고리의 다른 글
[딥러닝] Attention에 대한 설명 (0) | 2023.02.18 |
---|---|
[딥러닝] Seq2Seq에 대한 설명 (0) | 2023.02.18 |
[딥러닝] LSTM(Long-Short Term Memory)에 대한 이해 (0) | 2023.02.13 |
[딥러닝] RNN(Recurrent Neural Network)에 대한 이해 (0) | 2023.02.13 |
[AI-언어] 언어를 인식(NLU)하는 방법은? - 토크나이징 / 인코딩 / 토큰 임베딩 (0) | 2023.02.13 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- NHITS설명
- amzaon quicksight
- 최신시계열
- Data Drift와 Concept Drift 차이
- Data Drift Detection
- 데이터 드리프트
- 시계열딥러닝
- Tableau vs QuickSight
- SQLD
- pandas-gpt
- 영화 인턴
- Concept Drift
- 모델 배포
- amazon Q
- 모델 드리프트 대응법
- pandas-ai
- SQLD 정리
- On-premise BI vs Cloud BI
- Model Drift
- 비즈니스 관점 AI
- 추천시스템
- AutoEncoder
- Model Drift Detection
- Generative BI
- 생성형BI
- 모델 드리프트
- 오토인코더
- 영어공부
- data drift
- SQLD자격증
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
글 보관함