티스토리 뷰
GRU(Gated Recurrent Unit)
2개의 Gate를 이용해 현 단계의 인풋과 이전 히든 정보 비율을 조절합니다.
1️⃣ Reset gate : 새로운 hidden을 생성할 때 현재 입력 정보와 관련없는 과거의 정보를 drop
2️⃣ Update gate : 과거의 정보를 얼마나 기억할지를 결정
만약, r(Reset Gate)가 0에 가까우면, 과거 히든의 정보는 이번 step의 feature을 만드는 데에 기여도가 낮다.
만약, z(Update Gate)가
1) 0에 가까운 경우, 과거의 정보를 그대로 복사(이번 스텝의 정보는 히든을 만드는 데 기여X)
→ Vanishing gradient가 줄어든다.
2) 1에 가까운 경우, 과거 히든을 그대로 복사하는 부분은 줄어들고
이번 스텝에서 만들어진 벡터를 크게 반영하여 이번 스텝의 히든을 만든다.
[참고문헌]
'Data Science&AI' 카테고리의 다른 글
[딥러닝] Attention에 대한 설명 (0) | 2023.02.18 |
---|---|
[딥러닝] Seq2Seq에 대한 설명 (0) | 2023.02.18 |
[딥러닝] LSTM(Long-Short Term Memory)에 대한 이해 (0) | 2023.02.13 |
[딥러닝] RNN(Recurrent Neural Network)에 대한 이해 (0) | 2023.02.13 |
[AI-언어] 언어를 인식(NLU)하는 방법은? - 토크나이징 / 인코딩 / 토큰 임베딩 (0) | 2023.02.13 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 데이터 드리프트
- AutoEncoder
- Model Drift Detection
- 시계열딥러닝
- Concept Drift
- NHITS설명
- SQLD
- amazon Q
- 영화 인턴
- 추천시스템
- On-premise BI vs Cloud BI
- SQLD자격증
- pandas-gpt
- Data Drift와 Concept Drift 차이
- 모델 드리프트 대응법
- 오토인코더
- data drift
- 비즈니스 관점 AI
- Tableau vs QuickSight
- pandas-ai
- 최신시계열
- SQLD 정리
- Generative BI
- 모델 배포
- amzaon quicksight
- Data Drift Detection
- 생성형BI
- Model Drift
- 영어공부
- 모델 드리프트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함