본문 바로가기 메뉴 바로가기

MiMi's Self-development Blog

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

MiMi's Self-development Blog

검색하기 폼
  • 분류 전체보기 (101)
    • Data Science&AI (39)
    • Data Engineering (8)
    • 독서 (6)
    • 영어 (28)
    • 경제 & 시사 (20)
  • 방명록

context vector (1)
[딥러닝] Attention에 대한 설명

RNN을 사용한 Seq2Seq 모델링의 특징과 문제점 인풋 문장의 정보를 잘 인코딩(단어 하나하나 누적해 압축한 벡터 생성)하여 디코더가 그에 부합하는 토큰을 하나씩 꺼내는 구조입니다. 디코더가 참고하는 문맥은 입력문이 전부 압축된 하나의 벡터로, 이 벡터는 입력문을 모두 누적하고 있지만, 문장 앞부분의 내용은 너무 압축된 나머지 정보를 거의 잊어버리게 됩니다. ▶▶▶ 인풋/아웃풋 문장의 길이가 길어지면 Seq2Seq의 성능 저하 (Gradient Foregetting, Long term dependency) Attention의 등장배경 (예시) " 지하철 가는 법은 노란색 간판에서 좌회전에서 300미터 정도 간 후에 초록색 표지판이 보이면 우회전을 합니다. 그리고 200미터 정도 직진하면 보입니다"란 ..

Data Science&AI 2023. 2. 18. 17:12
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 생성형BI
  • 영화 인턴
  • 모델 드리프트
  • Data Drift Detection
  • SQLD
  • 데이터 드리프트
  • 모델 드리프트 대응법
  • On-premise BI vs Cloud BI
  • pandas-gpt
  • data drift
  • 최신시계열
  • 영어공부
  • 비즈니스 관점 AI
  • Model Drift Detection
  • amazon Q
  • 추천시스템
  • Generative BI
  • SQLD 정리
  • amzaon quicksight
  • AutoEncoder
  • SQLD자격증
  • Tableau vs QuickSight
  • 모델 배포
  • Data Drift와 Concept Drift 차이
  • Concept Drift
  • Model Drift
  • 시계열딥러닝
  • 오토인코더
  • NHITS설명
  • pandas-ai
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.