본문 바로가기 메뉴 바로가기

MiMi's Self-development Blog

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

MiMi's Self-development Blog

검색하기 폼
  • 분류 전체보기 (101)
    • Data Science&AI (39)
    • Data Engineering (8)
    • 독서 (6)
    • 영어 (28)
    • 경제 & 시사 (20)
  • 방명록

Attention (1)
[딥러닝] Attention에 대한 설명

RNN을 사용한 Seq2Seq 모델링의 특징과 문제점 인풋 문장의 정보를 잘 인코딩(단어 하나하나 누적해 압축한 벡터 생성)하여 디코더가 그에 부합하는 토큰을 하나씩 꺼내는 구조입니다. 디코더가 참고하는 문맥은 입력문이 전부 압축된 하나의 벡터로, 이 벡터는 입력문을 모두 누적하고 있지만, 문장 앞부분의 내용은 너무 압축된 나머지 정보를 거의 잊어버리게 됩니다. ▶▶▶ 인풋/아웃풋 문장의 길이가 길어지면 Seq2Seq의 성능 저하 (Gradient Foregetting, Long term dependency) Attention의 등장배경 (예시) " 지하철 가는 법은 노란색 간판에서 좌회전에서 300미터 정도 간 후에 초록색 표지판이 보이면 우회전을 합니다. 그리고 200미터 정도 직진하면 보입니다"란 ..

Data Science&AI 2023. 2. 18. 17:12
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 모델 배포
  • 최신시계열
  • SQLD
  • SQLD자격증
  • 비즈니스 관점 AI
  • 오토인코더
  • AutoEncoder
  • 모델 드리프트
  • SQLD 정리
  • 생성형BI
  • amzaon quicksight
  • Tableau vs QuickSight
  • Data Drift와 Concept Drift 차이
  • 시계열딥러닝
  • pandas-gpt
  • 데이터 드리프트
  • 영화 인턴
  • Model Drift
  • NHITS설명
  • 영어공부
  • Data Drift Detection
  • On-premise BI vs Cloud BI
  • 모델 드리프트 대응법
  • Concept Drift
  • Model Drift Detection
  • amazon Q
  • 추천시스템
  • Generative BI
  • data drift
  • pandas-ai
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바