본문 바로가기 메뉴 바로가기

MiMi's Self-development Blog

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

MiMi's Self-development Blog

검색하기 폼
  • 분류 전체보기 (101)
    • Data Science&AI (39)
    • Data Engineering (8)
    • 독서 (6)
    • 영어 (28)
    • 경제 & 시사 (20)
  • 방명록

Attention is all you need (1)
[딥러닝] BERT와 GPT의 기본인 Transformer의 A to Z

📚 논문 : "Attention is all you need" 💻Github : https://github.com/jadore801120/attention-is-all-you-need-pytorch d_model(D_m) class PositionwiseFeedForward(nn.Module): ''' A two-feed-forward-layer module ''' def __init__(self, d_in, d_hid, dropout=0.1): super().__init__() self.w_1 = nn.Linear(d_in, d_hid) # position-wise self.w_2 = nn.Linear(d_hid, d_in) # position-wise self.layer_norm = nn.LayerN..

Data Science&AI 2023. 2. 26. 14:31
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • amazon Q
  • SQLD
  • 비즈니스 관점 AI
  • SQLD자격증
  • 최신시계열
  • Concept Drift
  • Generative BI
  • On-premise BI vs Cloud BI
  • Data Drift Detection
  • SQLD 정리
  • 영화 인턴
  • data drift
  • Model Drift Detection
  • 추천시스템
  • Tableau vs QuickSight
  • NHITS설명
  • 데이터 드리프트
  • 생성형BI
  • Model Drift
  • Data Drift와 Concept Drift 차이
  • 모델 드리프트 대응법
  • pandas-gpt
  • 오토인코더
  • AutoEncoder
  • amzaon quicksight
  • 모델 배포
  • 시계열딥러닝
  • 모델 드리프트
  • pandas-ai
  • 영어공부
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바