[Paper Review] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

Sdílet
Vložit
  • čas přidán 27. 08. 2024
  • 발표자 : 고려대학교 DSBA 연구실 석사과정 김수빈 (subin-kim@korea.ac.kr)
    발표자료 다운 : dsba.korea.ac.k...
    1. Topic : Informer 논문 리뷰 (arxiv.org/abs/...)
    2. Keyword : Transformer, Long sequence time series, ProbSparse Self-attention, Distilling, Generative style decoder
    3. Contents :
    00:20 Overview
    01:07 Introduction
    06:45 Related Works
    12:17 Paper Review
    40:46 Conclusion
    4. Reference source는 발표자료 내부에 표기

Komentáře • 11

  • @kismakim4669
    @kismakim4669 Před 3 měsíci

    Excellent!! 많은 도움이 되었습니다.

  • @devlos2927
    @devlos2927 Před 10 měsíci +1

    리뷰 준비하시느라 정말 고생 많으셨을 것 같아요. 너무 훌륭한 리뷰였습니다! 감사합니다.

  • @jinwooseong2862
    @jinwooseong2862 Před 2 lety +2

    정말 감사합니다. 지금까지 봤던 논문 리뷰 중에 가장 훌륭했습니다. 큰 배움 얻고 갑니다.

  • @user-vo5kg6nd2j
    @user-vo5kg6nd2j Před 2 lety +3

    정말 양질의 리뷰 도움 많이 되었습니다 감사합니다!!

  • @wonjunchoi4208
    @wonjunchoi4208 Před 2 lety +2

    어려웠던 논문인데 많은 도움 받고 갑니다. 감사합니다!

  • @nhkim9121
    @nhkim9121 Před 2 lety +3

    많은 도움이 되었습니다. 감사합니다.

  • @yumu3655
    @yumu3655 Před 2 lety +2

    수고하셨습니다. 감사합니다.

  • @user-ly5md6qe7j
    @user-ly5md6qe7j Před 2 lety +2

    감사합니다.

  • @user-jj1jz3qs3l
    @user-jj1jz3qs3l Před 5 měsíci

    좋은 강의 감사합니다!

  • @jeonghoonkim2977
    @jeonghoonkim2977 Před 2 lety +1

    잘보았습니다. 감사합니다!!

  • @user-eu7bc2zq7o
    @user-eu7bc2zq7o Před rokem +1

    Informer G.O.A.T