[토크ON세미나] 자연어 언어모델 ‘BERT’ 1강 - 자연어 처리 (NLP) | T아카데미

Sdílet
Vložit
  • čas přidán 12. 09. 2024
  • 이번 강의에서는 자연어의 개념과 다양한 언어모델에 대해 이해하고, BERT 모델의 개념 및 메커니즘, 한국어의 BERT 학습 방법에 대해 알아봅니다.
    * 강의 자료는 T아카데미 온라인 강의를 통해 확인하실 수 있습니다.
    ▶ tacademy.skpla...
    (* 강의 내용과 관련한 질문은 T아카데미 홈페지를 통해해 주시기 바랍니다.)

Komentáře • 8

  • @user-yx1es4in5b
    @user-yx1es4in5b Před 3 lety +2

    임베딩에 관련 설명을 아주 이해하기 쉽게 설명해 주셨네요 감사합니다

  • @djsadsa2933
    @djsadsa2933 Před 3 lety +2

    진짜 재밌게 잘봤어요. 지식 공유해주셔서 감사합니다.

  • @user-xg9tv9zq7u
    @user-xg9tv9zq7u Před 4 lety +2

    좋은 강의 감사합니다.

  • @kimbaro
    @kimbaro Před 5 lety +2

    처음 듣는 분야인데도 불구하고 쉽게 이해되요

  • @user-pe7fj3nh2h
    @user-pe7fj3nh2h Před 4 lety +3

    한글을 subword 단위로 분해해서 학습할 경우에 만약 문장에 영문이 있다고하여도 문제는 없는건지요

  • @joetokki
    @joetokki Před 3 lety +1

    Best

  • @uio86a
    @uio86a Před 4 lety +2

  • @iidtxbc
    @iidtxbc Před 3 lety +4

    word2vec 처음 나왔을 때, 문맥 이해한다고 전부다 그래놓고 시간이 지나니까 또 문맥을 이해 못한다는 단점이 있다고 한다.
    그리고 word2vec이전에 나온 LSA도 문맥을 이해한다고 그래놓고 word2vec 나오니까 word2vec이 더 좋다고 다 그랬다.
    결국 그 당시에는 그 분야에서 일하는 사람들도 자기들 나름데로 안다고 뭔가를 주장하지만, 결국 아는게 아니라 그냥 학습자 였다는 사실.
    그러니, 아무리 그 분야에서 일한다고 해도 전적으로 다 믿을 건 안된다는 거임. 왜? 그 사람도 남들이 그렇다고 하는 사실을 마치 자기의
    지식처럼 이야기를 할 뿐이기 때문임.