Introducing Three Practical Korean Models Based on Llama-3 and Colab Practice (Performance Check!)

Sdílet
Vložit
  • čas přidán 4. 08. 2024
  • 💻Source Code and Repositories:
    1. beomi/Llama-3-Open-Ko-8B-Instruct-preview
    colab.research.google.com/dri...
    2. MLP-KTLim/llama3-Bllossom
    colab.research.google.com/dri...
    3. maywell/Llama-3-Ko-8B-Instruct
    huggingface.co/maywell/Llama-...
    4. Trying out Llama-3-70B
    114.110.129.250:8080
    * Note: The server could be closed at any time.
    * You can enter any email for testing.
    * No personal information is collected. All data will be deleted when the server closes.
    Chapters:
    00:00 Intro
    01:11 Model Description
    03:23 Code Practice
    06:30 Performance Test
    08:34 Outro
    📮Business and Development Inquiries
    kairess87@gmail.com
    😘Support for Bbanghyeong's Developing Countries
    KakaoPay: qr.kakaopay.com/Ej86nqvdu
    Toonation: toon.at/donate/helloworld
    Link Collection: lnk.bio/kairess
    #빵형 #llama3 #라마3 #llm #ai #인공지능
  • Věda a technologie

Komentáře • 18

  • @kyungtaelim4412
    @kyungtaelim4412 Před 3 měsíci +69

    Bllossom 창조주입니다! 빵형에게 소개받다니 영광입니다 ㅋㅋ

  • @ot7141
    @ot7141 Před 3 měsíci +1

    우와!! 감사합니다!👍🙏

  • @user-nr7kc1hn9e
    @user-nr7kc1hn9e Před 2 měsíci

    빵형님 안녕하세요. 저 혹시 A6000, A100도 써보셨나요? llm모델 응답속도와, 파인튜닝 훈련에 H100에 비해서 엄청 오래 걸릴까요?

  • @anonsimpch.7344
    @anonsimpch.7344 Před 2 měsíci +2

    만드신거 구경하는데 '안녕' 한 마디 쳤는데 애가 미쳐버렸어요

  • @jkijljbnj7165
    @jkijljbnj7165 Před 3 měsíci

    개ㅃㅏ르네 ㄷㄷㄷ

  • @maywellai
    @maywellai Před 3 měsíci +1

  • @Yacktalkun
    @Yacktalkun Před 3 měsíci +4

    언어모델은 정교함보단 가벼움에 집중해야 할때!!

  • @bonik.
    @bonik. Před 2 měsíci

    잘 봤습니다. 실행방법보다 모델별 한국어 성능이 궁금한데 그 부분 분량이 조금 아쉽습니다.

  • @waterhumanb
    @waterhumanb Před 3 měsíci

    colab 말고 vscode에서 api처럼 사용하는 방법도 있을까요? 일반 라마3는 api를 활용해서 사용할 수 있는데, 시스팀에 한글로 답변 해주라는 프롬프트를 추가해도 가끔 영어로 답변할때가 잇네요..

    • @Ndex00
      @Ndex00 Před 2 měsíci

      플러그인 중에 continue 라고 있는데 ollama 를 로컬 서버 사용해서 커스텀 모델을 붙일 수는 있는데 모든 모델을 바로 붙일수있는지는 확인해봐야되요

  • @nacho_cheese207
    @nacho_cheese207 Před 3 měsíci +3

    혹시 70b모델 돌린 pc 성능 알 수 있을까요? 제 pc에서 돌려보려 했는데 gpu는 거의 사용하지 않고 cpu만 사용하는 듯 한 모습을 해서 궁금합니다.

    • @loganlee7510
      @loganlee7510 Před 3 měsíci +4

      160기가바이트 필요하대요. 그래서 메모리 오프로드로 올라간대요 돌릴라면 4090 8장 필요하다고 들었어요

    • @nxyl2015
      @nxyl2015 Před dnem

      전 70b

  • @user-gw9el1ew2f
    @user-gw9el1ew2f Před 2 měsíci

    open webui 어떻게 추가할 수 있나요?

  • @JH-bb8in
    @JH-bb8in Před 3 měsíci

    70bn 모델중에 한국어 제일 잘하는 건 뭔가요?

  • @user-nr7kc1hn9e
    @user-nr7kc1hn9e Před 3 měsíci +2

    음 접속자가 많아서 그런지, 실행결과가 나오지 않았다. H100을 느껴보고 싶었으나 느낄수 없었다. H100이 80GB제품으로 알고 있어서, 72기가 정도의 모델이 올라가 있을줄 알았으나, 37.8기가 모델이 올려져 있어서, 내가 쓰고 있는 40기가 모델과 비교할수 없었다. 72기가 모델의 성능을 보고 싶었음. 확인했으면, 141기가 모델을 구성하기 위해 시스템 투자 해봤을수도. 72기가 모델 올려주세요 .ㅠ.

    • @user-nr7kc1hn9e
      @user-nr7kc1hn9e Před 3 měsíci

      32K라서 그런듯 . 80GB gpu가 필요했던듯.

  • @user-dp1lx4in2w
    @user-dp1lx4in2w Před 3 měsíci

    이게 모하는 거져?