Ollama: Command line сервер для запуска локальных LLM

Sdílet
Vložit
  • čas přidán 2. 12. 2023
  • Приглашаю в Телеграм общаться по это теме: t.me/AiExp01
    Чат находится здесь: t.me/AiExp02

Komentáře • 6

  • @kvoloshenko
    @kvoloshenko  Před 7 měsíci

    Все ссылки см. здесь: t.me/AiExp01/60

  • @vacsa
    @vacsa Před 3 měsíci

    спасибо за уроки!

  • @user-xo1yo6hi3u
    @user-xo1yo6hi3u Před 6 měsíci

    +

  • @hottabych137
    @hottabych137 Před 5 měsíci

    А что собой представляют модели и где их брать?

  • @aceracer5556
    @aceracer5556 Před 6 měsíci +1

    ctrl + позволяет в терминале увеличивать шрифт. Не все сидят за 27+ мониторами.

    • @kvoloshenko
      @kvoloshenko  Před 6 měsíci

      FYI: Пытался c другой машины обратиться к модели запущенной под Ollama. Нашел про необходимые настройки инфу: github.com/jmorganca/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama
      В итоге для себя написал инструкцию как делать на Ubuntu, может кому тоже пригодится, инструкция здесь: github.com/kvoloshenko/LMRAG_01/blob/main/Doc/ollama_instr_01.txt