¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!

Sdílet
Vložit
  • čas přidán 15. 02. 2024
  • En el video de hoy vamos a explicar cómo puede instalarse el programa Ollama en Windows, utilizando un nuevo instalador que acaba de ser anunciado. En el episodio de hoy veremos cómo instalar modelos de texto y modelos de imagen. Exploraremos también Ollama WebUI, una interfaz web de código abierto, que nos facilita la interacción con el servicio que acabamos de instalar desde una interfaz visual. Vamos a generar texto, leer imágenes, consultar nuestros documentos e incluso probaremos a acceder a sitios web.
    Aquí os dejo los enlaces para la instalación:
    - Ollama: ollama.com/
    - Ollama WebUI: github.com/ollama-webui/ollam...
    Dudas, comentarios, ideas, sugerencias... ¡os leo aquí, en los comentarios!
  • Věda a technologie

Komentáře • 55

  • @royotech
    @royotech Před 5 měsíci +4

    Excelente video como siempre... sin desperdicios 👏🏻👏🏻👏🏻

  • @ser12369
    @ser12369 Před 5 měsíci +1

    Compadre muchas felicidades por el contenido!!

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      Me alegra mucho que te resulten útiles todos estos contenidos nuevos!

  • @joc4b4r
    @joc4b4r Před 5 měsíci +1

    Buen trabajo. Simple y didáctico. El WebUI un gran descubrimiento.

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      ¡El ritmo al que añaden nuevas funcionalidades al proyecto es increible!

  • @JoseLabeaga
    @JoseLabeaga Před 2 měsíci +2

    Excelente video, enormemente útil. Muchas gracias!!!

  • @HOLASMUNDO2024
    @HOLASMUNDO2024 Před 2 měsíci

    Genio!! muy buenos videos.

  • @JorgeLamaVarela
    @JorgeLamaVarela Před 5 měsíci +4

    Un gran descubrimiento el Ollama Web UI, César. A ver si lo acaban de pulir, pero está interesante.

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      Las últimas versiones están funcionando genial. Parte de las cosas que no funcionaban en este video, están ya resueltas y mejoradas.

  • @jesustomas9708
    @jesustomas9708 Před 2 měsíci

    Excelente Vídeo!

  • @albertinymm
    @albertinymm Před 4 měsíci +1

    Buen aporte!

  • @intelp4ht
    @intelp4ht Před 5 měsíci +2

    muy bueno este video! por favor mas de esto!!! Espero que pronto mejore el RAG, me serviria para que usemos varias personas en un equipo, para el trabajo diario.

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      Gracias por la idea! Los últimos videos que he creado responden precisamente a esta cuestión!

  • @javaboy6581
    @javaboy6581 Před 3 měsíci +1

    Grande, como siempre! Llevo tiempo probando estos modelos desde que nos enseñaste en los primeros videos y me he dado cuenta que son un churro, te aburres en seguida.
    Me quedo con gpt4 de pago, les da mil vueltas. Simplemte no hay color.
    Pero me encanta, a ver si siguen mejorando y algun dia pueden tener uso local

    • @LaHoraMaker
      @LaHoraMaker  Před 3 měsíci

      Según las tareas, algunos de estos modelos pueden funcionar decentemente, pero ninguno es tan flexible ahora mismo como GPT-4.
      No se si has tenido oportunidad de probar los nuevos modelos grandes con pesos abiertos como Command R+ de Cohere, Llama 3 70B o los Mixtral de 8x7B o 8x22B. ¡Muchas novedades!

  • @aitor451
    @aitor451 Před 5 měsíci +1

    Hola! He probado a darle un PDF a Solar y me lo ha resumido bien. En mi caso ha funcionado.

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci +1

      Solar es un fenómenos de modelo!

  • @gustavopelua
    @gustavopelua Před 2 měsíci +1

    Muy buen tutorial!! como se hace para cargar modelos gguf en ollama en windows?

  • @Alfretubedobeyou
    @Alfretubedobeyou Před 4 měsíci

    Gran aporte mi estimado.
    Quiero hacerte una pregunta, al estar funcionando en local, como podría llevar eso a un servidor? y que servicios recomendarías?
    Estoy aprendiendo sobre esto y pues soy relativamente nuevo en IA

  • @royotech
    @royotech Před 5 měsíci +2

    🔥🔥Como los hago para montarlo en un PC en la casa y que se conecten por intranet otros 4 usuarios?
    Para eso quisiera aprender a usarlo y lo pondría en una Orange Pi 5.
    Usaría Mixtral 7B.
    Luego quiero aprender a hacerle Fine Tuning, por ejemplo con codificación C para placas Arduino y ESP32.

  • @terranovich8471
    @terranovich8471 Před 5 měsíci +2

    Amigo ya salió el modelo QWEN de Alibaba y la ventaja principal es la eficacia tanto en ingles como en multi-idiomas, sería bueno probarlo y en que hardware sencillo y humilde desplegarlo! Espero pronto ese video, sería genial

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      Gracias por la sugerencia. Justo esta semana he estado probando Yi y tengo ganas de probar QWen (y su variante Smaug) para ver que tal se comportan en español.
      Lo único que no me acaba de convencer de Qwen es la licencia, que tiene algunas clausulas poco colaborativas.

    • @royotech
      @royotech Před 4 měsíci

      Al final ganara el que mejor use el RAG. Eso es lo que al final le da utilidad.

  • @pamelavelasquez7244
    @pamelavelasquez7244 Před 3 měsíci

    Buenas, por estudio voy a desarrollar un chatbot tutor lenguaje EPL, que modelo de ollama me recomienda usar, sera alimentado con documentacion especifica y ejercicios

  • @MV-001A
    @MV-001A Před 5 měsíci +1

    Niceee

  • @mjosepth
    @mjosepth Před 2 měsíci +1

    Gracia por tu aportes, estoy utilizando ollama con AnythingLLM, espero puedas comentar acerca de como utilizar en conjuto , por el momento estoy usado mis documento en PDF y realizar consulta .. saludos

    • @LaHoraMaker
      @LaHoraMaker  Před 2 měsíci

      Gracias por las recomendaciones. Me están llegando muchos comentarios positivos acerca de AnythingLLM así que... ¡tocará probarlo!

  • @xxw4879
    @xxw4879 Před 3 měsíci

    hola, he seguido los pasos pero no me aparece el modelo cuando despliego dentro de Ollama WebUI, tampoco me deja descargar modelos desde Models. Me da error LiteLLM: Invalid config passed in y ademas la interfaz no me sale igual.

  • @gorkarodriguez
    @gorkarodriguez Před 3 měsíci +2

    Hola! Un video genial, puedes cambiar la carpeta de instalación de los modelos añadiendo la variable de entorno OLLAMA_MODELS. Asi los puedes instalar y usar desde D://, E:// o el que quieras.
    Un saludo

    • @LaHoraMaker
      @LaHoraMaker  Před 3 měsíci

      Gracias por compartir esta opción de configuración!

  • @Mike-dl7gt
    @Mike-dl7gt Před 26 dny +1

    la interfaz ha cambiado, hace falta actualizar este tutorial

  • @dario61081
    @dario61081 Před 5 měsíci +1

    Excelente video!

  • @Kaesarfdez
    @Kaesarfdez Před 5 měsíci

    El video es muy educativo. Encuentro algunas diferencias en el interfaz pero supongo que serán cambios que se vayan produciendo mientras pulen la UI.
    Open WebUI Version
    v1.0.0-alpha.100
    Ollama Version
    0.1.25
    Por otra parte, no he logrado cargar el modelo "Solar" aunque he cargado "based dolphin mixtral" y "llava" sin problemas.

    • @LaHoraMaker
      @LaHoraMaker  Před 5 měsíci +1

      Cambiaron el nombre del proyecto 90 minutos después de publicar el video jajaja menuda suerte la mía!

    • @LaHoraMaker
      @LaHoraMaker  Před 5 měsíci

      Para más información: github.com/open-webui/open-webui/pull/777 :)

    • @Kaesarfdez
      @Kaesarfdez Před 5 měsíci

      Bueno a @LaHoraMaker , que todo sea eso en la vida. ;-D

  • @canaljoseg0172
    @canaljoseg0172 Před 3 měsíci +1

    Lo que pasa es que algunos PDF vienen protegido, y no permite copiar o pegar, o tiene un certificado. Por lo cual no puede modificar el sistema.

    • @LaHoraMaker
      @LaHoraMaker  Před 3 měsíci

      En ese caso puedes hacer captura de pantalla desde el sistema operativo y pasar la imagen al modelo de visión :)

  • @aitor451
    @aitor451 Před 5 měsíci +1

    Esto podría ser equivalente a LM Studio, ¿verdad?

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci +1

      Hola Aitor, si, esto es equivalente a LM Studio con dos diferencias notables: tiene incluida la opción de consultar tus documentos y guardar tus prompts. Y por otra parte te permite tener el servidor y el cliente en equipos distintos, así que puede usar el mismo Ollama distinta gente o equipos con menos potencia.

  • @cazadoresdecryptos
    @cazadoresdecryptos Před 4 měsíci +2

    buenas, y como se hace para actualizar Ollama?

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci +1

      En Windows, tan sólo hay que descargarse el nuevo ejecutable y hacer doble click. Con esto actualizas el binario y ...¡listo!

  • @jossejosse952
    @jossejosse952 Před 5 měsíci

    Me dice que tiene virus

    • @LaHoraMaker
      @LaHoraMaker  Před 5 měsíci

      ¿Qué antivirus estás utilizando? Dado que el instalador levanta un servicio con un puerto siempre activo, quizás está siendo detectado como virus erróneamente

    • @jossejosse952
      @jossejosse952 Před 5 měsíci

      Puede ser que sea falso virus, uso el Windows defender de Windows 11.

  • @ithanhunt3250
    @ithanhunt3250 Před 4 měsíci +1

    *EL USO MAS COMUN Q SE LE PUEDE DAR ESTANDO SIN INTERNET EN LOCAL, ES DE UNA **#ENSICLOPEDIA** Q RESPONDA TODO TIPO DE PREGUNTAS, Y OTRA SERIA DE ASISTENTE, Y OTRA SERA DE TRADUCOR Q TRADUSCA TODO EL TEXTO Q UNO LE ESCRIBA Y ESPERO Q MUY PRONTO LE AGREGEN LA FUNCION DE GENERAR IMAGENES DIRECTAMENTE YA Q DICEN Q SI LO HARAN EN UN FUTURO MUY CERCANO*

    • @LaHoraMaker
      @LaHoraMaker  Před 4 měsíci

      Estos modelos se han entrenado con parte del contenido de Wikipedia, así que es capaz de producir resultados similares. Ciertamente se podría emplear para acceder a documentos locales y producir nuevos contenidos relacionados. Para la parte de generaciónd de imagenes y texto integrados, puedes probar soluciones como LocalAI.

  • @royotech
    @royotech Před 4 měsíci +2

    Me parece que este es el mejor:
    💥ollama run sammcj/smaug:72b-q4_k_m (consume mucha máquina , dicen que el que le puede plantar cara ChatGPT 3.5)
    también descargue:
    👀 ollama run sammcj/smaug-mixtral-v0.1:70b-q3_k_m (lentísimo)
    👎ollama run Mistral (no sirve 💩)