Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

Sdílet
Vložit
  • čas přidán 20. 08. 2024

Komentáře • 81

  • @XavierMitjana
    @XavierMitjana  Před 3 měsíci +5

    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_

  • @juliocorral
    @juliocorral Před 3 měsíci +5

    Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.

  • @faustoorozcocoy1256
    @faustoorozcocoy1256 Před 3 měsíci +7

    Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya.
    Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!

  • @juanjesusligero391
    @juanjesusligero391 Před 3 měsíci +9

    Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)

    • @y0._.
      @y0._. Před 3 měsíci

      Pasa tuto xd

    • @juanjesusligero391
      @juanjesusligero391 Před 3 měsíci +2

      @@y0._. Hay uno hecho ya, en un canal llamado "La Hora Maker". El vídeo se llama "¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!".
      Lo único es que ahora la GUI (interfaz gráfica) se llama OpenWebui (el vídeo es de hace dos meses, de cuando se llamaba OllamaWebui), pero se instala igual (yo seguí ese tutorial para instalarlo todo).

    • @y0._.
      @y0._. Před 3 měsíci

      @@juanjesusligero391 muchas gracias!

  • @airdany
    @airdany Před 3 měsíci +12

    Lo único que me disgusta de la novedad de la IA actual, es que sacan casi todo para ordenadores con recursos potentes. Si tienes un ordenador con más de 5 años te dan la espalda. Mi macmini va genial a dia de hoy, maqueto libros mientras navego y retoco imágenes.. holgadamente. Pero LM Studio ya no tiene versión para mi sistema operativo, he de parchear el sistema para intentar cargarle la siguiente (Big Sur) y aun asi no sé si podria usar LM Studio. He descargado JAN que hace lo mismo, y el listado de modelos ya me adieverten en más de la mitad que mi memoria es justa (8 GB Ram) diciendo que iria lento el sistema. He descargado con OLLAMA en mi terminal algunos modelos de IA de 4 gigas y van despacio, descargué uno de 25 gigas e iba tan lento que no lo usé. Xavier! independientemente de LM Studio, JAN o lo que sea... ¿hay alguno que en local te permita analizar PDFs?. Me va genial darle PDFs a alguna IA y decirle sumame todas estas facturas o buscame tal cosa y local seria más privado.

    • @felixcanosa6819
      @felixcanosa6819 Před 3 měsíci +5

      Podrías usar Gpt4ALL o JAN, y usar el nuevo modelo de Microsoft Phi-3 . En mi caso tengo la RAM justa (8GB) y una CPU Intel I7 de cuarta generación y corriendo con el modelo phi-3 me va bastante bien (los mas grandes como mistral 7x8 o los de LLAMA van como hombre picando en piedra).

    • @elsubidonk
      @elsubidonk Před 3 měsíci

      que modelo de Mac mini tienes? yo tengo un macbook pro del 2012, con una Nvidia de 1gb mas o menos. Te funciona bien? Si no es asi, puedes ponerle windows o linux y te ahorras de subir a Big sur u otra version mas moderna de MacOS.

    • @felixcanosa6819
      @felixcanosa6819 Před 3 měsíci +2

      @@elsubidonk si, tengo un procesador Intel (no mac), usando Gpt4ALL Y con un S.O linux mint, con el modelo que te especifique va muy bien,

    • @elsubidonk
      @elsubidonk Před 3 měsíci

      @@felixcanosa6819 mmm bueno habra que probar.

  • @mr.ti7i86
    @mr.ti7i86 Před 3 měsíci +1

    En los laboratorios de Perplexity ya pueden probarlos. Tienen ambos modelos de Llama 3 🤖

  • @manudetierra
    @manudetierra Před 24 dny

    Graciasss increiblemente util este video

  • @jneon66
    @jneon66 Před 3 měsíci +3

    @Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D

  • @canaljoseg0172
    @canaljoseg0172 Před 3 měsíci

    He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16.
    No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local.
    Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno.
    Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT.
    Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺

  • @Montes7Fco
    @Montes7Fco Před 3 měsíci +2

    Xavier una pregunta ¿Hay alternativas mejores aparte de ChatPDF que sea gratuito? Donde se puedan subir archivos más pesados o incluso subir varios PDFs a la vez. Me viene genial para estudiar, ya que puedo resolver cualquier duda en cuestión de segundos. Un saludo!

    • @revo8054
      @revo8054 Před 3 měsíci +1

      Claude ai te permite subir varios pdf

  • @osito1701
    @osito1701 Před 3 měsíci

    Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.

  • @TICdoc_
    @TICdoc_ Před 3 měsíci

    ¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡

  • @soniadiaz1174
    @soniadiaz1174 Před 10 dny

    Gracias!!

  • @juliangomez4543
    @juliangomez4543 Před 3 dny

    Una pregunta necesito pasar imagenes a texto que prompts o IA recomendais?

  • @PacoGoro
    @PacoGoro Před 3 měsíci

    Xavier, ¿conoces algún modelo que no esté censurado y que se pueda cargar en local? Muchas gracias por tus excelentes vídeos.

  • @user-bm1bp5el1q
    @user-bm1bp5el1q Před 3 měsíci +1

    Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos

  • @IAMKTINM
    @IAMKTINM Před 3 měsíci

    Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.

  • @gstvgrc
    @gstvgrc Před 3 měsíci

    Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?

  • @jorgeosmar5429
    @jorgeosmar5429 Před 3 měsíci

    Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.

  • @11020tony
    @11020tony Před 3 měsíci +1

    muy bueno, gracias

  • @Nousenesp
    @Nousenesp Před 2 měsíci

    Para los que sepan se podría usar Llama 3 con chatRTX?
    Y en ese caso iría más rápido que con LMstudio?

  • @MrMoisheLebowitz
    @MrMoisheLebowitz Před 3 měsíci

    Gracias x colocar llamita 🇵🇪 ❤

  • @UrsulaCallistis
    @UrsulaCallistis Před 3 měsíci +1

    En caso de que algún día los desarrolladores logren hacer esto de manera fácil en un celular con Android, ojalá puedas hacer un vídeo hablando de eso, ya que todas las novedades de IA las conozco gracias a ti, por ejemplo, Poe lo conocí gracias a ti. Sé que hoy en día ya se pueden instalar este tipo de cosas en Android, pero es muy engorrosos, ya que hay que usar comandos en Termux. Si se pudiera hacer una APK y descargar un modelo y luego cargar a la aplicación el modelo ya descargado (algo así como funcionan los emuladores de consolas de videojuegos) sería más fácil. Aunque no sé qué tan posible sea esto, ya que si todavía no se ha hecho, quizá es porque no se puede. Así sería más fácil, ya que además de no tener que estar poniendo comandos, en caso de que algo te dé error después que te haya funciona y tangas que desinstalar la aplicación, no tendrías que volver a descargar otra vez el modelo y podrías hacerlo todo de manera verdaderamente offline, ya que tendrías el APK y el modelo descargado, creo que con los años esto se va a poder resolver.

    • @jjen9595
      @jjen9595 Před 3 měsíci +1

      Donde vives? En la era de la cavernas? Eso ya se puede, la aplicación se llama "Layla Lite" instale phi 3, pero mi móvil no es muy poderoso así que tardo algo en responde 🤪

    • @UrsulaCallistis
      @UrsulaCallistis Před 3 měsíci

      @@jjen9595 Oye amigo, gracias por avisar, yo no sé cómo se hace eso ¿Me puedes explicar, por favor?, y gracias por avisar, yo no sabía. Tengo un celular más o menos potente, creo que uno de esos modelos ultra pequeños me podrían correr, pero no tengo computadora, siempre e intentado buscar alguna APK parecida lo que hace LM Studio, pero para Android, ya que LM Studio solo está para computadora. Estar usado Termux no es práctico para mí, sobre todo porque en caso de que tengas que desinstalar Termux por algún motivo, y quieres volver a usar otrs vez el modelo que tenías, vas a necesitar sí o sí una conexión a inter para hacer todo ese proceso otra vez con comandos.

    • @UrsulaCallistis
      @UrsulaCallistis Před 3 měsíci

      ​@@jjen9595 O sea, ¿se puede interpretar Phi 3 en Layla Lite?

    • @jjen9595
      @jjen9595 Před 3 měsíci

      @@UrsulaCallistis igual a lo que hacen en este video, le puedes preguntar y todo

    • @jjen9595
      @jjen9595 Před 3 měsíci

      @@UrsulaCallistis descarga el modelo, pesa 2 GB y ponlo en una carpeta en tu teléfono y después en Layla pon custom llm y ahí te pregunta dónde está, una vez que le haces click ya no puedes mover el archivo porque creo que se buguea y con eso ya puedes hablar con el chat, es posible ya que phi tiene 3 días de haber salido y está dedicado para teléfonos, aunque la versión de 2gb está bastante recortada así que para pruebas está bien

  • @pedroguzmanasmat7371
    @pedroguzmanasmat7371 Před 3 měsíci

    excelente aporte.

  • @airdany
    @airdany Před 3 měsíci

    Que bueno! JAN lleve esa función de "charlar" con PDFs, a ver si doy con un modelo que me funcione... sino seguiremos indagando. Muy bueno este video con ideas.

  • @javier.vallejos
    @javier.vallejos Před 3 měsíci

    Esta muy bueno el video, graicas por compartir. No sé si existe alguno que admita cualquier tipo de archivo? (tipo xml, html, jpg, bat, py, xlsx, etc) y si hay alguna que pueda "entrenarse" en algo y que considere los avances que se hayan hecho en el tiempo en relación a cómo abordar ciertas tareas... eso existe en local a día de hoy?

    • @javier.vallejos
      @javier.vallejos Před 3 měsíci

      Algo así como fine-tuning :D

    • @XavierMitjana
      @XavierMitjana  Před 3 měsíci +1

      Hola Javier, puede realizarse fine tuning de modelos en la nube y luego ejecutarlos en local. Creo que es lo más parecido a lo que necesitas.

    • @javier.vallejos
      @javier.vallejos Před 3 měsíci

      @@XavierMitjana Podrías hacer un video de cómo sería el proceso? no me imagino haciendo fine-tuning en la nube (idealmente gratis) entregándole archivos, sería ideal conocer el proceso a grandes rasgos y así cada quién en su área pueda hacer sus primeros desarrollos con eso. Saludos y muy buenos videos!

  • @xavifont7206
    @xavifont7206 Před 3 měsíci

    Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?

  • @akasha6287
    @akasha6287 Před 3 měsíci

    Buenos dias amigo gracias por tus videos, un favor que IA es recomendable para revisar codigo

  • @michel316-f1t
    @michel316-f1t Před měsícem

    Mi maquina no es compatible con ML Studios, me dice que los Backends son incompatibles. Que puedo hacer para solucionar este problema

  • @pm9327
    @pm9327 Před 3 měsíci

    ¿Alguien sabe por que ChatGPT4 manda este mensaje? “New responses will use GPT-3.5 until your GPT-4 limit resets” (Las nuevas respuestas utilizarán GPT-3.5 hasta que se restablezca su límite de GPT-4), ¿“límite”?, ¿como que hay límites si es una cuenta pagada?.
    Gracias por sus comentarios.

    • @XavierMitjana
      @XavierMitjana  Před 3 měsíci +2

      Sí, incluso con la versión de pago ChatGPT impone límites de uso. Antes te lo decía explícitamente, 40 mensajes cada 3 horas, ahora es algo un poco más difuso.

    • @pm9327
      @pm9327 Před 3 měsíci

      @@XavierMitjana Pero no debería ser así ¿cierto?, es casi como si el robot me dijera que necesita descansar. Creo que si lo de la AI va a ser así nadie debería temer el que te quiten el empleo 😂😂😂😂😂

  • @cativaman
    @cativaman Před 3 měsíci

    Hola Xavier. Gracias x compartir info de alto valor.
    Una consulta: Existe algun tipo de Recurso Basado en la Nube que me permita instalar un chat bot basado en IA y configurarlo de manera que "Aprenda ' como responder o sea mantener un diálogo en base a Respuestas y contenidos PreArmados en PDF?
    Aguardo respuesta.
    Gracias.

    • @XavierMitjana
      @XavierMitjana  Před 3 měsíci

      Entiendo que si buscas algo sencillo, necesitarías una herramienta tipo "Chatbase". Luego si tienes conocmientos técnicos puedes armarlo a partir de una API de Google, Microsoft u OpenAI.

  • @jjen9595
    @jjen9595 Před 3 měsíci

    Para chatRTX se necesita 8GB VRAM por si acaso, lo probe en mi 3060m de laptop y no funciono 😢

  • @yockmercado
    @yockmercado Před 3 měsíci

    En qué aplicación haces tus avatares? Tienes vídeo sobre eso?

    • @XavierMitjana
      @XavierMitjana  Před 3 měsíci

      Lo hago con Midjourney+CREF+FaceSwap+Upscale en Krea o Leonardo, tutorial como tal paso a paso no tengo, pero de cada una de las partes están los vídeos en el canal.

  • @burnoutcycle
    @burnoutcycle Před 3 měsíci

    No se yo, es más rápido que ChatGPT pero personalmente por ejemplo en scripting de powershell esta un poco flojo

  • @jodter1
    @jodter1 Před 3 měsíci

    ya, pero como puedo usar modelos de ia por python, no hablo de colaide hable de ide para proyectos reales.

  • @alejandroaltamirano9884
    @alejandroaltamirano9884 Před 3 měsíci +1

    Yo ya hice eso, pero sólo está disponible el modelo de 8B de parámetros.
    ¿Todavía no está disponible el mediano?

    • @georyittgorayeb1900
      @georyittgorayeb1900 Před 3 měsíci +1

      parece que para ellos el mediano es el de 70b

    • @alejandroaltamirano9884
      @alejandroaltamirano9884 Před 3 měsíci +1

      @@georyittgorayeb1900 Así es. Se supone que ya está liberado, pero no estaba disponible en LLM studio.

    • @georyittgorayeb1900
      @georyittgorayeb1900 Před 3 měsíci

      @@alejandroaltamirano9884 aaa dle que yo con ollama me descargue el de 70b

  • @JorgeVazquezB
    @JorgeVazquezB Před 3 měsíci

    Acabo de actualizar Jan y aparece Llama 3 8B Q4

  • @mekagenden
    @mekagenden Před 3 měsíci

    PrivateGPT

  • @gustechdurany1878
    @gustechdurany1878 Před 3 měsíci

    estan muy buenos me interesa todo esto

  • @Smylaw
    @Smylaw Před 3 měsíci

    Llama 3,le he preguntado cuantos parámetros tiene gpt4 y ha respondido lo que le ha dado la gana, no sé si es mucho de fiar

    • @XavierMitjana
      @XavierMitjana  Před 3 měsíci

      Hola, los modelos de lenguaje su principal uso no debería ser esperar que sean precisos a la hora de devolver información factual, sino sobre todo como herramientas de manipulación de textos y lenguaje en base a conocimiento aportado.

  • @manolomaru
    @manolomaru Před 3 měsíci

    ✨👌😎😮😎👍✨

  • @testerdsdddd
    @testerdsdddd Před 3 měsíci +1

    Pues el de RTX es muy tonto, he tratado de hacer que escriba relatos y lo hace fatal, chatgpt3 lo hace mucho mejor.

    • @georyittgorayeb1900
      @georyittgorayeb1900 Před 3 měsíci

      Si pruebas el de 8b claramente el gpt 3.5 esta a otro nivel. El de 70b es más decente pero creo que igualmente está un peldaño más arriba gpt

    • @testerdsdddd
      @testerdsdddd Před 3 měsíci

      @@georyittgorayeb1900 he instalado todo el pack...

  • @andyaguilar434
    @andyaguilar434 Před 3 měsíci

    Pregunta de novato: que espacio ocuparia en el disco duro de una laptop.

    • @user-sx6nd8zl5k
      @user-sx6nd8zl5k Před 3 měsíci

      Entre 4 a 5 gb el modelo llama 3 , anque tambien esta el modelo PHI 3 de 2,5 gb y 500mb mas si instalas LM Studio si tu laptopva algo corta en recursos

  • @user-fy7qi5zl4x
    @user-fy7qi5zl4x Před dnem

    diablos me pase 15minutos viendo y yo solo queria saber si podia crear imagenes en local y nunca lo dijo. Mal servicio!🙃

    • @XavierMitjana
      @XavierMitjana  Před dnem +1

      Es un vídeo sobre Llama 3, Llama 3 es un modelo de lenguaje, ¿cómo va a generar imágenes?

  • @CheatPeru
    @CheatPeru Před 3 měsíci +1

    le das muchas vueltas, en LM studio tmb tiene la opcion de hacer que el modelo cargue en la GPU sin tener que instalar nada.