Cómo LangChain y la IA Open Source Pueden Interactuar con tus Documentos ¡RAG GRATIS!
Vložit
- čas přidán 25. 07. 2024
- 🚀 Descubre en este video cómo LangChain y la tecnología de IA open source como llama 3, ollama, hugginface embeddings y chroma pueden transformar la forma en la que los chatbots interactúan con tus documentos, todo de manera gratuita con el método RAG (Retriever-Augmented Generation). Aprenderás paso a paso cómo implementar estas herramientas para mejorar tus proyectos y facilitar la comunicación automatizada. ¡No te pierdas esta oportunidad de innovar completamente sin costo!
¡Suscríbete y forma parte de nuestra comunidad AI! 🔔
MARCAS DE TIEMPO:
0:00 Intro
1:15 Explorando arquitectura
4:00 Probando Ollama
5:232 RAG con Langchain
20:02 Llevando el proyecto a tu terminal
23:34 Conclusión
► No te Quedes Atrás: Guía Completa para Implementar Llama 3 y Phi 3 en Tu PC ¡GRATIS!
• No te Quedes Atrás: Gu...
► Notebook
github.com/alarcon7a/Langchai...
► Repo en Github
github.com/alarcon7a/Langchai...
Tutorial de Embedding v3 - OpenAI
• Tutorial de Embedding ...
Twitter: / / alarcon7a
LinkedIn / / alarcon7a
Instagram / / alarcon7a - Věda a technologie
Me sirvió perfecto, solo le hice un par de cambios y ya lo tuve en prod en 2 dias 💪
Esoooo 🔥🔥🔥
mucha gracias por el tutorial buenísimo.
Que bueno que te sea útil
Muy bueno Carlos. Muchas gracias.
Muchas gracias! Muy buen video y muy útil. Sos un grande Carlos 🙌🏼
*Excelente el trabajo que estás haciendo Carlos.*
Se nota el alto conocimiento que tenés.
Aprovecho para hacerte algunas preguntas.
Estuve mirando tu playlist pero no encontré una guía para comenzar desde cero con esto, porque me interesa el tema.
- Podrías decirme los videos de tu canal aconsejables para comenzar?
- Para este proyectos es necesario tener GPU o con CPU también se podría hacer (no importa que demore)?
- Y esto tiene que ver con la pregunta anterior, instalar este proyecto en un VPS normal, sin GPU, sería factible.
*Felicitaciones nuevamente por el gran trabajo de docencia que estás haciendo.*
Nuevo suscriptor.
Saludos.
Muchas gracias !!!
Espero poder sacar un curso completo pronto, con CPU este proyecto es posible🚀
Fascinante, hace meses había pensado que en algun momento iba aparecer algo así. Gracias totales.
El futuro es ahora hehe .. no olvides compartir
Excelente Carlos! Además de especializarte en estas habilidades explicas muy bien!
Muchas gracias !!!
Muchas gracias
Excelente video y gracias por compartir con la comunidad. Muchos exitos!!!
Siempre un gusto, muchas gracias
Qué bueno Carlos, cumpliste y sacaste el vídeo! Estoy deseando probarlo. Bendiciones y existos asegurados para tu canal
Muchas gracias, 🚀
Mucha gracias, muy valiosa informacion !
Gracias por el apoyo
Pucha eres genial.
Muchísimas gracias por el apoyo
Que genial este tipo de Videos ! 🤗
Espero les puedan sacar provecho
Excelente muchas gracias por compartir este tipo de contenido
Siempre un gusto
Carlos sugiero hacer un video sobre las caracteristicas recomendadas de una computadora para desarrollar este tipo de aplicaciones. Gracias por tus aportaciones.
Tienes razon, hay que resolver muchas dudas con ese tema
De acuerdo!
Muchas gracias, buen video nuevo sub me sirve esto para mi proyecto
Genial !!! 🚀
Gracias!
Un gusto
Gran video! gracias. Ahora en mi trabajo esta empezando a sonar mucho este tema de LLM, estoy aprendiendo para poder entrar a ese proyecto, pero en este caso hablan de bases de datos de grafos, especificamente neo4J, todos los videos y cursos q he visto han sido con bases de datos vectoriales, archivos txt y pdf, asi que estoy algo perdida de como esto seria hablando de bases de datos de grafos.
Por favor si puedes hacer videos sobre esto seria lo maximo! Gracias.
Si los hay, buena idea, haré un tutorial de ello 👌
Excelente explicación detallada, 24 minutos que bien valen la pena. Muchísimas gracias!!! Sería muy complicado agregar grado para que sea utilizado desde un servidor central, en digamos una empresa, a fin de ser utilizado por varias terminales?
Muchas gracias … El servidor debe tener habilitado el puerto de salida y solo con eso ya es el mismo proceso 🔥
Muy buen video, lo hubieras podido hacer con llamaindex?? Que diferencias tiene usar llamaindex o langchain
Llama index está más dirigido a rag, y si pide hacerlo con llama index también
muy bueno, y eso lo podrias conectar a un chatbot para que lo puedan usar otras personas?
Podrías dejarlo en algún servicio cloud y acceder como una API rest
Puedes hacer un tutorial sobre schema Json y function calling
Seguro 🚀
Perdon mi ignorancia pero esto esta corriendo totalmente de forma local ? Recuerdo ver video sobre como crear los embeddings y almacenarlos por ejemplo pinecone y todo eso tenia un costo en plata y computacional. o hay que tener un pc de la nasa para hacer tales cosas. ?
En este punto los embedddings quedan almacenados en local en el ditectirio de Chroma, no hay que tener tan buena maquina para ello
Hola muchas gracias por tu video. Intente replicar tu Código en Colab pero me da un error, que permisos tengo que tener para poder ejecutar desde mi local: ConnectionRefusedError: [Errno 111] Connection refused
The above exception was the direct cause of the following exception:
NewConnectionError Traceback (most recent call last)
NewConnectionError: : Failed to establish a new connection: [Errno 111] Connection refused
Antes tienes que descargar y subir el servicio de Ollama, acá te enseño cómo
czcams.com/video/cthSyDFOIag/video.htmlsi=13a6J4cLw4b8kT7b
@@alarcon7a Hola gracias por tu respuesta, si ya tengo corriendo Ollama locamente y al llamar al puerto indica que esta activa . El problema es con Google Colab que no ve el sitio local. Seguí las instrucciones de Colaboración y no hay caso
@@Pablo-Ramirez ohhh si, para esto hay que correrlo en local y no desde un servicio cloud cómo Google colab
@@alarcon7a sabes te agradezco mucho tus respuestas. En ese caso puedo puedo ejecutar el local_rag.ipynb desde un Visual Studio Code? Que requisitos requiero. Me interesa mucho este tema. Por eso te molesto tanto. Gracias.
@@Pablo-Ramirez si, con una gráfica de 4 GB funciona
Qué hardware necesito para hacer esto?
Con una tarjeta de 6GB de video corre bien … con otro hardware menor corre bien pero tarda un poco
@@alarcon7a sería interesante conocer el hardware para el modelo de llama3 70b de parametros, lo soportará una placa de 8GB? o tal vez se necesitan 2 o 3? Por lo que he investigado llama3 8b seria el equivalente a gpt-3.5-turbo y llama3 70b el equivalente a gpt-4-turbo y ahí está la "papa", poder tener un modelo con la capacidad de gpt-4-turbo de forma gratuita (asumiendo el costo de mantenimiento de hardware) ya que lo he probado con un contrato de 8 paginas y 20 preguntas y ha consumido 3 dolares, mientras que el mismo experimento pero con gpt-3.5-turbo consumio 8 centavos de dolar (todo utilizando la API de OpenAI). La diferencia en las respuestas es notable entre un modelo y otro, vale la pena pero es muy costoso, por eso seria interesante conocer el hardware requerido para llama3 70b de parametros.
Recomendación, el volumen de la voz esta un poco baja.
Muchas gracias, busco corregirlo 👍
¿Esto sirve para windows?
Si, en verdad solo hace falta Python y Ollama en Windows que lo explique en un video anterior
Hable de Chat whit RTX
Interesante!!
Una pregunta, esto funciona con imagenes? Por ejemplo subes un pdf de perros, y le pregunto, que tipo de perro son pequeños, entonces el llm me responde con un texto y una imagen indicando el perro, claro, la informacion esta en el pdf. Lo pregunto antes que te vallas jaja
El ejemplo que hice solo analiza el texto, pero es posible hacer una extracción de la descripción de la imagen con IA
@@alarcon7ammmm sí, es para un trabajo, pero lo veo un poco complicado, mejor empiezo por tu vídeo y de ahí veo jaja, encontré un vídeo de lo que quiero, pero está en inglés y es como es indio no funciona bien la tradición y peor aún yo que no se mucho, mejor empiezo por abajo xd
Uff demasiado complicado
Se vienen unos tutoriales desde cero