LangChain: GPT4 ahora no olvidará nada

Sdílet
Vložit
  • čas přidán 25. 07. 2024
  • En este primer video veremos como implementar los modelos y prompts templates de LangChain.
    * No pasa nada ese API Key esta incompleto y desactivado ;)
    - 🖥️Código del video🖥️: github.com/puigalex/LangChain
    - 💬 Platiquemos en discord 💬 : / discord
    - 🔊 Si quieres apoyar al canal 🫶 para que haya mas y mejor contenido (ganar-ganar-ganar jaja) puedes hacerlo por Patreon! 🔊
    / amptech_cc
    0:00 - Intro (Video)
    1:10 - Conversation Buffer Memory
    6:40 - Conversation Window Buffer Memory
    10:21 - Conversation Summary Memory
    15:23 - Conversation KG Memory
    #aprendizajeautomático #chatgpt #langchain
  • Věda a technologie

Komentáře • 52

  • @alfredolawler2205
    @alfredolawler2205 Před 3 měsíci

    Muy bien explicado Alex!

  • @ozzy1987mr
    @ozzy1987mr Před rokem +4

    Vas super bien con la explicacion y el contenido... brutal la intro!! esperando la siguiente entrega

    • @AMPTech
      @AMPTech  Před rokem +1

      Muchas gracias! Quise jugar un rato y ponerme creativo con la intro, gracias por el comentario:)

  • @IAVIC
    @IAVIC Před rokem +2

    Ole y ole , que bueno

  • @leonardopatinorodriguez8239

    Muy bien explicado, Excelente video.

  • @user-lf8gk4wo2y
    @user-lf8gk4wo2y Před rokem

    Increible la serie de videos, Estoy a la espera de ver temas restantes
    un saludo

  • @cristiancontreras352
    @cristiancontreras352 Před rokem +4

    Excelente video como siempre, deberías continuar este mismo y colocar lo en producción

  • @fernandopuig178
    @fernandopuig178 Před rokem

    Otro video interesante y útil, gracias ‼️

  • @jaumaras
    @jaumaras Před rokem

    muy útiles tus videos, gracias

  • @hernandocastroarana6206
    @hernandocastroarana6206 Před rokem +2

    Excelente video. Sería excelente hacer algo sobre Llama Index (GPT Index).

  • @fandonfandon5777
    @fandonfandon5777 Před rokem

    Felicidades por esta serie de videos y la calidad y claridad de tus explicaciones! ¿Podrías incluir en esta serie de videos desarrollos con Langchain y modelos open source tipo Falcon, etc.? Muchas gracias!

  • @ennioagc
    @ennioagc Před 11 měsíci

    Gracias por el vídeo

  • @GLINCE123
    @GLINCE123 Před 9 měsíci

    Excelente video

  • @haroldmunoz1775
    @haroldmunoz1775 Před rokem

    hola Alex. Me encantó tu video y es un tema super relevante. No se si sea del caso he escuchado que se puede almacenar los embedding en bases de datos externas o los grafos en NEO4J. Genial otro video reforzando el tema. Mil gracias

  • @ezequielugazbenites3500
    @ezequielugazbenites3500 Před 9 měsíci

    Que capo!!

  • @astronomiahoy264
    @astronomiahoy264 Před rokem +1

    Excelente información

    • @AMPTech
      @AMPTech  Před rokem

      Muchas gracias por el comentario!

  • @andresparra6208
    @andresparra6208 Před rokem +2

    Hola, podrías hacer un video instalando el controlador para un ventilador en la jetson nano?... Gracias 😊

  • @jonathanramirezmontes9373

    Están increibles tus vídeos, he visto todo lo que has hecho relcionado con OpenAI, Crees que en algún momento puedas tocar el tema de algunas herramientas open source (HuggingFace) que se acerquen a las funcionalidades de que tiene OpenAI?

  • @GualaDRAKE
    @GualaDRAKE Před rokem

    Hola ola! Muy buen inicio el de la malla de respaldo de la silla, primero pensé que era un efecto de edición :D :D :D
    Ahora poner atención al video ;)

    • @AMPTech
      @AMPTech  Před rokem +1

      Muchas gracias! Esa toma me tomó mas intentos de lo que be gustaría admitir jajaja

    • @GualaDRAKE
      @GualaDRAKE Před rokem

      @@AMPTech 🤣👌👏👏👏👏🤘

  • @capablancastyle
    @capablancastyle Před rokem

    Hola, gracias por el video, quisiera saber si exploraras el modelo falcón 9b o 40, pues veo que con esa licencia se puede usar plenamente! De antemano, gracias!

  • @alejandroromero3352
    @alejandroromero3352 Před rokem +2

    Hola, muy buen video! Solamente creo que te faltó hablar de la Vector store-backed memory

    • @AMPTech
      @AMPTech  Před rokem +3

      Hola! Si es que ese tema lo quiero meter específicamente en un video. Pensé que meter el concepto de bases de datos vectoriales en este videos podria llegar a generar confusión en algunas personas. Pero sin duda hare video mencionándolo!

    • @danilogarcia6317
      @danilogarcia6317 Před rokem

      @@AMPTech Lo esperamos con ansias :)

  • @cristinab8733
    @cristinab8733 Před rokem

    ¡Muy buen vídeo!
    Aunque LangChain proporcione esta capa de "memoria", ¿tendría sentido usarla si necesito que recuerde solo la conversación de la semana pasada por ejemplo? Esto es para implementar un chatbot con ChatGPT

  • @gerrcassytb
    @gerrcassytb Před rokem +1

    Hola, gracias por compartir. Dado que ChatGPT, el que usamos oficial via web, si mantiene memoria de cada conversacion, ¿cual de estos métodos usa para mantener el contexto en cada chat?. A mi particularmente me parece mas razonable el de resumen, pero el contexto o memoria es una caracteristica muy importante para un asistente virtual, ¿hay alguna buena práctica o método dominante para este propósito?

  • @alfredolawler2205
    @alfredolawler2205 Před 3 měsíci

    Una pregunta Alex: porque usas como parametro, cuando instancias el modelo LLM, stop: "
    Human"? Gracias!

  • @valentinaliendro3593
    @valentinaliendro3593 Před 11 měsíci

    La memoria se puede implementar usando tanto GPT 4 como en 3.5 turbo?

  • @ennioagc
    @ennioagc Před 11 měsíci

    Se pueden implementar varios tipos de memoria a la vez?

  • @orlandomanuelospinohernand9869

    Gracias! Consulta como y cuando cual utilizar?

    • @AMPTech
      @AMPTech  Před rokem

      La que mas he usado yo es la segunda con la ventana. Esa es muy buena solución para la mayoría de los casos. La que genera los resumenes te funciona si sabes que las interacciones que tendrás con tu chatbot rápido van a exceder el limite de tokens que tenga el modelo.

  • @joakinic
    @joakinic Před 8 měsíci

    Hola, al ser parte de LangChain, esto debería funcionar de igual forma para modelos locales como Ollama?

  • @ernestosantiesteban6333
    @ernestosantiesteban6333 Před rokem +1

    No sería mas eficiente hacer un embedings de toda la conversación y que se agregue al contexto del prompt actual como en los programas de chatear con pdfs? Por cierto muy buen video.

    • @AMPTech
      @AMPTech  Před rokem +2

      Ese es otro tipo de memoria que tocare en otro video. En el que justo haces retrieval de los embeddings y después lo procesas con un llm.

  • @alexanderacevedo962
    @alexanderacevedo962 Před rokem

    como podiera hacer para que el mismo modela sea autoadministable con las tareas que debe hacer , con respecto al rol de personalizacion que le doy , que me recomiendas?

    • @AMPTech
      @AMPTech  Před rokem

      Echale un ojo a AutoGPT, este tipo de implementaciones todavia tienen sus fallas (y se han inflado mucho las expectativas de estos) pero para algunas tareas un poco básicas pueden funcionar. Al igual que hacer agentes con Langchain, justo en este momento estaba creando el archivo para empezar a planear ese video! jajaja

  • @alexanderacevedo962
    @alexanderacevedo962 Před rokem

    al principio hay algo que no entendi muy bien al momento que dijiste de los problemas , la memoria en si va con el tamaño por la cantidad de token o usando esta funcionalidad de la librería langchain no me da limites para el tamaño del historial?

    • @AMPTech
      @AMPTech  Před rokem

      langchain guarda todo el historico, pero el limite de tokens del modelo como tal sigue siendo el mismo.

  • @yorius96
    @yorius96 Před rokem +1

    Muy buen video, creo que está muy bien explicado. Aunque no me quedó claro qué pasa con la ventana de contexto si se utiliza el primer método (en el que se guarda todo en el historial). ¿En la medida que el historial crece, se gastan los 4.000 tokens de ventana de contexto?¿Deja de funcionar al superar el rate limit? porque me imagino que esto se puede evitar fijando un k como en el segundo método (si solo guardo 3 o 4 mensajes, la ventana de contexto se va liberando, evitando llegar al limite), pero qué pasa cuando guardo el historial completo?. Otra cosa que me generó dudas es que cuando se usa el método del resumen (el tercero) ¿se hace sobre los imputs que ya se fueron resumiendo?¿o el resumen se hace sobre el historial completo (con todos los mensaje completos y sin resumir)?. De nuevo, buena explicación y gracias por tu trabajo.

    • @AMPTech
      @AMPTech  Před rokem +2

      El resumen se hace sobre los inputs y los resumenes ya hechos. Sobre la ventana de contexto, cuando el historico sobrepasa los 4mil tokens va a dejar de funcionar, por eso el modo de mantener una ventana del historico es el que mas recomendaria entre esos dos (el de historico completo o el de la ventana del historico)

    • @yorius96
      @yorius96 Před rokem

      @@AMPTech Muchas gracias :)

  • @italonicolas100
    @italonicolas100 Před 7 měsíci

    Tengo un error cuando ingreso el código
    "llm = ChatOpenAI(stop="
    Human")
    memoria = ConversationKGMemory(llm=llm)
    chatbot_kgm = ConversationChain(llm=llm, memory=memoria, verbose=True)" Me entrega el siguiente warning -> "WARNING! stop is not default parameter.
    stop was transferred to model_kwargs.
    Please confirm that stop is what you intended."
    He actualizado la librería y no se que hacer D:

  • @nicolasmielnizuk8319
    @nicolasmielnizuk8319 Před 8 měsíci

    Hola Amigo, que es Gnoss gpt

  • @yonautercreations8284

    A mi me crea una duda, si estoy enviando vía api, la tarificación es por token, no? Osea que si continuamente le meto al promt todo el historial, estaré incrementando el coste a lo bestia. Podrías comentar esta parte? Ya que no es lo mismo pagar la suscripción a 20 dólares, que pagar por token y tener excesos, si?

    • @AMPTech
      @AMPTech  Před rokem

      Si, el usar memoria en estos modelos incrementa el costo pues estas enviando cada vez mas tokens. Esto es distinto a la suscripcion de 20 dolares que mencionas ya que esa suscripcion es para poder usar chatgpt en su mejor version (con GPT4), pero esta API que menciono es para poder integrar todos los modelos que tienen a tu código (a diferencia de tener que utilizar su interfaz gráfica para poderlo utilizar)
      Saludos!

  • @orlandodeabreu9167
    @orlandodeabreu9167 Před rokem

    ¿Puede enviarse a Chat GPT el historial de una conversación antigua?

    • @AMPTech
      @AMPTech  Před rokem

      Si, se puede almacenar el historico en una variable y hacer un pickle file. Despues ese file lo cargas y por default ya tendrá el historial de las conversaciones pasadas.

  • @Arieloreyes
    @Arieloreyes Před 9 měsíci +1

    Muy buen video, pero no pudimos ver la visualización de los grafos, importaste nx pero no hiciste nada con eso.
    Saludos.

  • @hernansanchezavila1423

    Excelente video, como es tu email. Por favor, Gracias. Necesito contactarte