¡Atención! (Sequence to sequence with attention): ¡Traductor Inglés a Español! (Parte 2)

Sdílet
Vložit
  • čas přidán 29. 08. 2024
  • Video previo modelos Secuencia a Secuencia:
    • Sequence to Sequence (...
    Este video se centra en uno de los avances más fascinantes en el campo del Procesamiento del Lenguaje Natural (PLN): el modelo Secuencia a Secuencia (Seq2Seq) con mecanismo de Atención, utilizando como ejemplo un traductor de inglés a español.
    - Introducción al mecanismo de Atención: qué es, cómo funciona, y por qué representa un gran avance para los modelos Seq2Seq.
    - Cómo el mecanismo de Atención mejora la capacidad de los modelos Seq2Seq, especialmente en tareas de traducción automática.
    - Un vistazo a cómo el mecanismo de Atención permite al modelo "enfocarse" en partes relevantes de la entrada al generar la salida.
    Este video presenta las bases teóricas necesarias para entender cómo funcionan estos modelos avanzados y preparará el escenario para nuestro próximo video, donde abordaremos la implementación práctica de estos conceptos mediante código, seguido de la teoría detrás de un transformador.
    Paper original que presenta esta idea:
    Bahdanau, D., Cho, K., & Bengio, Y. (2015). Neural Machine Translation by Jointly Learning to Align and Translate. 3rd International Conference on Learning Representations, ICLR 2015 - Conference Track Proceedings.

Komentáře • 11

  • @matiasasses9841
    @matiasasses9841 Před 6 měsíci +1

    Gracias Pepe!! Tenes una manera de explicar que hace que entender estos conceptos sea muy fácil!! Ojalá no dejes de hacer estos videos!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 5 měsíci

      Muchas gracias por tu comentario! Mi intención es continuar con el canal, aunque usualmente no tan seguido como me gustaría. Muchos saludos!

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Před 6 měsíci

    Como siempre Pepe!! Excelente video y a esperar con ansias el desarrollo!! Muchas gracias

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 5 měsíci

      Muchas gracias Leonardo, espero poder darle un avance ahora en los días de esta semana que tienden a ser un poco más tranquilos! Muchas gracias, saludos!

  • @reinerromero7265
    @reinerromero7265 Před 6 měsíci +1

    Muchas gracias 😄Sería estupendo el que desarrolle ejemplos con Series de Tiempo también.

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 5 měsíci

      Definitivamente es un tema que voy a abordar, creo que es una de las aplicaciones en las que redes neuronales recurrentes seguirán siendo útiles. Saludos!

  • @MultiRockxD
    @MultiRockxD Před 3 měsíci +1

    Por favor analiza a detalle el paper Attention is all you need, sería un excelente video! Gracias por compartir

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 3 měsíci

      Muchas gracias por tu comentario! Definitivamente será el siguiente video, seguido de su implementación en código. Espero estar publicando estos videos en las próximas semanas, y tener la serie de transformers durante el verano. Muchos saludos!

  • @luisfernandomartinez7804
    @luisfernandomartinez7804 Před 6 měsíci

    Que ansiedad esperar para ver todos los temas interesantes que se vienen, si los tuvieras todos listos pagaría por verlos 😬

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 5 měsíci

      Muchas gracias por tu comentario y apoyo al canal, me motiva enormemente. De verdad al momento que los tenga listos los seguiré publicando por este medio de la misma forma. Muchos saludos y hasta pronto!

  • @milenapellegrino7032
    @milenapellegrino7032 Před 2 měsíci

    EL sigueinte video de la implementacion en codigo ya esta disponible?