¿Cómo entrenar embeddings desde cero?

Sdílet
Vložit
  • čas přidán 29. 08. 2024
  • Video previo embeddings:
    • ¿Qué son Word EMBEDDIN...
    En un video anterior, expliqué qué son los embeddings y su relevancia en el procesamiento de lenguaje natural. En este video, damos un paso más allá: explico cómo programar nuestros propios embeddings desde cero utilizando PyTorch. Comprender a fondo los embeddings no solo es interesante como ejercicio académico, sino también crucial para avanzar en nuestro estudio de los transformers y los Large Language Models (LLMs). Estos modelos avanzados no solo utilizan, sino que perfeccionan sus propios vectores de embeddings a lo largo de su entrenamiento, lo que es esencial para su capacidad de entender y generar lenguaje de manera efectiva.

Komentáře • 21

  • @jprindusrosa3906
    @jprindusrosa3906 Před 3 měsíci +3

    Hola Pepe.. desde Argentina...yo se que el algoritmo de CZcams no te va a ayudar mucho por el tema de la cantidad de vistas y comentarios...pero por favor no dejes de hacer estos videos...son oro en un CZcams lleno de mierda en estos días..estoy seguro de la gente te ve valora muchísimo tu esfuerzo....muchas gracias

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 3 měsíci +2

      Muchísimas gracias por tu comentario, de verdad me ha hecho el día! Por supuesto, con estos videos, pienso que es una forma en la puedo contrubuir y devolver un poquito al mundo, lo afortunado que he sido en aspectos académicos. Por mi trabajo de día, no puedo publicar tan seguido como me gustaría, pero espero poder tener un verano eficiente y al menos terminar mi serie de transformers. De nuevo, muchas gracias por tu comentario y muchos saludos!

  • @jhonkevinfloresrojas3848
    @jhonkevinfloresrojas3848 Před měsícem

    Es hermoso, al fin yt me recomendó algo relevante.

  • @PaoloReyes
    @PaoloReyes Před 3 měsíci +3

    Hace un mes no tenía ni idea de que estaba detrás de la inteligencia artificial y ahora parece un mundo verdaderamente hermoso por descubrir. Muchas Gracias!!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 3 měsíci

      Imagina todo lo que estás por descubrir en los próximos meses! Muchas gracias por tu comentario! Saludos

  • @reynaldopereira7613
    @reynaldopereira7613 Před 2 měsíci

    solo falta tratamiento de sonido con ia en este canal y soy feliz 😍😍

  • @user-vc5ny6rn7g
    @user-vc5ny6rn7g Před 2 měsíci

    Muchas gracias por el video y la explicación. Me encuentro haciendo haciendo un modelo con transformers y no tenia idea de que eran estas capas de Embedding.

  • @jonas1ara
    @jonas1ara Před 3 měsíci +2

    Veré cada video de esa serie de transformers

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před 3 měsíci +1

      Muchas gracias, Jonas! Agradezco muchísimo tu apoyo al canal desde el inicio, verdad lo aprecio. Se que tu también traes proyectos muy interesantes y de verdad espero tengas mucho éxito en todo lo que emprendes. Mientras YT siga, mi intención es seguir publicando estos videos, aunque con el trabajo de día no puedo publicar tan seguido como me gustaría, espero terminar la serie de transformers duratne el verano. De nueno muchas gracias y muchos saludos.

  • @LuisMorales-bc7ro
    @LuisMorales-bc7ro Před měsícem

    Muy buen contenido Pepe! Como comentario: estaria cool que agregaras una liga a un notebook en collab para poder partir del codigo que tienes
    Saludos!

  • @luisonate6300
    @luisonate6300 Před 3 měsíci +1

    Muchas gracias Pepe por compartir tu conocimiento. No tendrás un curso donde guíes de una forma continua y con acompañamiento?. Además, que bibliografía recomendarías.

  • @pelired0
    @pelired0 Před měsícem

    Me ha encantado tu vídeo, ha sido revelador. Con éste y el anterior por fin los he entendido como quería.
    Tienes el código subido en algún sitio? Quiero hacer mi propio cálculo de embedings y me gustaría aprovechar para el codigo.
    Un saludo, gracias por el canal y tu tiempo.

  • @wilfredomartel7781
    @wilfredomartel7781 Před 25 dny

    😊

  • @reinerromero7265
    @reinerromero7265 Před 3 měsíci +1

    Muchas gracias. 😀

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Před 2 měsíci

    Muchas gracias, Pepe y como siempre es una excelente clase. Y una consulta al ser red full conected, se puede usar RElu y BatchNormalization? muchas gracias.

  • @wilfredomartel7781
    @wilfredomartel7781 Před 25 dny

    😊 ¿ porqué skipgram y no c-bow? Solo es una inquietud @Pepe

  • @robert_nissan
    @robert_nissan Před 3 měsíci +1

    si no seria mucha molestia que pasaras el código, porfa
    execelente

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Před 2 měsíci

    Una consulta cuales otras técnicas de creación de embeddings recomendarías estudiar?

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Před 2 měsíci +1

    Utilice la función del más similar con una distancia del coseno > 0.25 para la palabra "natural" y me encontró "procesamiento, pytorch, herramienta, lenguaje, rama, subcategoría"

    • @PepeCantoralPhD
      @PepeCantoralPhD  Před měsícem +1

      Qué gusto Leonardo! Muchas gracias por tu comentario, depende del dataset de entrenamiento pero es muy interesante que muestra las relaciones de natural con procesamiento de lenguaje. Muchos saludos