¿Por qué estas REDES NEURONALES son tan POTENTES? 🤔 | TRANSFORMERS Parte 2

Sdílet
Vložit
  • čas přidán 13. 11. 2021
  • ¿Qué hay tras el entrenamiento de IAs como GPT-3, Alphafold 2 o DALL-E? ¿Qué hace especial a sus redes neuronales? Los Transformers son el tipo de arquitectura de Deep Learning que mejor rendimiento ha dado en los últimos años. ¿Pero por qué? ¿Qué los hacen tan especiales? La respuesta la encontramos en lo altamente paralelizable que es su arquitectura, que permite sacar el máximo partido a los procesadores multinúcleos. Pero, esto tiene un coste, y es que si no hacemos nada los Transformers serían incapaces de entender el orden de los datos con los que los entrenamos. Y de ahí la importancia de soluciones como los Encoding de Posicionamiento. ¡Veamos cómo funcionan!
    -- 📣 ¡IMPORTANTE! --
    ► ¡Regístrate al Samsung Dev Day y no te pierdas mi ponencia!
    bit.ly/SDD2021Agenda - 18 Noviembre, 18:30
    -- ¡LINKS INTERESANTES! --
    ► Serie Introducción al NLP y Transformers (DotCSV)
    Parte 1 - • 🔴 INTRO al Natural Lan...
    Parte 2 - • 🔴 INTRO al Natural Lan...
    Parte 3 - • ¿Qué es un TRANSFORMER...
    ► Explicación con más detalle Positional Encoding:
    kazemnejad.com/blog/transform...
    -- ¡MÁS DOTCSV! ---
    📣 NotCSV - ¡Canal Secundario!
    / notcsv
    💸 Patreon : / dotcsv
    👓 Facebook : / ai.dotcsv
    👾 Twitch!!! : / dotcsv
    🐥 Twitter : / dotcsv
    📸 Instagram : / dotcsv
    - ¡MÁS CIENCIA! --
    🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
    scenio.es/colaboradores
  • Věda a technologie

Komentáře • 270

  • @DotCSV
    @DotCSV  Před 2 lety +81

    ► Serie Introducción al NLP y Transformers (DotCSV)
    ⭐Parte 1 - czcams.com/video/Tg1MjMIVArc/video.html - Introducción a Tokens.
    ⭐Parte 2 - czcams.com/video/RkYuH_K7Fx4/video.html - Introducción a Embeddings.
    ⭐Parte 3 - czcams.com/video/aL-EmKuB078/video.html - Introducción a Mec. Atención

    • @MarioAlbertoRomeroSandoval
      @MarioAlbertoRomeroSandoval Před 2 lety +2

      Justo estaba esperando la segunda parte 😎

    • @josecudris5078
      @josecudris5078 Před 2 lety +2

      Genial ésta serie dotcsv, sinceramente sería muy complicado entender este tipo de arquitectura sin una buena explicación detallada como lo son todos los videos de este canal. Épico

    • @drios200
      @drios200 Před 2 lety

      Ahora el universo tiene sentido :p

    • @drios200
      @drios200 Před 2 lety

      Me solté riendo con lo de discreto xD

    • @patojp3363
      @patojp3363 Před 2 lety

      El mejor!!! Gracias

  • @charly9544
    @charly9544 Před 2 lety +188

    "Detrás de estas tecnologías hay un transformer"
    Yo imaginándome a Bumblebee generando palabras

  • @eduforero
    @eduforero Před 2 lety +272

    Porque tienen un gran líder. ⚡Optimus Prime. ⚡

  • @zure2874
    @zure2874 Před 2 lety +61

    "Sigamos con los transformers"
    Yo: Bien... sigue optimus prime

  • @Cuperino
    @Cuperino Před 2 lety +53

    ¡Sigue profundizando Dot! ¡El tema es fascinante y tu explicación e excelente! ¿Cómo se hace uso de esta descomposición temporal y qué otras implicaciones tiene?

  • @urielgarcia3888
    @urielgarcia3888 Před 2 lety +15

    WOW...
    Me he queda sin palabra JAMAS me hubiera imaginado el uso de formulas sinusoidales para calcular posiciones.

  • @1061exclavo
    @1061exclavo Před 2 lety +9

    Sería realmente increíble ver un ejemplo práctico. He escuchado de estás redes pero para un novato como yo sería valioso ver un código que te ayude a encaminar lo practico. Gracias por el video.

  • @juanete69
    @juanete69 Před rokem

    Me alegra encontrar en español estos tutoriales de tan buena calidad, tanto por el contenido didáctico como por tu forma de hablar como por los gráficos.

  • @lisandrocesaratto3012
    @lisandrocesaratto3012 Před 2 lety +1

    Excelente! La forma como explicas Positional Encoding no la vi en ningun otro video, y ahora logre entenderlo al 100%. Gracias!

  • @juansiveriorojas967
    @juansiveriorojas967 Před 2 lety +8

    Hola Carlos, tus explicaciones son impresionantemente clarificadoras, acompañadas siempre de una infografía espectacular, lo que demuestra todo el trabajo que hay detrás de cada video. Enhorabuena.

  • @francoferrante6723
    @francoferrante6723 Před rokem

    Excelente videoooo!!! Muchas gracias por la dedicación! Por favor, seguí esta serie que está genial!

  • @andrewturtle2610
    @andrewturtle2610 Před 2 lety +1

    Genial! Me vuela la cabeza este tipo de resultados que están sacando las IA

  • @AntonioGallardoCabrillana

    Este tipo de videos deberían ponerle a los chavales antes de clases de matemáticas para animar a aprenderlas viendo la gran utilidad que tienen. Gran video como siempre.

  • @mvargas34
    @mvargas34 Před 2 lety

    Que genial la forma creativa de explicar el positional encoding! Sos un grande Dot CSV!

  • @AlvaroALorite
    @AlvaroALorite Před 2 lety +22

    🎉🎉🎉 **Felicidades por el 1/2 millón de subs!** 🎉🎉🎉

  • @ManuelGomezRicoUbeda1
    @ManuelGomezRicoUbeda1 Před 7 měsíci

    Me ha encantado! Muchas gracias

  • @brianfuentes2923
    @brianfuentes2923 Před 8 měsíci +1

    QUIERO MAS!

  • @alanjosuefaustosoto7764
    @alanjosuefaustosoto7764 Před 8 měsíci

    Excelente serie de videos sigue asi

  • @IvanLopezioloo
    @IvanLopezioloo Před 2 lety +3

    Es impresionante el trabajo didáctico que hacéis. Ésto no podría hacerse en televisión.

  • @casipof
    @casipof Před 2 lety

    Espectacular!!! Una explicación excelente. Gracias!!

  • @rodmallen9041
    @rodmallen9041 Před 2 lety

    Qu'e maravilla de v'ideo! mil gracias por semejante explicaci'on!

  • @wilfredomartel7781
    @wilfredomartel7781 Před měsícem

    Vaya que video y qué manera la tuya de explicar! Necesitamos profundizar y llevar a codigo la siguiente parte.

  • @andresunknow8917
    @andresunknow8917 Před 11 hodinami

    Brillante video! Muchísimas gracias!!

  • @jmlv4351
    @jmlv4351 Před 10 měsíci

    Excelentisimo contenido

  • @vegamuni
    @vegamuni Před 2 lety +21

    Me costó entender cómo funcionan los Transformers. Tuve que relacionar cada palabra de lo que estaba leyendo con cada una de las demás palabras y luego leerlas ya relacionadas de forma simultánea y paralela, pero teniendo en cuenta el orden.
    Estoy ironizando.
    Lo que hice fue leer la explicación por partes, entender un trozo, luego el siguiente y luego volver a leerlo todo.
    A mi entender, lo que hacemos para entender un texto largo o complicado, se parece más a una convolución que a un transformer.

    • @wb4529
      @wb4529 Před 2 lety

      12:22

    • @CristianGarcia
      @CristianGarcia Před 2 lety +3

      Una convolucion implicaria que somos capaces de procesar todos los posibles n-gramas de una frase en paralelo. Lo mas parecido para los humanos en una red recurrente.

    • @vegamuni
      @vegamuni Před 2 lety

      @@CristianGarcia "Se parece más"

  • @fisicaparalavida108
    @fisicaparalavida108 Před 2 měsíci

    Densooooo! mucha y muy valiosa informaciòn. Gracias!

  • @elpreciso
    @elpreciso Před rokem

    excelentes videos!!!

  • @sararosagonzalez1074
    @sararosagonzalez1074 Před 5 měsíci

    Muy didáctico. Gracias 😊

  • @lopez-rober
    @lopez-rober Před 2 lety +10

    Wow, Super Gran trabajo. Videos que valen oro, por favor nunca dejes de hacerlos, siempre los espero por lo interesantes que son.

  • @lenninrestrepo8556
    @lenninrestrepo8556 Před 2 lety +2

    Explicas demasiado bien!! buen video... jaja tener este conocimiento hace una década nos hubiese asegurado una beca en el MIT

  •  Před rokem

    Excelente explicación!!! Muchas gracias por compartir tus conocimientos.

  • @Inzurrekto1
    @Inzurrekto1 Před rokem

    Agradezco que esta información esté bien explicada y en español. Para estudiar este tema de forma rápida viene bastante bien.

  • @victormanuelsanchezmorales4261

    Carlos, haz un vídeo sobre como funcionan los "encajes", considero que son fundamentales para abordar temas como VQA (que estaría fenomenal que hicieras una serie!).
    Gran trabajo.
    Saludos

  • @AprendeenRealidad
    @AprendeenRealidad Před 2 lety

    ¡Exelente video!

  • @davidpratr
    @davidpratr Před 2 lety

    Gran vídeo con el que he comprendido el positional encoding. Si hicieras un vídeo explicando la capa densa final de BERT y el funcionamiento de la arquitectura entendiendo cómo funciona para un ejemplo de problema sería brutal ya :)

  • @theellusionist1988
    @theellusionist1988 Před 2 lety

    Maravillosa información !

  • @luisefe387
    @luisefe387 Před 2 lety

    Carlos excelente video, explicas demasiado bien, muchas gracias!

  • @JuniorH
    @JuniorH Před 10 měsíci

    Muchas gacias Dot! por toda la explicacion.

  • @RodrigoLopezF
    @RodrigoLopezF Před 2 lety

    Excelente contenido!

  • @denisvillanueva9588
    @denisvillanueva9588 Před rokem

    excelente Videos, tienes un manera de explicar temas dificiles de explicar, de una manera muy "sencilla", podrias realizar algun video acerca de los usos de IA en la medicina hoy

  • @manuelc2201
    @manuelc2201 Před rokem

    Muchas gracias por tus videos, me ayudan bastante.

  • @AlexPalmaTV
    @AlexPalmaTV Před rokem

    Me gustan mucho todos tus videos son muy buenos

  • @findemor
    @findemor Před 2 lety

    Buenísimo

  • @yorius96
    @yorius96 Před 6 měsíci

    Excelente video, incluso al día de hoy, es realmente interesante entender cómo pasamos de las antiguaras redes tradicionales a los grandes modelos de lenguaje que ocupamos al día de hoy (nunca había entendido bien qué era el Positional Encoding, genial explicación)

  • @juandiegoorozco5531
    @juandiegoorozco5531 Před 7 měsíci

    Tenés una forma de explicar magistral!, capturaste mi atención por completo, super interesante

  • @jeisoncgalindo
    @jeisoncgalindo Před 2 lety +1

    una barbaridad, te deja sin palabras

  • @wilfredmedina6401
    @wilfredmedina6401 Před 2 lety +1

    Excelente video!

  • @jovenalpay
    @jovenalpay Před 5 měsíci

    Que magnifica explicación!!! Y que genialidad la de los transformers. Y de ahi que utilicen tantas GPUs para procesamiento paralelo de enormes cantidades de datos. GRACIAS DOT.CSV

  • @javiernelon1577
    @javiernelon1577 Před rokem

    Brutal como explicas, cásate conmigo porfavor jaja

  • @DanielGutierrez-xj6vz
    @DanielGutierrez-xj6vz Před 2 lety

    muy bien explicado

  • @dcardenasp
    @dcardenasp Před 2 lety +1

    Hola Carlos. Que buen video! Estás amarrando muchísimos conceptos en una sola aplicación. Genial! Me gustaría usar tu video para el capítulo de series de Fourier en un curso que imparto para estudiantes de ingeniería. Me autorizas? Salu2!

  • @gilberto_xyz
    @gilberto_xyz Před 2 lety +1

    Bro, eres la onda!

  • @mabelestevez6708
    @mabelestevez6708 Před měsícem

    Excelente

  • @tarabonet267
    @tarabonet267 Před 6 měsíci

    ¡Gracias!

  • @javieraguilar9957
    @javieraguilar9957 Před 2 lety +2

    Tío Dot, nunca había visto un video tan bien explicado del Positional Encoding

  • @noelgomariz3038
    @noelgomariz3038 Před 2 lety

    Brutal

  • @albertrg9166
    @albertrg9166 Před 2 lety

    Hola, podrías explicar el concepto de los ViT? Eres un grande

  • @MarceloCesarPaladino
    @MarceloCesarPaladino Před rokem

    Todo un genio y muchas gracias por la INFO

  • @lucasgomez9373
    @lucasgomez9373 Před 2 lety +1

    Sos un Genio Carlos! Te consulto si sabes si hay desarrollos para optimizar esta codificacion utilizando por ejemplo modulaciones en cuadratura comunes en telecomunicaciones. Me interesa saber como se encara el incremento en throughput de datos!
    Saludos!

  • @ninogarcia5243
    @ninogarcia5243 Před 2 lety

    Que buen video, ¿cual es la música de fondo?. Gracias por el contenido!

  • @jeannsyo
    @jeannsyo Před 2 lety +7

    13:28 dot realmente eres un crack, saludos desde America Latina

  • @javenda
    @javenda Před 2 lety +1

    muy buennoooo

  • @adrianvelez9449
    @adrianvelez9449 Před 2 lety +1

    Muchas gracias por tus vídeos. Te sigo hace poco tiempo y me parece que están muy bien. Me surge una duda respecto a la paralelización que comentabas. ¿Dices que con las redes neuronales recurrentes no se puede paralizar los cálculos por GPU? Pero realmente si se puede, ¿no? Puedes explicar a qué te refieres con eso. Digo que se puede paralelizar por qué los datos con los que óperas son una matriz bidimensional donde por una dimensión son los parámetros del algoritmo y por otro lado el número de ejemplos del batch de entrenamiento. Corrígeme si me equivoco o si se me escapa algo. Gracias.

  • @korason3235
    @korason3235 Před 2 lety

    Bro, tu canal ya es genial, no creo que necesites poner bromas entre medio

  • @emgicraft2504
    @emgicraft2504 Před 2 lety +1

    Yei! Nuevo video! 😎

  • @Musica-kb3po
    @Musica-kb3po Před 2 lety

    Hola, puedes hablar sobre las "Real Doll"

  • @AstronautaCrypto
    @AstronautaCrypto Před 2 lety

    Me dejas loco por querer aprender más!

  • @bocatadenata
    @bocatadenata Před 2 lety

    Magnífico trabajo como siempre. Me parece interesantísimo todo lo que explicas, aunque no tengo el nivel necesario para entenderlo todo.
    Una pregunta:
    10:33: Fila inferior: ¿seno(1/3 * pos)? ¿Por qué no sería seno(1/4 * pos)? No pillo el significado del 1/3

  • @javiertorcal5053
    @javiertorcal5053 Před 10 měsíci

    He utilizado los Visual Transformers en mi TFM y su performance es mayor a la de las CNNs. Podrías hacer un vídeo sobre ellos por su gran potencial y futuro

  • @jesusrojas7534
    @jesusrojas7534 Před 6 měsíci

    Si todos los vídeos fueran así, aprendería todo más rápido

  • @matiasrodrigotorresrivera4941

    A Fourier le encantó este video

  • @micheldomenino6367
    @micheldomenino6367 Před 2 lety

    A ver!

  • @osip_1984
    @osip_1984 Před 2 lety +2

    Otra de las razones por las que utilizar una codificación posicional basada en ondas matemáticas multidimensionales es porque le permite al modelo adquirir información posicional relativa respecto a las otras palabras, permitiéndole aprender con menos ejemplos y más rápidamente.

  • @elvisleon9695
    @elvisleon9695 Před 2 lety

    Si pudieras hacer un video implementando transformers desde 0 sin librerias aunque con pocos datos de entrenamiento seria genial.

  • @agooddaytoplay3114
    @agooddaytoplay3114 Před 2 lety

    Todavia se puede ver la conferencia que diste para samsung?

  • @Martin171199
    @Martin171199 Před 2 lety +1

    Muy bueno como siempre, sigue haciendo estos videos de calidad y muchas gracias.

  • @JaviBt4
    @JaviBt4 Před 2 lety +1

    Increíble vídeo! Gracias Dot :)

  •  Před 2 lety

    👏🏻👏🏻👏🏻👏🏻👏🏻👏🏻👏🏻

  • @victormendezvasquez722
    @victormendezvasquez722 Před 2 lety +4

    Wow wow wow, full nice la explicación!!! Gracias Carlos, eres el mejor!!!!

  • @manuelcobo8879
    @manuelcobo8879 Před 2 lety

    Estas hablando de reconocimiento de voz o colores formas etc de cualquier manera todo es frecuencia 😎👍🎼

  • @SimuFilmmaker
    @SimuFilmmaker Před 2 lety +2

    4:01 se mató

  • @teresagonzalez9338
    @teresagonzalez9338 Před 2 lety

    ❤️

  • @Luix
    @Luix Před 2 lety

    More than meets the eye

  • @ge13r
    @ge13r Před 29 dny

    Waooo...!!!

  • @MILENIOZERO
    @MILENIOZERO Před rokem

    Yo quiero hablar con un personaje asi en español y dentro del metaverso o con la realidad mixta. Tiene que ser una pasada!

  • @JuanJoseCinalli
    @JuanJoseCinalli Před 2 lety

    Solo se que en lugar de simplificar, se está complicando todo exponencialmente.
    Un ejemplo...
    Es como cuando generamos rampas en decodificadores A/D...en lugar de solo usar un equipo analógico.
    Nuestro cerebro es extremadamente simple en ese mecanismo de aprendizaje o incluso inteligencia.
    Si bien existen multiple tipos de neuronas, hay zonas y sectores específicos.
    Nuestras limitaciones principales son la velocidad de propagación electroquímica , la densidad de almacenamiento dentro de todo es aceptable , aún así ampliable electrónicamente.
    Muy buenos tus vídeos, aprendo mucho en verdad !
    Saludos desde Rosario Argentina

    • @JuanJoseCinalli
      @JuanJoseCinalli Před 2 lety

      Hugo Zucarelli, ing acústico famoso por su invención (1980) llamada Holofonic....este ideo una técnica de cambios de fase en sonido...como realmente es capturada por el oído humano, intentaron recrear algoritmos así manejar esta información espacial 3D sin resultados muy superiores..
      El ser humano es 100% analógico...no veo razón (hoy en dia) cambiar estos principios hasta no superarlos y así emplear técnicas digitales.
      Espero se comprenda la comparativa.
      Saludos

  • @haroldt.c.477
    @haroldt.c.477 Před 2 lety

    En determinado momento, con el conocimiento con las que las propias personas alimentan a las inteligencias artificiales, serán estás las que se ocupen de generar y distribuir la tecnología, y según parece esto avanza rápidamente.

  • @mbunooo
    @mbunooo Před 2 lety +2

    nunca vi una explicación tan intuitiva de los embeddings posicionales. felicidades por el video!

  • @fosters.4558
    @fosters.4558 Před 2 lety +2

    Cualquiera q sabe de Sonido mira esas ondas y es inevitable relacionarlo con las ondas armónicas que al final se traducen en frecuencia.. bien lo decía Tesla.. todo es frecuencia todo !! U.u

  • @emmanuelrodriguez8138
    @emmanuelrodriguez8138 Před 2 lety +1

    Woao!!! Excelente video

  • @silviabregar4263
    @silviabregar4263 Před 9 měsíci

    Hola es muy aclaratoria tu explicación. Soy escritora, se podrá usar como corrector de estilo y ortotipográfico?

  • @felosrg1266
    @felosrg1266 Před 2 lety +11

    El Megatron se parece a la computadora que le está dando definiciones al capitán del axioma en WALL-E

  • @santiagogaleanocadavid8237

    Excelente explicación... Gracias Carlos! Ya con ganas de ver los siguientes vídeos de esta serie sobre los transformers 👏🏼👏🏼

    • @Darkbotsz5
      @Darkbotsz5 Před 4 měsíci +1

      De esos robots transformable

  • @martinfarrera_
    @martinfarrera_ Před 2 lety

    Parte 3

  • @nachofloresblanco3208
    @nachofloresblanco3208 Před 2 lety +2

    Gracias Carlos. Mira que he leído sobre los Transformers pero no conocía este tema del Position Encoding

  • @-Ramsesillo
    @-Ramsesillo Před 2 lety +1

    Carlos, fascinante como siempre.

  • @helamantecnci
    @helamantecnci Před 2 lety

    Es interesante que el input de los seres humanos se recibe mediante hondas

  • @AntonioMartinezRamirez85
    @AntonioMartinezRamirez85 Před 2 lety +1

    Genial!

  • @dafmdev
    @dafmdev Před 2 lety +1

    Muchas gracias!!!

  • @cientifico190
    @cientifico190 Před 2 lety

    omgomgomg llegué temprano :D