![Pepe Cantoral, Ph.D.](/img/default-banner.jpg)
- 113
- 374 322
Pepe Cantoral, Ph.D.
Mexico
Registrace 24. 07. 2020
czcams.com/users/pepecantoralphd
El objetivo de este canal es ayudar a todo aquél que quiera entender mejor temas relevantes de ciencias computacionales mediante tutoriales acerca de Deep Learning, Matemáticas, Python, Linux, y cualquier tema relacionado con computación y tecnología.
Pepe Cantoral siguió una formación estricta en electrónica y sistemas embebidos (incluyendo un doctorado) hasta que en el 2015 empezó a trabajar en aplicaciones de Deep Learning, Ciencia de Datos y programación en Python. Su impacto fue tal, que desde ese momento decidió cambiarse al lado oscuro de la fuerza y seguir una carrera en Ciencias Computacionales, combinando aplicaciones de Deep Learning en la solución de problemas de Procesamiento Digital de Señales. Actualmente, es Profesor Universitario e Investigador en el departamento de Sistemas Computacionales, en materias relacionadas con Algoritmos, Matemáticas Computacionales, DSP, y Sistemas Embebidos.
El objetivo de este canal es ayudar a todo aquél que quiera entender mejor temas relevantes de ciencias computacionales mediante tutoriales acerca de Deep Learning, Matemáticas, Python, Linux, y cualquier tema relacionado con computación y tecnología.
Pepe Cantoral siguió una formación estricta en electrónica y sistemas embebidos (incluyendo un doctorado) hasta que en el 2015 empezó a trabajar en aplicaciones de Deep Learning, Ciencia de Datos y programación en Python. Su impacto fue tal, que desde ese momento decidió cambiarse al lado oscuro de la fuerza y seguir una carrera en Ciencias Computacionales, combinando aplicaciones de Deep Learning en la solución de problemas de Procesamiento Digital de Señales. Actualmente, es Profesor Universitario e Investigador en el departamento de Sistemas Computacionales, en materias relacionadas con Algoritmos, Matemáticas Computacionales, DSP, y Sistemas Embebidos.
¡TRADUCTOR INGLÉS a ESPAÑOL desde CERO con PyTorch!
Traductor Inglés-Español con un Transformer desde Cero
Video previo implementación de transfomer:
czcams.com/video/XefFj4rLHgU/video.html
Videos previos acerca de teoría de Transformers
Parte 1 - czcams.com/video/Bh22yyEJFak/video.html
Parte 2 - czcams.com/video/Nj5DVykeFhM/video.html
Parte 3 - czcams.com/video/AFcqsswq3C8/video.html
En este video, explico cómo implementar un traductor de inglés a español utilizando nuestro modelo de Transformer construido desde cero con PyTorch. A pesar de que el rendimiento del traductor es limitado, este tutorial permite muy buen entendimiento de los pasos fundamentales de la implementación del Transformer, siguiendo el enfoque del artículo "Attention is All You Need". Aprende sobre codificación, decodificación y multi-head attention mientras construimos este traductor paso a paso.
Código del video:
github.com/JACantoral/DL_fundamentals/blob/main/DL_fundamentals_transformer_model.ipynb
Para descargar los datos:
tatoeba.org/en/downloads
Video previo implementación de transfomer:
czcams.com/video/XefFj4rLHgU/video.html
Videos previos acerca de teoría de Transformers
Parte 1 - czcams.com/video/Bh22yyEJFak/video.html
Parte 2 - czcams.com/video/Nj5DVykeFhM/video.html
Parte 3 - czcams.com/video/AFcqsswq3C8/video.html
En este video, explico cómo implementar un traductor de inglés a español utilizando nuestro modelo de Transformer construido desde cero con PyTorch. A pesar de que el rendimiento del traductor es limitado, este tutorial permite muy buen entendimiento de los pasos fundamentales de la implementación del Transformer, siguiendo el enfoque del artículo "Attention is All You Need". Aprende sobre codificación, decodificación y multi-head attention mientras construimos este traductor paso a paso.
Código del video:
github.com/JACantoral/DL_fundamentals/blob/main/DL_fundamentals_transformer_model.ipynb
Para descargar los datos:
tatoeba.org/en/downloads
zhlédnutí: 254
Video
¡Cómo programar un Transformer desde CERO! (From Scratch!)
zhlédnutí 596Před dnem
Código del video: github.com/JACantoral/DL_fundamentals/blob/main/DL_fundamentals_transformer_model.ipynb Videos previos acerca de Transformers Parte 1 - czcams.com/video/Bh22yyEJFak/video.html Parte 2 - czcams.com/video/Nj5DVykeFhM/video.html Parte 3 - czcams.com/video/AFcqsswq3C8/video.html Embeddings Desde cero - czcams.com/video/8f9H-7i2RAw/video.html Teoria - czcams.com/video/LagcbjDkqJE/v...
Transformers - ¡Attention is all you need! Parte 3
zhlédnutí 318Před 21 dnem
Video Previo - Explicación detallada de attention: czcams.com/video/Nj5DVykeFhM/video.html Primer video de la serie de transformers - Attention is all you need: czcams.com/video/Bh22yyEJFak/video.html Code: github.com/JACantoral/DL_fundamentals/blob/main/Simple_Attention_Numpy.ipynb En este video, explico el mecanismo de atención, un componente esencial en el modelo de transformer, utilizando l...
Transformers - ¡Attention is all you need! Parte 2
zhlédnutí 495Před 21 dnem
Transformers Parte 1 czcams.com/video/Bh22yyEJFak/video.html Embeddings: czcams.com/video/LagcbjDkqJE/video.html Embeddings desde cero: czcams.com/video/8f9H-7i2RAw/video.html En esta segunda parte de la serie de Transformers, explico con mucho detalle en el mecanismo de self attention, el mecanismo fundamental en Transformers. Además también explico positional encoding.
Transformers - Attention is all you need - Parte 1
zhlédnutí 869Před měsícem
Playlist NLP czcams.com/play/PLWzLQn_hxe6Ym2y17FreTcn6robjZ9LMk.html Modelo de Lenguage czcams.com/video/myKMg2aqOho/video.html Sequence to Sequence czcams.com/video/iKgAGnMUsHk/video.html Attention en modelos redes neuronales recurrentes czcams.com/video/pyshwfclcPM/video.html En este video, explico el paper "Attention Is All You Need" que introdujo el modelo Transformer, una arquitectura que ...
¿Cómo entrenar embeddings desde cero?
zhlédnutí 1KPřed 2 měsíci
Video previo embeddings: czcams.com/video/LagcbjDkqJE/video.html En un video anterior, expliqué qué son los embeddings y su relevancia en el procesamiento de lenguaje natural. En este video, damos un paso más allá: explico cómo programar nuestros propios embeddings desde cero utilizando PyTorch. Comprender a fondo los embeddings no solo es interesante como ejercicio académico, sino también cruc...
¡Python DECORATORS! ¡Cómo funcionan los decoradores de Python!
zhlédnutí 426Před 3 měsíci
En este video explico el concepto de los @decoradores@ en Python (Decorators), los cuales permiten escribir código más limpio y modular. Los decoradores son funciones que reciben otra función, le agregan funcionalidad, y devuelven otra función sin modificar la función original. Video previo: czcams.com/video/xmMAeOrlZWE/video.html
¡Las funciones de Python son OBJETOS!
zhlédnutí 355Před 3 měsíci
En esta guía, presento cinco funcionalidades que demuestran cómo las funciones, al ser tratadas como objetos, pueden transformar tu manera de programar en Python. 1. Pasar Funciones como Argumentos: Descubre la elegancia de la programación funcional pasando funciones a otras funciones. 2. Almacenar Funciones en Estructuras de Datos: Cómo organizar y gestionar tus funciones en estructuras de dat...
ChatGPT y Gemini: ¡Conversación con los modelos más avanzados de IA!
zhlédnutí 322Před 4 měsíci
En este video tengo una conversación con ChatGPT (GPT 4) y Gemini Advanced acerca de su rol en el desarrollo de la humanidad: ChatGPT: "Como modelo de inteligencia artificial, no soy parte de la humanidad en el sentido tradicional. No tengo emociones, conciencia o experiencias de vida propias. Mi existencia y mis respuestas se basan en datos, algoritmos y patrones de lenguaje derivados de la in...
¡Atención! (Sequence to sequence with attention): ¡Traductor Inglés a Español! (Parte 2)
zhlédnutí 329Před 4 měsíci
Video previo modelos Secuencia a Secuencia: czcams.com/video/iKgAGnMUsHk/video.html Este video se centra en uno de los avances más fascinantes en el campo del Procesamiento del Lenguaje Natural (PLN): el modelo Secuencia a Secuencia (Seq2Seq) con mecanismo de Atención, utilizando como ejemplo un traductor de inglés a español. - Introducción al mecanismo de Atención: qué es, cómo funciona, y por...
Sequence to Sequence (Seq2Seq): ¡Traductor Inglés a Español! (Parte 1)
zhlédnutí 415Před 4 měsíci
En este video, nos sumergiremos en los fundamentos teóricos detrás del modelo Sequence to Sequence (Secuencia a Secuencia), una arquitectura revolucionaria en el campo del Procesamiento del Lenguaje Natural (PLN). En este video cubriremos: - Los principios básicos de los modelos Seq2Seq y cómo funcionan. - La estructura y componentes de los modelos Seq2Seq, incluyendo los codificadores y decodi...
Modelo de Lenguage: Generador de texto con Red Neuronal Recurrente.
zhlédnutí 564Před 5 měsíci
En este video explico de forma breve qué es un modelo de Lenguage y como podemos crear uno usando una Red Neuronal Recurrente. Un modelo de lenguage es un modelo que obtiene la distribución de probabilidad del sigueinte toke (p.e. una palabra) dada una secuencia de tokens previos. El modelo de lenguage más famoso es probablemente ChatGPT.
!Tres personas que conocí en persona en 2023!
zhlédnutí 246Před 5 měsíci
En este video comparto la experiencia de conocer en persona a tres individuos a los cuales admiro mucho. - Andrew Ng Deep Learning Coursera (www.coursera.org/specializations/deep-learning) Machine Learning 2008 (czcams.com/video/UzxYlbK2c7E/video.htmlfeature=shared) - Jeremy Howard CZcams channel (www.youtube.com/@howardjeremyp) FastAI (www.fast.ai/) - Sean Walker CZcams Channel (www.youtube.co...
¡LSTM: Todo lo que necesitas saber!
zhlédnutí 2,8KPřed 8 měsíci
En este video nos adentraremos en las redes neuronales Long Short-Term Memory (LSTM). Si te has preguntado alguna vez cómo las LSTMs superan los desafíos de las RNNs tradicionales, estás en el lugar correcto. contenido: Introducción a las LSTMs y su importancia en el manejo de datos secuenciales. Explicación detallada de la arquitectura LSTM, acompañada de diagramas y ecuaciones. Demostración p...
¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!
zhlédnutí 2,6KPřed 8 měsíci
Bienvenidos a este nuevo video en el que vamos a explorar el emocionante mundo de los "Word Embeddings" o incrustaciones de palabras. Pero no nos detendremos en la teoría; ¡Vamos a llevarlo a la práctica utilizando GloVe! Puntos Clave: Introducción a los "Word Embeddings" y su importancia en el Procesamiento del Lenguaje Natural (PLN) O Natural Language Processing. Implementación de funciones P...
Modelos secuenciales y REDES NEURONALES RECURRENTES
zhlédnutí 2,3KPřed 8 měsíci
Modelos secuenciales y REDES NEURONALES RECURRENTES
BATCH NORMALIZATION en Redes Convolucionales: Python y PyTorch
zhlédnutí 467Před 9 měsíci
BATCH NORMALIZATION en Redes Convolucionales: Python y PyTorch
¡BATCH NORMALIZATION! - Python vs. PyTorch
zhlédnutí 416Před 9 měsíci
¡BATCH NORMALIZATION! - Python vs. PyTorch
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
zhlédnutí 1,5KPřed 9 měsíci
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
ImageNet: El Proyecto que Cambió la Inteligencia Artificial | Pláticas Plug & Play # 5
zhlédnutí 579Před 9 měsíci
ImageNet: El Proyecto que Cambió la Inteligencia Artificial | Pláticas Plug & Play # 5
¡La forma más FÁCIL de instalar drivers de NVIDIA, TensorFlow y PyTorch en Ubuntu 22.04 LTS!
zhlédnutí 4,4KPřed 9 měsíci
¡La forma más FÁCIL de instalar drivers de NVIDIA, TensorFlow y PyTorch en Ubuntu 22.04 LTS!
Dr. Carlos Alberto Escobar Díaz: Going the Distance! | Pláticas Plug & Play # 4
zhlédnutí 414Před 10 měsíci
Dr. Carlos Alberto Escobar Díaz: Going the Distance! | Pláticas Plug & Play # 4
5 cosas que tienes que saber de los diccionarios de Python | Python is Cool!
zhlédnutí 261Před 10 měsíci
5 cosas que tienes que saber de los diccionarios de Python | Python is Cool!
Ing. Sandra Román: Pasantías/Ing. de Software/Consejos para Entrevistas | Pláticas Plug & Play # 3
zhlédnutí 513Před 10 měsíci
Ing. Sandra Román: Pasantías/Ing. de Software/Consejos para Entrevistas | Pláticas Plug & Play # 3
5 cosas que tienes que saber de las listas de Python | Python is Coll!
zhlédnutí 349Před 10 měsíci
5 cosas que tienes que saber de las listas de Python | Python is Coll!
MSc. Rafael Espinosa: Las matemáticas en la era de IA | Pláticas Plug & Play # 2
zhlédnutí 627Před 10 měsíci
MSc. Rafael Espinosa: Las matemáticas en la era de IA | Pláticas Plug & Play # 2
Dr. Rick Swenson: El rol de IA en la Ingeniería y Educación | Pláticas Plug & Play #1
zhlédnutí 691Před 10 měsíci
Dr. Rick Swenson: El rol de IA en la Ingeniería y Educación | Pláticas Plug & Play #1
Muy interesanteee, podrias hacer un modelo para reconocer patrones repetitivos de una tabla ? Estoy haciendo un proyecto para encontrar patrones repetitivos del oro, con columnas: fecha,hora,precio de apertura,precio maximo, precio minimo, precio de cierre,volatilidad en pips . Lo que quiero es encontrar patrones repetitivos y hacerlo con pytorch, podrias hacer un video con al menos una idea general o similar para guiarme ?
Muy buena e interesante tu serie de videos!! Estoy explorando el análisis de series de tiempo con transformers, es un mundo apasionante, estaría bueno ver tu punto de vista del tema, time2vec, autoformers, informers, iformers, timesnet, etc..
Una duda porque no se usa torch.sqrt o torch.log en vez de math.sqrt y math.log?
Eso fue fascinante!
Excelente eres un crack!
genial
😃😃 muchas gracias
Excelente serie de videos!! Gracias
Una rtx a6000 y no pudiste meterla en un gabinete decente ?
39:18 Y aqui hace sentido el optimizer.zero_grad()
Muy buen contenido Pepe! Como comentario: estaria cool que agregaras una liga a un notebook en collab para poder partir del codigo que tienes Saludos!
Gracias, todo super
Donde me uno para apoyar con dinero a este buen hombre. Algún Patreon? Por favor no dejes de hacer videos
genialllll ... muy buen video
Es hermoso, al fin yt me recomendó algo relevante.
Gracias. Gran explicación
pedazo de contenido para ES 💥👏
😄 Nos ha desafiado a todos !! ... Excelente trabajo, felicitaciones y muchísismas gracias.
woooh! que perla de información, muchas gracias
y como obtenemos los embeddings de x capa del modelo ?
Gracias! excelentes videos!
Mi ídolo Andrew y tu bro
Está pequeña parte de mi vida se llama felicidad
Si quisiera ayuda o algunas clases para un problema específico como podría contactarte,bro , tus clases son muy excelentes
es el dia 😍😍
Llego el dia
El video más esperadooooooooo 🎉
Excelente explicación, muchas gracias, me están ayudando mucho tus videos, saludos!
Esperando el próximo video 🎉
Gracias por compartir!!
Muchas gracias!
Me ha encantado el análisis tan detallado del paper, gran trabajo, enhorabuena.
Muchas gracias! Saludos
Utilice la función del más similar con una distancia del coseno > 0.25 para la palabra "natural" y me encontró "procesamiento, pytorch, herramienta, lenguaje, rama, subcategoría"
Qué gusto Leonardo! Muchas gracias por tu comentario, depende del dataset de entrenamiento pero es muy interesante que muestra las relaciones de natural con procesamiento de lenguaje. Muchos saludos
Una consulta cuales otras técnicas de creación de embeddings recomendarías estudiar?
Hola Pepe una consulta en la función los más similares estoy utilizando para la distancia del coseno un valor mayor 0.5 cuál sería el valor apropiado?
Excelente video. Muchas gracias por compartir conocimiento
Muchas gracias
Gracias por estos videos Pepe, se agradece mucho tener estos contenidos en español. Los transformers que tengo integrados en el cerebro y que me traducen las cosas del inglés se me agotan después de largas horas de exposición. Esto es un bálsamo.
si que si por fin se viene lo shido🤩🤩🤩
Te aventarias currying vs partial?
Se que es de otro lenguaje, pero cual sería la diferencia entre el decorator de python y un Middleware en js
Muy buena explicación
Muchas gracias, Pepe. Excelente video como siempre.
Muchas gracias, Pepe y como siempre es una excelente clase. Y una consulta al ser red full conected, se puede usar RElu y BatchNormalization? muchas gracias.
Excelentes videos!, hay que cuidar un poco sin embargo la parte del audio, un abrazo
Excelente contenido. Muchas gracias ❤
Woow! Había estado trantando de entender el positional encoding y atención desde hace buen tiempo, tu explicación es bastante clara y rápida. Muchas gracias por el tiempo que le dedicas a explicar estos temas, se nota tu pasión e interés por compartir este conocimiento. Muchas gracias!!!!!
Muchas gracias por la explicación, primera vez que entiendo el funcionamiento del transformer. Tu energía y pasión se transmite y se hace ameno ver todo el contenido.
Lo estaba esperando 👏🏽👏🏽👏🏽
The best in the world 😎
Recuerdo haber hecho un comentario hace unos dos años donde le decía que era una buena idea para su canal revisar los papers más famosos o útiles de IA, me encanta.
Vision transformers por favor 🙏🏻