Excelente, Se optimiza el trabajo.
Excelentes videos Key, parezco niño con juguete nuevo, practicando en ADF jaja
Hola Keyla , bastante didactico el video como siempre. Gracias por compartir el conocimiento
@@KeylaDolores Hola Keyla una consulta aprovechando el video estas funcionalidades dinámicas se logran aprovechar xq el destino final es Azure Synapse únicamente ? Si el destino fuera un Azure SQL Server , Data Factory tambien podria aplicar estas propiedades dinámicas.
@@eduardogpisco no no, la idea es que puedas parametrizar tus datasets independientemente de donde estén. Solo para la Demo utilicé el Azure SQL Database de origen.
Hola, cuando se ejecuta el pipeline, siempre pide el valor. En producción para multiples valores, como se automatiza esa parte? el hecho de cada ejecución del pipeline tener que especificar ese "Value" manualmente.
Excelente video, y si quiero poner un parametro a la tabla, que muestre datos de una determinada fecha como seria....
Hola Keyla, gracias por la información, quisiera pedirte si podrías hacer una conexión con una lista de SharePoint. Gracias
Hola Keyla, gracias por hacer estos videos
Buen video, muy explicativo, me queda la duda de como seria el mismo ejercicio en un ambiente productivo, se lee las tablas a mover de algun lugar?, para no estar escribiendolas, saludos.
Hola Jonathan, gracias por ver!
La idea seria tener una actividad previa que capture la lista de tablas que quieras procesar y luego ir pasándolas una a una de manera automática. Prepararé un video más adelante explicando esto 😊
Hola Keyla, Me gustaría hacerte algunas consultas. Cual es tu numero pf ?
Hola tengo una duda, la manera como lo haces funciona para cuando lo deseas ejecutar de inmediato, pero como haría para enviar dinamicamente el nombre de las tablas cuando se debe ejecutar ese pipeline por trigger o agendado para cierto día y hora?