Muy didáctica tus clases estimado, esperemos que saques pronto un ejemplo con un cluster mínimo de dos máquinas ya sea usando clúster manager con SPARK o quizás te animes con Mesos, saludos.
Excelentes videos. Me surge la duda de qué pasaría si la data a analizar se encuentra en 2 o más archivos y cada uno de ellos es de un tipo diferente de archivo??? Gracias :D
Hola Albert mucho gusto, tengo una pregunta. Mis tuberías de datos las hago en maven y java. Pero no se que otro lenguaje e ide aprender, si scala o python. Que me recomiendas y q ide para ese lenguaje? Saludos Cordiales.
Muy buenos tus videos, sin embargo me siento bien confuso con el orden, podrías generarle un orden a los videos, porque cuando terminas uno no se cual es la continuación de ese videos, porque hablabas de una seria de videos sin embargo no esta bien ordenados.
Me está gustando tu contenido bastante. Me he hecho patrón, a ver si te vamos ayudando y puedes publicar más. Me gustaría que hicieras vídeos profundizando algo más, pero supongo que lleva mucho tiempo. Un saludo.
Pues muchas gracias y no se hable mas MCdevilkiller!!! Próximos vídeos sobre DS y Spark. Te interesa mas la parte de bases de datos para BigData o el procesamiento en si? Pensava hacer un vídeos sobre casandra en cluster, por ejemplo.
@@NullSafeArchitect pues me parece genial Cassandra. Otra cosa que me gustaría ver sería un "pipeline" completo. Desde la extracción o generación de datos, pasando por el procesado y finalmente el almacenamiento de la nueva información. Hay muchas tecnologías (Beats, Spark, Kafka, Hadoop, ELK, Cassandra, otras DBs) que se vuelve un poco lío. Algo de analíticas en streaming estaría muy muy interesante. Un saludo
Buenas. A mi me surge una duda con respecto a este framework. Los dos vídeos que Albert ha realizado son increíbles, muy didácticos y útiles, pero si quisiéramos desplegar varios workers, ¿cómo lo haríamos? Sobre todo si los workers están en dispositivos distintos y redes distintas.
Gracias por el video Albert! Un saludo desde Colombia.
Gracias por los videos de Spark me han servido mucho para mi tesis de grado en la universidad
Fenomenal!!
Gracias por sus videos son muy buenos y bien explicados. 👍🏼
Excelentes video mi estimado ! gracias por compartir
Excelente video albert.!!
Genial, muy interesante, gracias!!
Muy didáctica tus clases estimado, esperemos que saques pronto un ejemplo con un cluster mínimo de dos máquinas ya sea usando clúster manager con SPARK o quizás te animes con Mesos, saludos.
Muy bueno como siempre!!!
Buen ejemplo práctico.
Muy buen video maestro muchas gracias. Depronto hay algún video con pyspark?
Excelentes videos. Me surge la duda de qué pasaría si la data a analizar se encuentra en 2 o más archivos y cada uno de ellos es de un tipo diferente de archivo??? Gracias :D
Genial el video, podria ser uno donde la spark consume de varias base de datos distintas como mysql y postgres?
Hola Albert mucho gusto, tengo una pregunta. Mis tuberías de datos las hago en maven y java. Pero no se que otro lenguaje e ide aprender, si scala o python. Que me recomiendas y q ide para ese lenguaje? Saludos Cordiales.
Excelente aporte. Puedes hacer ejercicios usando python y spark?
Muy buenos tus videos, sin embargo me siento bien confuso con el orden, podrías generarle un orden a los videos, porque cuando terminas uno no se cual es la continuación de ese videos, porque hablabas de una seria de videos sin embargo no esta bien ordenados.
Me está gustando tu contenido bastante. Me he hecho patrón, a ver si te vamos ayudando y puedes publicar más.
Me gustaría que hicieras vídeos profundizando algo más, pero supongo que lleva mucho tiempo.
Un saludo.
Pues muchas gracias y no se hable mas MCdevilkiller!!! Próximos vídeos sobre DS y Spark. Te interesa mas la parte de bases de datos para BigData o el procesamiento en si? Pensava hacer un vídeos sobre casandra en cluster, por ejemplo.
@@NullSafeArchitect pues me parece genial Cassandra. Otra cosa que me gustaría ver sería un "pipeline" completo. Desde la extracción o generación de datos, pasando por el procesado y finalmente el almacenamiento de la nueva información. Hay muchas tecnologías (Beats, Spark, Kafka, Hadoop, ELK, Cassandra, otras DBs) que se vuelve un poco lío. Algo de analíticas en streaming estaría muy muy interesante.
Un saludo
Estimado Albert, tengo la siguiente consulta que tipo de datos (columnar, doc Json...) utiliza Apache Spark?, muchas gracias de antemano.
Podrías hacer un tuto de hadoop con spark?
No me deja importar SparkSession :(
Buenas. A mi me surge una duda con respecto a este framework. Los dos vídeos que Albert ha realizado son increíbles, muy didácticos y útiles, pero si quisiéramos desplegar varios workers, ¿cómo lo haríamos? Sobre todo si los workers están en dispositivos distintos y redes distintas.
me marca error en los import el eclipse :C
Hola...En tu experiencia en big data,podrias recomendar algún libro. Si fuera en español mejor.. Gracias 😶
Hace mucho que no leo libros técnicos
@@NullSafeArchitect :c