🔴 La Revolución del Vídeo IA - ¡NUEVO GEN-3 · KLING · LUMA DREAM MACHINE!
Vložit
- čas přidán 16. 06. 2024
- Comentamos la actualidad de los últimos modelos de generación de vídeo que han salido a la estela de OpenAI Sora. Tras la salida del modelo chino Kling el modelo Luma Dream Machine, hoy se ha presentado el modelo Gen-3 de Runway.
🚀 ¡MI NUEVO CANAL DE CZcams!
► / @dotcsvlab
-- ¡MÁS DOTCSV! ---
💸 Patreon : / dotcsv
👓 Facebook : / ai.dotcsv
👾 Twitch!!! : / dotcsv
🐥 Twitter : / dotcsv
📸 Instagram : / dotcsv
- ¡MÁS CIENCIA! --
🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
scenio.es/colaboradores - Věda a technologie
Gracias por compartir Carlos, ya se te extrañaba
Si hace pocos videos q mal
@@cristopher_ia_2030 hace videos, que bien
que bueno todo lo que esta sucediengo, gracias
Muy buen directo. Gracias Carlos.
Tengo algo que puede ser que te vuele la cabeza, resulta que cuando algunas veces tienes sueños lucidos, y estas viendo un libro o alguna pintura o algún texto, las imágenes se distorsionan de tal manera de que no forman una imagen concisa a lo largo de tiempo, si no que se van distorsionado casi igual que lo que pasa en esos videos generados. Creo que sin querer estamos llegando a describir como funciona la conciencia y lo que nos hace humanos.
También los viajes con psicilocibina producen un efecto muy similar a estos vídeos es muy loco, la psicilocibina suele conectar con la consciencia .
De hecho los sueños son consas del subconciente mas que de la conciencia no?
No tiene nada que ver. Si las imágenes de los sueños parecen distorsionadas, tal vez nuestra memoria funcione como una red de difusión, es curioso, pero eso no dice nada sobre la conciencia.
@@toraneeko no puedes limitar al espectro de la consciencia a que eso no dice nada sobre la consciencia.
la consciencia no tiene un limite como tal en su expresión
quien sabe y en un tiempo después exista algún dispositivo capaz de interpretar los sueños con ayuda de inteligencia artificial
entonces eso no dirá nada sobre la consciencia?
la IA está funcionando como una extensión de la misma y apenas está comenzando...
No me asustes viejo
Voto por un video de @DotCSV analizando la aparente caída de calidad en los outputs de GPT4 plus. Lo había estado sintiendo últimamente pero buscando encuentro muchas personas con la misma sensación de que se está cambiando calidad por velocidad. Me pregunto si esto será debido a un interés comercial por abarcar "usuarios ocasionales" en lugar de usuarios avanzados.
También siento que sus respuestas están perdiendo calidad 😢
Y la generación de imágenes las está haciendo con Python en lugar de recurrir a Dall 3, lo que algunas personas piensan que esa es su capacidad de generar imágenes. Lo que genera con Python.
Impresionante los resultados, para lo simple de los promps.
1:15:00 El mejor momento, Google cerrando la boca en vivo y en directo.
Cómo transforma el simple hecho de tener audio.
Excelente directo!
En algún tiempo se harán películas completas por prompt
¿Que no "Everything Everywhere at the same time" ya usaba herramientas con IA? Fue un equipo de VFX muy pequeño con grandes resultados. ¿Algo parecido con Godzilla Minus One que ganaron el oscar de VFX?
No no usaron ia.
En algunas partes usaron programas que pueden hacer generación procedural 3D, ni es lo mismo que iA es más como un render
ni al trabajo llego temprano
Gracias por compartirlo, y por usar un formato móvil
Sí es fácil, yo hice un video tutorial y otro comparando sora con luma
Buena explicación, Gracias Carlos.
Porfavor Carlos si puedes hacernos un video comparando Gemini 1.5 Pro de Google AI Studio, ChatGPT-4o y Gemini Advanced.
El globo rojo me hizo acordat a IT "todos flotan".....
Gracias
GRACIAS.
Lo interesante sería que se generaran assets que se puedan editar y modificar fácilmente como por ejemplo escenas o modelos 3D. Así sería muy fácil arreglar errores, recolocar cosas etc
Seguro algún rato harán eso🎉
18:02 yo creo que si, aunque parecen mas videos de esos que salen en la TELEVISIONES cuando se estan vendiendo, todas a camara lenta con muchos colores, y sobre todo con mucho contraste y tal de paisajes y lugares vistosos, bueno en si es porque quieren vender la TV XD
Gracias por siempre traernos lo último en IA. Una opinión sobre el formato, no lo tomes a mal... estaría bueno si haces un video resumen con lo mas destacado de los directos, porque muchos no tenemos mas de una hora para ver un video, o quizás, como me pasa a veces, me cuesta retener tanto tiempo la atención. Reconozco que el problema es mío, y supongo que de varios otros.. (No sos vos, soy yo :D). Un abrazo desde Argentina!!
Para mí, un GWM en el futuro debería ir muchisimo allá de los tres clásicos (imagen, sonido, texto, video). Datos de todo tipo de sensores, por ejemplo. Pero hay mucho más.
El tema de la causalidad creo que es porque si tocas un piano, siempre tiene que bajar la tecla, pero al comer, por ejemplo un helado, no tiene por que desaparecer un trozo. O el caso del lápiz debe ser porque hay veces que se hacen trazados por encima de otros anteriores, por lo que el lápiz pasa y no hace nada, por no tener en cuenta la profundidad, que puede ser que no entienda cuando el lapiz está apoyado y cuando esta pasando por encima del papel. Cuando haces lineas paralelas en una dirección, normalmente pintad en un sentido y desplazas el lapiz en el otro, con lo que para la IA el lápiz pinta a veces pero no siempre
estaba clarísimo, les volvió a pasar la de dall-e. les salió la competencia antes
No veo la hora de ingresarle un libreto de una película o un libro y que la cree un corto o una película
Exacto por ahora no ya que cada prompt hace un video con un estilo muy diferente aunq le especifiques
Me encanta, me asombra que a pesar que hay errores, falta de consistencia, no hay valle inquietante como suele haber con lo fx tradicionales
¡Las IA generando videos a cámara lenta son una locura! ¿Qué opinan, estas herramientas cambiarán cómo contamos historias en CZcams? 🌟
Sí, yo lo usaré bastante para mis canales🎉
59:21 A mi tambien se me aflojó el moco con semejante argumento.🥲
en primera fila🍿
Genial yo ahora lo veo jasja
Han sido muchos años de un gran servicio!! Gracias Dora, Gracias por nada!! P.D. las startups os están usando para crear hype y que 4 se llenen los bolsillos.
Seguro que ya lo han usado. Al igual que un estudio muy grande ya está usando las traducciones por ia en telenovelas para ahorrarse los estudios de doblaje. O que los programadores independientes incluyen multilenguaje en sus programas usando la ia.
Bien
Yo hice un video de comparando los videos de Sora con los de Luma con el mismo pronto😅 me hubiera gustado que reaccionara
Cuando salió sora yo decía que había mucho hype, que no estaba disponible y que pronto otros modelos les iban a alcanzar e incluso superar, la gente se reía de mi. Como diría sama i "don't get mocked as much now"
superar esta dificil, igual no sabemos justamente porque no lo hemos probado
Ademas no es lo mismo generar una imagen que generar videos, hacer un video de 60 segundos a 30fps son 1800 imagenes de alta calidad que hay que generar, probablemente se generen menos ya que se aplicaran técnicas para que haya continuidad generando pocas imagenes, digamos que se generan 1000 imagenes en un video de 1 minuto...bueno ahora imagina 1000 personas generando 1 video, son 1 millón de imágenes que hay que generar, digamos que cada imagen pesa un megabyte es 1 TeraByte o un millon de bytes si no me equivoco, por solo 1000 videos de 60 segundos...imaginate la capacidad y velocidad que debe tener el servidor para que no solo mil usuarios puedan generar videos si no millones de usuarios. Creo que justamente por eso no lo han sacado al público, porque estarian tan saturados los servidores que hacer un video de 60 segundos tardarian una eternidad y seria inusable comercialmente. Si con la generacion de imagenes y textos hay veces que se sobrecargan los servidores, no le quiero imaginar un video y lo mas importante SIN AUDIO.
Ahora imaginate tener que generarlo con sonido, pues se multiplica el tiempo de generación. Creo que por eso Open AI dijo que ellos no generan imagenes sino que simulan un mundo, porque asi se ahorran tener que crear tropecientas imagenes.
Perdón el mucho texto.
No somos dignos de ti, perdónanos por nuestros pecados. 🙏🏼
Ha hablado la caracola mágica!
Cuéntanos más cosas del futuro.
Y esto es lo mismo que sora, una fachada muy bonita que NO PUEDES USAR. Mientras los modelos chinos son completamente gratuitos y YA ESTAN DISPONIBLES pero canales como este los ignoran para que gente como tu piense que la novedad y el progreso vienen de occidente y pagues para que te de una charla y asi quizas lo contraten de consultor.
Ese es el problema cuando solo seguimos al chico popular, que es popular por algo y no nos lo cuenta todo 🫰🏼🫰🏼🫰🏼
@@XaviIntheHouse no hace falta imaginar nada, los modelos chinos ya están disponibles para su descarga y uso online, desde hace rato ya…………..
❤❤❤
🤔 seria chévere que saquen una IA como KREA pero de sora o klin en el cual puedas dibujar desde 0 un guion grafico(storyboard) a manera de fotogramas clave y genere el video en el estilo solicitado tal vez usando una imagen de referencia , y luego siguiendo la misma mecánica poder hacer correcciones dibujando sobre fotogramas clave.
El video del dron volando en arrecife de coral tiene casas yatboles
El astronuata corriendo en rio podria ser una dia cualquiera en esa ciudad
wow
1:08:11, lo que es la necesidad de aquí al futuro.
Algo que no comenta nadie sobre los videos generados por IA: los movimientos tanto de la cámara como de los elementos de la escena suelen ser siempre en slow motion. Sólo he visto en Kling vídeos que parezcan en tiempo real, lo cual quizá para mí hace que esté más arriba en tu clasificación Carlos.
¿Será que la consistencia se va a la mierda si todo se mueve más rápido?
VERÁ CREE UNA RED NEURONAL EN TORCH QUE entrena una secuencia de imagenes en la carpeta ,/images a 900 epochs una vez acabada le dije que la guardase con *,pth , la abri con controlnet y ahora me genera estupendos videos con unos parametros especificos , como por ejemplo bajando del todo el cfg scale a 0.e logrado que me genere video por img2img
¿Cuánto se paga y se puede para el mercado inmobiliario? Muchas gracias por el video
esta usando LUMA; tipo por blockes o Smart Clips. y como el FLASH , que tenia escenas con action y movies .esta bien, porque con esa idea, se puede cambiar la car, los ojos, ect
Se podrá en algun momento👌
Y otra pregunta seria, cuando tendremos la IA en los electrodomésticos que utilizamos, en lo eléctrionico con una verdadera interacción.
En cuatro días en vez de leer un libro diras:
-Sora, leete tal libro y hazme una película. 🍿
Pero el DepMind pone audio encima según el primpt o entiende el contexto del videos generado?
oye dot como le haces para mantenerte actualizado siempre? (Pregunta seria)
Carlos, para cuando el video sobre la WWDC de Apple?
Tienes que hablar de la AI Kimi...
Eso no lo conozco, investigaré y haré un video de eso
Por estos tiempos, puedo imaginar muy bien una realidad en la que Hollywood “la peta” insistiendo en repetirse a sí mismo, con fórmulas desgastadas. A la vez, puedo ver a un promedio de youtubers para quienes resulta muy orgánica la curva de aprendizaje que exige el uso de las IA.
No sé. Creo que Hollywood puede estar convirtiéndose en lo que fueron las televisoras de aire, en contraste con lo que ahora son las plataformas de streaming.
Soy un usuario promedio de Reddit, muy asiduo a las creepypastas, y hay planteos muy buenos ahí. Tengo ansias locas de que aunque sea un 1% de eso sea llevado al cine, y creo que los creadores de contenido están mucho más cerca de eso que las grandes cinematográficas.
Luma dando lumazos a los modelos cerrados
37:09 esto sin censura y....acabas con la industria del 🌽 ....
Una imagen tuya y que aparezca una peluca, el terror de Turquía 😂
cada versión de cada inteligencia es UNA REVOLUCIÓN INCREIBLE vaya clickbait jaja
creo que ya lo estaran usando, en software de edicion de videos ya estan metiendo IA generativa de videos y elementos
Esto no se esta usando, se usan modelos chinos que ya puedes usar gratis pero que canales como este ignoran deliberadamente con una falsa esperanza de ser contratados por las empresas en crecimiento
@@McTrixel Que dices, si en el 1:04:00 habla del modelo
Para mi que no... Es genial que esto ocurra con Runway, ¡Por Gen 3!... Pero Sora de OpenAI sigue siendo mejor en mi opinión. Quizás porque Sora está mejor programada para realizar estas tareas.
El problema es que aún no sale Sora, tocará probarlo cuando lo saquen, lo mismo con Gen-3
4:30
Hablando de cosas que se presentan y no se pueden probar: ha probado alguien chat-gpt 4o tal como lo hicieron en la presentación (cambiando la voz, lo puedes interrumpir, etc..)? Yo no, ni he podido encontrar videos de alguien que lo haga
Sí. Puedes probarlo con la app de chat gpt de Android. Le das al botón de audífonos y listo. Es divertido interrumpirle.
No, no funciona
24:37 29:55 que audio visual, es visual solamente, no tiene audio
Tu prompt: "un cerdo corriendo a alta velocidad por las calles de Tokio". Lo que entiende la IA: "un cerdito gigante corriendo despacito por las calles de Tokio" 😅
Blablabla chicos y chicas
Y mientras los modelos chinos que ya pueden usarse sin cobertura mediatica 👍🏼
como cual?
No digas babosadas, klong no está disponible y se le ha hecho mucha cobertura mediática, pesado.
😐 Yo lo único que digo es que esto de la IA, aún esta en pañales, una de las cosas que noto de todo los sistemas de IA es que no posee un control total de ella, pues hay que utilizar artificios para que ella haga correctamente las cosas, Y percibo que falta una ecuación más y es la que va permitir que 70B saltemos 300B, solo por una ecuación. Y es eso del entendimiento disgregado.
Por qué dices GPT-4 en espera 1:35:40, sí ya estamos en la versión GPT-4o de forma gratuita. NO ENTIENDO :-/
😅
Pues.... primer spot publicitario de una gran compañía que se hace con IA o por lo menos que lo hace público.
First Ever Brand Film Created with SORA | Toys"R"Us
czcams.com/video/uTVlnehpRHQ/video.html
Animen comics y mangas YAAA
Conspiración del día 🤣: A veces pienso si los de Google no se estarán haciendo los "tontos" y tienen una AGI que flipas pero no quieren dar mas ayudas a la competencia viendo lo que paso con los transformers y OpenAI
Suno hace un año ofrecía canciones con una calidad de mrda. Un año después hace auténticas maravillas. La carrera de la ia da pasos de gigantes a cada día que pasa. No se si alegrarme o acojonarme.
chicos y chicas....y chiques?
Mi canal no me funciona como desearía, por favor, si podéis darme alguna recomendación os lo agradecería.
a mi me parece genial pero todo es realismo a mi me interea ver tambien los tipo anime y animacion 3d
Si puede; mira mi último video, uso diferentes promts con diferentes estilos, y en el video tutorial puse el prompt de "goku en fase 1" y lo hsce, malillo pero es el estilo anime
LA PASION PUEDE CONQUISTAR TODO... VOS LO HACES. ABzo DSD aRGENTIA.
Cuando gener si, jajaja llevo 1 hora esperando para 1 prompt
Te refieres a luma? Es rápido pero al video 7 que hagas se demora ys 1 hora o más😂 ( y no puedes más de 10 videos al día)
@@cristopher_ia_2030 si, es un asco si lo ves. Por que al final solo dan muestras, pero no llega al consumidor.
El día que llegue a la gente será real
Bye Bye Money
Otra IA mas que no se puede probar
La IA está sobrevalorada, tanto ruido para que en un año pasen a ser irrelevantes. Hace 1 año, chatgpt era una revolución, incluso algunos ilusos ignorantes de filosofía decían que se acercaba la AGI jajaja, y ahora, ni GPT4o impresiona a nadie.
Chat gpt 4o no impresiona por que es una versión intermedia entre el 4 y el 5 y open ai tampoco le ha dado mucha importancia. Cuando salga el 5 va a ser una revolución igual que el 4
@@vsachy6005
Ya la chica al frente de OpenAI confirmó que no tienen nada más avanzado, lo que están ofreciendo públicamente es lo mejor que tienen hasta el momento. Los que creen que la AGI esta cerca, se están haciendo paj@s mentales. Los fans de la IA son tan ingenuos como los que creían que Bitcoin iba a revolucionar el mundo hace 2 años, ya les pasara la emoción
las IAs necesitan mucho entrenamiento para que deje de cometer errores de perspectiva, se le da fatal a todos los modelos
Creí que ya se podía usar, que locha tanta publicidad y nada de nada.
MUY largo el video para ser una aplicación que la mayoría ocuparemos ocasionalmente. Version corta de todo esto⁉️
muchos que usan videos de stock lo usaran en demasía.
Que más se puede esperar de los que se la pasan en TikTok. Acostumbrados a ver videos de 1 minuto. La cabeza no va más allá.
No vale la pena tanto sermon.. Hay que esperar a que se acomode la IA y ahí comentas
Las simulación de explosiones y humo de VFX no buscan ser realistas, el realismo es aburrido, buscan ser así de exageradas
Google es una Universidad... No una empresa😂
Por favor, no traduzcas "state of the art" como "estado del arte". Me sangran los oídos. La traducción correcta es "lo último" o "tecnología punta". Felicidades por tu trabajo. Eres un referente mundial en información sobre IA.
ojala te equivoques en tu vision del futuro, pero parece que no es asi, a mi no me mola esto
“Tu podrias, yo puedo, el podria…” imagino que en las charlas que da si se atreverá a mencionar los modelos chinos que pueden usarse desde hace tiempo a diferencia de todo lo que habla en el canal que está siempre en un limbo de avaricia occidental sin llegar nunca a ser puesto a disposición de nadie fuera del grupito de enchufados.
1:04:06
Que dices, si en el 1:04:00 habla del modelo
Sora nunca existio, puro cuento.
sora son los amigos que hicimos en el camino
Son una mrda comparados con Sora