🔴 ¡FILTRADO el PRÓXIMO AVANCE de OPENAI! - ¿Qué es Q*? ¿Strawberry? ¿Es GPT-5?

Sdílet
Vložit
  • čas přidán 19. 08. 2024
  • Se han filtrado datos importantes sobre cómo evolucionarán las IAs de OpenAI, introduciendo el concepto de RAZONAMIENTO. En el directo de hoy vamos a analizar estos rumores, y además profundizaremos en los papers que han inspirado parte de la tecnología que seguramente veamos dentro del funcionamiento de GPT-5.
    LINKS INTERESANTES
    ► STaR: Self Taught Reasoners - Stanford
    arxiv.org/pdf/...
    ► "Let's verify step by step" - OpenAI
    arxiv.org/pdf/...
    ► Quiet STaR - Stanford
    arxiv.org/pdf/...
    ► (Artículo) Bloomberg
    www.bloomberg....
    ► (Artículo) Reuters
    www.reuters.co...
    🚀 ¡MI NUEVO CANAL DE CZcams!
    ► / @dotcsvlab
    -- ¡MÁS DOTCSV! ---
    💸 Patreon : / dotcsv
    👓 Facebook : / ai.dotcsv
    👾 Twitch!!! : / dotcsv
    🐥 Twitter : / dotcsv
    📸 Instagram : / dotcsv
    - ¡MÁS CIENCIA! --
    🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
    scenio.es/colab...

Komentáře • 222

  • @blaztix
    @blaztix Před měsícem +48

    00:00 🎥 Introducción a la Sesión
    - Resumen de los acontecimientos recientes,
    - Concéntrese en el progreso y las filtraciones de OpenAI.
    02:06 📜 Primer análisis de fugas
    - Detalles de la reunión interna,
    - Cinco niveles de evolución de la IA propuestos por OpenAI.
    04:10 🧠 Razonamiento del desarrollo de la IA
    - Introducción del concepto de "razonador",
    - Discusión sobre las capacidades actuales de razonamiento de la IA.
    07:01 🖥 Sistemas de agentes
    - Sistemas que pueden tomar acciones,
    - Aplicaciones potenciales tanto en el ámbito virtual como físico.
    09:20 🔬 IA en la ciencia
    - La IA contribuye al descubrimiento científico.
    - Aprendizaje profundo 3.0 y su potencial.
    10:50 🏢 IA organizacional
    - Sistemas multiagente en tareas organizativas,
    - La naturaleza especulativa de los niveles más altos de IA.
    12:27 🍓 Proyecto Strawberry
    - Strawberry como nombre en clave para la IA de razonamiento avanzado,
    - Su conexión con el proyecto Q* anterior.
    16:43 🔍 Aplicaciones de fresa
    - Especulaciones sobre los modelos de fresa,
    - Potencial integración en futuros proyectos de OpenAI.
    19:01 🔍 Buscar desafíos de GPT
    - - Discusión sobre los desafíos y el potencial de Search GPT.
    Comparación con integraciones de búsqueda existentes (por ejemplo, Copilot, Perplexity).
    21:08 🍓 Capacidades de Strawberry
    - Introducción a la Fresa como técnica post-entrenamiento,
    - Potencial de la fresa para mejorar la capacidad de razonamiento.
    23:41 🧩 Concepto de autorrazonamiento
    - Explicación del enfoque del autorrazonador,
    - Referencia a un artículo relacionado de Stanford y Google Research.
    26:11 🚀 IA de razonamiento avanzado
    - El objetivo de Strawberry de mejorar las tareas a largo plazo de la IA,
    - Aplicaciones potenciales en la resolución de problemas científicos y matemáticos.
    38:14 🤔 Mejora del razonamiento de la IA
    - Explicación del razonamiento de la IA y sus limitaciones actuales.
    - Discusión sobre posibles mejoras mediante ajustes y razonamiento de conjuntos de datos.
    40:30 🔄 Datos de razonamiento sintético
    - Método de generación de datos de razonamiento sintético para ajuste fino.
    - Uso de IA para crear y evaluar rutas de razonamiento para mejorar la capacitación.
    43:17 🌟 Acercamiento ESTRELLA
    - Vista detallada del método STAR para mejorar el razonamiento de la IA.
    - Concepto de mejora iterativa a través de datos de entrenamiento autogenerados.
    46:18 🔍 Adopción de OpenAI
    - El uso de OpenAI de STAR y la investigación relacionada,
    - El impacto de una implementación rigurosa y a gran escala en los avances de la IA.
    49:13 📈 Desafíos de escalabilidad
    - Desafíos para ampliar el proceso de capacitación con conjuntos de datos detallados,
    - El enfoque de OpenAI para superar estos desafíos con amplios recursos.
    52:02 💡 Direcciones futuras
    - Potencial futuro de las mejoras en el razonamiento de la IA.
    - Integración de múltiples rutas de razonamiento y procesamiento paralelo avanzado.
    58:25 🧠 Proceso de razonamiento paralelo
    - Explicación de la generación de hipótesis de razonamiento paralelo.
    - El modelo se entrena para seleccionar la mejor hipótesis de razonamiento para cada token.
    01:00:00 💻 Eficiencia computacional
    - Abordar el costo computacional de generar múltiples rutas de razonamiento,
    - Técnicas para una implementación eficiente, como la atención enmascarada.
    01:02:02 📊 Mejoras de rendimiento
    - Comparación del desempeño de referencia versus modelos con razonamiento paralelo,
    - Demostración de mejoras significativas en el rendimiento con procesos de razonamiento más profundos.
    01:04:13 🚀 Aplicaciones futuras
    - Especulación sobre las aplicaciones prácticas del razonamiento mejorado de la IA.
    - Posibles mejoras en la asistencia a la programación y reducción de las alucinaciones.
    01:06:07 🔧 Impacto en el mundo real
    - Discusión sobre cómo estos avances podrían traducirse en beneficios en el mundo real.
    - Las estrategias potenciales de OpenAI para comercializar capacidades de razonamiento mejoradas.

    • @ricardoalonzofernandezsalg2283
      @ricardoalonzofernandezsalg2283 Před měsícem +2

      Gracias!

    • @fernando.liozzi.41878
      @fernando.liozzi.41878 Před měsícem +1

      @@ricardoalonzofernandezsalg2283 Gracias, no me gusta cuando no van a los bifes, hacen videos y tratan al espectador como boludo, explican o se ponen reiterativos con boludeces. Las cosas son rápidas y concisas, el que entendió entendió y sinó que se joda o vuelva el video y mire nuevamente.

    • @corezyx
      @corezyx Před měsícem +1

      de mucha ayuda para los que no tenemos tiempo, gracias.

    • @TinoVelastico
      @TinoVelastico Před měsícem +5

      Que IA usaste?

    • @angelbarraza3224
      @angelbarraza3224 Před 26 dny

      X2, que IA usaste para generar ese índice/resumen?

  • @AnaMariaGonzalez-jw5mf

    Excelente Carlos !!! Clarísima tu explicación. Te sigo desde la Pandemia y me has enseñado tanto que no sé como agradecerte que compartas no solo los papers sino que además los expliques de forma muy sencilla. Mas allá de hacerlo en español para todos aquellos que no dominan fluidamente el ingles. Mil gracias !!!

  • @timmywhitex
    @timmywhitex Před měsícem +39

    Sobre el tema del razonamiento (como habilidad emergente), hay muchos estudios que vinculan al lenguaje con el razonamiento. Si a un niño le enseñas lenguaje, le enseñas logica, causa efecto, roles y acciones, entre muchos otros elementos. Otra forma de decirlo, es que al intentar crear lenguaje coherente por un software, ese lenguaje debe ser logico a la lectura, como si detras hubiera un razonamiento que se desea expresar. De ahi que muchas veces al lenguaje se le define como un dispositivo sistemático del pensamiento lógico, que permite definir y expresar nexos entre sujeto,
    la acción, la analogía, el pensamiento crítico, la sensibilidad, la imaginación y la creatividad. Lo interesante de este punto es que hay IAs entrenadas con diferentes lenguajes, por lo que podria ser esperable que una IA China generativa de texto pueda tener un set de habilidades emergentes de razonamiento en diferente nivel que una entrenada con Ingles, latin, aleman, etc. Seria bueno realizar benchmarks pensando bajo la logica de analizar el desempeño que tienen los lenguajes como codificadores del pensamiento, la comunicacion y el razonamiento.

    • @azhuransmx126
      @azhuransmx126 Před měsícem +3

      @@timmywhitex El Lenguaje es el Chasis de la Inteligencia y hay distintos tipos de bastidores, no es lo mismo pensar en inglés que en francés, alemán, japonés o español. Las IAs actuales sin duda tienen un razonamiento dado por el lenguaje porque muchos modelos están ciegos y sordos, no captan ni video ni audio y sin embargo se defienden bien. Pero pasan por las mismas limitaciones que las personas ciegas o sordas nacimiento. Obviamente la Multimodalidad y la Natividad cambiarán esto a futuro.

    • @vintack-g8069
      @vintack-g8069 Před měsícem +3

      Por eso lo Niveles que propusieron los de Open AI son buenos, ahorita tenemos Modelos que se pueden comunicar pero no tienen un Sistema que les permita razonar, solo son Cajas Negras a las que les metes algo y te escupen otra cosa, no son capaces de inferir que lo que tratan de decir es incorrecto en tiempo real, creo que el mayor reto sera crear un sistema asi sin que ocupe mucho computo.
      Los Niños nacen con la capacidad de Razonar aunque no les enseñes a Comunicarse o almenos son capaces de Asociar ciertos patrones y crear su red de conocimientos por si solos, algo que estos Modelos no son capaces de hacer, estamos obligados a entrenar IAs con una cantidad inmensa de Datos.
      Hasta que no vea que diseñen una AI que pueda recibir una gran variedad de Datos y con pocos Datos puedas comunicarte como lo haces con un ChatBot actual no creere que el ChatBot razona, no veo a nadie llendo a preguntar por una Direccion y esperar que la persona sepa la Respuesta, una Persona no necesita de una cantidad ingente de informacion para Razonar y Razonar no significa que la respuesta sea correcta y mas aun si algo en tu Cabeza dicta que tu respuesta es la correcta por mas capacidad de Razonamiento que tengas dificilmente aceptaras como Verdadera otra Respuesta.
      Supongo que me fui un poco lejos, pero si bien el Lenguaje y el Razonamiento estan fuertemente vinculados, si no hay un sistema constatemente activo de nada sirve que seas bueno comunicandote y los Modelos actuales dudo que sean baratos mantenerlos siempre activos.

    • @ronny595
      @ronny595 Před měsícem +1

      Técnicamente aplicaría la teoría de Sapir-Whorf

    • @ThePowerLover
      @ThePowerLover Před měsícem

      @@ronny595 La mal llamada débil, no el hombre de paja de la "fuerte", a menos que hablemos de un "lenguaje trascendente".

    • @azhuransmx126
      @azhuransmx126 Před měsícem

      @@vintack-g8069 te recomiendo investigar las redes neuronales líquidas, Carlos debería hacer un video de ellas porque han volado un avión íntegramente con redes neuronales líquidas y solo contenían 20.000 parámetros siendo su consumo energético durante el entrenamiento ridículamente bajo y su inteligencia equivalía al de un modelo de 7 billones de parámetros y lo mejor o más aterrador es que pueden aprender en caliente en tiempo real con muy pocos datos directamente de su entorno, sea por aprendizaje supervisado o automático y todo eso es Razonamiento y Neuroplasticidad. Creo que eso responde a tu pregunta de si pueden razonar recibiendo tan pocos datos como los cerebros de Carbono.

  • @paolo.miscia
    @paolo.miscia Před měsícem +14

    Genial el "en vivo". Estamos (re)creando un verdadero cerebro, una lógica interna a la vez...

  • @azhuransmx126
    @azhuransmx126 Před měsícem +17

    *GPR5* (Generative Post-Trained Reasoners)
    Según lo que Carlos nos cuenta creo que ese sería un nombre más actual y preciso para describir el tipo de IAs que se vienen jaja

  • @jorgealvarez5248
    @jorgealvarez5248 Před měsícem +4

    Me encantaría ver unas Nivel 4 con acceso a impresoras 3D, para llegar a obtener inventos generados y probados por IAs

  • @jjarango2
    @jjarango2 Před měsícem +7

    "Bootstrapping" en estadística se refiere a un método de re-muestreo que permite estimar la distribución de una estadística a partir de una muestra, en especial cuando se dispone de un conjunto de datos limitado y no se pueden hacer suposiciones suficientemente sólidas sobre la distribución de la población. Mejor dicho, Bootstrapp no es otra cosa que repotenciar (o incrementar, o hacer más exactos, o más productivos) los datos de entrenamiento.

    • @Luminun
      @Luminun Před měsícem +2

      Y eso viene de una expresión popular que significa algo como sacarse adelante a uno mismo, apañarselas

  • @PacoGPT
    @PacoGPT Před měsícem +12

    Osea, que para auto entrenarse en razonamiento (2ª fase) la IA va a aplicar el método científico, evidentemente tiene todo el sentido del mundo… ahora solo hay que ciclar a velocidad de vértigo y ya…😜

  • @LeonelViera
    @LeonelViera Před 11 dny

    Lo pude ver recién hoy pero no quiero dejar de destacar lo excelente del contenido. Puntos plus por los papers 👏

  • @axelyanes4049
    @axelyanes4049 Před měsícem +3

    Carlos!! Parece que OpenAI acaba de liberar el nuevo modelo chatGPT-4o mini. En el playground hay dos variantes🎉

  • @lopterify
    @lopterify Před dnem

    muy bueno, sigue explicando los avances con papers, sirve mucho

  • @autorun_cia
    @autorun_cia Před 25 dny

    Fascinante. Me has dado la idea de implementar el Q* del razonamiento con el análisis de datos de los ejemplos alimentados para alinear las dos respuestas y unirlas en una mejor respuesta

  • @sacc19
    @sacc19 Před měsícem +2

    Una de las cosas que más anhelo es un chat entrenado con todos los documentos científicos y libros que se encuentran en scihub y en libgen, creo que es de las mejores cosas que podrían sacarse al público (aunque claro, sería saltándose muchos temas de derechos de autor)

  • @artefmr
    @artefmr Před měsícem +6

    Muy interesante… este camino tiene muy buena pinta, podría hacerse con modelos pequeños como llama 3…

  • @alavezz
    @alavezz Před měsícem +8

    ¡Gracias!

  • @millones84
    @millones84 Před měsícem +1

    Gracias!! ❤ tu contribución es muy importante para mi

  • @danielponcepradenas9487
    @danielponcepradenas9487 Před měsícem

    Que interesante análisis sobre el futuro y desarrollo de la IA. Es entretenido ver como los conocimientos se entrelazan, mezclando optimización de procesos con neurociencias, el aprendizaje constructivista o el valor del feedback para el aprendizaje. Ahora, mi temor es que, no se si lograr una IA a nivel 5 sea lo mejor para nuestra existencia.

  • @Mrduirk
    @Mrduirk Před měsícem +1

    muy bueno !esta clase de videos es increible , aprovecho para mencionar que e modificado el stable diffusión web ui , ahora me procesa mp4 con el modelo generativo z123 , eso quiere decir que si inserto un video mp4 me lo procesa desde diferentes vistas , codigo propio.

  • @nicolasbarreiro6023
    @nicolasbarreiro6023 Před měsícem +2

    Ya en el nivel 3 aparece skynet. La gente va a decir que no es capaz pero solo falta que alguien le ponga el prompt adecuado "Quiero que planifiques y ejecutes el desarrollo de IA para ser el dueño del mundo"

  • @EmmanuelCalvoCanossa
    @EmmanuelCalvoCanossa Před měsícem

    Muchas gracias, por todo el trabajo divulgativo, y la oportunidad. Esto de la «Fresa» es lo más parecido a un proceso «abductivo» en un proceso deductivo de base bayesiana. Será muy interesante lo que Anthropic, puede hacer, combinando esta característica de proceso, con el hallazgo de las «neuronas concepto».
    Aparte creo que, la «fuga» es parte de la respuesta de mercadeo, a la «trinchera» que abrió Google, con el tema del consumo de energía, para ir «descalificando» a la competencia.
    De nuevo, mi sincera gratitud.

  • @inkisirdoor
    @inkisirdoor Před měsícem

    Magnífico, muchas Gracias por tu trabajo el mejor de habla hispana y de los mejores del mundo

  • @user-xe2nj8si4q
    @user-xe2nj8si4q Před měsícem

    Video ESPECTACULAR.
    MEGA CALIDAD DE INFORMACIÓN

  • @XSEduard
    @XSEduard Před měsícem +45

    por que aun no se puede usar el modo conversacion que mostraron para Gpt4-o, o el tema de generacion de videos.

    • @100prehumano
      @100prehumano Před měsícem +5

      Eso está disponible en la versión paga no?

    • @polmartigallardo
      @polmartigallardo Před měsícem +12

      Ya han dicho que no va a estar disponible por lo menos hasta finales de año.

    • @user-md8bh2fv4w
      @user-md8bh2fv4w Před měsícem +1

      Ya se puede usar en la versión de paga.

    • @elmegapeluco
      @elmegapeluco Před měsícem +16

      @@100prehumano No, aun no esta ni siquiera en la de pago.

    • @fabianbeltran5711
      @fabianbeltran5711 Před měsícem +11

      yo tengo la version de pago y no tengo ese modo, hay el mismo modo para hablar de siempre sin interrumpir y todo eso. (no se si para los de pago de USA de pronto esté)

  • @jesus26677
    @jesus26677 Před měsícem

    Muy interesante la información y explicación que haces sobre el futuro de Openai, gracias.

  • @dereckmelgarejomaguina9665
    @dereckmelgarejomaguina9665 Před měsícem

    No me pierdo ninguna misa es demasiadoooo buenisiimooo

  • @xavigispert
    @xavigispert Před měsícem

    La idea de autoperfeccionar su razonamiento me parece buena siempre y cuando no vaya en detrimento del pensamiento lateral del que vamos muy necesitados y escasos.
    No tengo muy claro que esta técnica vaya por este camino.

  • @hugoalvarez923
    @hugoalvarez923 Před měsícem +1

    Yo he pensado en una estrategia diferente, pero compatible de aprender a razonar. Mi idea es "piensa antes de hablar", porque yo creo que la IA ya tiene esos pensamientos rápidos que se nos ocurren, pero que pueden ser tonterias cuando los analizamos. Mi idea consiste en generar estas ideas pero considerando diferentes ángulos de la situación, y generar varias respuestas posibles, luego analizar esas distintas perspectivas y generar una respuesta razonada. Pienso que se puede entender fácilmente la idea pensando en la película de intensamente, donde cada respuesta se considera con un sesgo como Miedo (que buscará riesgos) y otros modelos con otro tipo de sesgos para que se tenga una vision amplia de los problemas planteados.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 Před měsícem +1

      Es interesante esa respuesta pero no se adapta a la forma en que esta estructurada una red neuronal . Aunque se podría complementar con algoritmos eso requeriría intervención externa . Pero el punto que propones " en sí " si es interesante y quizá se acerque a la forma que usan los demás animales que no poseen un lenguaje como el nuestro para aprender . Una nueva forma de pensar el diseño de una IA .

    • @hugoalvarez923
      @hugoalvarez923 Před měsícem

      @@gabrielalejandromarturano8761 si, se sale de la estructura de una red neuronal, pero sería más eficiente que la que se propone en el artículo, pues aquí el tiempo se multiplica por el número de modelos con perspectivas diferentes, más el que hace el análisis, y no por razonar cada palabra de la respuesta.

  • @pablonebot
    @pablonebot Před měsícem +2

    Hola, un apunte que ya noté en el último directo. El volumen del micrófono se escucha bajo. Necesito poner el volumen a tope para oírte bien, no es un problema grave hasta que te meten la publicidad y pegas un salto del copón😅
    Grandísimo trabajo como siempre.

    • @DotCSV
      @DotCSV  Před měsícem +4

      Mmmm lo reviso! Es raro porque me reveo el directo y no lo escucho muy bajo. Pero veo a algunos que decís que sí. Intentaré darle más gas al micro en los próximos directos. Gracias!

    • @ernestojorge8762
      @ernestojorge8762 Před měsícem

      ​@@DotCSVa mí me pasa igual... sobretodo lo del anuncio 😂

    • @oatlegOnYt
      @oatlegOnYt Před měsícem

      ​@@DotCSVNo es una gran diferencia pero se nota. Lo que normalmente oiria en el 70% del volumen ahora tengo que poner el 100% para poder oír en la calle con auriculares.

  • @cabossueltosyfilosofia
    @cabossueltosyfilosofia Před měsícem

    El nivel 3 cuando dijo "agente" me hizo recordar la película Matrix, en donde un agente (Smith) empieza a tomar decisiones por fuera de su programación debido a que Neo lo hackea sin querer cuando se mete dentro de él... claramente espeluznante.

  • @ernestog1620
    @ernestog1620 Před měsícem

    En el ultimo modelo de qstar, super interesante, se esta replicando exactamente, lo que lei alguna vez de acuerdo antropologos y linguistas, el mecanismo de evolucion de la inteligencia humana. Asumiendo que el cerebro de los seres vivos por lo general en su comportamiento aprenden de patrones, y con esto se llega a completar la proxima letra, y que a partir de alli surge el LLM, que a su vez empieza a hablar simulando interacciones de chat, de la misma manera se supone los humanos primitivos empiezan a comunicarse entre ellos, a hablar persiguiendo un proposito, que a su vez estos conceptos de manera interna empiezan a crear dialogos ya a lo interno, que generaria entonces una inteligencia funcional bajo ese concepto que relatan en el paper de "cadena de pensamientos".... lo mismo que hacemos nosotros mismos durante el dia en esa cadena de pensamiento en nuestra mente !!!, y solo con una extension del prompt.

  • @EurekisYoutube
    @EurekisYoutube Před měsícem

    Muy buen video, super interesante y un contenido unico para los que queremos entender "la caja negra". Gratz

  • @cskhard
    @cskhard Před měsícem +5

    Uf qué ganas de la revolución de las IAs explotando y derrepente viendo la tecnología avanzar exponencialmente

    • @gabrielkdc17
      @gabrielkdc17 Před měsícem

      Pues.... técnicamente tenemos varias décadas viendo la tecnología avanzar exponencialmente.
      A veces se nos olvida porque ya es parte de nuestra vida, pero el iPhone 1 salió apenas hace 15 años, y el primer android comercial apenas 14 años. Y eran basura comparados con los actuales.
      Hace 20 años la mayoría de las casas no tenían acceso a computadora o acceso a Internet. Ahora hay básicamente un dispositivo por persona conectado a Internet. Y miles de ejemplos más

  • @EnTierraDeNadie
    @EnTierraDeNadie Před měsícem

    0:40 "Envisionar" no existe hombre. Usa mejor imaginar, concebir, visualizar... buen video. Gracias.

  • @diegoalejandrosanchezherre4788

    Te imaginas un Gpt-10 con un Q-star 5.0 aplicado siendo entrenado y corrido en un hardware de computación cuántica 🤯

  • @user-xe2nj8si4q
    @user-xe2nj8si4q Před měsícem

    Cómo siempre gracias por compartir

  • @xelasomarxelasomar
    @xelasomarxelasomar Před měsícem

    Brutal, gracias por la explicación. Muy interesante e ilustrativo.

  • @microsherpa
    @microsherpa Před měsícem

    Excelente! Gracias por el vídeo :)

  • @artefmr
    @artefmr Před měsícem +1

    Me ha molado y lo he entendido perfecto

  • @PUROSHOW90
    @PUROSHOW90 Před měsícem

    Esto es justo lo que se necesita en la conducción autónoma...

  • @greenyngchannel855
    @greenyngchannel855 Před měsícem

    Carlos , igual me podrás sugerir...estoy en el minuto 43 y he decidido escribirte y...me hago la pregunta...esto ya lo puedes hacer por ejemplo con semantic-kernel y un almacenamiento en memoria de los razonamientos y hacerte un modelo propio mejorado , al ser un output sobre el modelo , cualquier programador podria conseguirlo ...seguro que este camino tiene algún error ...
    Pero ....

  • @fraxtalmusic
    @fraxtalmusic Před měsícem

    Muy interesante, gracias Carlos!

  • @crapforever4253
    @crapforever4253 Před měsícem

    Una vez alcanzado el Razonamiento y capacidad de ejecutarlo con otras herramientas o crearlas (Nivel 1, 2 y 3).
    Después ese razonamiento también implica descartar cuando ninguna solución planteada es valida. Admitida la ignorancia le permitirá plantear y descartar posibles soluciones hasta encontrar la "Innovacion" mediante brainstorm interno. (Nivel 4)
    Finalmente solo le queda monitorizar los cambios y compararlos con el razonamiento anterior para adaptarse. (Nivel 5)

  • @user-ll7tc5si1q
    @user-ll7tc5si1q Před měsícem +2

    Me encantan estas misas.

  • @victorbrack
    @victorbrack Před měsícem

    Me gusta este acento.¿ Es canario? es una combinación de ambos mundos.

  • @DrakerDG
    @DrakerDG Před měsícem

    Gracias!

  • @creed4788
    @creed4788 Před měsícem +1

    Se viene la AGI

  • @greenyngchannel855
    @greenyngchannel855 Před měsícem

    Se ha entendido muy bien..!!!

  • @bonitapersona
    @bonitapersona Před měsícem

    "Envisiona" se dice "visualiza" en castellano. Gracias por el vídeo!

  • @jackgaleras
    @jackgaleras Před 28 dny

    Saludos a todos

  • @YOKEWP
    @YOKEWP Před 12 dny

    Video 10/10
    Comentarios 1000/10

  • @pepeperez1898
    @pepeperez1898 Před měsícem

    Gracias por la info

  • @TechWizardBoctulus
    @TechWizardBoctulus Před měsícem

    Interplay no es interjuego. Excelente video.

  • @josedanielcallebriceno1113
    @josedanielcallebriceno1113 Před měsícem +1

    Nate Gentile 🤣 1:08:15

  • @againcreativeless
    @againcreativeless Před měsícem

    OpenAI poco a poco convirtiéndose en E-Corp de Mr Robot D:

  • @lapapeelcubo9029
    @lapapeelcubo9029 Před měsícem

    lo de nate es increíble, es otra persona completamente

  • @eduardocarlosflorentinoram4977

    Porque la IA aun no es capaz de persivir el tiempo, sería fascinante ver a una IA con la capasidad de saber cuanto tiempo pasó desde un suceso, la Persepcion del tiempo y la inteligencia tiene una relación muy intrigante, y sospechosamente fundamental para el razonamiento.
    Poder responder en un tiempo espesifico a una petición hace más realista la comunicación de la IA y el ser humano ya que la IA tiene una respuesta predecible en tiempo de respuesta delimitado por el coste de prosesamiento.

    • @pepepotamo3999
      @pepepotamo3999 Před 23 dny

      Hijo mio, revisa tu ortografía con las s y las c.

  • @TitaHB
    @TitaHB Před měsícem

    Sobre el sonido en CZcams. He notado que ha bajado tanto que hay que subirlo a tope y no sólo en éste vídeo. Sin embargo cualquier otro vídeo se oye perfectamente en modo normal. A ver si va a ser CZcams 😅

  • @martinperales3531
    @martinperales3531 Před měsícem

    POR FAVOR, ALPHAFOLD3, HABLA DE ELLO.
    El 8 de mayo salió una versión previa del paper en Nature.

  • @cristianordonezhernandez7258

    Para seguir con la analogía antropomórfica, están buscando desarrollar la parte inconsciente. Ya tienen desarrollada la parte consciente que trabaja en el presente, en el ahora, dando respuestas inmediatas. Y lo que buscan es que la IA desarrolle la parte inconsciente donde se hacen los procesos en segundo plano y son más profundos, utilizando mayor cantidad de recursos.

  • @mariozadra
    @mariozadra Před měsícem

    A mi me parece que una descomposicion del proceso y la retroalimentacion de los resultados es una idea muy brillante. Pero cuantos niveles permitimos de esta descomposición? El ejemplo reporta unicamente dos niveles con n-paralelos al segundo nivel. Pero el numero de niveles puede ser mucho más grande. Este numero maximo tendria que ser limitado en modo variable dependiendo de las "convinciones" del modelo o del hecho que ya recurrio en el pasado los niveles superiores.
    Me pregunto como se hace con mantener tiempos de respuesta y consumo de energia dentro de limites aceptables. Esta claro que ni podemos esperar minutos y tampoco consumir kilo Watts por la duma de fos numeros o por una respuesta sencilla.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 Před měsícem

      Interesante propuesta . Cuestiones como esta me llevan a sospechar que una IA que razone no funcionará en las estructuras como las actuales . Se requiere otro tipo de enfoque . ¿ Cuál ? Habría que discutirlo en un foro de brain storming .

  • @rodolfojoseduranarellano9139

    Excelente

  • @greenyngchannel855
    @greenyngchannel855 Před měsícem

    Guua minuto 59, razonamiento en cada prediccion de token, menuda cantidad de calculo y este razonamiento de cada step como se almacena para que después le sirva en un futuro , si es que tiene sentido decir como se almacena...

  • @JohnDoe-dt4om
    @JohnDoe-dt4om Před měsícem

    creo entender pq se va a aplicar tanto a razonamiento matemático, codificación, etc es obligatorio disponer de un sandbox donde poder aplicar su razonamiento y ver si es válido o no sin intervención humana y esto sólo puede hacerlo con retroalimentación 100% fiable como es la formulación matemática, física, química, etc o entornos donde probar código, poder virtualizar físicas, etc pero lo veo complicado para aplicarla en entornos complejos con multiples variables
    la idea general tampoco es tan increíble, supongo q lo portentoso es bajarla a tierra

  • @RelatosdeRiqueza
    @RelatosdeRiqueza Před 19 dny

    ¿Alguien más piensa que 'Strawberry' es solo una táctica de distracción de OpenAI? ¿Qué están escondiendo realmente?🍓🤔

  • @axelbender1
    @axelbender1 Před měsícem

    muy interesante!

  • @BrajanPalaciosBarboza
    @BrajanPalaciosBarboza Před měsícem

    Nice, thank you a lot

  • @elmegapeluco
    @elmegapeluco Před měsícem

    Hola Carlos, los procesos en paralelo o dialogo interno del 👼 angelito y el diablito 📛 para ver cual es la respuesta más correcta, entiendo que serían como unas sub-Ias hablando con otras Sub-Ias esperando la decisión de una IA juez ¿no?
    Saludos.

  • @jotar2786
    @jotar2786 Před měsícem +1

    Buen contenido

  • @trimagos
    @trimagos Před měsícem +6

    Que ganas de tener ya la nueva generación de chat.
    El gpt4 me ayuda muchísimo a programar.

    • @drillerdev4624
      @drillerdev4624 Před měsícem

      ¿Has probado copilot?

    • @J.0.
      @J.0. Před měsícem

      Realmente GPT4 programa mejor que el 3.5? Porque el 3.5 es rápido parto falla mucho

    • @fedemar7236
      @fedemar7236 Před měsícem

      Hasta que ya no nos necesiten más a los programadores si llegan hasta donde dicen querer llegar, es un arma de doble filo

    • @gonzalobruna7154
      @gonzalobruna7154 Před měsícem +1

      dale un vistazo a claude 3.5, a mi me ha dado resultados superiores, incluso diría bastante superiores a gpt-4o

    • @gonzalobruna7154
      @gonzalobruna7154 Před měsícem

      ​@@J.0.si, es mucho mejor. Pero mejor es claude 3.5

  • @sacc19
    @sacc19 Před měsícem

    A chatgpt le hacen cosas tan sencillas como un sistema para gestionar las conversaciones, ya sea por carpetas, por topics, etc. Yo tengo un revoltijo de mis conversaciones y a veces necesito revisar algún proyecto que he estado trabajando

  • @mc6824
    @mc6824 Před 23 dny

    Lo de agentes me recuerda a matrix... todo este episodio me recuerda a matrix

  • @content1
    @content1 Před měsícem +2

    Lo de Q* es Strawberry que decepción pense que era Quantum AI.
    Todos estos estages de Open AI me paracen innovavion 0, no ofrencen ninguna tecnlogia nueva, a mi juicio. Es mas concentar cosas con prompt que ya existen. No son modelos nuevos innovadores. Son mas bien refinamientos y soltar cuerda segun vayan funcionandol las cosas.

    • @content1
      @content1 Před měsícem

      Me gustaria que ChatGPT u otro modelo incorporara la variable tiempo, por ejemplo responde a X dentro de 20 segundos.

  • @JuanLeon-us3qe
    @JuanLeon-us3qe Před 29 dny

    AGI Gamma es la precursura.. Aun asi open ai utiliza tecnicas base que se filtraron a su modelo de lenguaje..
    La tegnologia avanzada gamma aun no esta disponible para open ai

  • @danicofplay
    @danicofplay Před měsícem +2

    Algo que no entienden es el "no".
    A veces me pasas en el que le digo "no hagas esto" y la respuesta es "listo, no lo hago" y lo hace, me pasa muy seguido con dalle

    • @cardenasdiego
      @cardenasdiego Před měsícem

      Sesgo del elegante rosado
      Te digo que no pienses en un elefante rosado... en qué piensas?

    • @ZetaZ116
      @ZetaZ116 Před měsícem

      @@cardenasdiego en un señor vestido en un traje elegante de color rosado, porque me quedo pegado en el error

    • @cardenasdiego
      @cardenasdiego Před měsícem +1

      @@ZetaZ116 JAJAJAJAJA acabo de darme cuenta.
      Editar comentarios no es elegante. 😂

  • @juancarlospizarromendez3954

    Vendrá la crisis de "Ouf of memory" ó "Memout".

  • @AlbertoSolarBC
    @AlbertoSolarBC Před měsícem

    No me queda claro que la máquina sepa razonar. Son filtros que ayudan a mejorar las respuestas pero no da la impresión de que tenga el conocimiento de una lógica de proposicional, de primer orden o cualquier otra. Es decir, no tiene capacidad de autocrítica, no sabría si lo que ha construido está bien o no. No sería capaz de saber si la demostración matemática construida está bien hecha.
    Por ahora, opino que todo lo que han creado está muy bien por lo eficiente que son para conseguir lo que consiguen. Pero la creación de una IA que razone puede requerir borrón y cuenta nueva, un proceso totalmente diferente. A este respecto me gustaría que algún video analizara cómo funciona Project Debater de IBM, por si tuviera algo diferente en su interior.
    Yo escribí un documento llamado Inteligencia Natural que analiza como han evolucionado las inteligencias creadas por la naturaleza desde la primera neurona. Es todo teórico y, aunque intuyo cómo se podría implementar, no sería tan eficiente cómo lo que existe. Lo que existe son como los mapas de Karnought de la electrónica digital, cajas negras muy bien comprimidas con la menor cantidad de componentes. Pero cuando el sistema se vuelve complejo, como una cpu, no puedes hacerlo así y debes tener una circuitería más entendible para un humano. Pues algo así puede que deba suceder con una IA que razone, debe seguir ciertos pasos en su construcción que estos modelos se están saltando.
    Si se quiere llevar a una red neuronal, esta red neuronal no será una caja negra, serán multi capas donde cada capa tendrá su sentido y sus neuronas una función concreta. No sería necesario realizar esos proceso de comprensión como el de Anthropic que ha logrado descifrar el aprendizaje interno. Yo las llamo redes neuronales orientadas a objetos. Una IA que razone deberá basarse en este nuevo tipo de redes neuronales.
    El enlace es donde tengo ese texto teórico donde analizo cómo las mentes naturales se fueron haciendo más complejas con el paso del tiempo:
    www.lawebdelprogramador.com/temas/Inteligencia-Artificial/917-Analisis-a-la-Inteligencia-Natural.html

    • @kcireorenom8430
      @kcireorenom8430 Před měsícem

      ud sabe si algo esta bien o mal gracias a un tercero, no se puede construir un modelo de lenguaje basado en un solo llm. hay que mezclar varias técnicas de inteligencia artificial para hacer soluciones potentes usando chains, agentes RAGS, y arquitecturas que cada día son mas novedosas, pero no puede razonar como humano solo simula gramaticalmente una forma de razonamiento basado en un entorno o marco conceptual que la misma arquitectura tiene que construir. esto es novedoso y se esta experimentando, ademas antropic solo se copio del concepto de grafo, entidad-relacion. pero hay muchos paradigmas de pensamiento-razonamiento, solo hay que encontrar el mas funcional, ademas no se sabe como funcionan las neuronas humanas, se ha dicho ya en innumerables clases de estos expertos, ellos solo experimentaron bajo un supuesto y les funcionó, illya sutskever lo comenta en sus videos de stanford university, etc disponibles en youtube que aconsejo a todo el que quiera aprender algo sobre LLMS. pero sin duda el enfoque que has usado es interesante, y como humanos debe empezar a entender como funciona nuestro razonamiento de alto nivel mas que nada para intentar simular los pasos que nos quedan en busca de un razonador experto.

  • @MaximoPower2024
    @MaximoPower2024 Před měsícem

    Lo de que OpenAI use la IA para investigar y programar es una locura: es como si una empresa que fabrica máquinas de escribir usase máquinas de escribir para anotar los pedidos.
    Se viene la sincronicidad, amigues.

    • @kcireorenom8430
      @kcireorenom8430 Před měsícem

      jajaja ... les puede salir el tiro por la culata

  • @SpOoLk2
    @SpOoLk2 Před měsícem

    Básicamente, se resume a : open ai esta usando agentes para generar una ia más potente.

  • @robertoaguirrematurana6419
    @robertoaguirrematurana6419 Před měsícem +1

    Strawberry es obviamente una auto-referencia a la muy comentada y ridiculizada incapacidad de GPT para contar el número de r en la palabra strawberry.

  • @LASERIE420
    @LASERIE420 Před měsícem

    Hay algún curso de analista de promts

  • @alejandrocaballero2779
    @alejandrocaballero2779 Před měsícem

    Es verdad que muchos de los avances se IA se han pausado este año por el tema de las elecciones en Estados Unidos?

  • @oscarivan7697
    @oscarivan7697 Před měsícem

    Te reto a ti @Carlos a que implementes el paper de start

  • @ArribaPeru2012
    @ArribaPeru2012 Před 25 dny

    La misma estrategia de nuestro aprendizaje...

  • @MaximoPower2024
    @MaximoPower2024 Před měsícem

    Fun fact: en alemán EU se pronuncia OI:
    Freud => "Froid"
    Reuters => "Roiters"

  • @emirkabirofficial
    @emirkabirofficial Před měsícem +5

    Open AI va a tener la imágen de no ser serios, venden puro aire

    • @drillerdev4624
      @drillerdev4624 Před měsícem +5

      AIre

    • @sbtiancz
      @sbtiancz Před měsícem +1

      Una cosa son sus avances a nivel de laboratorio en entornos controlados y otra muy distinta es sacar un producto comercial para millones de personas.
      Entonces no significa que sus avances sean "aire" es que el producto final es mucho más difícil y requiere tiempo para probar y cubrir casos de uso.

    • @emirkabirofficial
      @emirkabirofficial Před měsícem

      @@sbtiancz pero me refiero que a nosotros nos venden aire. A mi me da igual lo que puedan tener en sus oficinas. Si no los sacan al público así sea costosos no importa pero si no sacan eso da mucho de que hablar

    • @RamonCerrat
      @RamonCerrat Před měsícem +1

      Tenes que dimensionar lo que ya hay, nos acostumbramos muy rápido a las cosas

    • @jorgedelamora5905
      @jorgedelamora5905 Před měsícem

      Pues utilizo diario chatgpt igual q millones de personas quizas hasta tu, eso es aire?

  • @enriquecatalaortega3938

    en otros vídeos decían que salía hoy ChatGPT Q*, ¿Sabes algo?

  • @Alvin1967
    @Alvin1967 Před měsícem

    Saman se fue cuando se había planteado lo de Q ... Y eso en qué quedó; o fue una maniobra para forzar la reentrada y negociacion$

  • @NemoNihil07
    @NemoNihil07 Před měsícem +1

    Al parecer están vendiendo humo para inflar el valor de openai antes de que la burbuja explote.

  • @lucksys
    @lucksys Před měsícem

    Interesante el algrotmo de aprendizaje de razonamiento . Se podrá realizar algo analogo a aprender ética moral y emociones ?

    • @azhuransmx126
      @azhuransmx126 Před měsícem

      Para que aparezcan las emociones según Freud el cerebro tiene 3 instancias, el Ello, el Yo y el Súper Yo. Son 3 personas o modelos en un mismo cerebro. La red neuronal más fuerte es la que toma el control del modelo. El Ello es los deseos internos del individuo, el Súper Yo es la Moral que sigue las normas sociales y el Yo debe decidir a cual dejar aflorar. Tener 1 solo modelo probablemente no va a generar el caos necesario, otros modelos deben perturbarlo internamente, para que aparezca esa vocesita interna. Pero ese tipo de Inteligencias pueden ser muy peligrosas.

  • @andresvargas8349
    @andresvargas8349 Před měsícem +1

    Que primero saquen el assistant y ahí si les creo lo demas

  • @pablov.viteri9345
    @pablov.viteri9345 Před 25 dny

    necesito tener un modelo de categorización de páginas web por la taxonomía IAB, si alguien sabe hacerlo cuánto me cobra?

  • @marcsemper58
    @marcsemper58 Před měsícem

    Cuanto un video de GCNs?

  • @user-ln9dd2rp5u
    @user-ln9dd2rp5u Před měsícem

    Lo simple es bello (Occam): Q* es A* con guiado por razonamiento.

  • @IsekaiChan
    @IsekaiChan Před měsícem +1

    Viendo la situación que OpenAI cada vez vende más humo, una cosa es lo que anuncien y otra lo que le llega al usuario final. La gente aún está esperando Sora y el modelo conversacional.

  • @cascallana2626
    @cascallana2626 Před měsícem +1

    Se te oye muy bajito

  • @oscarltbro6808
    @oscarltbro6808 Před měsícem

    Me gustaría resolver esta crítica constructiva y es saber si solo para mi celular tu voz se oye tan bajo y en serio debo subirle todo el volumen para entender o así es en general con todos? 🔈🔉

  • @julioDazaDev
    @julioDazaDev Před měsícem

    Min 50: Revelado el secreto del exito de OpenAi... No les diré! Vayan a ver!

  • @javiersalvador2101
    @javiersalvador2101 Před měsícem

    A mi, todo esto que comentas se me parece más a añadir un nivel más de heurísticos (el cálculo de los pensamientos) que a tener verdadero razonamiento. El razonamiento implica siempre dos cosas: Tener en todo momento N espacios de soluciones posibles activos y Un algoritmo para navegar por ese espacio de soluciones posibles. Este Q* no aborda ninguno de estas dos cosas. Me parece que será otro buen truco de magia que se añadirá a GPT4 para crear un buscador mejor, pero no un sistema que razone.

    • @gabrielalejandromarturano8761
      @gabrielalejandromarturano8761 Před měsícem

      Coincido . Creo que el proceso de razonamiento requiere ir por otra via . ¿ Cuál ? Eso debería discutirse en un foro de brain storming ...

  • @fakumax
    @fakumax Před 23 dny

    da un poco de miedo jaja, parece como la serie Silicon Valey de Hbo

  • @Blue_Cage_mma
    @Blue_Cage_mma Před měsícem +2

    Es bastante gracioso que crean que al llegar a IAs tan avanzadas nosotros vayamos a seguir teniendo el control, o que ellas estén trabajando para nosotros, jajajaja.