#71 Con Francisco Capella sobre la Inteligencia Artificial y su futuro

Sdílet
Vložit
  • čas přidán 30. 07. 2024
  • Este lunes 25 de diciembre (feliz Navidad) traigo a Francisco Capella para hablar sobre qué es la Inteligencia Artificial, cómo se parece a la inteligencia no artificial y cuáles son los posibles desarrollos futuros de esta.
    Libros recomendados por Francisco Capella:
    1. Todo lo de Michael Shermer
    2. The Age of Em de Robin Hanson
    3. Society of Mind de Marvin Minsky
    4. The Singularity Is Near de Ray Kurzweil
    5. Cómo construir una mente de Ray Kurzweil
    6. Self Comes to Mind de Antonio Damasio
    7. Who's in Charge? de Michael Gazzaniga
    Libros mencionados:
    -The Dictator's Handbook de Bruce Bueno de Mesquita
    Vídeo de un experimento de Michael Gazzaniga:
    -Split-brain patient 'Joe' being tested with stimuli presented in different visual fields: • Split-brain patient 'J...
    Redes sociales de Francisco Capella:
    -Twitter: / fcapellaga
    - Pagina web(Intelib): intelib.wordpress.com/
    MARCADORES DE TIEMPO:
    00:00 - Inicio
    01:15 - Qué es la Inteligencia Artificial
    01:48 - Parecido con la nuestra
    03:18 - Inteligencia Artificial o Machine Learning
    06:33 - Inteligencia simbólica o subsimbólica
    07:36 - Hemisferios del cerebro
    12:33 - Interés por IA
    13:58 - Opinión por la actualidad
    15:09 - Pesimismo sobre el futuro
    21:42 - Construyendo clips de humanos
    24:00 - IA destruyéndonos inintencionadamente
    31:21 - IA desarrollando emociones
    36:08 - Convivencia entre IAs
    42:15 - Eliezer Yudkowsky
    45:26 - La singularidad
    48:20 - Grabby aliens
    56:42 - Libros recomendados
    59:26 - Conversación
    REDES SOCIALES:
    -Twitter: / eduardojblasco
    -Substack: micajondesastre.substack.com
    -Twitch: / eduardojblasco
    -TikTok: / eduardojblasco
    -Instagram: / eddblasco

Komentáře • 10

  • @ignus97
    @ignus97 Před měsícem

    Muchas gracias por el video!

  • @elpirripuntocom
    @elpirripuntocom Před 7 měsíci

    Haz los mejores clips (aunque tengas que destruir el mundo entero para ello)

  • @elpirripuntocom
    @elpirripuntocom Před 7 měsíci

    Ten en cuenta que por muy muy muy "inteligente" que pueda ser una máquina...
    NUNCA sabrá qué es un dolor de muelas.

  • @elpirripuntocom
    @elpirripuntocom Před 7 měsíci

    Luis Ricardo, gira a la derecha. Ya.
    Qué tiempos...

  • @josepbru5402
    @josepbru5402 Před 7 měsíci +1

    Hola Eduardo, si me permites creo que eres demasiado temeroso con respecto la IA. La IA no puede tener objetivos a no ser que se los demos el ser humano. Si un humano les da un objetivo malvado a una IA (p. e. eliminar la humanidad), otro puede darle otro objetivo benevolo a otra IA (p. e. salvar la humanidad) i contrarestar la IA mala

  • @eramos2
    @eramos2 Před 7 měsíci

    Gracias por el video. Se echa de menos más contenido sobre este tema.
    Algún comentario me gustaría hacer:
    Los computadores sí funcionan en paralelo (tanto a nivel hardware como software).
    Sobre como evolucionarán las IA, yo sí creo que será a imagen y semejanza de los seres humanos. A fin de cuentas, siempre nos fijamos en la naturaleza (los aviones se fijaron en los pájaros seguramente antes de conocer los fundamentos, ecuaciones de Bernoulli, etc.). No se si se hará convirtiéndonos en cyborgs (incorporando funciones artificiales al cuerpo), o "from scratch". Las redes neuronales son un ejemplo de este "fijarse en la naturaleza", al menos parcialmente.
    Sobre los experimentos de lateralización cerebral, es imperdible "Cerebro izquierdo, Cerebro derecho" de Springer. Una maravilla de libro, aunque un poco antiguo (me lo recomendó un estudiante de neurología hace unos 30 años). Habla de los experimentos de lateralización para conocer donde residen las diferentes "funciones cerebrales". Se practicaba una escisión cerebral (cortar el cuerpo calloso que une los hemisferios), que era una técnica habitual (ya prohibida) para atenuar los ataques epilépticos, y usada principalmente (seguramente abusada e innecesariamente) para realizar estos experimentos. Una de las cosas que más me sorprendió es como el organismo se las ingenia para obtener información que teóricamente no debiera estar al alcance del paciente para un estímulo dado (lentes zaidel, susurros para deshabilitar el nervio auditivo ipsilateral, etc.) y sin embargo resolvía problemas para los cuales no se comprendía que sentido había sido "informado", muchas veces el cuerpo "hacía trampa" (muy largo de contar aquí). Gran libro. Esto demuestra que una IA "humana" tiene para empezar una gran reto no con la entrada de datos (en eso nos superan ampliamente con visión fuera del espectro visible, rango de frecuencias de los micrófonos, etc.) sino como se relacionan y como se usa esa información en las redes neuronales.
    En cuanto a esta moda de los LLM, estoy de acuerdo con Paco, la gente se flipa mucho y estamos a años luz de la temida singularidad. El "skynet particular" es la misma paranoia apocalíptica que la pedrada del cambio climático. Además, si algún día construimos un humano artificial, pues enhorabuena, ya tienes un humano más. Nada que temer. He trabajado con estos modelos y está claro que ha habido un boom increible y la comunidad (huggingface, etc.) está a tope. Nunca ha sido más sencilla y accesible esta tecnología y cualquiera, a bajo coste (GPUs conocidas por el entorno gamer como las RTX), puede empezar a jugar privadamente con estos modelos. Como asistente no tiene precio. Somos unos privilegiados aquellos que vivimos la democratización de la información (La Internet) y ahora estamos viviendo una nueva ola que es la "democratización de la inteligencia". Aquellos que más temen esta tecnología son probablemente los que serán más beneficiados (trabajadores poco cualificados ?). Pero será bueno para todo tipo de trabajadores. La IA aumentará la productividad y dará un impulso capitalista al mundo. Esperemos que los estados no metan, de nuevo, sus narices y dejen que las personas generemos la riqueza que esta tecnología sin duda va a procurarnos.
    Por último, recomendar un par de canales para estar al día de estos temas. Uno más matemático/teórico: AemonAlgiz, y otro más práctico: Matthew Berman.
    Un saludo y gracias de nuevo !

  • @elpirripuntocom
    @elpirripuntocom Před 7 měsíci +1

    Me sorprende, Eduardo, las preguntas tan "flojas" que te haces sobre el tema.
    Si ni siquiera sabemos exactamente qué es la inteligencia.

  • @magiapablofornet
    @magiapablofornet Před 7 měsíci +1

    Creo que Capella está equivocado con el peligro de la IA y sobre todo de una AGI capaz de planificar mejor que el ser humano. Es cierto que los ejemplos que da Eduardo son poco concretos pero van bien encaminados. La IA (sobre todo la sub-simbólica) no hace más que optimizar una función coste (o maximizar una función objetivo), esto puede lleva a que una función de maximización en un principio tan inocua como crear clips de manera que se maximice el tiempo que duran, pueda llevar a la IA a calcular que un estado del mundo sin humanos es preferible a un estado del mundo con humanos para maximizar dicha función. Y el peligro es que puede haber optimizaciones en prácticamente cualquier función que son inesperadas y posiblemente dañinas. Recomiendo leer a Eliezer Yudkowsky y el canal de Robert Miles AI Safety para aprender más sobre el tema.

    • @salvador.garcia
      @salvador.garcia Před 6 měsíci +1

      La AGI es un mito, ni siquiera saben qué es porque no es posible. Es como la toería del todo; una utopía.

  • @salvador.garcia
    @salvador.garcia Před 6 měsíci

    De este tema no sabes mucho y/o tus miedos son bastante fantasiosos, Eduardo. Disculpa. No se puede estar al pendiente de todo, igual.
    Lo bueno es que has llamado a alguien con años de estudio en la materia como es Paco.