¿La Ley de HUANG es la nueva Ley de Moore? | Data Coffee #14

Sdílet
Vložit
  • čas přidán 7. 09. 2024
  • La Ley de Moore es una de las predicciones tecnológicas más precisas y longevas del mundo tecnológico, llegando a predecir la evolución en el número de transistores dentro de un chip durante décadas. Pero, ¿por qué se cumple? ¿cuál es su naturaleza? Y más importante... ¿Cuánto más va a durar? A la vista de los datos, no mucho más. Pero tranquilidad, porque parece que un nuevo crecimiento exponencial emerge en el horizonte. Dicen que la nueva Ley de Moore es la Ley de Huang. ¡Veámoslo!
    -- ¡LINKS INTERESANTES! --
    ► ARTÍCULO - La Ley de Huang es la nueva Ley de Moore. (Wall Street Journal)
    www.wsj.com/ar...
    ► ARTÍCULO - No existe tal cosa como la Ley de Huang. - (Extreme Tech)
    www.extremetec...
    ► ARTÍCULO - Leyes exponencial del crecimiento computacional - (Comm. of the ACM)
    www.gwern.net/...
    -- ¡MÁS DOTCSV! ---
    📣 NotCSV - ¡Canal Secundario!
    / notcsv
    💸 Patreon : / dotcsv
    👓 Facebook : / ai.dotcsv
    👾 Twitch!!! : / dotcsv
    🐥 Twitter : / dotcsv
    📸 Instagram : / dotcsv
    - ¡MÁS CIENCIA! --
    🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
    scenio.es/colab...

Komentáře • 763

  • @DotCSV
    @DotCSV  Před 3 lety +115

    ¿Creéis que es el fin de la Ley de Moore? ¡Leo vuestros comentarios! Por cierto, si queréis apoyar a recuperar La Ley de Dot (que durante un tiempo mantuvo un número de Patreons proporcional al número de suscriptores. e.g. 200.000 subs ---> 200 Patreons) El objetivo es llegar a ser cerca de 350 Patreons. ¿Te unes?
    Puedes hacerlo a través de este link! patreon.com/dotcsv ❤

    • @user4241
      @user4241 Před 3 lety +4

      Sí, yo creo que sí, más que ley sería "teoría obsoleta de Moore".

    • @angel-bt2em
      @angel-bt2em Před 3 lety +2

      Dot CSV hazme un hijooo

    • @agustinschiffer1434
      @agustinschiffer1434 Před 3 lety

      See re va por ahi la cosa... (entre otras) el mercado sacara mas provecho no por el desarrollo del hardware sino del sofware: Algoritmos, Redes, Neuronale, etc. Mas q invertir en desarrollar mejores microchips la necesidad ahora esta puesta en integrarlos en una misma tarea. Exelente video!!!

    • @Lahiperactina
      @Lahiperactina Před 3 lety +9

      no

    • @user4241
      @user4241 Před 3 lety

      @@Lahiperactina Creo que soy el único que cree que sí 😅

  • @Lahiperactina
    @Lahiperactina Před 3 lety +759

    🥚

  • @jeansepulveda9483
    @jeansepulveda9483 Před 3 lety +24

    Yo escucho a este hombre, sin entender nada, pero me entretiene y además me hace abrir el espectro de mi realidad.

    • @yatusabesnetaquesabe679
      @yatusabesnetaquesabe679 Před 2 lety +2

      De tanto ver videos ya le voy agarrando jajaja

    • @azhuransmx126
      @azhuransmx126 Před rokem

      Seguí viendo poco a poco te vas a familiarizar con los términos y le hallarás lógica y sentido a los mismos😂

  • @librosConCiencia
    @librosConCiencia Před 2 lety +8

    Estos vídeos me devuelven la fe y el amor por mi carrera, que buen material!

  • @montecenesta8687
    @montecenesta8687 Před rokem +2

    Es increíble que este video tenga 2 años, creo que hoy día este video es sumamente relevante, que joyita de canal acabo de encontrar

  • @albertvolcom730
    @albertvolcom730 Před 3 lety +526

    La ley del chino Juan

    • @albertvolcom730
      @albertvolcom730 Před 3 lety +4

      @@Ac-dx9hk Ya lo se, es una coña que tenemos con Hardware360

    • @manuelsanchez7349
      @manuelsanchez7349 Před 3 lety +2

      No te has podido contener tío 😂😂

    • @Ac-dx9hk
      @Ac-dx9hk Před 3 lety +1

      Manuel Sánchez yo le suelo llamar el tito Huang xd

    • @PabliyoCR
      @PabliyoCR Před 3 lety

      Me robaste el comentario =(

    • @manuelsanchez7349
      @manuelsanchez7349 Před 3 lety +1

      @@Ac-dx9hk Bueno, ya está, un respeto malditos 😆😆 que es Navidad

  • @lucasgillopez2112
    @lucasgillopez2112 Před 3 lety +2

    Me hace mucha gracia. Justo estoy dando este tema en clase en la universidad. Estamos aprendiendo a programar en CUDA, el lenguaje que se utiliza para programar en la GPU. Utilizamos una Nvidia en la nube para sumar vectores de cientos de miles de elementos. Es genial porque nuestro profesor ha insistido en la relación que tiene el procesamiento en paralelo en las GPU con el avance de la inteligencia artifical. Y yo pensé enseguida en este canal jajaja.

  • @TheVenombad
    @TheVenombad Před 3 lety +62

    _Que éxito, y que se cumpla por un Latino o hispano mucho mejor, gracias Juan por tanto, que genio que es Juan_ (S/0)

    • @azhuransmx126
      @azhuransmx126 Před rokem +1

      Que genio que es Juan, digo Huang el taiwanes.

  • @EliisaPxndx144
    @EliisaPxndx144 Před 3 lety +1

    Quizás me he juntado mucho con fisic@s de materia condensada, pero a mi me llama mucho la atención la espintrónica, sobre todo topologica. La idea de poder hacer funcionar circuitos con corriente que no proviene del movimiento de electrones, si no, de magnones, la encuentro fascinante. Es como usar esa parte del espectro que siempre queda rezagado jjaja También he visto la idea de seguir usando corriente, pero usar diferentes moléculas como transistores, eso lo encuentro muy genial, pero no sé que tanto futuro tiene, en cambio lo otro es muy moda en esa área de la física.
    Ahora lo de los chips 3D yo jamás lo había escuchado...suena interesante y quizás más cercano. Al final, aunque la física avance a pasos largos, tiene que venir otra maquina a tomar esas ideas y hacerlas realidad.

  • @srgrillo377
    @srgrillo377 Před 2 lety +1

    primer data coffee que veo y es la primera vez que un monster me dura tanto, buen video

  • @thony000
    @thony000 Před 3 lety +9

    Sin dudas, la ley de Dot definirá el futuro de la computación. Excelente video!

  • @sargentomili
    @sargentomili Před 3 lety +2

    hace tiempo que leí por ahí que cunado se hagan procesadores con grafeno (entiendo que superconductores (de temperatura ambiente) en general), podría multiplicarse por cientos de veces la frecuencia de funcionamiento de los chips y encima disminuyendo consumos, el día que logremos dejar el silicio atrás tendremos una de las mayores revoluciones en computación nunca vistas

  • @suntzu1074
    @suntzu1074 Před rokem

    la mejor explicación que encontré en toda la internet gracias

  • @ElDeiff
    @ElDeiff Před 3 lety +3

    Como profesional del sector tengo que decir que has mejorado tela en la edición y el gusto Carlos, además tus vídeos y temáticas se salen uno tras otro. Solo queda darle algo de caña al clickbait y al SEO y llegamos al millón en unos meses!! Mis felicitaciones crack!

  • @Mrpaulito72
    @Mrpaulito72 Před 3 lety

    GRACIAS ... muy instructivo y claro en su forma de exponer... desde Ecuador.. sigue adelante..

  • @JaredSGarcia
    @JaredSGarcia Před 3 lety +145

    Yo solo se que no parare de ver a La HiperactinaxDot CSV

  • @giovanniauditoredafirenze7325

    Definitivamente tengo que volver a ver todo lo de tu canal. Lo dejé por un tiempo pero este título me interesó y siento que debo conocer todo lo que has publicado para disfrutarlo bien :')

  • @JordiSarda
    @JordiSarda Před 3 lety +9

    Bellísimo! Primer data coffee que veo. Hora quiero ver todos. Sería genial que hables de la computación cuántica y la IA

  • @victorhm.h.2247
    @victorhm.h.2247 Před 3 lety

    El desarrollo de la computación de sistemas heterogéneos(soluciones paralelas), el desarrollo de arquitecturas energéticamente eficientes, IA, ya está sobre la mesa suficiente material, creo que la mejora de rendimiento vendrá ahora de no reducir, sino, ampliar el número de componentes y refinar los diseños de las arquitecturas para que las soluciones que mencioné antes permitan alcanzar ese x2.0 que se busca, pero ya veremos de qué va, saludos, muy interesante material!!

  • @johandavidboteroocampo3335

    ¿aun por aqui? a currar...
    pues si estoy en el trabajo (desde casa) pero estos vídeos me han ayudado mucho en mis proyectos ya que muchos de los avances en IA afectan mi trabajo como artista 3D para XR de forma muy directa.
    así que ver tus vídeos cuenta como trabajo :3

  • @jhonytand
    @jhonytand Před 3 lety +83

    10:12 Si bueno, pa cuando el crossover?

  • @javiercherin
    @javiercherin Před 3 lety

    Allá por el 2000 cuando estaba en la técnica de electrónica, mi profe butiñon de análisis de circuitos, nos enseñaba que eran dos enunciados, el primero como bien expones, habla de la capacidad de ir exponenciando el número de transistores, la segunda hablaba del presupuesto de inversión y la dificultad de retorno que imponía el constante recambio de equipo.

  • @mnavarrotube
    @mnavarrotube Před rokem

    Muy interesante y con mucho sentido tus reflexiones

  • @polarbear8445
    @polarbear8445 Před 3 lety +5

    Yo sólo escuché: La singularidad está a la vuelta de la esquina.
    Ah te creas. Me gusta mucho éste tipo de cápsulas que haces, todo esto me recordó a la ficción de Isaac Asimov donde la Multivac en un principio requiere de gigantescos aparatos con innumerables transistores, para después evolucionarse a sí mismo.

  • @holaadios8716
    @holaadios8716 Před 3 lety +1

    Simple, vendrá por todos, nos va a llover enormemente avance tecnológico por mil y un cosas, con que la gente se ponga de acuerdo en usarlos en conjunto esto no va a ser un salto, va a ser un salto de nivel saltar a otro universo, yo confio en que tanto las cosas buenas como malas de la forma de ser del ser humano (cosas como ser orgullosos y incluso arrogantes de no aceptar no poder ir más lejos, querer siempre mejorar lo ya mejorado, la ambición para bien y para mal) harán que siempre nos las ingeniemos para burlarnos de los muros por muy altos que sean y seguir mejorando toda nuestra tecnología, quién sabe si allá un parón de algunos años pronto, tal vez no sea tan malo, actualmente este ritmo acelerado también tiene sus partes negativas donde montones de cosas nuevas acaban perdiendo todo su valor y dejándose atrás en el camino como trozos de metales y plásticos sin más, tal vez que durante unos pocos años el ritmo baje haga que empecemos una mini era de ir más calmados y sea un periodo de sentar las bases para un nuevo aceleron aún mayor en el futuro

  • @Osromeu
    @Osromeu Před 3 lety

    La computación cuántica ha empezado, parece ser que ya se ha iniciado una carrera por aumentar el número de cubits cada vez. Los chips están llegando a su límite, además nos limitan. Hemos de dar un salto en el concepto. Por más que ampliemos las carreteras y hagamos más potentes los coches, llegan a un punto que no pueden correr más, el rozamiento de las ruedas con el asfalto lo impide, la física. Hemos de pasar al avión. Será la computación cuántica el avión? Sin duda. Excelente vídeo.

  • @grbsql
    @grbsql Před rokem

    Excelente video. Felicitaciones y muchas gracias

  • @carlosarena9864
    @carlosarena9864 Před 3 lety

    Qué bello es el mercado. No supera los límites de la física, pero tiene una tendencia increíble hacia lograrlo si hay alguien que lo necesite y quiera pagar.

  • @sergiobayona152
    @sergiobayona152 Před 3 lety +2

    He escuchado ideas de esto desde la U, sobre las GPU reemplazando incluso de forma total a las CPU, al principio existia mucha incredulidad al respecto, pero en los ultimos años veo que la misma industria del software se esta repensando para aprovechar cada vez mas el procesamiento en paralelo y pienso que puede ser posible, tal vez no de la forma que piensa Huang, pero si con sistemas con GPU que usan la CPU como co-procesador (al reves de hoy en día), sobre el diseño 3D aun tenemos que resolver el tema de costos y ahogamiento termico, la computación fótonica y cuantica aun están en pañales, asi que sistemas GPU-CPU pueden ser la proxima tendencia del mercado, mientras llegamos a los limites fisicos del silicio

  • @santiago42440331
    @santiago42440331 Před 3 lety

    Sos lo mejor que hay en CZcams y en el mundo hermano!!!!!

  • @MrPandimaster
    @MrPandimaster Před 3 lety

    Estoy flipando con la ley de Juan y Cristo Fermín... Interesante el video amigo 😃

  • @eldelarazasuperior5270

    soy del chaco sur americano y así que lo ví con DATA MATE! X-D

  • @jjamxnd553
    @jjamxnd553 Před 3 lety

    9:03 a 9:19 me causo tanta gracia. Carisma y orden en el video, genio total. (Ni hablemos de la información que brindas, buenísimo)

  • @brayanvargas1441
    @brayanvargas1441 Před 3 lety +1

    Vi este video cuando salió , ahí esta mi like , pero aqui estoy de vuelta , para refrescar tu opinión y usarla como guía para hacer un trabajo sobre la ley de moore , como siempre , muy buen video

  • @dataloting
    @dataloting Před 3 lety +108

    19:43 "¿Todavía estás aquí?" - Tómate un batido Plenny Shake
    Comentario -> patrocinado

  • @GamerMickey87
    @GamerMickey87 Před 3 lety

    Hola!
    Me encantan tus videos, los disfruto un montón. Siempre que veo uno de esos data coffee, me preparo mi café, me siento al ordenador con mis cascos, y me dispongo a disfrutar. Me encanta los temas que tratas y cómo los explicas, me encantaría poder regresar a mi época de infante para poder empezar a interesarme por la ciencia desde esa edad tan temprana, pero cuando descubrí este fascinante mundo ya era un adulto con mucho cansancio acumulado y con poca capacidad para retener tantos conceptos como para ponerme a estudiar de nuevo.
    Muchas gracias de nuevo por lo que nos das.
    Un saludo.

  • @lucioduarte3697
    @lucioduarte3697 Před 3 lety

    Cómo no había encontrado tu canal amigo!!!! Excelente información! 👌

  • @dayer1487
    @dayer1487 Před 3 lety +44

    la verdadera pregunta es: ¿la GPU cuántica podrá con Crysis Remastered?

    • @josepaulquevedo8116
      @josepaulquevedo8116 Před 3 lety +1

      Xfa Puedes explicarlo un poco mas a detalle?

    • @EnriquePage91
      @EnriquePage91 Před 3 lety +8

      Corre el rumor que hasta lo vas a poder correr a 360p 60 FPS!!!! 🤯

    • @drincast100
      @drincast100 Před 3 lety

      no

    • @zombyMT
      @zombyMT Před 3 lety +3

      @@josepaulquevedo8116 es solo un meme, siempre que alguien armaba una PC o cualquier cosa relacionada con computadores se le preguntaba "but can it run crysis?", y luego se amplio a casi cualquier cosa como *me compré una tostadora* "sí pero puede correr crysis?"

    • @Unknown_User71717
      @Unknown_User71717 Před 3 lety

      No sueñes tanto

  • @adri_unicornico
    @adri_unicornico Před 3 lety

    Como bien has dicho, requiere de una evolución en conjunto, sin eso, los avances actuales y los que están por llegan, no tendrían cavidad.

  • @mabenba
    @mabenba Před 3 lety +1

    Bebida similar = Mate amargo. Muy buen video maestro! Acabo de conocer el canal por el video de Alpha Fold 2 y me ha fascinado. Acostumbrado a ver este tipo de contenido en ingles, es muy refrescante encontrar un canal así de completo en español. Muchas gracias por tu contenido.

  • @basteagui
    @basteagui Před 3 lety +1

    parece ser muy inteligente y buen tipo ese tal Juan

  • @ProfeLuisFelipe
    @ProfeLuisFelipe Před 3 lety +7

    17:34 Que es lo que dice después de la palabra vídeo? 🤔🧐

  • @railynsantos1317
    @railynsantos1317 Před 3 lety +94

    La ley de Juan 😂😂😂🤣🤣

  • @YACAREYACK
    @YACAREYACK Před 3 lety +2

    Es muy posible que los ciclos de duplicación exponencial se vayan acortando a medida que avanzamos. Creo que la ley de Moore va a ser superada ampliamente en la próxima década.

  • @germancampos1498
    @germancampos1498 Před 3 lety

    Excelente video, gran explicación, muy sustentado y recomendable al 100% para ver en mis cursos de ingeniería. Lo tomaré como un recurso educativo para que lo vean mis estudiantes. Saludos desde el norte de S.A.

  • @andresjaramillo8299
    @andresjaramillo8299 Před 3 lety

    Desde la perspectiva de la microfabricacion electronica existen bastantes indicios de que el reemplazo a la miniaturizacion vendra dado por la optimizacion de las arquitecturas (e.g. crecimiento del IPS en cpus) o por el diseño de nuevos tipos de transistores en forma de pila por ejemplo los nanowires, nanosheets o el gate all around (un poco mas viejo).

  • @farenheit451451
    @farenheit451451 Před 3 lety

    Que bien!!! Pues si creo que la ley huang será el nuevo paradigma, aún creo que le queda bastante tiempo a los ordenadores kuanticos, pero yo solo soy un ignorante sobre estos temas , y que gracias a ti al menos aprendo lo suficiente para saberlo. Muchísimas GRACIASSSSS por ello y felicidades por estas navidades si no hay otro data coffe de aquí allá.

  • @JuanJoseLopezSanchez
    @JuanJoseLopezSanchez Před 3 lety

    El vídeo es top. Un vídeo increíble y con la claridad de siempre. Eso sí, para los que tenemos un poco de toc... Verte con la barba torcida es una de tensión innecesaria jejeje. De nuevo gracias y like.

  • @belgarath91
    @belgarath91 Před 3 lety

    Veo el video por el contenido, muy bueno y bien explicado...
    ...pero el like te lo llevas por el humor ("es el mercado amigo" // "hay los procesadores chiquititos"), y mención a colegas de divulgación científica

  • @l3onoxid396
    @l3onoxid396 Před 3 lety

    Tremenda charla algo intensa, me dio jaqueca, pero igual gracias, acá se lo resumo al que lo vea. LEY DE MOORE=Procesamiento en serie llega a su límite y es reemplazada por LEY DE HUANG=procesamiento en paralelo más eficiente con uso de GPU que hacen posible REDES NEURONALES, limitada solo por las leyes de la física cuántica.

  • @alecdelu83
    @alecdelu83 Před 3 lety

    Los videos son increibles, tu riqueza en el vocabulario impresionante. Gracias.

  • @inventorel1232
    @inventorel1232 Před 3 lety +1

    Da vértigo pensar en el futuro de las redes, pero también es emocionante

  • @Elreydelacolina1
    @Elreydelacolina1 Před 3 lety

    La industria tendrá que reinventarse, una vez más. Y eso pasa por el diseño de chips de propósito específico, nuevas arquitecturas (como los procesadores 3D), evolución de los paradigmas de programación y en un futuro, aún "lejano", la convivencia con la computación cuántica.

  • @guldenguillermo4927
    @guldenguillermo4927 Před rokem

    Grosooo gracias por ayudarme tanto, solo vos para enseñar tan bien 😸

  • @isaacgomez1204
    @isaacgomez1204 Před 3 lety

    Amo este video, tan profesional y espontaneo.
    Lo veré 10 veces más jaja

  • @kurtharaldheitmann4112

    Para complementar tu informacion,lei por ahi que si se va al pasado, y se incluye valvulas termoionicas y reles,la complejidad de ellas tambien se puede acoplar a la ley de moore y tienes muchos años mas de coincidencia.
    Buenos tus videos. Felicitaciones!

  • @miguelangelramirezperalta217

    Acabo de encontrar este canal, muy genial por cierto. De las mejores recomendaciones de CZcams.

  • @MessiPistola22
    @MessiPistola22 Před 3 lety

    17:29 morí de ternura jajaja yendo al foco del video, increíble al punto en que se está llegando con ML y DL. Más que un anhelo por parte de un empresario, está describiendo una realidad inevitable en estos momentos.

  • @jonylopez215
    @jonylopez215 Před 3 lety +14

    4:46 Diseñador gráfico sufriendo embolia en 3..2..1..

  • @nautylo
    @nautylo Před 3 lety

    echaba de menos los data coffees

  • @davidminestroich
    @davidminestroich Před 3 lety

    Claro que si, yo extrañaba los Data Coffee, cada video de este canal es una nueva experiencia, asi cómo un probar un café nuevo recien molido (Justo lo que estoy tomando mientras veo el video).

  • @Nefarivs
    @Nefarivs Před 3 lety

    Ambas.
    La compresión y superposición de capas se está dando en los ssd a una velocidad sorprendente.
    La eficiencia de la miniaturización ha permitido que pasemos (experiencia particular) de un AMD Phenom II con 6 núcleos y que consumía 125W a un Ryzen 5 que consumiendo la mitad nos da 4 veces más capacidad computacional.
    Es decir, es una locura de ahorro energético...y de calor. Si seguimos mejorando la eficiencia térmica, podremos crear núcleos en dimensiones sin problemas de calentamiento.
    Por no hablar de un paso que hace tiempo que no se habla: La refrigeración NOVEC a nivel doméstico.
    La combinación de ambos es un sueño que no abandona mi cabeza.

  • @jaxonblade1659
    @jaxonblade1659 Před 3 lety

    Los datacoffees son lo mejor!!!
    Le das un puntazo con tu desparpajo inigualable.

  • @tension3456
    @tension3456 Před 3 lety

    Se ha notado que de hecho todos estos crecimientos siguen más una función Gaussiana. Así como cuando se quiere modelar problemas poblacionales. Lo que sucede es que nos hemos de encontrar en la parte de la curva que se asemeja a la Ley de Moore (la parte izquierda) sin embargo esto tiene un límite y ese será el máximo de la función Gaussiana. A partir de ahí los avances seguirán, pero a un ritmo cada vez más bajo. Hasta que hacer que en una misma superficie o en un mismo espacio quepan más transistores va a ser un proceso que tome décadas.

  • @andresjerez13
    @andresjerez13 Před 3 lety

    Excelente Carlos, ojalá se consolide la ley de DOT.
    Solo agregaré que la computación cuántica lo romperá todo.

  • @gemmapower
    @gemmapower Před 3 lety

    Yo considero que todo depende de la viabilidad economica del desarrollo de hardware, y como lo mencionas en tu video, esto depende de numerosos factores. En mi caso pienso que en la computacion hace falta tomarse una pausa para optimizar el desarrollo tecnologico, creo que hay que cambiar el paradigma de "todo al alcance de tu mano" por algo como "lo que quieras y necesites al alcance de tu mano", ya que en muchos casos hay procesos computacionales que estan super mal optimizados, y que básicamente no importa por la increible capacidad de computo del hardware

  • @danielLR86
    @danielLR86 Před 3 lety

    Aunque al final me hayas despachado a seguir trabajando, acá estoy escribiendo esto... Jejejeje.
    Ahora, seriamente hablando, digamos que la ley de Moore seguirá evolucionando. Ya se está trabajando en temas de computación cuántica, y en ella hay grandes avances. Confío en que llegará un momento en que los computadores cuánticos inundarán el mercado, y estos van a hacer que mejoren los indicativos de rendimiento computacional para cualquier tipo de aplicación que esta pueda tener, en todos los ámbitos: doméstico, laboral, científico, educativo, entre otros.

  • @scv4236
    @scv4236 Před 3 lety +4

    Vídeo muy interesante, estaría bien un vídeo hablando sobre la computación y la IA de Alfafold, un saludo!

  • @humchiart
    @humchiart Před 3 lety +3

    Un data coffee genial 😍 se echaba de menos, ojalá más. Y no te preocupes con lo de pronunciar las c. ¡Que viva el acento canario!

  • @DiegoLopez-wm6lg
    @DiegoLopez-wm6lg Před 3 lety +1

    Me encantan los data coffees, has muchos más!!

  • @EG-cs3wv
    @EG-cs3wv Před 3 lety +1

    Estaba pensando, a todo esto, que un vídeo acerca de los memristores y su uso en redes neuronales e IA sería muy interesante.
    Gran contenido! (Como siempre)
    Un saludo

  • @MartinBentancor
    @MartinBentancor Před 3 lety

    Gracias, gracias, gracias. Muy buen video. Creo que van a seguir buscando la manera de que la ley de Moore se siga aplicando, al mercado le sirve.

  • @comservice
    @comservice Před 3 lety

    Me aparecio hoy tu video, me parecio interesante el titulo asi que me lo vi entero, muy bueno lo que hablas de este tema. Muchas gracias por compartir!

  • @jeremiasgonzalez7543
    @jeremiasgonzalez7543 Před 3 lety

    Pues yo creo que el futuro de la computacion esta en el cambio de paradigma a nivel químico (componentes) o cuántico (físico) como el reemplazo del silicio, también el avance de la computación cuántica, una combinación de ambas otras técnicas de diseño de hardware como un redescubrimiento de la computación química orgánica o la de construir lo procesadores 3d.

  • @TheBlackMamba_Studios
    @TheBlackMamba_Studios Před 3 lety

    Hola DotCSV! Bajo mi punto de vista, el avance exponencial de la IA de estos últimos años, va a mejorar mucho la relación potencia de calculo - rendimiento en procesadores, gráficas y otros elementos hardware, como ya a dia de hoy estamos viendo,
    porque las empresas se han dado cuenta que es mas eficiente resolver tareas concretas con hardware dedicado, que tener hardware general para resolver todo tipo de tareas… es el caso por ejemplo de las GPU's de NVIDIA en estas ultimas generaciones con todo el tema de RTX.
    Pero no creo que la combinación de IA+mejoras en el hardware siga creciendo de forma exponencial estricta en estos años que entran, porque en algún punto como bien dices en el vídeo, las barreas litográficas frenaran este crecimiento y a lo mejor se pasa de una tendencia exponencial en estos momentos, a una curva mas logarítmica, en la cual a medida que pase el tiempo, se vera un crecimiento mas achatado de la potencia de calculo en general.
    Cada vez cuesta mas reducir el tamaño de la puerta en un transistor mos, y desde luego los modelos litográficos monolíticos actuales tienen sus limitaciones (como por ejemplo el diseño Token Ring en gama domestica en Intel o malla-2D en Xeon de Intel) en cuanto a reducir cada vez mas el tamaño.
    Es por esto que las innovaciones van a tener que venir en un cambio en el concepto de “arquitectura”, como ha hecho AMD con Ryzen, destrozando a Intel en muy pocos años.
    Si yo no puedo construir en una misma superficie cada vez mas transistores reduciendo el gate, hago un copy+paste de un grupo menos reducido de transistores y los interconecto con caches y buses con una ancho de banda aceptable. (explicado de forma sencilla)
    Pero si que creo fehacientemente que veremos varios años de estancamiento tecnológico en cuanto a procesos litográficos, con los modelos de arquitecturas actuales, hasta que las industrias cambien a diseños litográficos más complejos, por ejemplo toroides o mallas 3D, como lo que quiere plantear Intel de cara a los próximos años con Foveros 3D (Lakefield).
    Cuando suceda esto, y en combinación con las mejoras en IA, si que veremos mejoras brutales, porque no hay que olvidar que la IA ha mejorado la computación de una manera nunca antes vista.
    Un saludo genio.

  • @ggzor
    @ggzor Před 3 lety

    En 18:05, creo que es un poco reducida la visión de que las redes neuronales sean "el sustrato" para paralelizar utilizando la GPU. Existen otros paradigmas como el procesamiento paralelo de arreglos (a la APL), que también se benefician enormemente de esto. (Véase Dyalog17 y Co-dfns)
    Excelente video, por cierto. :D

  • @arturorubio7114
    @arturorubio7114 Před 3 lety

    Gracias por las noticias.

  • @alejandroaguirre3809
    @alejandroaguirre3809 Před 3 lety

    Gracias por el recordatorio del inicio, pero no lo necesitaba, siempre tengo una taza de café en la mano ☕☕☕☕ mientras estoy en casa (y por pandemia, en estos días solo estoy en casa).

  • @rubenomazzei524
    @rubenomazzei524 Před rokem

    Pareciera como que con la computación tradicional se está llegando a una estrategia parecida a la de la computación cuantica: hacer cosas en paralelo. Podría ser además que tratar de obligar a los chips a tener dimensiones en donde los efectos cuánticos son relevantes podría llevarnos a una situación parecida a la de un qubit. Esto es parecido a como los corchetes de poisson tenían el germen de el principio de incertidumbre.

  • @maderfocas112
    @maderfocas112 Před 2 lety

    Un vídeo sobre la ley de Moore para ciencia de materiales y su acople a descubrimientos que están surgiendo en asuntos de física y química tendría igual interés a éste, que ya es fantástico. Imagina las capacidades de materiales rotados multicapa y compuestos que igualen al silicio en comportamiento pero que supere sus prestaciones, velocidad y uso de la energía... Sin mencionar aplicaciones similares para almacenar billones de teras y petas en datos.

  • @allanron8
    @allanron8 Před 3 lety

    Buen video.Yo lo disfruté con un capuchino comprado especialmente para la ocasión. Creo que el avance más inmediato vamos con chips especializados para cada tarea como lo vemos en el M1 te hace que ahora tiene chips performance y chip de eficiencia y distribuye las tareas según su requerimientopara ahorrar energía también.

  • @gustavohinz1010
    @gustavohinz1010 Před 3 lety

    Muy buena explicación.

  • @richardmakiya7188
    @richardmakiya7188 Před měsícem

    No sé mucho de la ley de Huang, pero de lo que sí sé es que Huang dijo en su conferencia que el mundo del software ya no será sistemas operativos o aplicativos (el negocio de microsoft) sino el de sistemas de inteligencia artificial, o sea, el negocio de los sistemas especializados en por ejemplo, medicina o derecho.

  • @izanb9031
    @izanb9031 Před 3 lety +1

    Yo diría que a partir de ahora los chips se harán cada vez mas grandes para ir subiendo su rendimiento o eso o se logra inventar unos transistores de un nuevo material para que se pueda miniaturizar aun mas los chips

  • @zapatlas
    @zapatlas Před 3 lety

    Podriamos tener un cambio de paradigma, que tal en lugar de seguir trabajando con transistores, podriamos inventar un tipo de dispositivo monolítico que pudiese procesar los datos diferente a como lo hace un transistor, el siguiente paso sería minituarizarlo y construirlo de diferentes formas, para poder integrarlo en una nueva clase de chips.

  • @taizon08fks74
    @taizon08fks74 Před 3 lety

    Viejo gracias por tu contenido tan jugoso e inspirador me faciona la electrónica

  • @TomasSanchezExposito
    @TomasSanchezExposito Před 3 lety +1

    Muy muy interesante!, enhorabuena por el canal 👍🏻👍🏻
    En las arquitecturas actuales, la mayoría de procesos son repetitivos, procesando una y otra vez las mismas instrucciones, como casi todas las cosas que hacemos los humanos, de ahí la memoria caché de los procesadores. Inspirado en la función de esa memoria caché se me ocurre la siguiente cuestión: ¿¿Sería posible montar una IA previa al procesador, conectada a una base de datos de Big Data, que analice las instrucciones antes de procesarlas para obviar el proceso de instrucciones ya procesadas, recuperadas de dicha base de datos, y enviar el resultado ya procesado post-procesador??
    Obviamente, de entrada sería una arquitectura más lenta pero mucho más exponencial pues a cada momento de proceso la IA adquiriría instrucciones ya procesadas quedando el procesador únicamente para gestionar el fluyo de instrucciones.
    Suena a ciencia ficción, lo sé, de ahí que igual resulte una buena idea 🙂

  • @alelasantillan
    @alelasantillan Před 3 lety

    La paralelizacion del procesamiento en varios cores, no surge por un problema de limite de miniaturizacion, sino para paliar el problema del limite maximo de la frecuencia del clock del procesador. Por encima de los valores que se manejan actualmente de frecuencia de clock y que son los mismos de principios de los 2000, el chip comienza a tener perdidas de energia en forma de radiacion de radiofrecuencia. Por ese motivo se mantuvo la frecuencia por debajo de los limites radiativos, pero se aumento la cantidad de cores en paralelo, con el consecuente aumento en la cantidad de transistores y en la miniaturizacion de los mismos, que ha continuado ocurriendo al mismo ritmo que antes.

  • @lucianamenta955
    @lucianamenta955 Před rokem

    Buenisimo el video! un saludo desde Buenos Aires

  • @carlossalasamper
    @carlossalasamper Před 3 lety +1

    Eres muy riguroso con el contenido. De nuevo enhorabuena

  • @santiagocalvo
    @santiagocalvo Před 3 lety

    Se que es una boludes pero la recomendación del principio de ver el video con un café en la mano me resulto tan simpática que sin ver el video me suscribo y doy like jaja

  • @emanuel5893
    @emanuel5893 Před 3 lety

    Para mi la ley de moore termino en 2017 cuando Intel anuncio por segundo año el retraso de los 10nm.
    Aunque hubo mejoras en otras foundries como TSMC y Samsung, la ley solo se cumplió de nombre, la densidad real de transistores no fue consistente con el nombre comercial del proceso litografico (12/7/6/5nm).

  • @yonicito1459
    @yonicito1459 Před 3 lety +13

    Personalmente creo que podría aprender más contigo que en la Universidad.

  • @Rafae1David
    @Rafae1David Před 2 lety +1

    Apoyando la ley de dots con un like!!

  • @aliandiazperez7602
    @aliandiazperez7602 Před 3 lety +1

    Excelente video como siempre, seria genial un video con la ciencia e ai de alfafold!!!

  • @sergiotiria3443
    @sergiotiria3443 Před 3 lety

    Super el Data Coffee

  • @Nifrod
    @Nifrod Před 3 lety

    Muy bueno el video como siempre!

  • @inventorel1232
    @inventorel1232 Před 3 lety

    Muy buen video!
    La verdad es que no tenía idea de la ley de moor, ni de las otras que vas nombrando. Aún así, es un tema que lo hablé con mi hermano más de una vez. Hace varios años le dije que tenía que haber un límite físico para la "compresión" de los chips. Pensé en ese límite como el tamaño de un átomo de hidrógeno... claramente tampoco sabía (ni sé) de cuántica jajaj

  • @Moonify
    @Moonify Před 3 lety +26

    Hiperactina x DotCSV para el video de AlphaFold? Eso estaría épico.

  • @JavierRojo96
    @JavierRojo96 Před 3 lety

    Ya me sabe mal romper el número tan bonito y redondo de suscriptores que tenías, pero ahora tienes uno más ;) Mi opinión es que acabaremos teniendo distintas vías para procesar un problema: procesadores clásicos, procesadores altamente paralelizados (i.e. GPUs XD), procesadores cuánticos y lo que la ciencis traiga. Cada uno tiene su caso de uso y sus fuertes y el reto estará en cómo dividir los problemas para poder aprovecharlos. Gran vídeo por cierto. Soy electrónico y me encanta esta temática ^^