NVIDIA Má problémy s novou generací?

Sdílet
Vložit
  • čas přidán 8. 04. 2024
  • Celý stream:
    • Další NVIDIA bude PROP...
    #Livestream #TechNovinky
    --------------------------------------------------------------
    Facebook: AfromanTV
    Web/fórum: milanfon.cz
    Instagram: mml_milanfon
    TikTok: / milanfon
  • Věda a technologie

Komentáře • 14

  • @martin_t19
    @martin_t19 Před 24 dny +1

    Spíš mě zajímá, kdy budou vyvíjet grafické karty s velkým výkonem a zároveň s úsporným čipem (velký výkon + malá spotřeba), jestli by to vůbec šlo🤔

    • @milanfonklipy
      @milanfonklipy  Před 24 dny +2

      Myslím, že jsme se o něčem takovém bavili na stejném streamu. Ten problém je, že ty u grafiky potřebuješ, aby mezi všemi jádry byla podobná latence. Pro GPGPU použití by to nevadilo, ale pro render je to problém, protože ty potřebuješ, aby ti všechny výpočty z mnoha jader, co grafika má došli ideálně ve stejný čas. Jako jestli chceš dosáhnout toho, o čem mluvíš, tak by jen stačilo omezit dočasně počet použitelných jader.
      - Milan

    • @jakubwendwell4926
      @jakubwendwell4926 Před 23 dny

      Konzumenta nezajima jak to funguje.. Proste chce at to facha a malo zere. Taky bych rad :)

    • @unicz1
      @unicz1 Před 22 dny

      @@jakubwendwell4926Jenže tady nejsme naserveru "Blesku" 😉

  • @callistof1
    @callistof1 Před 23 dny +3

    Hoši, hoši. Motáte 5 přes 9🤣. Výpočetní chipy, herní chipy. U ty 100 a 200 což je primárně pro AI, není spotřeba zadný problém. U herních grafik jsou úplně v pohodě, protože AMD v další generaci neuvede zadný highend a NAVI 48 bude mít výkon mezi 7900GRE a XT, tudíž v highendu nebudou mít konkurenci..

    • @milanfonklipy
      @milanfonklipy  Před 23 dny

      Jo, ale furt nám tohle něco říká o tom, jak bude vypadat Blackwell v consumer sektoru a nejspíš to fakt nebude nic moc. Jako ano , nejspíš to bude mít výkon, ale tím, že udělají obří čip s obří spotřebou, ale co je na tom inovativního? Je to prostě Ada zas a znovu.
      - Milan

    • @TheEasyk
      @TheEasyk Před 23 dny

      @@milanfonklipy Sobecky doufám, že to bude další Ada, abych nelitoval svojí koupě 4070tiS :D

    • @unicz1
      @unicz1 Před 22 dny

      No, je (ta spotřeba) problém. Protože prostě potřebuješ ten barák (čti serverovnu) uchladit.
      A nárůst výkonu na základě obrovského nárůstu spotřeby je prostě fail a ne vývoj, s tímto faktem se nedá polemizovat....

    • @callistof1
      @callistof1 Před 22 dny +1

      @@milanfonklipy Ono to není tak jednoduché, B100 a 200 jsou dělané vyložené pro AI, kdežto H100 byla spis výpočetní architektura. Je to vidět i v tom, že B200 je pomalejší v FP64 než H100, zkratka to už NV nezajímá. Ta potřebuje výrazné zvýšení výkonu v AI z čehož má největší marže a zisky. A toho dosáhne. Co se herních karet týče, 5090 bude výkonem zase cca 70 procent nad 4090, jako rozdíl oproti 3090 a 4090. Spotřebu asi udrží rozumně. Otázka je spis cena, která při absenci konkurence od AMD bude podle mě 70k+. 5080 má byt pukla 5090. Bude to spis víc, protože 5090 na 99 procent nevydají v plné palbě, ale bude ořezaná, jako u 4090.. S mainstreamem nV nespěchá vůbec, 40xx může klidně konkurovat NAVI4x.

    • @milanfonklipy
      @milanfonklipy  Před 22 dny

      Noo já bych to nepřisuzoval AI. Snižování FP64 výkonu je trend už několika posledních generací. Stačí se podívat do jejich developer guide. Dělá to jak NVIDIA tak AMD. A to, že 5090 bude výkonná, o tom nikdo nepochybuje, ale jde mi o to, že to bude mít nejspíš o polovinu shaderů víc jak 4090, ale nárůst výkonu na jádro tam vlastně bude prd.
      - Milan

  • @michalhornak2195
    @michalhornak2195 Před 23 dny

    Dlouho se věřilo, že chiplety v grafice nepůjde vůbec z konstruovat. Pokud se jim to podaří, třeba do 3 generací pořádně rozjet, tak uteče konkurenci úplně do jiných sfér.

    • @milanfonklipy
      @milanfonklipy  Před 23 dny

      No tak on už je to vyřešený problém. Přeci jen Apple používá čipletové grafiky už přes 2 roky.
      - Milan

  • @lukaskucerik3751
    @lukaskucerik3751 Před 23 dny +1

    Boost clock to the moon a tensor jádra kolik je jen možné? Debilní spec 😂 nakonec to stejně shoří s tím jejich konektorem