TWÓJ KOMPUTER UMIE W AI - zobacz jak go używać!

Sdílet
Vložit

Komentáře • 17

  • @CrooLyyCheck
    @CrooLyyCheck Před 3 měsíci

    na zwykłym gpu też można, a dla upartych na cpu też idzie odpalić np. model językowy, tylko wtedy czekacie wieki xD

  • @Piorun1
    @Piorun1 Před 3 měsíci

    Ciekawe czy te wodotryski bendą dzialac na systemie Gnu/Linux mint lmde6

  • @fabiankowalski2675
    @fabiankowalski2675 Před 4 měsíci

    Super poradnik

  • @AndrzejWilkable
    @AndrzejWilkable Před 3 měsíci

    Tak dlss to technologia od poprawiania jakości obrazu może jeszcze sama dodaje efekty graficzne których nie przewidzieli autorzy gry? :D Dlss pogarsza jakość obrazu względem natywnej rozdzielczości, a nie poprawia, nie ma cudów, nie wciskajcie bajek, a jeśli to ignornacja to zpoznać się czym jest dlss, potem opowiadać.

    • @wojtekspychaa2159
      @wojtekspychaa2159 Před 3 měsíci

      Widzę że poza problemami z czytaniem ze zrozumieniem pojawiają się w społeczeństwie problemy z oglądaniem ze zrozumieniem… masz na filmie pokazane jak DLSS 3.5 (Ray Reconstruction) poprawia znacznie jakość renderowanego obrazu (odbicia w kałuży, ale poza tym też ogólnie ilość zaszumienia oraz szybkość jego realizacji). Inna sprawa za samo DLSS Super Resolution (komponent tej biblioteki odpowiedzialny za upscaling) czasami faktycznie oferuje lepszy efekt od prymitywnego wygładzania TAA - zwłaszcza w przypadku bardzo wąskich obiektów - polecam doczytać sobie gdzie na ten temat.

    • @AndrzejWilkable
      @AndrzejWilkable Před 3 měsíci

      @@wojtekspychaa2159 Człowieku serio daj sobie spokój, łączysz dwie różne technologie, po pierwsze poprawia jakość śledzenia ale po włączeniu dlss, to jest potrzebne dlatego, że włączasz dlss czyli pogorszenie jakości obrazu względem ustawień natywnych, stąd nvidia udostępniła poprawę jakość śledzenia aby było to bliższe natywnej konfiguracji. To że artykuły marketignowe piszą, że to dodaje cos nowego do grafiki starej gry, że poprawia obraz natywny, to jedynie na zasadzie, że możesz ustawić teoretycznie wyższe opcje graficzne aby zachować płynność grafiki na danym gpu, ale w porównaniu do natywnych ustawień będzie to bliskie, ale gorsze, mam na myśli w stosunku do natywnej rodzielczości i SSAA. Także powtarzam, jeśli nie masz o czymś pojęcia, a swoją wiedzę czerpiesz z materiałów marketingowych, to po prostu o tym nie opowiadaj.

    • @AndrzejWilkable
      @AndrzejWilkable Před 3 měsíci

      @@wojtekspychaa2159 I jeszcze różca między SSAA a DLSS, jest taka, że ta pierwsza technika korzysta z obrazu wyższej rozdzielczości i skaluje do niższej, czyli nie oszukuje i faktycznie poprawia obraz, a ta druga działa w drugą stronę, z niższej robi wyższą rozdzielczość, siłą rzeczy pogarszając obraz, względem ustawień natywnych.

  • @xmajkelxx
    @xmajkelxx Před 3 měsíci

    a karta nvidia geforce 9600gt jest dobra ????

  • @Operator_66
    @Operator_66 Před 4 měsíci +3

    Ciekawe czy kiedyć na radeonach albo na Intel Arc będzie AI

    • @wojtekspychaa2159
      @wojtekspychaa2159 Před 4 měsíci

      Jest już teraz ale jako że są to produkty nadal bardzo niszowe a do tego w takich rozwiązaniach znacznie wolniejsze to nikt specjalnie mocno nie rozwija wsparcia dla nich w takich otwartych i darmowych aplikacjach. Zwykle jedyne co można zrobić to "emulować" CUDA co oznacza jeszcze większy spadek wydajności... No i zwykle nie wszystko w takim przypadku działa. Niemniej, dedykowane jednostki mają obecnie karty wszystkich producentów.

    • @raven1439
      @raven1439 Před 4 měsíci

      Bez problemu możesz używać LLM np. LLama 3 pod Windows na AMD, w tym celu można wykorzystać zmodyfikowaną wersję LM Studio, która używa ROCM.

    • @wojtekspychaa2159
      @wojtekspychaa2159 Před 3 měsíci

      @@AndrzejWilkable pierwsza rzecz - czytanie ze zrozumieniem - nikt tu nie mówi nic o jednostkach RT (które tak jak piszesz sa na Radeonach ale są znacznie wolniejsze i w praktyce nawet Intel Arc wypada w tej kwestii lepiej).
      Druga rzecz - Radeony to jest produkt niszowy - poniżej 20% udziałów w rynku GPU dla graczy. Jednostki które są używane w zadaniach związanych z AI też są nie tylko liczniejsze (304 Tensory w RTX 4080 vs 192 AI Cors w RX 7900 XTX), ale również wydajniejsze i do tego faktycznie pod nie (tensory) są optymalizowane aplikacje i których mówię w filmie. Od jakiegoś czasu w moich recenzjach GPU na benchmark-pl są też testy AI gdzie dokładnie widać jak AMD się zmaga z tym tematem, nie mówiąc o tym jak dużo trzeba się namęczyć aby te aplikacje oszukać ze niby mamy Tensory bo bez tego często w ogóle nie chcą używać GPU i proces się dramatycznie wydłuża. Podobnie jest z kartami Intela.
      Ale oczywiście śmiało - poleć nam aplikacje, w której Radeony osiągana więcej irytacji na sekundę w przetwarzaniu AI niż karty RTX w zbliżonej cenie :) (albo nawet segment droższe bo obecnie 7900 XTX zwykle wypada na poziomie RTX 4060 Ti w kwestii np. generowania obrazów z pomocą AI po uwzględnieniu wszystkich optymalizacji dla obu kart…).

    • @wojtekspychaa2159
      @wojtekspychaa2159 Před 3 měsíci

      ⁠​⁠@@AndrzejWilkable przekonałem autora wyżej co najwyżej że nie ma możliwości łatwiej zabawy z AI na Radeonach, co po części jest prawdą, bo nie jest to tak proste jak pokazałem na filmie na laptopie z RTX. Przestańmy mylić RT z AI.
      A to że Radeony mają wolniejsze jednostki AI to jest fakt - skoro posiadający mniej jednostek RTX 4060 Ti wypada szybciej lub podobnie co RX 7900 XTX w tych zastosowaniach (generowania z AI). Nie ma w tym też nic dziwnego - Nvidia AI rozwija dwa lata dłużej i przeznacza na to znacznie więcej środków.

    • @AndrzejWilkable
      @AndrzejWilkable Před 3 měsíci

      @@wojtekspychaa2159 Przekonałeś do tego co jest w tym komentarzu napisane, przeczytaj go uważnie i ze zrozumieniem.