AMD Radeon RX 7900XTX und RX 7900 XT im Test - Viel Licht und trotzdem auch Schatten. Die Fakten!

Sdílet
Vložit
  • čas přidán 5. 08. 2024
  • Artikel auf Deutsch: bit.ly/3hkQucy | English Version: bit.ly/3hduzEd
    00:00:00 - Kanalintro
    00:00:16 - Begrüßung und Einführung
    00:02:14 - Sehr wichtige Vorbemerkung
    00:04:00 - Die Kartendaten im Schnelldurchlauf
    00:07:37 - Testsystem und Labor (Insights)
    00:10:30 - Teardown: Platine, Topologie, Komponenten
    00:19:23 - Teardown: Kühler und Tipps zum Wärmeleitpastentausch
    00:25:22 - Benchmarks in QHD (Rastergrafik, Raytracing, alles gemeinsam)
    00:37:03 - Benchmarks in UHD (Rastergrafik, Raytracing, alles gemeinsam)
    00:45:13 - Workstation.Benchmarks und Rendering
    00:49:01 - Leistungsaufnahme im Detail und Hintergründe zum Slot
    00:53:09 - Lastspitzen und Lastwechsel samt Nebenwirkungen
    00:57:16 - Netzteil-Bemessung und Empfehlung
    00:58:34 - Reale Taktraten unter Last, Temperaturen und Infrarot-Bilder
    01:04:10 - Lüftersteuerung, Lautstärke und Spulenfiepen (Samples)
    01:08:18 Zusammenfassung und Fazit
    Es ist endlich soweit und wir können nun endlich, nach viel Theorie und Unboxing im Vorfeld, auch einmal praktisch testen, was die neuen Radeon RX 7900XTX und RX 7900XT wirklich leisten können und wo vielleicht sogar auch noch weiteres Potential brach liegt. Ich gehe mal davon aus, dass auch AMD vom guten Abschneiden der GeForce RTX 4090 und später auch der RTX 4080 einigermaßen überrascht wurde. So, wie viele meiner Leser auch, die hinter beiden neuen Ada-Karten zunächst stromfressende Pixelmonster vermutet hatten. Doch es kam ja bekanntlich alles komplett anders und es ist zu vermuten, dass AMD in letzter Minute an den beiden heute gelaunchten Karten noch etwas nachgelegt hat...
    #AMD #Radeon #rx7900xtx #RX7900XTX #rdna3 #benchmark #gaming #review
  • Věda a technologie

Komentáře • 825

  • @patatacaliente8270
    @patatacaliente8270 Před rokem +96

    Igor ist so'ne Art Harald Lesch für PC Enthusiasten: Super informiert und dabei auch noch ein guter Unterhalter. Schaut man sich immer wieder gern an.

    • @Falk4711
      @Falk4711 Před rokem +2

      Schau doch erstmal bis zum Ende.

    • @alexanders.2685
      @alexanders.2685 Před rokem +2

      Haha ja. Wie tief sollen wir rein gehen?! Igor: Ja!

    • @Captain_Rudi
      @Captain_Rudi Před rokem +2

      Er erinnert mich immer an den Peter Lustig... 😅 Wer ihn nicht kennt...googelt mal 😂

    • @Falk4711
      @Falk4711 Před rokem +1

      @@Captain_Rudi Fehlt nur noch die Latzhose 😁

    • @Captain_Rudi
      @Captain_Rudi Před rokem +2

      @@Falk4711 genau...obwohl er von der Statur es nicht ganz packt...aber von der Art her auf jeden Fall 😅😁
      Das ist natürlich positiv gemeint, lieber @Igor 😉

  • @neralem
    @neralem Před rokem +5

    Jener Aufwand! Respekt Igor, wirklich Wahnsinn was du dir für Mühe gibst. Sehr interessant alles

  • @Artstye4you
    @Artstye4you Před rokem +9

    Danke für den tollen ausführlichen Test- Ich bin schon sehr gespannt was mit den Boardpartner Karten der 7900XTX passieren wird. Für 1300 Euro und mehr werden die es jedenfalls sehr schwer haben denke ich !

    • @MotoMario1
      @MotoMario1 Před rokem

      Habe mir die Red Devil für aktuell 1190€ bestellt, bin gespannt.

  • @emidrummer1990
    @emidrummer1990 Před rokem +2

    Top Test, danke Igor! und jetzt ab in die Weihnachtsferien mit Dir :) frohe Festtage!

  • @norb309
    @norb309 Před rokem +6

    Ich mag die technischen Details und Erklärungen dazu. Macht deine Videos zu etwas besonderem. ;)

  • @jensprystawik6982
    @jensprystawik6982 Před rokem +1

    Ich habe Dein Video nur nebenbei im Hintergrund gehört.. ABER dann musst ich mir das genau anschauen. Sehr gute Infos und sehr fundamentales Wissen über Grundlage der E-Technik. Chapeau! Sehr informativ Igor 🙂

  • @jurgenthiele3772
    @jurgenthiele3772 Před rokem +1

    Danke, sehr gut vorgestellt. Freue mich schon auf dein nächstes Video. Danke und mach es genau so weiter.

  • @sleepyelk5955
    @sleepyelk5955 Před rokem +1

    Das Spulenfiepen und die Lüfterlautstärke ist schon krass ... danke, dass du das so ausführlich vorgestellt und erklärt hast!

  • @cy7125
    @cy7125 Před rokem +3

    Danke Igor!
    Eingedenk Deiner tollen differenzierten Tests, und da ich die nächste Karte wohl viele Jahre im Rechner haben werde, wird es bei mir wohl das Stromsparmodell.
    Also eine undervoltete 4090.

  • @bartoszrura2804
    @bartoszrura2804 Před rokem

    Wunderbar!
    Danke für den ausführlichen Test :-)

  • @ChadKenova
    @ChadKenova Před rokem +11

    Igor seems to go into way more depth than most reviewers, great review

    • @igorsLAB
      @igorsLAB  Před rokem +8

      Thats why I need more time, that means video length. BTW it is a one-take :D

    • @fckyt8222
      @fckyt8222 Před rokem +2

      @@igorsLAB And thats, why Igor is the tech king. He goes much deeper in that stuff, than everybody else!

    • @HitokiriShin
      @HitokiriShin Před rokem +3

      Seems? He literally does! :^D

    • @Erbsengeneral
      @Erbsengeneral Před rokem +2

      @@igorsLAB holy moly ^^ Respekt. Ist mir nicht aufgefallen, so gut wars am Ende.

  • @EspritBerlin
    @EspritBerlin Před rokem +2

    Igor, ganz herzlichen Dank für das tolle Video! Hammer, 1000 Dank!

  • @theblackshadow3144
    @theblackshadow3144 Před rokem +4

    Super Video danke für die ganze Arbeit würde mich noch freuen wenn du noch einen Vergleich Video machst zu FSR und DLSS zu den neuen Karten

    • @igorsLAB
      @igorsLAB  Před rokem

      Dafür gibts den Artikel 😉

  • @peerrucke2599
    @peerrucke2599 Před rokem

    Hallo Igor, die Frage gehört zwar nicht zum Thema, aber kannst du mir eine Wärmeleitlösung für 3D drucker empfohlen? Hab mir ein neues Hotend bestellt und werde damit öfters mit 260-270 grad C arbeiten. Bei den meisten pasten steht nichts dabei und selbst die Pasten, die als 3D-Druckpasten verkauft werden, geben nur 200 Grad max an. Muss jetzt kein highendzeug sein. Hauptsache es leitet besser als Luft und hält die Temperaturen aus. Ich hab Arctic MX4 und Liquid metal zuhause, denk aber nicht, das eines davon geegnet ist. Thermal Grizzly gibt aber -250-350Grad C. an? Wäre das was?

  • @ALPHA_N3RD
    @ALPHA_N3RD Před rokem +3

    Lieber Igor,
    wieder einmal ein tolles Video, danke! 🙂Könntest du mal eine RX 6900 XTXH gegen die beiden neuen Karten testen? Diese fehlt mir immer in den Benchmarks bis jetzt. Mich würde das sehr intressieren und freuen!.

  • @thejoker9211
    @thejoker9211 Před rokem +2

    Hallo Igor,
    Erstmal danke für das ausführliche und spannende Video!
    Ich habe eine Frage wegen den Blender Benchmarks.
    Woran liegt das, dass die Karten beim Rendern deines Bots so weit vorne liegen, obwohl andere Tests mit blendereigenen benchmarks (auch mit HiP) nur auf das lvl einer RTX 3080 kommen?

    • @morkaili
      @morkaili Před rokem +1

      Besonders faszinierend sind die sehr unterschiedlichen Ergebnisse mit HIP je nachdem ob mit Intel oder AMD CPU getestet wurde. Das seltsame daran ist, dass es keinerlei Funktionen gibt, die die Leistung mit einer AMD CPU verbessern, eigentlich müsste sie sogar schlechter sein im vergleich zu der Intel-Konkurrenz im selben Preisbereich.
      Scheint als ob es da mit der unfinalen Version von Blender 3.5.x noch so einige Probleme gibt, in 3.4.x jedenfalls sind die Nvidia GPUs klar vorne.

  • @TheRaketenHarry
    @TheRaketenHarry Před rokem +1

    Von "der da" zu "Ada" ist mein persönliches Highlight! ;)
    PS: gutes Video!

  • @PzKdt76
    @PzKdt76 Před rokem +14

    Danke für deine gleichbleibend interessante, professionelle, unterhaltsame und wohl auch ziemlich einzigartig tiefgründige Arbeit!

  • @jumowagames
    @jumowagames Před rokem

    Igor, Deine geile Ausstrahlung ist ansteckend! Danke! 😁

  • @TnFruit
    @TnFruit Před rokem +2

    Habe ich vor die Videokodierung und Entkodierung mit AV1 verpasst?

  • @Noir1234
    @Noir1234 Před rokem +5

    Straßenpreise werden wohl anfangs eher bei 1,3k€ liegen für die XTX. Im AMD Shop bekommt man sie vielleicht zum UVP, aber ganz ehrlich, bei dem Spulen fiepen verzichte ich.
    Davon abgesehen das ich diese Gen. komplett überspringen werde.
    AMD hat diesmal echt ins Klo gegriffen. XTX für unter 1000€ kann man drüber reden, mehr nicht...
    Wenn man sich die UVP Preise anschaut ist die XT wie eine kleine Pommes bei McDonalds, ergibt keinen Sinn sie zu kaufen. 10% günstiger aber im durchschnitt ~15-20% langsamer.
    Die XT muss mindestens 200€ weniger kosten als die XTX (UVP) bevor man überlegen kann sie zu kaufen.
    Da wirken die 4080 Preise schon gar nicht mal so schlecht, für den Mehrwert den man bekommt mit RT, DLSS, NVENC etc....

  • @FatalityDiablo
    @FatalityDiablo Před rokem +2

    Igor, du bist einfach der beschte!

  • @OberstStruppi
    @OberstStruppi Před rokem

    @Igorslab Was meinst du? Bei einem x570 5600x/6800XT Gespann für 3440x1440p auf eine 7900XTX hochzurüsten. Lohnt sich das oder sollte man die CPU auch gleich tauschen?

    • @igorsLAB
      @igorsLAB  Před rokem

      Besser wäre es schon. Der X3D war grade günstig

    • @OberstStruppi
      @OberstStruppi Před rokem

      @@igorsLAB Die Überlegung ist tatsächlich ob man jetzt GPU/CPU hochrüsten soll auf X570 Basis oder tatsächlich eine Generation überspringen und dann auf X670 gehen mit DDR5 und neuen GPU´s in zwei Jahren.

    • @oliverbecker3443
      @oliverbecker3443 Před rokem

      @@OberstStruppi Und worauf willst du in 2 Jahren warten?

    • @OberstStruppi
      @OberstStruppi Před rokem +1

      @@oliverbecker3443 Dann einmal alles neu. Board, DDR5, RTX5000 oder AMD 8000er Serie. Jetzt wäre es ein zwischendurch Upgrade.

  • @Ruhiger_Fels
    @Ruhiger_Fels Před rokem +4

    Ich wünsche Ihnen und ihrer Familie frohe Weihnachten und ein gutes neues Jahr 2023. 😃👍
    Ein wichtiger Kanal der die Qualität bei CZcams hochhält.

  • @tomsun3159
    @tomsun3159 Před rokem +4

    @igor: wie wäre es mal Simulationen (Flightsim und der allseits beliebte ETS2) in Multimonitor Setup zu testen, ich denke gerade für den Personenkreis könnte es interessant sein (3* WQHD) da dürfte einiges an Belastung auf die Karten zu kommen (klar da geht es nicht um dreistellige Frameraten), ich frage mich wer da die bessere Wahl ist Nvidia oder AMD.

  • @bene452
    @bene452 Před rokem

    Danke! Fakten mit humor 😂super freu mich schon aufs nächste Video

  • @Osch1987
    @Osch1987 Před rokem

    Werden also alle 7900XTX das Spulenfiepen haben? Oder kann es bei den Partnerkarten ganz anders ausschauen?

  • @TheRickster998
    @TheRickster998 Před rokem

    Hi, sind die Komponenten, sprich die Bildqualität hier bei der 7900XT schlechter als bei einer Radeon Pro W6600 oder W6800? Mich interessiert die Karte da ich 4K und 5k Thunderbolt3/USB-C Displayport Monitore habe. (Gaming nebensächlich, mir geht es mehr um die Bildqualität/Schärfe)
    Vielen Dank!

    • @igorsLAB
      @igorsLAB  Před rokem +1

      Nein, ist sie nicht :)

    • @TheRickster998
      @TheRickster998 Před rokem

      @@igorsLAB Danke für die schnelle Antwort. Es ist wirklich schwierig die richtige Grafikkarte zu finden für 5k Monitore, oder 4k Daisychainging. Mich interessiert hautpsächlich der USB-C Anschluß auf der Grafikkarte den fast keine Grafikkarte mehr hat. Ich habe schon 3 LG 32UL950W (4k) und einen LG 27MD5KL-B 5K Monitor. Ich glaub du bist der einzige der sich da vielleicht auskennt :) Die sind zuerst auf einem intel iMac 27 mit einer Radeon Pro 575X gelaufen (Thunderbolt 3). Bevor ich jetzt bei meinem Multimonitor PC-Build (mindestens 4x4K bis
      5x4k +1x5k, mich komplett verzettle vielleicht has du einen Tipp welche Grafikkarte da passen würde? Vielen Dank!

    • @igorsLAB
      @igorsLAB  Před rokem +1

      @@TheRickster998 Mit aktuellen Karten wird das eher schwierig. Aber es kommen bald RDNA3-Karten als Radeon Pro (psst!)

    • @TheRickster998
      @TheRickster998 Před rokem

      @@igorsLAB Ja das habe ich auch schon befürchtet bzw. gehofft. Danke!

  • @saab_9
    @saab_9 Před rokem +1

    Awesome review

  • @Andreas-ec4gi
    @Andreas-ec4gi Před rokem +1

    Super Aufklärung....bist der Beste...Danke Igor ....😉

  • @shibadad5891
    @shibadad5891 Před rokem +1

    Vielleicht auch eine dumme Frage aber wird der Stromverbrauch dann auch bei den Boardpartnerkarten aussehen? Sprich egal was die liefern es wird immer das Maximum verbraucht? Das ist ja als fahre ich mein Auto so spritsparend wie möglich und es verbraucht so viel wie bei Vollgas.

    • @SouLG97
      @SouLG97 Před rokem +1

      Ich denke das ist eine Treiberfrage. Dass die Karte immer auf maximaler Last läuft macht eigentlich keinen Sinn. Ansonsten fps limitieren auf deine Monitor Hz Frequenz. Da wird sich in naher Zukunft sicher noch etwas am Verbrauch ändern.

    • @shibadad5891
      @shibadad5891 Před rokem +1

      @@SouLG97 ah OK dann warte ich mal ab was die Zukunft bringt. Bin schon ultra gespannt wie die RedDevil sich schlagen wird.

  • @C137IDR
    @C137IDR Před rokem +3

    Wie seht ihr den Vergleich zwischen FSR und DLSS? Besseres Bild, bessere Frames etc. Und wie relevant ist der Unterschied im VRAM besonders auch auf die 2023 Spiele möglicherweise, wenn man Richtung Lumen und Nanite schaut die ja VRAM hungrig sind. Schwierige Entscheidung geworden zwischen der 4080 und 7900XTX. Kürzlich den G9 zugelegt mit 5120x1440 - da wird das Upgrade von der Laptop 3060 jetzt Zeit.

    • @wedgeantilles8575
      @wedgeantilles8575 Před rokem +5

      Wenn du keine Firmenvorlieben hast, ist die 4080 die unterm Strich klar bessere Karte.
      16GB Ram genügen.
      DLSS ist klar besser als FSR, alleine weil es deutlich mehr Spiele gibt die DLSS unterstützen als FSR. Und wenn in Zukunft mehr FSR geben - das kannst du mit der 4080 ja auch nutzen.
      Aber wenn ein Spiel DLSS unterstützt aber nicht FSR? Dann bist du mit der AMD Karte der Depp.
      Dazu ist die Bildqualität von DLSS unterm Strich besser. Vor allem auf den unteren Stufen deutlich besser.
      -> DLSS ist FSR überlegen.
      Die 4080 ist bei RT sehr deutlich schneller im RT - und RT ist das, wo du am ehesten viel Grafikleistung brauchst.
      Die 4080 ist deutlich effizienter, braucht also sehr viel weniger Strom.
      Damit hast du die Mehrausgaben im Laufe der Zeit locker wieder drin. Kommt natürlich an wieviel du deinen PC nutzt, aber alleine durch die katastrophalen Idle Werte und YT Werte sparst du da pro Woche bereits mehrere kWh wenn du deinen PC am Tag ein paar wenige Stunde nutzt.
      Das macht im Jahr 50 Euro, bei stärkerer Nutzung auch das doppelte oder dreifache.
      Die 4080 ist leiser und kühler.
      Ich sage nicht, dass die 4080 eine attraktive Karte ist - aber sie ist das deutlich bessere Angebot als die 7900XTX.
      Und das ist sehr traurig, da die 4080 eigentlich völlig überteuert ist.

    • @drago1legendpcsbuilds80
      @drago1legendpcsbuilds80 Před rokem

      @@wedgeantilles8575 FSR ist die Zukunft. Es hängt von den Konsolen ab und da ist AMD im Vorteil. Denk sogar das die PS6 wieder auf AMD setzten wird, weil günstiger.
      Nvidia unterstützen ? Man tut sich selber keinen Gefallen damit...Das ist ja der Grund, warum diese überteuert sind...Also nicht kaufen...Natürlich ist AMD kein Engel und will auch Geld verdienen, jedoch was Nvidia in form einer 4080 12GB machen wollte war ganz klar Wucher ! Und man darf daher diese nicht unterstützen.

    • @wedgeantilles8575
      @wedgeantilles8575 Před rokem +2

      @@drago1legendpcsbuilds80 Falls FSR "gewinnt" ist man mit der 4080 nicht schlechter aufgestellt. Weil FSR darauf genauso funktioniert.
      Falls aber DLSS gewinnt, ist man mit der 7900XTX der Idiot.
      4080 ist die sichere Option.
      Und mit den Stromkosten unterm Strich eher sogar preiswerter!
      Das abzustreiten ist einfach unsinnig.
      Außer eben man zahlt nix für Strom oder nutzt den PC nur wenige Stunden pro Woche.
      Und PS6: Sorry, aber aktuell heißt es, dass die 2028 kommt.
      Evt. wird es 2027 - aber das sind immer noch 5 Jahre.

    • @ningamertendo
      @ningamertendo Před rokem

      @@wedgeantilles8575 Geht nur bis FSR2 für FSR3 wird es wie bei den Nvidia Grafikkarten auf die AI-Zusatzkerne hinauslaufen. Zumal es noch RSR gibt, das auf Treiber-Ebene läuft während Nvidias DLSS implementiert sein muss. AMD hat und wird immer den Vorteil des Open-Source-Systems haben. In der Vergangenheit hat auch Nvidia immer und immer wieder dadurch die Technologie von AMD übernommen. Rein Fortschrittlich gesehen ist man daher eher mit der Geldanlage bei AMD aufgehoben. Man kann natürlich jetzt den Stromverbrauch hochrechnen, was doch eher Richtung 4000 Stunden Vollleistung geht. Wenn man 8h am Tag diese nutzt dann könnte sich es lohnen, bevor die neuen Generation raus kommt (auf 2 Jahre gerechnet). Wobei auch hier AMD leider aber wie immer erst optimieren muss. Dann gehe ich davon aus, dass wie in der Vergangenheit auch die Leistung zu nimmt und die Leistungsaufnahme teilweise auch ab.
      Nvidia kommt mir nicht mehr ins Haus, da die komplette Software proprietär ist und jeglicher Support unter Linux etc. nicht oder nur schwer vorhanden ist. Quasi ein vorgeben, wie man seine Hardware zu nutzen hat. Das kann und will ich nicht mehr unterstützen.

  • @devultra1125
    @devultra1125 Před rokem +4

    Ich hoffe das weitere Treiberupdates noch Verbesserungen bringen können. SAM und FSR3 fehlen ja irgendwie noch. Da könnte vielleicht dieses kleine Quäntchen herausgeholt werden, was die Karte dann doch abhebt von der 4080.

    • @fye5602
      @fye5602 Před rokem +1

      SAM ist doch rbar und damit vorhanden, warum sollte das fehlen? Einzig FSR 3 fehlt derzeit noch, aber ist auch nicht notwendig für die Benchmarks.

    • @devultra1125
      @devultra1125 Před rokem +1

      @@fye5602 rbar war doch Nvidia oder nicht? Keine Ahnung, mir war nicht bekannt das die 7000er auch direkt SAM unterstützen, wobei das ja Sinn macht, die 6000er konnten es ja auch ab Release.
      Bei den Benchmarks hilft es nicht, aber mehr FPS in Games sind immer gut, und es sind letztlich die Games weswegen ich mir eine Grafikkarte hole, keine Synthetischen Benchmarrks. :^)

  • @gatzuuuberserker3931
    @gatzuuuberserker3931 Před 5 měsíci +1

    Gibts mittlerweile einen fix fuer den extremen desktop idle stromverbrauch? 120-140 watt bei der xtx

  • @sts_gaming
    @sts_gaming Před rokem +5

    Extrem lehrreiches und ausführliches Video! Das macht keiner so wie du! Ich konnte mir alle Infos die ich für meine Entscheidung brauchte aus diesem Video ziehen. Danke dafür! 👍

  • @Neikon
    @Neikon Před rokem +2

    danke für das Video igor, ich finde die 7900XTX super, RT Interessiert mich zum glück noch nicht, und die paar mehr watt interessieren mich auch nicht wirklich da ich nicht 24/7 spiele. :D mach weiter so.

    • @sr1v3r
      @sr1v3r Před rokem

      Zum Glück?

    • @Neikon
      @Neikon Před rokem

      @@sr1v3r ja weil da die Leistung nicht so gut aussieht

  • @Andy_S79
    @Andy_S79 Před rokem +2

    Danke für das Updaten von Blender und Testen mit HIP und nicht mit Open CL wie früher. 👍

  • @tomsun3159
    @tomsun3159 Před rokem +1

    Igor Danke für deinen ausführlichen Bericht. Er erleichtert mir meine Entscheidung noch zu warten erheblich.
    Coilwhine
    Stromversorgung auf Kante
    Treiberprobleme
    hoher Verbrauch bei vergleichsweise niedriger Belastung (in meinem Fall 3440*1440/100FPS Rasterleistung in DX11 Titel)
    Ich denke wenn die anderen Boardpartner mit ihren eigenen Layouts (3+8 Pin), die (ich denke mal) Bios-Fehler gefixed sind, der Treiber gereift sind, dann wird es nochmal interessant. Aber in der jetzigen Situation/Konfiguration uninteressant.

  • @kmc012
    @kmc012 Před rokem +3

    Da bin ich ja froh im Sommer die 6950XT zu einem guten Preis ergattert zu haben. Klar haben die neuen AMD Karten eine gute Performance, aber so ein riesiger Leistungssprung zum Vorgänger ist es jetzt nicht. Für 150€ weniger fände ich die Preise in Ordnung.

  • @steven301
    @steven301 Před rokem

    Hallo Igor, Welche der RX 7900XT würdest du mir so aus dem hopps empfehlen? XFX, Sapphire etc. ? Wäre sehr Dankbar über eine Antwort, auch seitens der Community.

    • @igorsLAB
      @igorsLAB  Před rokem +1

      Spontan: Sapphire, aber die nehmen sich fast alle nicht viel.

    • @MoBreYT05
      @MoBreYT05 Před rokem

      Habe eine Asrock genommen und bin damit echt zufrieden, der grund war das mir dass Spulenfiepen der sapphire aufm sack ging

  • @ramonruegg8653
    @ramonruegg8653 Před rokem +1

    Hallo Igor denkst du eine custom 7900 xtxit 3x pcie Stecker könnte diese Probleme beheben?

    • @igorsLAB
      @igorsLAB  Před rokem +1

      Sicher. Aber auch bei 400 Watt wird die Karte kaum schneller. ;)

    • @Snake74147
      @Snake74147 Před rokem +1

      nö. was soll ein weiterer Anschlus an den Lüfter-Problemen und Spulenfiepen auch drehen.... .
      Hatte echt die Hoffnung das AMD was im Petto hat - aber allein das Spulenfieben bei über 1k€ ist nen No-Go.

    • @proxis9980
      @proxis9980 Před rokem

      @@Snake74147 digga wenn du strom verteilst und die dinger nicht am limit laufen sind die deltsa eifanch kleiner...eifanches rechen beispiel du bekomst zwischen 4 und 10 bagles (ohne messer und wärend corana) ihr seit zu 3 ...dh entweder 2 sind hungrid und einer ist mediocre satt (1 1 2) bis hinzu zwei sind voll und einer ist am platzen (3 3 4) spanne ist also im worstcase 3 bagle unterschied....wenn ihr aber 4 leute seit dann ist das 1 1 1 1 zu 2 2 2 3 worstacase difference ist also 2 ...:P und ja ich warte grade auf mein essen..cheers

    • @Alpha6015
      @Alpha6015 Před rokem

      @@igorsLAB interessant OC max. ->
      Google ->
      ASUS RX 7900 XTX TUF OC techpowerup
      Grüsse!

    • @RomanM1986
      @RomanM1986 Před rokem

      @@igorsLAB Könntest du auch noch mit FSR und DLSS testen? In meinem Freundeskreis hat das in 4K so und so fast jeder an. Ein Indiz das sich hier was getan hat wären ja die neuen AI cores oder?

  • @reijhinru1474
    @reijhinru1474 Před rokem +2

    Vielen Dank für den ausführlichen Test Igor. Ich wollte mir eine 7900 XTX kaufen aber bei dem Spulenfiepen und der Lüfterlautstärke der Karte hab ich ohne zu zögern eine 4080 FE bestellt. Lieber zahle ich 250€ mehr und muss dieses fiepen nicht hören! da wird man doch verrückt...

    • @Uthleber
      @Uthleber Před rokem +2

      "ohne zu Zögern" :D Nice try, Jensen.

  • @michaelmeyer2842
    @michaelmeyer2842 Před rokem +4

    Ich bin bis jetzt sehr positiv mit den Karten gestimmt. Sie sind da wo sie angekündigt wurden und die Treiber sind der Erfahrung her auf Dauer immer die Performanteren, da sie längerfristig besser optimiert werden. Noch sind die AI-Cores auch noch nicht in Anwendung, d. h. auch hier ist noch offenes Potential. Und für das Geld was AMD abruft ist die Leistung wirklich top

    • @rhunor2433
      @rhunor2433 Před rokem

      Finde es erschreckend, wie schnell solche Preise relativiert werden...kein Wunder, dass die Preise so hoch bleiben.

    • @michaelmeyer2842
      @michaelmeyer2842 Před rokem

      Keine Ahnung warum die Preise nicht passen sollen. Es sind Haloprodukte nicht die Standardkarten aka 7700 oder 3060 welche wieder bezahlbar für den Otto sind

    • @firezeed
      @firezeed Před rokem +1

      sagen wir malso, die treiber reifen erst noch beim kunden. Hatte einige amd karten...

    • @wolfgangkober1291
      @wolfgangkober1291 Před rokem +1

      sehe das anders - ich würde hier eher die 4080 für 200 Euro mehr kaufen. Dann hab ich nicht so Geschichten wie die unfertigen Treiber, das Risiko mit dem Hitze Problem, laute und ineffiziente Karten und in jedem Game eine gute Leistung. Auf die Nutzungsdauer sind die 200 Euro gut investiert

    • @michaelmeyer2842
      @michaelmeyer2842 Před rokem

      @@wolfgangkober1291 Da das Hitzeproblem nur bei den Referenzkarten existiert und ich persönlich daran nicht interessiert bin ist es für mich kein Faktor. Die Treiber werden mit der Zeit immer besser und AMD hat auf lange Sicht NVIDIA häufig Plätze gekostet. Die Energieeffizienz ist für mich aktuell nicht relevant, da es auf 50-100 Watt nicht ankommt und diese mit leichter Optimierung sowieso eingespart werden können und hier eben auch die Treiber den Verbrauch verbessern werden. Ich hatte die letzten 14 Jahre mehrere NVIDIA und AMD Karten und je nach Generation sind manche besser und schlechter. Dieses Mal ist NVIDIA mMn. einfach nicht das Geld wert, welches sie für ihre Karten fordern. Auch NVIDIAs Treiber haben stellenweise Probleme und AMD ist gerade aus OpenSource-Sicht die bessere Wahl. Hier ist für mich und ich rede nur von meiner Sicht und Wahl! AMD die bessere Wahl. Ich steigere meine Leistung von meiner 3080 allein in der Rasterleistung deutlich und RT ist für mich nicht relevant, der Mehrspeicher schon eher. Eine 4080 ist teilweise kaum besser als eine 3090 und die 4070TI ist auf dem lvl einer 3080 für deutlich mehr Geld. NVIDIA zieht hier einfach nur den Leuten das Geld aus der Tasche.

  • @austinpowers8422
    @austinpowers8422 Před rokem +4

    Ich hab bei meiner XFX 7900 XT (AMD Referenzkarte) gerade eine interessante Entdeckung gemacht bezüglich Spulenfiepen, da ich selbst mit Framelimiter auf 60 FPS bei Doom Eternal und Battlefield 1 in den Menüs das Fiepen deutlich hören kann (vor allem bei Doom):
    Einfach mit Alt + Tab oder Alt + R raus aus dem Spiel wechseln und dann wieder zurück ins Spiel springen, dann ists weg. Allerdings spinnen dann bis zum nächsten Systemneustart die Tabs im Chrome und Edge Browser (schwarzes Flackern).
    Im Radeon Overlay sehe ich auf die Schnelle keine Veränderung an der Leistungsaufnahme oder anderen Metriken... was hoffen lässt dass das Problem evtl. per Treiber behoben werden kann.
    Übrigens scheint mein Be Quiet Straight Power 11 650W Gold die Radeon 7900 XT samt Ryzen 5800X3D stabil betanken zu können.
    Danke @Igor für das Video und den dazugehörigen Artikel 👍

    • @David-kn2lb
      @David-kn2lb Před rokem

      Hey ich kann dir da auch noch einen Tipp geben, hab nämlich auch eine XFX 7900xtx... Hab bei mir folgende perfekte Einstellungen gefunden: Im AMD Treiber leichtes Undervolting von 1150mV auf 1110mV somit ist Karte ca. 5-8 Grad Kühler und verbraucht im Schnitt ca. 50 Watt weniger... Da die GPU eh schon annähernd an die 3000Ghz läuft und bei mir bis 3040Mhz takten darf lohnt sich hier nicht den Takt weiter anzuheben, allerdings verträgt meine XFX +300Mhz im Speichertakt und läuft somit ebenfalls auf 2800Mhz... Alles in allem hat das Undervolting folgende Vorteile, Karte verbraucht weniger Strom, bleibt Kühler und man kann den Speichertakt anheben. Im Benchmarkt konnte ich nur durchs reine Undervolting +5% Mehrleistung erkennen (Karte bleibt Kühler und länger im oberen Boost), durch den höheren Speichertakt kommen noch mal 5% drauf also 10% gesamt das sind 8-10fps und in FarCry 6 sogar 12fps mehr. Das besten kommt zum Schluss das Spulenfiepen ist ebenfalls viel besser geworden... Ich nutze zusätzlich im Treiber das Profil Spiele für die Gaming Performance und befeuere somit einen 49" Samsung Monitor mit AMD Freesync Pro... Hab meine FPS im AMD Treiber auf 80FPS limitiert und das alles in Kombination ist für mich einfach die perfekte Einstellung, Karte läuft schnell, kühl und relativ leise ( halt was das MBA Design her gibt)... Hoffe da sind noch ein paar Tipps für dich dabei... LG David

    • @austinpowers8422
      @austinpowers8422 Před rokem +1

      @@David-kn2lb Danke für den Tipp. Ich hab meine 7900 XT aber wieder zurück geschickt, daher kann ich es jetzt nicht mehr verifizieren. Igor hatte mit seiner Netzteilempfehlung zwar recht, aber als ich meine Vega 56 wieder verbaut hatte, fing das Netzteil an mit fiepen. Ich lasse Benchmarks immer ohne Ton oder anderer Audioquellen laufen weil ich genau hören will was das System für ne Lautstärke generiert.
      Das Netzteil hatte zuvor definitiv nicht gefiept weshalb entweder reiner Zufall bedingt durch das Alter (PSU ist ca. 5 Jahre alt) oder die 7900 XT dies verursacht hat. Das fiepen mit der Vega ist aber deutlich weniger penetrant.
      Getestet und reproduzierbar ist es im Cyberpunk 2077 Benchmark... da fiept es mit beiden Karten durchgehend, egal bei welchen FPS. Ein fiepen bei FPS jenseits von 144 FPS (ich will ja meinen 144hz Monitor auch nutzen) wäre ja ok... aber selbst im gesamten Spektrum von 30FPS bis 144FPS ist ein no go für mich.
      Der momentane Plan sieht aus, dass ich Custom Modelle der 7900 XTX + Tests abwarte, ne 1kW PSU kaufe und dann hoffentlich im März oder so (samt gereifterer Treiber) nen vertretbar leises System habe.
      Meine Tests lassen mich auch vermuten, dass der Adrenalin Treiber 22.12.1 nicht immer den Framelimiter aktiviert und das Radeon Overlay auch falsche FPS anzeigt.
      Kannst das ja mal in Cyberpunk probieren indem Du VSync ausmachst und die Bildmodi "Fenster", "Fenster ohne Rand" und "Vollbild" durchschaltest. Bei "Vollbild" macht die 7900 XT jedem Zikadenschwarm Konkurrenz. Dann machst mal VSync wieder an und schaltest die Modi noch mal durch. Trotz 60PFS Grenze und 60FPS im Radeon Overlay höre ich das Fiepen.

  • @ImSiggi
    @ImSiggi Před rokem +2

    wenn man eine der beiden kauft dann die xtx. die xt kostet 10% weniger bieter aber 15% weniger leistung und wie du selbst gesagt hast kann die xtx durch updates noch deutlich besser werden, die xt aber nicht so viel.

  • @Karlderkarl
    @Karlderkarl Před rokem +1

    wenn meine augen nicht täuschen, dann war da doch eine fury nano auf dem bild ?

  • @Hope-be3yy
    @Hope-be3yy Před 5 měsíci

    Hallo an alle ich verzweifele gleich mit dem Anschluss der rx7900xt . Ich habe ein rm850x Netzteil und welches Kabel nutze ich nun? Ein Y Kabel ? Oder lieber 2 Kabel , ob serperat oder 2 y Kabel ist ja dann egal aber bei meiner letzten 7900xt Pulse hatte ich mit einem sf750 nach 1 Monat dauernd Abstürze und es waren 2 Kabel dran. Ich hab viel gelesen aber einer sagt so der andere sagt so …. Gibt es jemanden der mir hier helfen kann ? Vielen lieben Dank an euch im Voraus )))))❤

    • @igorsLAB
      @igorsLAB  Před 5 měsíci

      Einzele Kabel sind eigentlich immer besser. Und wie äußerten sich die Abstürze? Normalerweise würde ja der PC ausgehen und neu starten.

  • @Sesam
    @Sesam Před 8 měsíci +3

    Ein Nachtest wäre super Igor. Leider hat niemand mehr auf die Karten geschaut. Wie ist die Lage beim Stromhunger, gerade im Idle, wie sind die Treiber inzwischen, wie ist der "Reifegrad" aktuell nach ca. einem Jahr. Wäre super wenn da noch was kommt. Alle Videos zur 7900er Reihe sind inzwischen 1 Jahr alt und niemand weiß ob AMD die Probleme inzwischen im Griff hat

    • @igorsLAB
      @igorsLAB  Před 8 měsíci

      Viel besser geworden ist es leider nicht. FSR3 hat immer noch etwas von einem Einhorn und manchmal habe ich das Gefühl, AMD hat intern RDNA3 schon abgehakt. Allein schon das Verdongeln von Treiber und API zeigt leider, dass man was zu verbergen hat, was der Community mehr als nur abträglich ist. Seit man noch nicht mal mehr gescheit Untervolten kann, haben viele meiner Bekannten AMD den Rücken gekehrt.

    • @Sesam
      @Sesam Před 8 měsíci +1

      @@igorsLAB leider hab auch ich AMD den rücken gekehrt. Bin nun komplett blau grün obwohl ich viele Jahre komplett rot war. Liebäugle nun aber aufgrund des Videospeichers mit der 7900xt von Sapphire oder Asus. Nur der idle Strombezug und der Verbrauch bei dual Monitor Setup mit hohen Herzzahlen schreckt mich etwas ab. Bisher ging das ja in den hohen zwei bis niedrigen dreistelligen Bereich. Da gab's auch keine Besserung?

    • @michaelt3439
      @michaelt3439 Před 8 měsíci

      Anscheinend muss sich der Stromverbrauch mit aktivem VRR also Free Sync massiv verbessern
      Das sagen zumindest 2 Berichte vom August

    • @Sesam
      @Sesam Před 8 měsíci

      @@michaelt3439 werde es kommende Woche rausfinden. Hab nun zwei fast identische Monitore da. Der eine kann nur paar Herz mehr als der andere. Die 7900xt tuf kommt auch in paar tagen

    • @Sesam
      @Sesam Před 8 měsíci +1

      Inzwischen bin ich etwas schlauer. Nachdem die Sapphire Nitro bei mir ein echter Schreihals war hab ich nun die Asus tuf drin. Idle 40-50w auf dem Desktop mit offenem gpuz. Surfen + Twitch/CZcams kaum mehr, bei nicht so leistungshungrigen spielen bleibt's bei genügsamen 110-150w. 300w und mehr hab ich bisher nur selten gesehen außerhalb von Benchmarks.
      Monitore sind einmal ein LG ultragear 850bp @165hz und ein 800bp @144hz. Karte ist noch unangetastet, lediglich Radeon chill ist dauerhaft aktiv um das spulenfiepen zu reduzieren bzw zu beseitigen

  • @peterrippl667
    @peterrippl667 Před rokem

    Danke für den tollen Test. Kannst du auch mal bei den Renderprogrammen twinmotion oder UnrealEngine5 mit reinnehmen. Hier wäre der Unterschied Raster / Raytracing interessant. Danke!

  • @pistolero2k9
    @pistolero2k9 Před rokem +5

    Schade, dass AMD bei 4k gaming immernoch Probleme ggü. dem grünen Lager hat. Solche high end Karten will man natürlich voll ausfahren. Für 1440p kaufe ich mir sowas nicht. Denke, ich bleibe erstmal bei meiner 3080ti und beobachte den Markt.

  • @Fireice11111
    @Fireice11111 Před rokem +1

    Igor oder jemand anderes kann mir jemand beantworten zu 100% ob es für die Manli GeForce® RTX 4080 16GB Gallardo Grafikkarte (16 GB, GDDR6X)
    Einen wasserkühler gibt ? ??
    Oder passt da der ek wasserkühler der FE drauf ???
    Finde da nichts zu im Netz auf ek wird sie nicht aufgelistet mein ich .

    • @Fireice11111
      @Fireice11111 Před rokem +1

      Keiner weiß was ? Vielleicht Referenzen Design ?

    • @sebastiankueppers7105
      @sebastiankueppers7105 Před rokem +1

      Warum willst du denn eine Manli umbauen? Hole doch direkt eine Gigabyte Aorus Waterforce Xtreme WB oder eine Inno3d ichill Frozen mit Full Cover Wasserblock. Dann hast du auch kein Garantieverlust durch abmontieren des Kühlers.

    • @Fireice11111
      @Fireice11111 Před rokem +1

      Weil ich eine manli für 1100 haben hätte können habe mich aber um entschlossen .
      Habe super günstig eine Zotac bekommen.
      Meine alte rtx 3070 mit viel Zubehör steht nun zum vk wer interesse hat melden , 240 radi ,ek kühler ,Pumpe enheim . Oder auqastream xt , ich denke ihr könnt bei mir nen schnapper machen.
      LG. Noch

  • @MrBB1607
    @MrBB1607 Před rokem +2

    hmm. Das Spulenfiepen ist schon nicht zum aushalten. Wollte eigentlich eine Referenz 7900xtx. Werde mal auf die anderen Custom Modelle warten. Will die Grafikkarte mit in einem Custom Loop einbinden. Fiepen geht da mal gar nicht. Der Rechner steht Rechts oben neben mir. Powercolor 6950xt habe ich auch zurück geschickt. Bei 100FPS schon kaum auszuhalten. Hab kein Bock eine Top Karte zu installieren und auf 60FPS zu begrenzten.

    • @m.f.7997
      @m.f.7997 Před rokem

      Mit bissl UV gibt sich das sicher.

    • @Snake74147
      @Snake74147 Před rokem +1

      Naja du kannste die Begrenzung aber auch deiner Stromrechnung anlasten.
      Je nach Game/etc. kann das schon einen abschlag ausmachen (je nach Abschlag nahtürlich).

    • @MrBB1607
      @MrBB1607 Před rokem +4

      @@Snake74147 Ganz ehrlich. Interessiert mich gar nicht. Hobby kostet immer. Egal ob Motorrad Copter bauen oder Rechner.

    • @Snake74147
      @Snake74147 Před rokem

      @@MrBB1607 Das ist wiederrum traurig.

    • @vanzrides9780
      @vanzrides9780 Před rokem +3

      @@Snake74147 warum traurig ? xD er hat doch einen validen Punkt.

  • @MrSales1987
    @MrSales1987 Před rokem +3

    Danke Igor, super Video sehr informativ!

  • @Cthulhu_Ryleh
    @Cthulhu_Ryleh Před rokem +1

    Ich bräuchte bitte Mal dringend Hilfe. Hatte mir eine RX 6800 gekauft. Habe wie im Video von Igor(AMD Radeon RX 6800 Overclocking und Undervolting - von 240 Watt bis unter 180 Watt ist alles drin!) erklärt, das More Power Tool runter geladen. Das BIOS der Karte ausgelesen und gespeichert, per GPU-Z. Dann im More Power Tool das Bios der Karte eingelesen, und den Memory Clock von 1050 auf 1100 angehoben, und per Write SPPT gespeichert. PC dann neu gebootet. Allerdings bleiben beide Monitore nun schwarz, alles andere läuft, auch Windows fährt hoch. Auch schon mit nur einem Monitor versucht. Nichts. Alles leuchtet am PC, Maus und Tastatur funktionieren auch, und wie gesagt, Windows 11 startet(höre ich). Auch wenn ich mein Windows Passwort eingebe, wird Windows ausgeführt(sehe ich an der RGB Beleuchtung, die sich dann ändert). Habe andere Kabel für die Monitore genommen, Verkabelung im PC geprüft. Immer nur Black Screen. Wie kann ich denn nun das was ich mit dem MPT gespeichert hatte, wieder Rückgängig machen, wenn ich nix sehe? Bin für jede Hilfe dankbar

    • @philippgessl589
      @philippgessl589 Před rokem

      wenn deine CPU und dein MB auch Onboard Grafik anbieten, dann darüber mal den PC starten. Dann kannst du dich austoben. Oder vielleicht hast du eine alternative Grafikakrte rumliegen. Viel mehr geht da meiner Meinung nach nicht. Maximal noch Remotezugriff - muss aber vorher bereits aktiviert worden sein :-)

    • @Cthulhu_Ryleh
      @Cthulhu_Ryleh Před rokem

      @@philippgessl589 Schon alles versucht, PC war sogar in nem Shop zur Überprüfung........

    • @philippgessl589
      @philippgessl589 Před rokem

      @@Cthulhu_Ryleh Hast du einen Speaker angesteckt? So ein kleines Ding am Mainboard, welches Fehlercodes "anzeigt" --> allerdings verbal also mit Piepstönen. Zur Not googeln. Vielleicht kannst du damit mehr eruieren. Der Shop ist dann auf jeden Fall inprofessionell in meinen Augen. Ich bin selbst ITler und dafür muss es auf jeden Fall eine vernünftige Lösung geben.

  • @miccellomann
    @miccellomann Před rokem +3

    Die,Problematik mit der hohen idle Leistungsaufnahme im Multi Monitor betrieb oder bei Displays mit hoher refresh rate ist bei amd nicht neu. Das zieht sich bei denen seit 2011 durch. Hatte 2019 und 2020 mal Pause um im Oktober 2022 wiederzukehren. Der vram taktet in diesen Szenarien nicht runter. Ein Bekannter amd Treiber bug, oft beschrieben in diversen Foren und bei amd selbst, stets von amd geleugnet. Betroffen sind aktuell nicht nur rdna3 sondern auch die drei direkten Vorgänger Generationen.

    • @yosoy1loco
      @yosoy1loco Před rokem +1

      Das lässt mir das Herz in die Hose rutschen, weil es sich mit dem deckt, was ich so aus den Reviews interpretiert habe, aber dennoch eine XT bestellt habe, um Team Greed den Rücken zu zukehren. Ich weiß, dass es paranoid klingt, aber bei dem ganzen Marketing-Scheiß und dem Fanboy-tum, ist es für mich schwer rauszulesen, wer versucht aufzuklären und wer nur verwirren möchte. Hast Du irgendwelche Links zu älteren Foreneinträgen, die deine Beobachtungen irgendwie unterstützen, bzw. weißt Du ob diese Probleme in der Vergangenheit irgendwie vermindert wurden? Bei den neuen Karten ist die Differenz einfach so riesig, im übrigen nicht nur bei Idle und Multimonitor, sondern auch bei leichtem Gaming wie CS-Go oder OW, wo mal eben 150w mehr gezogen wird als bei einer vergleichbaren Karte. Jede Info wäre nice, damit ich weiß, ob ich die AMD-Karte gar nicht annehmen sollte oder darauf vertrauen, dass sie es irgendwie noch vermindert kriegen. Denn seien wir ehrlich. Wenn Du dir das PCB-layout der 4090 FE anguckst, zusammen mit dem Schwachsinn bei den Kabeln, weiß man genau, warum EVGA bei Nvidia ausgestiegen ist.

    • @miccellomann
      @miccellomann Před rokem

      @@yosoy1loco Das Problem ist mehr oder Weniger, abgesehen von zwei Jahren Pause zur RDNA Generation, dauerhaft präsent. Das kannst Du u.a. bei ComputerBase, und auch in den AMD Support Foren nachlesen. Im aktuellen Status würde ich, als absoluter AMD Fan, keine RDNA3 Karte kaufen - zumindest so lange bis AMD dieses Problem endlich einmal behebt. Aucdh im Multimonitor Betrieb taktet der VRAM schlicht nicht ins Idle - AMD weigert sich die Problematik anzuerkennen, wissend, dass es an deren Pixel Clock Management mit Monitoren liegt, welches Nvidia im Griff hat. AMD ist alleine seit 2019 hunderte Male, in großen Threads in deren eigenen Foren, hingewiesen worden - AMD hat dieses Verhalten als "Normal" abgestempelt - was schlicht Quatsch ist. Es gibt keinen Grund warum im Idle der VRAM hochtakten muss - auch bei 2 oder 3 Screens mit High Refresh Rate nicht.
      Schau mal hier:
      community.amd.com/t5/drivers-software/high-vram-clock-always/m-p/265427
      Einfach in der Forensuche VRAM eingeben - Zig Einträge.
      Bei ComputerBase versucht man diese leidige Problematik mit dem Tool CRU zu lösen - meist aber nicht zufriedenstellend ode runter Verlußt der Farbtiefe von 10 bit:
      www.computerbase.de/forum/threads/howto-vram-taktet-nicht-runter-loesung-mittels-cru.1986961/
      Auch dort gibt es zahlreiche Threads zu diesem leidigen Problem. Auch in Igor's Foren sind dazu Einträge - u.a. auch von mir.
      WIllst DU meinen Rat: Bestellung stornieren - abwarten ob AMD dieses Problem diesmal ENDLICH und FINAL fixt - und erst dann kaufen. Das wäre auch dann für mich wieder Grund zu AMD zu greifen - aber dieser Bug hindert mich daran das wieder zu tun. Denn eine KArte, die auch im Home Office betrieben wird, und im Idle einerseits heiß wird und wegen nicht runtertaktendem VRAM massiv Strom zieht, ist für mich reicn pragmatisch unbrauchbar.

    • @yosoy1loco
      @yosoy1loco Před rokem

      @@miccellomann Danke für diese Antwort. Nach den Dingen, die ich in den letzten 24 Stunden lesen musste, bist Du ein erfrischend neutraler AMD-Fan. Ich habe mich in der Nacht nämlich schon in den von dir benannten Foren umgesehen. Zum einen habe ich genau die von dir beschriebenen Probleme nachlesen können. Zum anderen scheint es eine nicht unbeträchtliche Anzahl an Fanboys zu geben, die jegliche Hinweise auf diese Problematik als Hetzerei abstempeln, um sich dann selbst als Hetzer herauszustellen. Dabei werden inhaltlich die hirnverbranntesten Argumente benutzt, um das Problem herunterzuspielen, nach dem Motto: "Stromverbrauch ist bei der Preisklasse egal" oder" für einen Gamer sei das nicht wichtig, der benutzt den PC nur um seine paar Stunden am Tag zu spielen wie eine Playstation".
      Das macht mich so teufelswild, dass diese Konsolencowboys im PC-Schlafrock sich Gamer nennen. Das Problem besteht ja nicht nur im IDLE, sondern wird richtig heftig bei Spielen wie CS, Overwatch, Farcry 6 etc., eben allem, was eigentlich weniger Last bieten sollte. Wenn man diese Titel natürlich nur auf seinem 4k-Heimkino-Erlebnis in 60hz "spielt", um den Arbeitstag für 2 Stunden ausklingen zu lassen, versteht man natürlich nichts davon. Und gerade echte Gamer nutzen ihren PC für alles mögliche: Um zu surfen, in Foren zu wühlen, sich zu belesen, Theorycrafting in Excel, Latex und whatever zu machen. Sie zocken auf hohen Refreshraten und viele verschiedene Arten von Spielen, nicht nur ihre Mainstream AAA-Titel, welche sie sich von einem deutschen Let's-Player haben empfehlen lassen. Sie wissen, dass backlightstrobing der heilige Gral ist und nicht endlos höhere Auflösungen, HDR oder RT. Wenn AMDs Kundschaft hauptsächlich aus diesen Casuals und Normies besteht, die sich als Elite aufspielen, ist es kein Wunder, dass ihr Marktanteil so abkackt und für AMD keine Motivation besteht das vorliegende Problem anzugehen.
      Sorry, dass Du meinen Rant abgekriegt hast. Ich wollte nie an diesem Fanboy-bullshit teilhaben und wünsche AMD nichts negatives, habe mir eher gewünscht, dass sie Nvidia eins drauf geben. Also ein Kompliment dafür, dass Du bei diesem "Team Tomate vs Team Greed" so ehrlich bleibst. Die meisten Menschen raffen einfach nicht, dass ein Problem nur schlimmer wird, wenn man es leugnet oder sogar verteidigt.
      Deinen Ratschlag empfinde ich als sehr vernünftig wie auch hilfreich, denn ich habe mich schon selbst verrückt gemacht. Seit 3 Jahren versuche ich ne neue Karte zu holen und hab hirnlos die Karte gekauft, weil ich zum Release nicht leer ausgehen wollte, nachdem ich mich dazu überwunden habe auf AMD zuzugehen. Nvidias ist so scheiße in vielen belangen, vor allem jetzt, wo EVGA ihnen den Mittelfinger gezeigt hat. Aber man sollte rational bleiben. Es ist schlauer die Radeon zurückzuschicken und AMD etwas Zeit zu geben, um das Problem zu beheben, auch wenn ich dabei ziemliche Zweifel hege. Falls du zeitnah mitbekommen sollest, dass sie das Problem gelöst oder vollständig anerkannt haben, kannst gerne Bescheid geben - natürlich nur, wenn Du zufällig dran denkst. Ansonsten erstmal Danke!
      ps. Im CB-Forum hat einer behauptet die Referenzkarten würden nur im A0-Stepping verkauft werden und das Shaderprefechting sei bei den GPUs im Bios deaktiviert.

    • @miccellomann
      @miccellomann Před rokem +2

      @@yosoy1loco Ich bin weder Fanboi vom grünen oder vom roten Team. Es geht mir, wie es auch sein sollte, schlicht im die Usability. Ein PC ist eben nicht nur ne Gaming Maschine, sondern auch ein Werkzeug welches z.b. eben im Home Office oder anderen Anwendungen genutzt wird. Und gerade da, da ich z.b. aich immer mal wieder von Daheim arbeite, sind AMD Karten aktuell eben nicht brauchbar eben wegen diesem VRAM Problem - welches bis 2021 auch nicht existierte in der Form. Bis Anfang diesen Jahres hatte ich ne Radeon - erst ab Oktober 2021 trat die Problematik wieder auf (nachdem ich 2013 wegen dieser Problematik zu Nvidia gewechselt war). Auch sind AMD Karten nicht grundsätzlich schlecht. Nur solche Dinge sind es eben, für den generellen Anwender, die hier die Suppe versalzen.
      Bedauerlich an der Sache ist, dass AMD das Ganze offenbar erst jetzt interessiert, wo eben diverse Reviewer das Problem angesprochen haben - die doch nicht gerade kleine Anzahl an Usern, welche diese Problematik seit JAHREN melden und immer wieder mit jedem Treiber-Release ansprechen und melden, hat AMD schlicht ignoriert. So sehr ich AMD schätze - hier ist Luft nach Oben - genau wie bei Nvidia die endlich bei Preisgestaltung und dem Hig Power Connector zurückrudern müssen.

    • @yosoy1loco
      @yosoy1loco Před rokem

      @@kullalishka Sie soll bei hohen Refreshraten nicht saufen wie ein Loch, obwohl sie es gar nicht braucht.
      Hast Du denn einen hohen Refreshmonitor oder "zockst" Du wie ein Konsolencowboy auf 60hz? Wenn Du höhere Refreshraten benutzt und am besten auch eine höhere Auflösung (144p oder 4k), kannst Du es einfach testen.
      a. Setze die Refreshrate entsprechend hoch. Arbeite in word oder was auch immer und guck dir in GPU-Z die Leistungsaufnahme der Karte an. Wenn das nicht 25w sind, sondern 60w, weißte Bescheid.
      b. Such dir ein Spiel aus, bei der die Karte wirklich drücken kann, also so 300 fps oder so. Spiel dann auf deinem beispielweise 144hz Monitor ein bisschen und schreib dir die Leistungsaufnahme auf. Limitier danach die FPS auf unter 144 wie jeder liebe Gamer macht, um das Tearing zu vermeiden und Strom zu sparen, und spiele nochmal. Wenn deine Karte dann immer noch kurz unter maximaler Leistung bei veringerter Last rumrennt, weißt Du bescheid.
      Mit den neuen Karten müsste das weitaus deutlicher aus fallen als mit den alten und im Zusammenhang mit den Strompreisen ist der pure Geldverbrennung, wenn das korrekt ist, was ich bisher gesehen habe.

  • @steffenachtzehn8817
    @steffenachtzehn8817 Před rokem

    DANKE GUTES VIDEO😀

  • @xserenityx4813
    @xserenityx4813 Před rokem +1

    Super Test und tolles Video! Vielen Dank dafür. Unterm Strich bin ich dann doch etwas enttäuscht, denn ich stelle mir die Frage: XTX oder 4080....Bisher dachte ich XTX, jetzt sieht das doch wieder etwas anders aus. Die Leistung ist natürlich gut, doch zu welchem Preis? Es wirkt etwas als hätte AMD nicht mit der Effizienz und der Leistung einer 4080 gerechnet und hat jetzt versucht doch noch irgendwie zumindest Nvidias 2. Karte noch zu schlagen. Anders kann ich mir das eigentlich nicht erklären.
    Die FE kommt für mich nicht in Frage, die anderen Karten werden sicherlich 50 oder 100 Euro teurer werden. Eine 4080 kostet aktuell ab 1349 Euro und wenn ich mich nicht verlesen hatte, plant Nvidia ja noch eine Preissenkung für Mitte des Monats. Preislich werden sich die Karten also vermutlich noch deutlich annähern. Dann bietet Nvidia halt einfach das bessere Gesamtpaket.
    Für AMD spricht dann eigentlich hauptsächlich die Konnektivität. Doch ob ich überhaupt Display Port 2.1 brauchen werde weiß ich ehrlich gesagt nicht. Auf eventuell bessere Treiber warten und ob FSR gut wird usw. ist mir zu unsicher. Dann müsste ich vermutlich noch ein Jahr warten und das will ich definitiv nicht. Falls ich etwas vergessen habt, gebt mir gerne noch Input, sonst wird es dann demnächst vermutlich eine 4080.

    • @bogdanschodorov8064
      @bogdanschodorov8064 Před rokem

      Ach du hast doch die Kohle. Immer raus damit.

    • @xserenityx4813
      @xserenityx4813 Před rokem

      @@bogdanschodorov8064 Jupp, trotzdem kann man ja noch halbwegs "vernünftig" einkaufen.

  • @CellDE
    @CellDE Před rokem

    Das Spulenfiepen der Referenzkarten wäre für mich nicht so der Kaufgrund auch der hohe Stromverbrauch im Dual Monitorbetrieb mit >60hz bildwiederholrate schreckt ab ...

  • @horvichrom85
    @horvichrom85 Před 10 měsíci

    Welche Wärmeleitpaste hat er jetzt verwendet?

    • @igorsLAB
      @igorsLAB  Před 10 měsíci +1

      Für AMD nehme ich die originalen Phase Change Pads und Thermal Putty von Honeywell (das blaue 5000er)

    • @horvichrom85
      @horvichrom85 Před 10 měsíci

      @@igorsLAB Super! Danke! Eine Frage noch: Hast du schon mal die K5 Pro statt Wärmepads versucht?

  • @niebuhr6197
    @niebuhr6197 Před rokem

    Hello Igor, will you test whether Amd changed their power monitoring or not (same as rdna2)

    • @igorsLAB
      @igorsLAB  Před rokem +1

      It's inside my review. They are reporting the TBP. Not so exact like NV, but more or less correct :)

    • @niebuhr6197
      @niebuhr6197 Před rokem

      @@igorsLAB oh that's great. So better than previous Radeons.

    • @igorsLAB
      @igorsLAB  Před rokem +1

      @@niebuhr6197 Sure. Totally different :)(

  • @Ex-the_deadfly_donkey
    @Ex-the_deadfly_donkey Před rokem +5

    Wenn ich mir Ihr fast euphorisches Video über die 6900XT in Erinnerung rufe, dann ist die 7900xt(x) eine reine Enttäuschung. Sehr schade!

  • @zokuva
    @zokuva Před rokem

    Mein PC (6600XT, 5600x) zieht aktuell laut Messung an einer herkömmlichen Smart-Steckdose so 300W während eines Torture Tests mit Prime95 und Furmark (FPS bei Furmark waren auf 1440p unabhängig ob Prime95 lief gleich also gehe ich davon aus, dass die GPU trotz Prime95 im Limit lief). Das Netzteil ist ein Corsair TX550M 80+ Gold. Ich weiß, dass bei meiner Messung die Leistungsspitzen außenvor gelassen wurden, aber wäre es zu weit her geholt, wenn ich vermute, dass eine 7900XT trotzdem an diesem PC laufen könnte?
    Ne 6700XT lief in dem PC auch mal für ein paar Wochen, auch problemlos, aber mir ist schon klar, dass die 7900XT ein gutes Stück mehr Saft zieht.

    • @igorsLAB
      @igorsLAB  Před rokem

      Die 7900XT ist mit Lastspitzen von bis zu 400 watt im 10 ms Bereich eher sportlich. Aus dem älteren Corsair solltest Du rund 600 Wat dauerlast rausbekommen, aber das ist grenzwertig und laut.

    • @zokuva
      @zokuva Před rokem

      @@igorsLAB laut, aber möglicherweise noch funktional? Der PC wird ja nicht dauerhaft Torture Tests laufen

    • @FatalityDiablo
      @FatalityDiablo Před rokem

      @@igorsLAB angenommen man regelt das power limit auf -10%, drosselt zudem noch den chip-takt auf den von AMD spezifizierten boost takt von 2400MHz UND leitet ein kleines aber feines undervolting ein (vllt. 40 bis 60 mV) ...DANN solltest Du auf alle Fälle keine Probleme haben und Leistung auch kaum verlieren. Ich möchte mich natürlich nicht festlegen, aber meine 6800 läuft mit +10% power limit und 960mV chip spannung ohne probleme am seasonic focus platinum 550W.
      Für mich ist ein richtiger Dorn im Auge dass AMD das so blöd geregelt hat mit der Stromzufuhr über den PCIe slot was zu dem für mich persönlich unertragbarem Spulen rasseln und surren führt. Und wieso die Navi31 immer am limit der Stromversorgung bleiben ist für mich auch ein Rätsel... ich bekomme bei der RDNA3 architektur iwie Bauchschmerzn aber auch iwie keine Lust auf RDNA4 zu warten... vllt wirds diese Generation doch Ada Lovelace... yikes.

  • @TheOnlyRivae
    @TheOnlyRivae Před rokem +1

    Wieder mal ein grandioser Test, leider nicht dem Hype gerecht geworden die Karte, wer hätte anderes erwartet.

  • @serious-rc933
    @serious-rc933 Před rokem +2

    Könnte man vielleicht ein undervolting machen, mich würde es interessieren ob die Performance pro Watt sich verbessert und was dabei maximal mögliche wäre.
    Ich selbst habe aktuell eine RX6600XT 160Watt erreiche ca. 80FPS nun würde ich gerne die XTX einsetzen, jedoch brauche ich lediglich die 144fps Limit, den Rest würde ich gerne Energie sparen.

    • @hbl2011
      @hbl2011 Před rokem +2

      Das hätte ich mir auch gewünscht. Undervolting und/oder irgendwas von den Partner-Karten. Interessant währe auch, was die Treiber nun machen (Gibt es Besserungen bei der Leistungsaufnahme etc). Schaun wir mal ob noch was kommt im Neuen Jahr. >> Einen guten Rutsch - kommt gut und gesund rein.

  • @08funfzehn
    @08funfzehn Před rokem +9

    Gut das ich bei der 6900xt vor einigen Wochen zugeschlagen habe😬

  • @411STFU
    @411STFU Před rokem +5

    Also das Einzige, was ich mir von der 7900 xtx erhoffe ist, dass sie preislich endlich mal Druck auf die 6800xt ausübt. In den USA bekommste du eine Red Devil 6800 xt für 550$. Bei uns kostet die über 800€. Die günstigsten 6800xt bewegen sich so um 700€. Das kann so nicht weitergehen. :-)

    • @411STFU
      @411STFU Před rokem +2

      @@InnerFury666
      Eine Red Devil 6800xt für 550€ kaufe ich instant.

    • @mikeryan1043
      @mikeryan1043 Před rokem

      Denke leider nicht, dass die neuen Karten im Mittelklasse Segment viel Preisdruck ausüben. Dazu sind die neuen Preise viel zu weit entfernt.

  • @mfgCarlos
    @mfgCarlos Před 11 měsíci +3

    Hat sich die Leistungsaufnahme der rx 7900 xtx mittlerweile verändert?

    • @michaelt3439
      @michaelt3439 Před 8 měsíci

      Anscheinend muss der Stromverbrauch stark sinken wenn Free Sync aktiviert ist

  • @robertdrechsler5003
    @robertdrechsler5003 Před rokem +2

    Es ist sicherlich nachvollziehbar, dass die erste Multi-Chiplet-Architektur bei Gaming-GPUs überhaupt noch etwas mehr mit Treiberproblemen zu kämpfen hat. Von daher bin ich beim Thema "Fine Wine" recht zuversichtlich. Da steckt sicherlich noch etwas an Leistungspotenzial in den RDNA3-Grafikkarten. Aber auch so ist es für mich, bis auf den Effizienzvergleich mit Ada, eine richtig gute Vorstellung von AMD. Auch die Raytracing-Performance ist jetzt auf einen guten Niveau und stellt nicht mehr länger einen deutlichen Nachteil dar.

  • @morkaili
    @morkaili Před rokem

    Also Igor, welchen GPUs gibst du denn dann eine Kaufempfehlung?
    Bei z.B. mir steht ganz dringend ein neuer PC an und die Frage die ich mir die ganze Zeit stelle ist die der GPU? Da ich hauptsächlich in grafischen Anwendungen wie Blender, der Adobe CC, quixel, Engines und anderen unterwegs bin, brauche ich ordentlich Leistung, genauso für die Spiele die ich in 3440x1440 (UW Monitor) spiele, gerne mit RT sofern verfügbar. Ich bin allerdings ganz sicherlich nicht wirklich bereit 1000€ oder mehr für eine GPU auszugeben, die P/L hält sich aus meiner Sicht doch arg in Grenzen. Nur was gibt es im Bereich zwischen 600-950 Euronen, außer überteuerte Nvidia Karten mit sehr wenig VRAM oder im Falle von AMD Karten die allesamt getrost vergessen kann, wenn man damit nicht nur spielt? Ich bin da echt ratlos.
    Ach und auf dem Gebrauchtmarkt sieht es auch nicht besser aus...

    • @RSFratzenkerl
      @RSFratzenkerl Před rokem +1

      Falls du es dich traust, kannst du dir eine gebrauchte 3090 bei Ebay-Kleinanzeigen oder ähnlichen Plattformen besorgen. Habe das selbe gemacht, da ich auf die gleichen Probleme gestoßen bin wie du. Klar ist der Stromverbrauch immer noch nicht gut, aber wenn man es für die Arbeit braucht, dann ist das halt so.

    • @morkaili
      @morkaili Před rokem

      ​@@RSFratzenkerl Danke dir, ich muss wohl auf die Gefahr hin die Katze im Sack zu kaufen, im Gebrauchtmarkt stöbern. :/
      Wirklich gut sind da die Preise aber auch nicht.
      Und um ehrlich zu sein ist mir der
      Stromverbrauch gar nicht so wichtig, ob ich nun palopp gesagt 500€ oder 550€ im Jahr an Stromkosten zahle fällt, finde ich, nicht wirklich ins Gewicht. Allerdings die Effizienz schon. Wenn eine GPU ihre 350W zieht, dann erwarte ich auch eine entsprechende Leistung, die 4090 ist da das Paradebeispiel.

    • @RSFratzenkerl
      @RSFratzenkerl Před rokem

      @@morkaili kommt ganz drauf an. Ich habe darauf bestanden die Karte vorher zu testen. Im Endeffekt hab ich eine EVGA 3090 FTW3 für 700 € geschossen. Kann mich nicht beklagen

    • @morkaili
      @morkaili Před rokem

      @@RSFratzenkerl Hmm 🤔 wie hast du das genau arrangiert, also das Testen?

    • @RSFratzenkerl
      @RSFratzenkerl Před rokem +1

      @@morkaili habe einfach immer geschrieben, dass ich mich für die Karte interessiere, wenn ich sie vorher testen darf.

  • @Pirate85getready
    @Pirate85getready Před rokem +1

    Danke Igor - ich bleib also bei meiner 6950 und freu mich. :)
    LG
    Marti
    Edit: Ich hab nen paar ganz schön miese "Soundspecials" drinnen gehabt - z.b. bei 9:18 ist nen schöner - hat meine Soundkarte einen weg oder haben das auch andere? oO

  • @Triso86XT
    @Triso86XT Před rokem

    Die Benchmarks und Fazits sind wirklich echt unterschiedlich wenn man so quer schaut.

  • @roberthuxoll8500
    @roberthuxoll8500 Před rokem +1

    Da hatte ich mir doch ein wenig mehr erhofft... 😯
    Bleibt noch abzuwarten, wie es denn bei der 7900 XT ausschauen wird, wenn Igor einmal Hand anlegt und bei ursprünglicher Leistungsbegrenzung von 300W (oder gerne noch einen Tick weniger) untervoltet. 🤔😉
    Ich könnte ja doch derzeit noch zur 4080 FE tendieren, wenn die denn in das Gehäuse passen würde... 🥴

  • @Easterbunny1972
    @Easterbunny1972 Před rokem

    41:25 Laut dem Diagram ist die XTX besser, Fehlerteufel???

    • @igorsLAB
      @igorsLAB  Před rokem +3

      Das Diagramm stimmt. Das ist Standup ohne Plot, da kann man sich schon mal versprechen :)
      Ich habe leider keinen Prompter, nur mein Gehirn und die Augen auf die Charts am externen Monitor vom Laptop mir gegenüber

    • @Tuskabanana
      @Tuskabanana Před rokem

      @@igorsLAB die Lautstärke der karte ist doch eine Zumutung XD

    • @igorsLAB
      @igorsLAB  Před rokem +1

      @@Tuskabanana Irgendwie schon :D

  • @janodelic2615
    @janodelic2615 Před rokem

    Meine Vermutung wäre, dass der VDDCR_USR vieleicht die neuen KI-Kerne versorgt. Aber ich hab keine Ahnung.
    Edit: Bin jetzt durch mit dem Video. Danke für das Review! Toll gemacht und sehr Informativ. Ich Schätze mal AMD wird hier auch noch beim Preis genug Spielraum haben, 700 € für die XTX in 2 Jahren sind bestimmt auch Möglich :-)
    Für mich eher Interessant werden dann die "Midrange" WQHD aka. Navi 32.

  • @CPha2er
    @CPha2er Před rokem +2

    Warum AMD nicht ab Werk einfach weniger Spannung anlegt, erschließt sich mir so gar nicht... Meine 6900XT ist auf 1086 mV undervoltet (Original 1200 mV) und läuft dadurch natürlich kühler und zieht im Schnitt 55 W weniger.
    Würde mich über einen solchen Test sehr freuen.

    • @plutobauer
      @plutobauer Před rokem

      Ich hau mir halt 50% PL rein und bin auf 4080 und 7900XTX Niveau. Niedliche Karten🤣

    • @CPha2er
      @CPha2er Před rokem

      @@plutobauer Ich werde nicht schlau aus deinem Kommentar😆

    • @plutobauer
      @plutobauer Před rokem

      @@CPha2er Die 4090 ist mit einem Klick auf 225 Watt, dabei immer noch so schnell wie die langsameren Karten. Also wesentlich performanter und effizienter als ne 6900XT.

    • @CPha2er
      @CPha2er Před rokem

      @@plutobauer Das wollte ich gar nicht wissen -.-
      Die 6900 XT konkurriert in keinster Weise mit der 4090.
      Aber schön, dass du dein System mit einem Ziegelstein verschandelst und dich das freut XD

  • @dezibeldani
    @dezibeldani Před rokem +1

    @igorsLAB Hat dir etwa TiBro ein Teil des Intros geklaut oder habt Ihr beide 'Freeware' genutzt?
    Hier: czcams.com/video/-Y28uTm0bfo/video.html

  • @Exacted
    @Exacted Před rokem +5

    Das kannst du dir nicht ausdenken wie viel Strom die verbrauchen, da vergeht mir direkt die Lust auf eine neue Grafikkarte.

    • @Uthleber
      @Uthleber Před rokem +3

      Find es witzig, unter wievielen Videos ich von diesem Effizienz Thema lese - Bei der 3080 und 3090 hat es auch keine Sau interessiert, das die viel mehr verbraucht haben als AMD. Diesmal ist es anders herum und es wird ein riesen Fass aufgemacht.

    • @Exacted
      @Exacted Před rokem +2

      @@Uthleber Woher weißt du denn ob ich bei der 3090 nicht die gleiche Meinung hatte?

    • @TeipeX_yt
      @TeipeX_yt Před rokem

      😂👍

    • @Uthleber
      @Uthleber Před rokem +2

      @@Exacted Ich rede nicht speziell von dir. Es fällt aber einfach wie, wie viele über dieses Thema reden, welches bei der letzten Generation niemanden interessiert hat. ( Auf dauer wird halt das alleinige Raytracing Argument langweilig ;) )

    • @fredistar681
      @fredistar681 Před rokem

      @@Uthleber Naja das ist doch relativ einfach. Wenn eine Karte einfach schneller ist, dann nimmt man gerne einen höheren Stromverbrauch in Kauf.
      Und das Image Problem darf man dazu auch nie vergessen. Bei Nvidia da denkt der Kunde, dass er ein Gerät hat mit "allen" Features und top Treibern. Bei AMD fehlt halt immer irgendwas. Und ich alleine kenne genug Leute, die aus Prinzip deswegen zur RTX 4080 greifen werden. Vor allem weil denen dann auch die 300€ mehr total egal sind.
      Frag einfach mal random Leute, ob sie bei AMD/ATI denken, dass sie High Performance Karten haben die gut sind

  • @OtaQ
    @OtaQ Před rokem +2

    Was ist mit VR? Was ist mit Encoding Performance und vor allem Qualität (Streams etc)?

  • @BatmansRevenge
    @BatmansRevenge Před rokem +2

    Hallo Igor, sehr gutes ausführliches Video, Lieben Dank ich bleibe bei meiner 6800XT.

  • @SChuckLP
    @SChuckLP Před rokem +1

    PCGH hat außerdem festgestellt, dass mit der Hertz Zahl des Monitors die Leistungsaufnahme teils deutlich ansteigt ( 100 Watt sind es insgesamt mit einer 7900 XTX z.B. bei einem UHD Monitor mit 144 Hz im Idle). Dies soll, laut AMD, so gewollt sein. Wie kann man sowas wollen?! Ich, als Kunde, jedenfalls nicht! Sonst sind die Karten wirklich gut und wurden zu den Vorgängern in vielen Aspekten verbessert und die Performance stimmt definitiv auch. Zum Thema Effizienz kann vielleicht noch ein Treiberfix etwas bewirken, aber das bleibt abzuwarten. Vielen Dank für deinen ausführlichen Test und die vielen interessanten Informationen!

    • @yosoy1loco
      @yosoy1loco Před rokem

      Weißt Du, ob es in der Vergangenheit wirklich mal einen Treiberfix bei AMD gegeben hat, der die Powereffizienz merklich verbessert hat? Ich meine jetzt nicht das Ausbessern von absoluten Fehleinstellungen, sofern bei den vorliegenden 7900XT / XTX die Leistungsabnahme nicht als eine solche Fehleinstellung beurteilt wird.

    • @SChuckLP
      @SChuckLP Před rokem +1

      @@yosoy1loco Nein, leider nicht, da ich auch seit meiner 7870 keine AMD Karte mehr hatte. Teils gewaltige Performanceverbesserungen durch Treiber sind mir aber schon noch gewahr, gerade wenn ich an die gute alte Radeon HD 5870 denke, die dann sogar eine Geforce GTX 480 schlagen konnte, sogar in Tesselation, was damals quasi das war, was Raytracing heute ist, eine technische Innovation.

  • @donmaynardo
    @donmaynardo Před rokem +1

    Assetto Corsa Competitione in Ultra in VR wäre Mal ein schöner Test gewesen.
    Da heißt es für mich wieder: Erst kaufen und dann dumm gucken😂😂😂
    Mir ist aber klar, das Du nicht 1000 Spiele testen kannst😬
    Aber Danke für Deine unglaublich ausführlichen Test👍

  • @FerrariGiovannni
    @FerrariGiovannni Před rokem

    Top wie immer. Schönes Hintergrundbild.

  • @tarkanyildiz4879
    @tarkanyildiz4879 Před rokem

    Danke Igor :) und bei minute 38 hast ja AMD´s SAM vergessen. AMD hat ja die mit SAM funktion getestet. Deswegen gibts dieses 0.7% denke ich.

  • @mariowayner2965
    @mariowayner2965 Před rokem +1

    Kann der watt Verbrauch durch neue amd Treiber verbessert werden oder bleibt das jetzt immer so mit dem hohen Strom verbrauch.

    • @igorsLAB
      @igorsLAB  Před rokem +2

      Das ist leider so und wird sich auch nicht groß ändern. Und da das MorePowerTool von AMD unerwünscht ist, lässt sich auch nicht mehr sauber untervolten. Ds hatte ich ja schon thematisiert :(

    • @mariowayner2965
      @mariowayner2965 Před rokem

      @@igorsLAB stimmt da war ja was. Hab ich das noch richtig in Erinnerung das ihr selber ein Tool erstellt uns somit dann Zugriff haben könntet?

    • @sebastianklemm2967
      @sebastianklemm2967 Před 9 měsíci

      @@igorsLAB habe meine 6800xt undervoltet, gleich mal 50% weniger Verbrauch... keine Ahnung, ob das bei nvidia auch so einfach geht?

    • @igorsLAB
      @igorsLAB  Před 9 měsíci

      @@sebastianklemm2967 Wo weniger vernascht wird, kann man auch weniger wegnehmen. Aber es geht durchaus. Aber NVIDIAs Boost samt virtuellem Binning ist fast schon ideal

  • @threesixtydegreeorbits2047

    (Dieser Kommentar stellt eine Kunstpause im Kommentarbereich dar, der die Themen trennt)

  • @thraxas79
    @thraxas79 Před rokem +2

    Bei den ganzen Auswertungen und Tabellen fehlt mir nur noch die Frames pro Kg 😅 und der Sound unter Vollast macht ne Flugsim richtig authentisch ^^
    Spaß beiseite, für VR Begeisterte ist RT ja eher uninteressant aber die 1% und 0,1% lows umso interessanter, denn das Hoppeln hatte anfangs mit meiner 3080 auch keinen Spaß gemacht. Was geht hier mit Undervolting und gedeckelten max Taktraten um min FPS schön smooth zu bekommen. Wäre schön wenn mal irgend ein Techkanal so ernsthafte Benchmarks für VR machen würde

    • @m0ntreeaL
      @m0ntreeaL Před rokem +1

      :D jaa stimmt

    • @dirkengelhardt2116
      @dirkengelhardt2116 Před rokem

      Warum soll rt für vr uninteressant sein? Zb Cyberpunk

    • @martinjan3427
      @martinjan3427 Před rokem +1

      @@dirkengelhardt2116 sieht man zb in assetto corsa competizione.. Schaltest du RT an, bekommst du eine übel verwaschene Grafik 🤮

    • @dirkengelhardt2116
      @dirkengelhardt2116 Před rokem

      @@martinjan3427 ein Beispiel in einer jungen Technologie. Abgesehen davon zockt fast jeder der vr zockt auch 2d games

    • @thraxas79
      @thraxas79 Před rokem

      @@dirkengelhardt2116 rt in VR ist deshalb "eher" uninteressant weil es etwa gleich viel Performance frisst wie man schon für eine flüssige VR Performance braucht. Wo ich mit einer 3080 in 2D alles auf Max setzen kann muss ich in VR auf Medium oder darunter gehen um gute FPS und genug Headroom zu behalten damit keine Ruckler auftreten, denn Ruckler 1% lows in VR verursachen Motion Sickness

  • @Flextec
    @Flextec Před rokem +1

    Seasonic Focus GX 650 mit 5800x3D und Referenz 7900xtx funktioniert meißtens aber nicht auf Dauer. Hatte jetzt schon mehrfach Abschaltungen bei Tarkov und auch Warzone 2.0.

    • @igorsLAB
      @igorsLAB  Před rokem +1

      Das alte Focus hat ein technisches Problem, weil die OCP viel zu schnell reasgiert. Das ist aber bekannt.

    • @Flextec
      @Flextec Před rokem +1

      @@igorsLABdanke für die Info, bisher liefen 6900xt und 3080 ti einwandfrei, hatte gehofft mich vor dem Netzteil-Kauf drücken zu können aufgrund der derzeitig angespannten Preislage.
      Hatte von Problemen mit multi Rail Netzteilen in Verbindung mit den 7900xtx gelesen, ist da was dran oder sollte ich wieder ein Single Rail nehmen? Schwanke zwischen dem bitfenix whisper m 850 (multirail) und dem fractal ion+ 2 860 (singlerail)

  • @dimakrutoj93
    @dimakrutoj93 Před rokem +2

    Aber fsr 3.0 ist noch nicht raus das wird sich ja auch noch ändern.

  • @PhoticSneezeOne
    @PhoticSneezeOne Před rokem +3

    Bin echt froh, daß der Gebrauchtmarkt wieder HALBWEGS akzeptabel ist.
    Was Nvidia und AMD preislich abziehen ist mittlerweile wirklich dystopisch.

    • @dirkengelhardt2116
      @dirkengelhardt2116 Před rokem

      Warum?

    • @n.erdbeer
      @n.erdbeer Před rokem

      Alles wird teurer, die Preise von vor Jahren gelten nicht mehr, insbesondere durch die Geschehnisse der letzten Krisen. Konsolen wären auch deutlich teurer, gäbe es kein Preis Diktat der Hersteller.

    • @mikeryan1043
      @mikeryan1043 Před rokem

      Kann ich nur zustimmen. Realitätsferne Preise, die sich vermutlich in den kommenden Monaten runterregulieren. Bzw. schon jetzt tun wie man an der 4080 sehen kann.

    • @andrefelder4902
      @andrefelder4902 Před rokem

      @@n.erdbeer Du bist leider realitätsfern unterwegs. die Preissprünge sind nicht zu rechtfertigen

    • @n.erdbeer
      @n.erdbeer Před rokem

      @@andrefelder4902 kaufst du auch keine Butter mehr, weil der Preis sich verdoppelt hat? Die Produktionskosten der Chips bleiben doch nicht gleich, die haben sich mit dem kleineren Fertigungsprozess deutlich erhöht, davon abgesehen das Nvidia Chips mit großer Fläche verwendet, die geringere Yield Raten haben, man also pro Wafer weniger Ertrag hat. Eine Kostensteigerungen wäre somit logisch, auch wenn man alle Krisen der letzten Jahre ausblendet, die allesamt Einfluss auf die Preisentwicklung hatten. Der Dollar Euro Kurs tut sein übriges um die Preise bei uns zu steigern. Wem die Preise zu hoch sind, der soll eben warten oder Last Gen kaufen. Ansonsten kommt mal in der Realität an.

  • @jagenaudas8605
    @jagenaudas8605 Před rokem +6

    fachlich großartig und informativ. es ist leider anstrengend zuzuhören wenn du die sätze so aufplusterst und hinnuschelst.

  • @yosoy1loco
    @yosoy1loco Před rokem +1

    Hier ein Kommentar für den Algorythmus und ein Danke für die sorgfältige Analyse!

  • @WinklermachtFanmanagement
    @WinklermachtFanmanagement Před 7 měsíci

    macht laune das fideo👍

  • @darkschneider8508
    @darkschneider8508 Před rokem +1

    Persönlicher Wunsch: Bitte auch Stable Diffusion Benchmarks in der Zukunft integrieren 😀

  • @ganjafield
    @ganjafield Před rokem +1

    Wie kann man nur die Lüftersteuerung und die Leistungsaufnahme im Idle so mies einstellen? Die hatten bei AMD wohl wirklich extrem viel Zeitdruck so kurz vor Weihnachten und haben Alles noch für spätere Treiberupdates übrig gelassen was ging. Immerhin sind alle Punkte noch in späteren Treibern fixbar und vielleicht steigt dadurch auch noch die Performance und Raytracing Performance in manchen Titeln. Für 200,- EUR weniger als die Nvidia Konkurrenz wäre es dann eine wirklich kaufbare Alternative. Momentan würde ich Niemand raten die erste Charge zu kaufen und schon gar nicht zu den aktuellen Marktpreisen. Lieber mal 4-5 Monate abwarten dann sieht es hoffentlich Anders aus.

  • @Fabian-Ni
    @Fabian-Ni Před rokem

    Igor, du bist der beste! ICh wünsche dir einen schönen Tag. Danke für deine Arbeit !

  • @Mathias-RetroFutureTech

    Schade, hatte jetzt erwartet, dass blow-through Kühler zum Standard werden, auch bei Referenz-Karten. Das ist doch im Grunde immer verschenktes Kühlpotential.

  • @sleepyelk5955
    @sleepyelk5955 Před rokem

    Danke für das spitze video 👍 bin echt mal gespannt, wie die preisentwicklung weitergeht

  • @Tuskabanana
    @Tuskabanana Před rokem

    Top Review Igor, ich guck immer erst Igors revies zuerst :=), ich musste voll lachen als er die Sounddatei abgespielt hat, wie laut ist die karte bitte haha, einfach ein düsenjet :=)

  • @sven8993
    @sven8993 Před rokem +3

    schön das ich mir erstmal eine 6900xt für 650,-€ gekauft habe. Dann kann ich in ruhe warten bis die 4080 nur noch 1000,-€ kostet

  • @eddylee161
    @eddylee161 Před rokem +2

    hallo Igor, kannst du bitte die 7900XTX Undervolten um zu sehen wieviel Effiziens man da rausholen kann? mfg