Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Es betrifft halt wie gesagt in erster Linie DX12. Da ist es findigen Usern aber schon vor Monaten aufgefallen. Ist ja nichts neues, dass die professionellen Reviewer sowas oft jahrelang verschlafen.

    Zumal, wer kombiniert am Ende schon so schnelle GPUs mit CPUs.

    Edit: Das soll nicht heißen, dass das in Praxisszenarien nicht auftritt. Hab ja das gleiche Problem. 20-30% weniger CPU-Leistung mit meinem 6700k ist schon eine krasse Hypothek...
     
    Zuletzt bearbeitet: 12. März 2021
  2. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Schon richtig, aber es betrifft eben nicht nur die schnelleren GPUs, sofern die CPU vorher limitiert (was bei schnelleren GPUs logischerweise eher der Fall ist). Und da die CPU gerade wegen der DX12 Problematik eher limitiert, ist das ein kritischer Faktor. DLSS spielt vielleicht noch eine Rolle. Was man AMD bei DX11 zu recht immer wieder angekreidet hat muss bei nvidia und DX12 nunmal genauso wenig sein. Eigentlich sogar noch weniger, weil DX12 dazu dienen sollte um u.a. CPU Overhead zu reduzieren.
     
  3. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Absolut, das war eher als Erklärungsansatz gemeint, wieso das noch nicht groß thematisiert wurde in der Presse.
     
  4. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Frag mal Girdi/IgorsLab. Der 6700K bremst in 1440p sogar eine VII aus. Der ist einfach zu langsam für heutige GPUs.
     
  5. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Wenn man ein 4k/60fps-Target hat geht es meist noch :ugly:
     
  6. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.048
    Ort:
    Daheim
    Hab auch noch den 6700k :wut:
     
  7. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Dann nutzt Du auch dementsprechend das richtige Setting um die GPU auszulasten :hoch:.
    Und nicht wie HWU eine RTX 3090/RX 6900 XT in 1080p/1440p mit medium Settings (also reduzierte Drawcalls) um irgend etwas zu beweisen.
    Medium reduziert ja nicht nur die GPU Settings, es werden ja auch CPU relevante Sachen wie Weitsicht/Grasschatten usw reduziert, oder gar ganz ausgeblendet.
    In SOTTR reicht schon das High Setting um die Weitsicht zu reduzieren.
     
  8. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    CPU Overhead ist nicht irgendwas, sondern erfordert es ein GPU Limit auszuschließen. Das man eine RTX 3090 nicht kauft um in 1080p zu spielen wenn man sowieso nur einen 1600X zur Verfügung hat ist denen bei Hardware Unboxed sicher auch klar und abgesehen davon haben sie verschiedene Einstellungen getestet um etwaige Irrtümer ausschließen zu können. 4K Benchmarks im CPU Limit sind zwar auch möglich, aber dann wird es in Bezug auf die CPU Leistung doch arg lächerlich, meinst du nicht? :p
     
  9. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Dann sollte man aber nicht, durch das medium Setting, Sachen die die CPU belasten reduzieren/abschalten.
    Das ist eigentlich das was ich kritisiere.
     
  10. Amateur, ich hab noch nen 3770k :rock: :D
     
  11. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Diese Einstellungen betreffen AMD und nvidia GPUs bzw. die CPUs jeweils gleichermaßen und sie haben wie gesagt eben nicht nur im medium Setting getestet. Ich verstehe daher nicht was genau du kritisierst, weil der Benchmark so durchgeführt wurde dass es vergleichbar ist. Ein 4K Benchmark hätte keinen Sinn und in 1440p Ultra zeigt sich dasselbe Bild, nur dass die schwächeren GPUs unter diesen Voraussetzungen schon eher selbst limitieren als die CPU. Das ist mangels GPU Leistung eben nicht anders oder besser möglich.
     
  12. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
  13. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.143
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Wird hier eigentlich jemand versuchen, ne 3080 oder 3090 zum MSRP beim Verified Actual Gamer Program von LTT zu ergattern?

    Ich mein, ist eh sehr unwahrscheinlich, da eine von abzubekommen, da sie wohl nur 100 Karten oder so haben. Sind eh schon weniger als geplant, da wohl ein Lieferant eine Palette, die schon auf dem Weg war, kurzerhand woanders hin für mehr Geld verkauft hat :hammer:
     
  14. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    :runter::ugly::hoch:
     
  15. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Eine 3080/3090 sowieso nicht. Aber solange sie nicht mehr GPUs haben als Interessenten ist das genau dieselbe Rallye wie überall sonst, nur dass sie freiwillig auf Gewinn verzichten. Es ist zwar eine noble Geste, allerdings möchte ich das nicht. Ich will in einer Welt leben in der ich nicht täglich Angebote suchen und vergleichen, mich gar als "echter Gamer" umständlich verifizieren und dann immer noch um den Zuschlag bangen muss; nur um eine GPU zu ergattern, die trotzdem nicht günstig ist. Globalismus funktioniert so nicht. Wir müssen Halbleiter künftig mindestens für jeden Kontinent jeweils selbst produzieren und die Abhängigkeit von Asien/Amerika beenden.

    Es ist nicht so dass gar nichts unternommen wird, die Firmen verstehen das anders als die Politik eher. Bosch hat bspw. erst kürzlich eine Halbleiterfabrik in Dresden in Betrieb genommen, aber da laufen keine Grafikchips vom Band, sondern alles was mit Fahrzeugtechnik zu tun hat. Deshalb reicht das alles nicht, weil GPUs bekanntlich nicht nur für Gaming relevant sind, sondern auch für ganz andere Branchen wie Film und Fernsehen, Grafik, Design, CAD, Streaming, Mining usw. usf. Das Problem ist nur dass man damit vor 10-15 Jahren hätte beginnen müssen, als klar wurde dass Halbleiter die Zukunft sind und globale Marktmacht bedeuten.

    Ich will nicht behaupten es ist zu spät, allerdings wird man die letzten Jahre auch nicht wieder aufholen die es gebraucht hätte um überhaupt mal ansatzweise konkurrenzfähig zu sein. Ich glaube die Globalfoundries Fabrik in China ist im letzten Jahr auch gescheitert. Deswegen habe ich die Branche so abgeschrieben, weil sie ihrem Ruf als Innovations- und Zukunftsbranche nicht gerecht wird, obwohl sie das wäre und sein könnte. Aber eine Branche der Zukunft die nicht mal die Gegenwart packt ist schwer ernst zu nehmen.
     
  16. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Man kann ja gegentesten. Wenn es wirklich so wäre/ist, daß AMD im CPU Limit weit weniger einbricht als Nvidia, dann dürfte es doch unmöglich sein mit einer RTX 3070 an eine RX 6900 XT auf 4-5% ranzukommen, geschweige denn mit einer RX 6800 sogar vorbeizuziehen. Den SOTTR Test kann ja jeder selber machen. Gerade der 3te Part ist enorm CPU lastig. Dann wird man auch feststellen..eine schnelle GPU braucht eine schnelle CPU um ihre Leistung abzurufen.Egal ob AMD oder Nvidia.
    https://www.computerbase.de/forum/t...racing-benchmark.2010369/page-7#post-25409459

    Edit
    Die Werte von der RTX 3070/RX 6800 sind von mir.

    Was passiert nun wenn beide zu ~50% im CPU Limit hängen? Genau garnichts. Die RX 6800 ist knapp schneller als die RTX 3070, genau wie es sein soll. Wo sind da die 30% für AMD im CPU Limit?
    https://ibb.co/p2QBqnF
     
    Zuletzt bearbeitet: 13. März 2021
  17. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Benchmark heißt bei guten Reviewern ja nicht, dass ein vordefinierter Benchmark vom Spiel benutzt wird, sondern eigens definierte, echte Spielszenen. PCGH bspw verwenden größtenteils oder sogar ausschließlich eigene, besonders anspruchsvolle Szenen, die gerade was die CPU angeht meist deutlich anspruchsvoller als das Spiel im Durchschnitt oder ein eingebauter Benchmark sind. Mal davon abgesehen dass viele Spiele gar keinen eingebauten Benchmark haben.
     
  18. Kami_Syro

    Kami_Syro
    Registriert seit:
    30. Mai 2011
    Beiträge:
    1.129
    Na klar, beim erstellen des Spieles machen sich die Spielefirmen die Arbeit jeden Abschnitt im Spiel für eine andere CPU zu optimieren. :topmodel:
    Das ein Spiel mal mehr oder weniger für einen CPU Hersteller optimiert ist kommt natürlich vor.
     
  19. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Du bist wohl ein Scherzkeks. In diesen Screenshots stehen drei vollkommen verschiedene CPUs für je drei verschiedene GPUs drin. :ugly:

    Ein R9 3900X hat nicht dasselbe CPU Limit wie ein R5 3600. 12 Kerne vs. 6 Kerne. Allein das ist ein riesengroßer Unterschied zu dem was HWU gemacht hat. Deswegen kannst du dir selbst ausrechnen warum die 3070 in dem Fall bis auf 4-5% an die 6900 XT ran kommt, wenn die Konfig mit der 3070 fast gar nicht CPU limitiert ist. Die 3070 kann ihre volle Leistung problemlos abrufen, ist damit selbst der limitierende Faktor. Die 6900 XT kann es mit dem R5 3600 offenbar nicht, sonst wäre sie wenigstens schneller als die 6800 mit dem 7920X. Ist sie nicht, also limitiert der R5 3600 eher als die beiden 12-Cores, was selbst für einen Laien nicht so überraschend sein sollte, oder? :hmm:

    D.h. du vergleichst eine 6900 XT im relativen CPU Limit (es sieht nicht so aus als wäre es absolut, aber nah dran) mit einer 3070 nahezu ohne CPU Limit und willst den Leuten erzählen das auf Grundlage dieses völlig sinnlosen Vergleichs HWU großen Blödsinn erzählt? Verstehe ich das richtig?
     
    Lurtz gefällt das.
  20. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Ich habe keine Ahnung, was du uns eigentlich sagen willst. Kann es sein dass du dich zu sehr an dem Wort Benchmark aufhängst?
     
  21. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.820
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Klar kann man die Frage stellen...und nachdem man das dann gemacht hat, kann man einfach alle CPUs und Benchmarks drangeben und die ganze Sache einfach aufgeben, weil man die Frage in allen Szenen und bei allen Benchmarks stellen kann und damit jedes Messen alle Bedeutung verliert.

    Man nimmt halt Spielszenen aus einer guten Auswahl an spielen und misst damit die FPS, mehr kann man halt auch nicht mehr machen, um halbwegs nachvollziehbare Ergebnisse unter gleichen Testergebnissen zu erzielen Spiele sind in aller Regel nicht in bestimmten Szenen für bestimmte CPUs optimiert. Mag sein, dass sie in Gänze besser auf einem als auf einem anderen Prozessor laufgen (wobei es sowas auch eher bei Grafikkarten gibt), aber in einer bestimmten Szene? Eher nicht.
     
    1 Person gefällt das.
  22. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Darum gehts doch. AMD verliert im CPU Limit genauso wie Nvidia.Wenn das nicht so wäre könnte eine RX 6800 eine RX 6900 XT nicht überholen.

    Den Vergleich von der RX 6800 und der RTX 3070 (vom letzten upload) hast Du wohl bewußt übersehen. Beide Grafikkarten im CPU Limit und wo sind jetzt die
    30% die AMD dann angeblich schneller ist. Du und dein Liker könnt ja mal selber testen vergleichen und hochladen anstatt nur zu salbadern. Ich teste dann gegen.
    Dann haben wir selbst Ergebnisse und müssen nicht alles glauben was das I-Net erzählt.

    Zum Thema Spiele Benchmarks allgemein. Wer hat denn nun Recht. PCGH die fast immer alles max und im worst case Szenario testen und nebenbei mit custom Grafikkarten, oder Computerbase die
    das Setting auch mal zurückschrauben wenns unspielbar wird und ausserdem mit FEs testen.
    Viele Tester haben ein anderes vorgehen um sich eben irgendwie abzuheben.
    Am besten man sieht sich im 3DCenter die zusammengetragenen Ergebnisse von den Testern an.
    Da wird dann ein Schnitt von allen Ergebnissen gemacht.

    PCWorld sieht die RTX 3080 nur 2% vor der RX 6800 XT, während Golem satte 12% für die RTX 3080 sieht. 10% Unterschied und schon kloppen sich die User wieder virtuell die Köpfe ein.
    https://www.3dcenter.org/news/radeo...ltate-zur-ultrahd4k-performance-im-ueberblick
     
    Zuletzt bearbeitet: 13. März 2021
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Du hast null verstanden worum es geht.
    Man muss nicht jeden Unsinn entkräften. Übrigens hat man dir auch schon bei Computerbase erzählt was du falsch machst...
     
  24. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Du hast mit einem 3900X und der RTX 3070 bzw. einem 7920X und einer RX 6800 kein CPU Limit. (ein theoretisches CPU Limit gibt es immer, weil nichts perfekt skaliert, sprich parallelisiert werden kann; sowas ist aber eine ganz andere Geschichte und marginal verglichen mit dem worum es eigentlich geht) Ausgehend von dieser Erläuterung bezweifle ich sogar dass dir überhaupt bekannt ist was ein CPU Limit ausmacht und wie es zustande kommt. Das ist keine Schande, aber dann sollte man anderen nicht erklären wie sie ihre Benchmarks richtig durchführen müssen, wenn es grundlegend am nötigen Hintergrundwissen mangelt um das beurteilen zu können.

    Einfache Faustregel: Ist eine GPU durchgehend zu 99% (100% meinetwegen) ausgelastet, besteht in der Regel kein CPU Limit. Die GPU kann dadurch ihr volles Potential nutzen. Umgekehrter Fall, die CPU ist zu 100% ausgelastet oder ein Spiel kann bspw. nur 4 von 12 Kernen voll auslasten - dann ist auch das ein CPU Limit, sofern die GPU deshalb eben nicht ihre volle Auslastung erreicht. Den Fall dass sich die Limits die Klinke in die Hand geben während man einen Testlauf durchführt sollte man natürlich vermeiden, weswegen ich auch beim R5 3600 etwas skeptisch bin ob der die 6900 XT in diesem Spiel wirklich "ausreichend" limitiert.

    Ebenso ist es möglich dass ein Spiel so gruselig optimiert ist wie Valheim, dass es weder die CPU noch die GPU richtig auslastet. :immertot: (wobei es mit Vulkan besser geworden sein soll, seis drum) Sowas ist ein Sonderfall und kann sowieso nicht als Spiel für einen seriösen Benchmark herhalten. Lange Rede, kurzer Sinn: Vergleiche identische CPUs die sicher ein CPU Limit herbeiführen mit den jeweiligen Grafikkarten in Spielen die die DX12 API verwenden und dann kommt entweder das heraus was HWU im Video gezeigt hat oder vielleicht nicht. Sie haben schließlich nicht behauptet dass das in ausnahmslos jedem DX12 Spiel genau gleich ist.

    Aber wahrscheinlich wird es so sein und evtl. kommen weitere Benchmarks von ihnen um auch das zu belegen, sofern es belegt werden kann. Die Erkenntnis steht jedenfalls nach wie vor: nvidia hat im CPU Limit ein Overhead Problem, bzw. auch sonst, wobei es bei einem 12-Core natürlich nicht so sehr oder eben gar nicht auffällt wie bei einem 4- oder 6-Core - exakt das was du offenbar nicht verstanden hast.
     
  25. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Aber Du bist der Checker :lol:.

    Das sind die selben Leute die nix Testen...so wie Du.
    Die haben Mark, also den Entwickler von CapFrameX (und der testet genug), genauso Ihre Weisheiten erzählt und versucht Ihm klarzumachen, daß er falsch liegt und der liebe Steve recht hat.
    Für uns ist es eben grundlegend falsch ein angebliches CPU Limit zu erzeugen, wenn man mit Einstellungen testet die die CPU entlasten und bei deren Settings keiner genau weiß was an Draw Calls reduziert wird.
    Ihr dürft solche Tests ja gerne feiern, andere machen halt nicht. Aber mir von jemanden, der Null selber testet, weißmachen lassen er hat Recht ich checks nur nicht... da hab ich nur ein müdes Lächeln für solche Leute.
    https://ibb.co/Bq92HVC

    Ich erkläre @sgtluk3, oder @Misie Gaming auch nicht die Geheimnisse von Kopfhörern und Boxen, nur weil ich mal Tests darüber gelesen habe. Beide sind wohl in dem Metier, wie es scheint, bewandert und haben praktische Erfahrung.
    Während ich in Wirklichkeit davon keine Ahnung habe.
    Schuster bleib bei deinen Leisten sag ich da nur.
     
    Zuletzt bearbeitet: 13. März 2021
  26. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Bist du sowas wie die Heilpraktiker-Version von Hobby-Hardwaretester? Nur glauben, was man selbst erlebt hat, auch wenn man gar nicht weiß, was man misst?

    Du bist in deinen Screenshots, von denen jeder einzelne andere Hardwarekombinationen zeigt, weder mit der RT 3070 noch mit der RX 6800 XT in einem CPU-Limit, auch nicht in der dritten Szene, das zeigen deine eigenen Screenshots :ugly:² Erst mit der wesentlich schneller 6900 XT bist du laut der Anzeige dann zu weit mehr als der Hälfte der Zeit im CPU-Limit. Alles wie gesagt mit unterschiedlichen CPUs :ugly:

    Ich will Hardware Unboxed gar nicht zu sehr verteidigen, ist nicht so dass die noch nie Unsinn erzählt hätten, aber sie sind nicht die ersten, die Probleme im CPU Limit mit DX12 und Geforces messen.
    Die teils geäußerte Erklärung dazu ist, dass AMD mehr vom Scheduling in Hardware gegossen hat, was unter DX11 nicht so viel Flexibilität wie das Scheduling in Software bei nVidia erlaubt hat, und sie daher oft Probleme mit DX11 haben, während das ganze in Hardware mit DX12 jetzt besser performet.
     
  27. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ich weiß schon gar nicht warum er so konsequent Tatsachen ignoriert die ihm mehrfach entgegnet wurden, etwa dass HWU nicht nur in mittleren Einstellungen getestet hat oder nicht nur in einer Auflösung, aber an Sachlichkeit ist er offensichtlich ebenso wenig interessiert wie daran wenigstens die Grundlagen dessen zu kennen worauf sich seine Aussagen stützen. Man könnte zumindest darüber nachdenken dass selbst wenn man Draw Calls reduziert die Bedingungen bei jeweils identischer Hardware und identischen Einstellungen trotzdem noch vergleichbar sind. Das ist wie bei 720p um Core Scaling zu testen - nicht praxisnah, aber legitim solange man alles in 720p testet und mangels schnellerer GPUs keine Wahl hat. Da hätte es natürlich auch keinen Sinn einen Quadcore mit einer RTX 3090 zu testen und einen Octacore mit einer GT 710 um dann zu behaupten der Octacore wäre gar nicht schneller.

    Daher muss man nicht um den heißen Brei reden: Wem solche eigentlich offensichtlichen Grundlagen nicht bekannt sind oder logisch erscheinen, der kann man sich jeden Test sparen. Testbedingungen müssen so identisch wie möglich sein. Die ernstzunehmenden Tester wärmen deswegen sogar die Hardware vor, sprich nehmen nicht gleich den ersten Durchlauf um Temperaturvorteile o.ä. auszuschließen, messen sowieso mehrmals und nebenbei die Raumtemperatur damit umgekehrt keine Nachteile für die Hardware entstehen die später getestet wird uvm. Man kann es natürlich auch so praxisnah gestalten wie eine Führerscheinprüfung online über die zoom Bildschirmfreigabe in Need for Speed abzuhalten. Aber sinnvoll wäre das nicht, oder? Und wer meint er kann ohne CPU Limit etwas nachweisen wofür ein CPU Limit erforderlich ist... dazu fällt mir nichts mehr ein, aber mehr als diesen Irrtum aufzuzeigen ist nicht drin. :nixblick:
     
  28. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
  29. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    WD Legion war bei Release allerdings ziemlich "volatil" hinsichtlich der Performance und es gab bspw. Probleme in der Nähe von Wasser (hauptsächlich entlang der Themse). Ich glaube sogar dass das keine oder weniger Auswirkungen bei DX11 hatte wenn ich mich noch recht entsinne, weil das Wasser nur bei DX12 Performance gezogen hat, selbst wenn RT off war. Sprich es könnte inzwischen gepatcht sein und man müsste so einen Benchmark eigentlich nochmal machen.
     
  30. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    War es nicht lange sogar so, dass DX11 allgemein schneller war als DX12? :ugly:

    Ob das nun an den Treiber zu der Zeit oder der mieser Implementierung der Entwickler lag, sei mal dahingestellt.
     
  31. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Das ist aber lange vorbei. Battlefield V war das letzte große Beispiel, wo DX12 kaputt ist (und DX11 bei AMD kaputt ist), die meisten anderen kriegen es mittlerweile hin und ziehen doch deutliche Vorteile aus DX12.

    Ich bin ja mal gespannt was mit idTech und Vulkan bei Bethesda passiert. Wäre eine Schande wenn Microsoft die zu DX12 zwingen würde.
     
  32. eNkelo La Yohda Stasella

    eNkelo
    Registriert seit:
    15. September 2009
    Beiträge:
    14.914
    Was ich überhaupt nicht verstehe, da auch bei Battlefront 2 DX12 einfach nur kaputt ist. Bzw. kaputtgepatched wurde so was ich so gelesen habe. Da meint man, DICE hätte daraus gelernt... :ugly:
     
  33. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.093
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    Inzwischen kaputt.
     
  34. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Sagen wir so: Es wird allgemein eher besser. Das es lange vorbei ist würde ich u.a. wegen diverser EA und Ubisoft Titel in letzter Zeit noch nicht voll unterschreiben. Man kann aber schwer davon ausgehen dass das mit dem schleichenden Wechsel auf DX12/Vulkan only Spiele (next gen wenn man so will) wirklich der Vergangenheit angehört. Und obwohl Vulkan und OpenGL für id Software geradezu "konstituierend" war und noch ist, traue ich Microsoft sofort zu dass sie allem ihren Stempel aufdrücken.

    Vulkan unterstützt zudem weit mehr Plattformen als DX12 und allein das dürfte Microsoft nicht gefallen. Man möchte schließlich Windows 10 als einziges OS etablieren, da kann man es nicht gebrauchen wenn Vulkan auch auf Windows 7, Linux und SteamOS funktioniert. Valve versucht schließlich auch schon länger sich abseits von Microsoft zu positionieren, aber weil der Laden viel zu schlecht geführt wird und sich alle nur auf ihren Reichtümern ausruhen, keiner mehr erkennbare Ambitionen hat usw. kommt bei denen nichts richtig voran.
     
  35. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Windows wird für Microsoft immer bedeutungsloser, mit dem Gamepass dagegen erreicht man grundsätzlich jede Plattform, da könnte Vulkan schon interessant sein. Aber in einem Konzern wie Microsoft reicht natürlich ein Zuständiger, der das anders sieht, und id könnte gezwungen sein auf DirectX zu gehen.
     
  36. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Stimmt, gerade weil Vulkan die anderen Plattformen ebenfalls erreicht wäre es für den GamePass sogar wieder ein Pro-Argument. Vor allem weil die Entscheidungsträger in einem solchen Fall meist die kurzfristige Renditeaussicht eher überzeugt als die langfristige und damit ungewisse Marktpositionierung.
     
  37. Case39

    Case39
    Registriert seit:
    21. April 2014
    Beiträge:
    9
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    Kfa2 RTX 4080 SG
    Motherboard:
    MSi MAG B650 Tomahawk
    RAM:
    Corsair 64GB RAM DDR5 6400 CL32 (Hynix A-Die)
    Laufwerke:
    1x Solidigm P44 Pro 1TB

    1x Lexar NM790 w Heatsink 4TB

    1x Samsung 970 Pro 1TB

    1x Toshiba 20TB HDD
    Soundkarte:
    on Board ALC 4080
    Gehäuse:
    Phanteks P600s
    Maus und Tastatur:
    Glorious GMMK 2 Full Size

    Razor Basilisk V2
    Betriebssystem:
    Win10 Pro x64
    Monitor:
    Corsair Xeneon 27QHD240
    igorsLab hat sich dem Thema mit dem vermeintlichen Treiber Overhead bei NV, gewidmet.
     
  38. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Golem wollte sich das auch mal anschauen.

    3DCenter hat sich an einer Einordnung versucht:
    https://www.3dcenter.org/news/schwaecheln-nvidia-grafikkarten-mit-kleineren-prozessoren

    ---

    Edit:
    Die 3DC-Einordnung ist teils schlicht falsch:
    6900 XT in 1080p Ultra auf einem 3600X 14% schneller bei den min FPS als mit einer RTX 3090:
    https://gamegpu.com/action-/-fps-/-tps/watch-dogs-legion-2020-test-gpu-cpu

    Und das dürfte noch nicht der Worst Case gewesen sein.

    ---

    Der Kritik an den nur geringen Belegen von Hardware Unboxed würde ich zustimmen. Da hat man ein 20-Minuten-Video mit Graphen ohne Ende, und dennoch hat man am Ende keine gute Datenlage. Ist mal wieder ein gutes Beispiel warum Youtube als Format für Hardwaretests so problematisch ist. Ist auch nicht das erste Mal, dass Hardware Unboxed eine steile These aufstellen, und dann nur ein "jaja wir haben das mit dutzenden anderen Spielen verifiziert" hinterher schicken. Sorry, das reicht heute nicht.

    Finde das 3DC siehts aber wieder ziemlich nVidia-freundlich in der Beurteilung. Einen Ryzen 1600 einfach als Low-End zu framen, macht es sich sehr einfach. Das Ding war 2017 eine gute Wahl und viele Aufrüsten werden gar nicht auf den Gedanken kommen, dass die CPU so schwächeln könnte, zumal das Mantra die letzten Jahre immer war, dass CPUs ewig halten. Das kann man zumindest mit den Ampere-GPUs stark anzweifeln, wenn man nicht wie ich gerade in 4k spielt und mit 40 fps aufwärts schon glücklich ist.
    Klar kann man das jetzt alles in die Schublade Nicht-Enthusiasten ohne Highend-CPUs packen, aber es gibt eben viele Spieler, die gerade beim Thema CPU eher konservativ vorgehen und das spiegelt sich auch oft in der Kaufberatung wieder.
    Ich denke wenn die ersten echten Next-Gen-Spiele auf den PC kommen kann man alles unter Ryzen3 und aktueller Intel-Generation mit mindestens 8 Kernen als obsolet ansehen, wenn man ein 60fps-und-höher-Target hat.

    Lehre für mich aus dem Ganzen vorerst: Ich muss dringend ein CPU-Upgrade einplanen und mein überlegter Wechsel von 2160p auf 1440p macht ohne neue CPU mal so überhaupt keinen Sinn, weil ich mit einem 6700k und einer Ampere-GPU schon sehr sehr häufig CPU-limitiert wäre.

    Achja, und Igor ist und bleibt ein Depp :ugly:
    https://www.igorslab.de/community/t...g-x-und-die-eigenen-treiber.4658/#post-124301
     
    Zuletzt bearbeitet: 15. März 2021
  39. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Igor kocht eben auch nur mit Wasser, aber hatte offensichtlich keine Lust (er behauptet zwar keine Zeit, aber dann kann man es auch sein lassen...) um das richtig zu testen. Mir scheint ihm reicht in dem Fall ein Spiel mit einer CPU (Zen 3 runterskalieren, herrlich) als Grund damit er seinen Senf dazu geben kann, das ist wahrscheinlich alles. :ugly:

    HWU ist auf jeden Fall noch ein paar Benchmarks schuldig die diese Ergebnisse bei anderen Spielen beleuchten und belegen, weil gerade bei WD Legion (und da hat Igor recht) die Ergebnisse oftmals inkonsistent sind. Das hat wie gesagt mit dieser vielleicht immer noch nicht ganz gelösten Wasser/RT Thematik zu tun und das Spiel ist allgemein eigentlich kein guter Benchmarktitel. Generell sind belebte und offene Spielwelten und v.a. Multiplayerspiele suboptimal für sowas. Und Ubisoft Spiele haben zudem immer ihre Macken.

    Was man trotzdem nicht vergessen sollte: Ausgerechnet Watch Dogs Legion ist nvidia sponsored. Daher sollte man meinen dass nvidia bei dem Spiel ähnliche Vorteile hat wie AMD bei AC Valhalla, aber es ist schwer zu sagen ob das nun mehr an nvidia oder Ubisoft liegt. :nixblick:
     
  40. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.731
    Ich finde diesen Erklärungsansatz, dass nVidia im Grunde seit Maxwell auf einen immer weiter verfeinerten Architekturansatz setzt, der eben auch massiv von ihrem DX11-Scheduling profitiert hat, setzt und der mit DX12 jetzt schlichtweg am Limit ist, eigentlich ganz charmant. Wobei das zugegeben das gute Abschneiden bei Vulkan nicht so recht erklären kann :ugly: Wirklich wissen können das nur nVidia-Mitarbeiter, aber die dürfen nicht reden ^^

    Vermute mal man wird von nVidia demnächst (also in ein paar Jahren) eine völlig neue Architektur sehen und Tensorkerne und RT sind jetzt erstmal "Ablenkungsmanöver", um den Vorsprung über die Zeit zu retten.

    Jedenfalls macht das AMDs Leistung mit RDNA1 und 2 noch beeindruckender. Natürlich ist der Gleichstand für Ampere immer noch beeindruckend, da Ampere nicht gerade auf den besten Fertigungsprozess setzt, und man da dank der TSMC-Auslastung sogar mehr produzieren kann, als AMD, aber der Lack bröckelt gerade ziemlich ab. Ein 1080p, 1440p-Spieler ohne Highend-CPU hat unter DX12 echt ein massives Problem, die Karten auszulasten.

    AMD hat bei Vulkan übrigens zwischendurch auch massive Leistungsbremsen gelöst. Da war Vulkan unter AMD bei manchen Spielen nur 1/3 so schnell im CPU-Limit wie nVidia, konnte man gut mit DXVK nachstellen. Seit November/Dezember-Treiber läuft es. Es kann also auch bei Low-Level-APIs massive Treiberfails geben.

    Neu ist das ganze Thema jedenfalls nicht:
    [​IMG]

    :ugly:

    Raff von PCGH meinte er arbeitet seit längerem an einem Heft-Artikel dazu, anlässlich des Hypes darum gerade, wird es ein Online-Spinoff dazu geben.
     
    Zuletzt bearbeitet: 15. März 2021
Top