Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    47.346
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ZOTAC GAMING GeForce RTX 3080 Trinity OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    32GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    So close, laut HWMonitor haben zwei meiner Kerne vorhin beim Mafia Definitive Edition spielen 4986 MHz erreicht. :ugly:
     
  2. Knarfe1000 Homecomputer Veteran

    Knarfe1000
    Registriert seit:
    28. Dezember 2005
    Beiträge:
    4.991
    Der Preis ist in der momentanen Situation ganz okay und die Kartet bietet auch eine gute Leistung, wenn man nicht unbedingt 4 K braucht.

    Der UVP von 499 Euro ist im Moment und für die nächsten Monate illusorisch. Außerdem sind Customs immer etwas teurer als FEs. Selbst unter normalen Bedingungen hätte die Karte wohl 550 Euro gekostet.
     
  3. Wasserstoff [np] natürlich plond!

    Wasserstoff [np]
    Registriert seit:
    2. April 2002
    Beiträge:
    5.319
    Ort:
    ung?
    Joa, ich tendiere nach dem Antesten auch zum Behalten, es ist schon hübsch anzusehen. Und da der 1440p-Monitor wie gesagt ne Neuanschaffung ist, ist 4k sicher kein Thema.
    Zudem ist es unnormal, für was meine R9 390 gebraucht zu verkaufen ist. Wenn ich überlege, dass ich die 2015 für 340€ erstanden habe... :wahn:

    Bisher zeigt sich mein bQ StraightPower 10 500W erstaunlich unbeeindruckt von der Karte. Ich verstehe aber auch nicht ganz, wo der Mehrverbrauch zur R9 herkommen soll, der überall "errechnet" wird - ich habe statt 2x8Pin jetzt 1x6Pin & 1x8Pin, die RTX ist kleiner, kälter, leiser und die Lüfter drehen langsamer und die TDP ist vermutlich niedriger (Gigabyte schweigt sich leider aus, Sapphire gibt für die alte 275W an). :nixblick:
     
    Zuletzt bearbeitet: 18. Januar 2021
  4. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    47.346
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ZOTAC GAMING GeForce RTX 3080 Trinity OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    32GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Also laut dem, was ich so gesehen habe, hat die 3070 eher ne niedrigere Leistungsaufnahme, also zumindest die FE.

    Ansonsten einfach mal mit sowas wie HWMonitor nachschauen, was die so frisst.
     
  5. Wasserstoff [np] natürlich plond!

    Wasserstoff [np]
    Registriert seit:
    2. April 2002
    Beiträge:
    5.319
    Ort:
    ung?
    Ja, meine Recherche dazu sagte mir Ähnliches, die R9 war damals schon heftiger unterwegs. Deswegen habe ich auch vorerst kein neues Netzteil angeschafft, zumal ich dem beQuiet zutraue, rechtzeitig abzuschalten, ehe was anderes Schaden nehmen könnte.

    Das Gigabyte-eigene Tool sagt mir während Cyberpunk bisher auch höchstens 80% Power Target für die Karte, leider wirft das keine Absolutwerte aus. zudem habe ich fürs Erste die adaptive Übertaktung deaktiviert, man muss es ja nicht drauf anlegen, solange die Leistung ausreicht.

    Die ganzen "Guides" waren halt bei 650W+ Empfehlungen für ein RTX-System >3060Ti, aber die gehen vermutlich auf Nummer sicher und wollen auch billig-Netzteile abdecken.
     
  6. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    17.537
    4K mit nur 8GB wird in Zukunft sowieso ambitioniert sein, um es diplomatisch auszudrücken.

    Das ist allerdings auch ein sehr weites Feld wenn man von "System >3060Ti" spricht. Denn "System" beeinhaltet auch CPUs mit hohem Strombedarf und nicht nur die GPUs. Die allgemeinen Empfehlungen können nicht nur sparsame CPUs berücksichtigen, sondern müssen auch den Fall bedenken in dem ein 10900K auf eine RTX 3070 trifft. Der 10900K braucht bei Spielen die ihn stark auslasten durchschnittlich 100-130W mehr als ein 3700X und wenn man die Unterschiede mit praxisferner AVX oder Prime 95 Last weiter filetiert zieht er sogar etwa 200W mehr. Das Potential von Intel CPUs eine Netzteilempfehlung zu torpedieren ist daher recht groß.
     
  7. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    47.346
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ZOTAC GAMING GeForce RTX 3080 Trinity OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    32GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Control kommt wohl diese Woche auf den Gamepass for PC, für jeden, der mal seine neue 3000er Karte mit RTX und DLSS in Aktion ausfahren will. :fs:
     
    nofxman, Lurtz und Daepilin gefällt das.
  8. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    14.924
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    Zotac GTX 1080 AMP!
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    Acer VG270UP
    Was hast du denn bisher getestet an Spielen? In WQHD verbraucht die Karte natürlich auch nochmal mehr Strom als in FullHD.
    Kannst mit HWinfo auch nachschauen was die Karte an Strom verbraucht
     
  9. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    215
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 770
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    100-130W mehr als ein 3700X beim Gaming?...einfach nur Humbug. In Spielen bekommt der i9 10900K nicht mal die 125W geknackt. Und das in 720p. In 1440p oder höher sowieso nicht.
    https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/8/

    https://www.capframex.com/blog/post/Intel und AMD im Effzienzvergleich

    https://www.pcgameshardware.de/Core...-Lake-10600K-Benchmarks-Review-Specs-1349507/

    zu Leistungsaufnahme in Spiele runterscrollen
    https://www.hardwareluxx.de/index.p...600k-und-core-i9-10900k-im-test.html?start=11

    Nichtmal mein alter stromsaufender i9 7920X @4.7GHz braucht 130W mehr als ein 3700X beim Gamen.

    @Wasserstoff [np]
    Die Gigabyte Gaming OC zB hat eine TDP von 270W...kann aber auch nicht mehr erhöht werden.
     
    Zuletzt bearbeitet: 18. Januar 2021
    Daepilin gefällt das.
  10. Wasserstoff [np] natürlich plond!

    Wasserstoff [np]
    Registriert seit:
    2. April 2002
    Beiträge:
    5.319
    Ort:
    ung?
    Sieh an, wenn ich meinen OpenHardwareMonitor mal aktualisiere, erkennt der auch die RTX. :ugly::hoch:
    Nach dem Abendessen teste ich weiter.

    Bisher an forderndem nur Cyberpunk, ansonsten hat meine Bibliothek nur "Altlasten", die dann jetzt hoffentlich die 144Hz WQHD ausreizen können (GTA5, Fallout 4, Witcher 3 z.B. warten alle noch auf einen zweiten Durchlauf :schwitz:).
     
  11. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    20.010
    Hahahahahahaha, ein Bethesda spiel > 60 FPS? Have fun... Theoretisch kann man das zwar machen, hab aber das Gefühl, dass F4 sich dann einfach nur falsch verhält was die physik angeht :/

    Habs bei mir aktuell einfach auf 60 gelocked und als 'Ausgleich' DSR an und rechne auf 4k hoch.
     
    Die-Fette-Elke gefällt das.
  12. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    19.949
    Man stelle sich vor ein Streaming Anbieter ala GeforceNow, Stadia etc würde die aktuelle Lage richtig anpacken und ausnutzen, dann würden sicher X-Leute vom klassischen PC Kauf absehen, zumindest eher als vielleicht noch vor 1-2 Jahren. Gäbe es ein brauchbares Modell, dann müsste man sich all den Mist mit schlechter Verfügbarkeit und hohe Preise gar nicht mehr geben oder die Hersteller wären gezwungen schon als OVP niedrige Preise zu nehmen, da Spiele-Streaming eben ein direkter Konkurent wäre.
     
  13. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    17.537
    Ja, das muss ich tatsächlich korrigieren bzw. nochmal erklären. :yes:

    Ich spreche von Volllast oder voller Multicorelast (das ist mit "Spielen die ihn stark auslasten" vielleicht zu salopp ausgedrückt, weil es solche Spiele bekanntlich noch nicht gibt und man das folgerichtig nur synthetisch nachstellen oder hochrechnen kann) um ein Netzteil für das Gesamtsystem ausreichend zu dimensionieren. Die verlinkten Testergebnisse beziehen sich auf reine Durchschnittswerte in denen nur Spiele vorkommen die lediglich ein paar Kerne/Threads auslasten, also fast immer nur Teillast. Das ist vollkommen korrekt, deswegen habe ich mich zugegeben missverständlich ausgedrückt, aber basierend darauf kann man eben keine Netzteilempfehlung abgeben.

    Vereinfacht gesagt gehe ich dafür von der maximal möglichen Alltagsbelastung aus (das sind nunmal Spiele und Anwendungen, nicht Prime 95 oder AVX Last) die alle 16 bzw. 20 Threads voll auslasten kann und dann kommt man auch auf die genannten Werte. Bei einer CPU mit 250W PT nicht wirklich ungewöhnlich. Wenn man jetzt noch das berücksichtigt was durch die Verlustleistung aus der Steckdose gezogen wird sieht es sowieso deutlicher aus, aber das hat dann wieder nichts mehr mit der Netzteildimensionierung zu tun, nur noch mit dem Wirkungsgrad bzw. dem Effekt auf das Gesamtsystem. Lastspitzen/Peak lasse ich mal außen vor. Gehört aber natürlich auch dazu.

    In unserer Region wie in vielen anderen müsste sich erstmal flächendeckend Glasfaser oder VDSL durchsetzen bevor sich sowas durchsetzen kann. Ich weiß nicht wie groß das Problem in den Zielmärkten allgemein noch ist, aber vielfach müssten die Anbieter zunächst die Leitungen legen und dann hätte sicher kaum jemand etwas dagegen mit Vertragsbindung direkt den Streaming Service auch gleich noch dazu zu buchen. Das (!) wäre ein Bombengeschäft. Aber an GPUs ist eben doch noch mehr verdient als an Streaming. Und wenn wegen Streaming weniger GPUs gekauft werden sinken die im Preis wieder, also werden wieder mehr GPUs gekauft. :ugly:

    Und umgekehrt natürlich. Wenn Streaming effektiv teurer wäre als GPUs bzw. Hardware, wäre es auch direkt wieder uninteressant. Ich glaube aber trotzdem dass Streaming einen Sprung gemacht hat, weil es aktuell vielfach günstiger ist als jede GPU der letzten 3 Jahre. Der Witz ist nur: Produziert werden müssen die Streaming GPUs nunmal auch. Effektiver ist es zwar schon wenn sie 24/7 in Betrieb sind, aber ich kann schlecht sagen wie schnell die nicht mehr rentabel sind. Und was machen sie dann damit? Wer kauft die? Die meisten Interessenten wollen doch auch neue GPUs und nicht die alten, ausgelutschten Streamingkarten. :nixblick:
     
    Zuletzt bearbeitet: 18. Januar 2021
  14. Wasserstoff [np] natürlich plond!

    Wasserstoff [np]
    Registriert seit:
    2. April 2002
    Beiträge:
    5.319
    Ort:
    ung?
    Hm, also TDP scheint ~270W zu sein, wenn die "% Power Consumption" stimmt. Absolut gönnt sich die 3070 so 240-260W in CP (1440p, DLSS Ultra preset minus ein paar Schatten-Kleinigkeiten) und geht dabei bis auf 1980MHz hoch. Spannenderweise sind close-ups von Personen "anstrengender" als volle Großstadt. :hmm:
    Der Gigabyte-Kühler macht seine Sache ganz ordentlich, 70°C hat die Karte in den letzten 2h nie erreicht, 80% Drehzahl wurden auch nicht geknackt. Die 8GB VRAM waren bis 98% voll, wie erwartet ist das der Nachteil der Karte. Ich meine, wundert mich nicht, bei 5 Jahren "Stillstand", aber wurmt dann doch schon.

    Hieß es btw nicht, dass RayTracing auch CPU-Lastig sei? der 10400F dümpelt um die 30-50% Overall-Last bei 30-40W Verbrauch umher.
     
  15. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    17.537
    Wenn man wie die meisten Fachmagazine mit einer 3090 in 720p testet sieht das eben etwas anders aus. Solange daher die GPU limitiert ist es erstmal nicht ungewöhnlich wenn die CPU dadurch nicht nahe an ihr Limit kommt. Aber beim Core Scaling ist Cyberpunk eben auch noch nicht wirklich next gen. Ich bin kürzlich die Benchmarks durchgegangen und allgemein etwas erstaunt wie schlecht die älteren 8+ Cores im Vergleich zu aktuellen 6-Cores in dem Spiel abschneiden sollen. Das bspw. der 3900X kaum über einen 5600X/10400F kommt ist recht traurig. CD Projekt hat zwar mit der Entwicklung angefangen als es Ryzen noch nicht gab, trotzdem hatte ich ein bisschen mehr erwartet.

    https://www.pcgameshardware.de/Cybe...k-2077-Benchmarks-GPU-CPU-Raytracing-1363331/

    ---

    Endlich enden unsere Sorgen bezüglich der Verfügbarkeit von Grafikkarten... :no::ugly:

    https://www.notebookcheck.com/Die-n...710-die-Leistung-bleibt-minimal.515560.0.html
     
    Zuletzt bearbeitet: 19. Januar 2021
  16. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    20.010
    Kommt ja auch immer aufs Spiel an. Control läuft was die CPU angeht auf nem Toaster, während ubisoft spiele gerne auch n 9900k über 80% last bringen (vor allem watchdogs mit rt)
     
  17. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    76.465
    Wenn ich Ampere undervoltet habe, kann ich dann das Powerlimit senken oder sorgt das auch in dem Fall für stärkere Powerspikes? :hmm:

    Das dürfte bei Cyberpunk eher daran liegen, dass es Ryzens nicht richtig ausgelastet kriegt.
     
  18. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    14.924
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    Zotac GTX 1080 AMP!
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    Acer VG270UP
    Das sollte doch mit dem neusten Patch behoben worden sein. Zumindest für die 6/12 Kerner.
     
  19. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    47.346
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ZOTAC GAMING GeForce RTX 3080 Trinity OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    32GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Kommt halt drauf an, welche Spiele man wie spielt. Also meine CPU kommt bei neuen Spielen in 4k eigentlich selten auf mehr als 25%-Auslastung und bis jetzt ist Mafia 1 DE das einzige Spiel, dass die Temperatur von meiner CPU aus welchen Gründen auch immer etwas in die Höhe treibt, vermutlich weil es auch in 4k noch mit 70-80 FPS läuft, wobei die Leistungsaufnahme auch nicht höher ist, als bei anderen Spielen. :nixblick:

    Die allgemeine Auslastung der CPU sagt bei Spielen aber ohnehin wenig aus, weil die meisten Spiele von einem "World Threat" abhängig sind. Das heißt man halt einen Thread, der bei 100%-Auslastung steht, während die anderen bei 10-40% rumdümpeln. Weil aber alles an dem einen World Threat hängt, ist die Rechenpower der anderen Kerne weitgehend verschwendet. Deswegen war Intel ja bis zum Ryzen 5000 auch besser für Spiele, weil die Core i9s zwar weniger Kerne und damit Threats hatten, als die Ryzen 9, aber die einzelnen Cores waren schneller.

    Deswegen sind die Ryzen 5000er in vielen Spielen auch nahezu gleich auf, vom 5950er bis zum 5800er und manchmal sogar bis zum 5600er, weil die zusätzlichen Kerne für Spiele meistens gar nichts bringen und das entscheidende Limit eher die Single-Core-Performance ist. Die bei den Ryzen aber natürlich sehr ähnlich, weil alle die gleichen Chiplets verwenden und unterscheidet sich nur durch das Binning und die Konfiguration (der 5900X hat ja pro Chiplet ja nur 6 der 8 verfügbaren Kerne aktiviert und kann deswegen oft etwas höher boosten als der 5950X und ist damit in Spielen oft sogar schneller).
     
  20. KTelwoot

    KTelwoot
    Registriert seit:
    15. September 2013
    Beiträge:
    4.047
    Mein RIG:
    CPU:
    Xeon 1230 V3
    Grafikkarte:
    GTX 1060
    Motherboard:
    Gigabyte H87 D3H
    RAM:
    16 GB DDR 3
    Laufwerke:
    Manche
    Soundkarte:
    Keine
    Gehäuse:
    Coolermaster Cavalier 2006
    Maus und Tastatur:
    IBM Modell M + Logitech G500
    Betriebssystem:
    Windows 10 + Ubuntu (LTS)
    Monitor:
    Vorhanden
    Pro Meine GTX1060 erreicht bei Ebay bald Neupreise :)

    Con: Die günstigste Grafikkarte für Spieler kostet bei MF/Alternate grade 699€ und ist eine 3060TI mit 300€ Verfügbarkeitspauschale als Aufpreis.

    Wann kommt endlich eine Low-End GPU in den Warenkorb des Täglichen Bedarfs für die Inflationsbestimmung?
     
  21. Sosch fährt Ford Modeo Kombi

    Sosch
    Registriert seit:
    7. Dezember 2004
    Beiträge:
    4.206
    Ort:
    Niedersachsen
    Der Kontrast zwischen dem Hype bei der Ankündigung der 3000er Serie inkl. UVP hin zur Realität ist einfach unfassbar. :ugly:
     
  22. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    20.010
    AMD is ja sogar noch viel schlimmer :ugly: Die haben riesig getönt, dass sie supply haben, aber der is genauso mies wie bei nvidia und die preise genauso hoch...
     
    Sosch gefällt das.
  23. Knarfe1000 Homecomputer Veteran

    Knarfe1000
    Registriert seit:
    28. Dezember 2005
    Beiträge:
    4.991
    Und die Leistung schlechter. Das war DIE Chance für AMD und sie haben leider wieder verkackt.
     
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    76.465
    :confused: :ugly:
     
  25. ReVoltaire Reizend

    ReVoltaire
    Registriert seit:
    31. August 2015
    Beiträge:
    1.941
    Mein RIG:
    CPU:
    Intel Core i9-10900K
    Grafikkarte:
    EVGA RTX 3090
    Motherboard:
    MSI MEG Z490 UNIFY
    RAM:
    HyperX DDR4-3100 (48 GB )
    Soundkarte:
    Asus Strix Raid DLX PCIe
    Gehäuse:
    CoolerMaster MasterCase H500M; be quiet! Dark Power Pro 12 1500W
    Maus und Tastatur:
    Logitech G602 & G910
    Betriebssystem:
    Windows 10
    Monitor:
    Asus ROG PG278Q 27'' & Valve Index
    Und dann...? :topmodel:
     
  26. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    14.924
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    Zotac GTX 1080 AMP!
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    Acer VG270UP
    Wo sind die Karten schlechter? Als Beispiel die RX 6800: Die ist mindestens genauso schnell wie eine RTX 3070.
    Beides Stock, beides als "FE" Version. Ohne RT.
     
  27. Freystein

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    1.534
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Wo ist Big Navi denn leistungstechnisch schlechter? abgesehen von der Raytracing Performance (ein Feature, dass jetzt erst noch ganz am anfang steht und allgemein ein Performancekiller ist), hat sich AMD wieder im High End bzw. Enthusiasten Segment eingeordnet :nixblick:
     
  28. KTelwoot

    KTelwoot
    Registriert seit:
    15. September 2013
    Beiträge:
    4.047
    Mein RIG:
    CPU:
    Xeon 1230 V3
    Grafikkarte:
    GTX 1060
    Motherboard:
    Gigabyte H87 D3H
    RAM:
    16 GB DDR 3
    Laufwerke:
    Manche
    Soundkarte:
    Keine
    Gehäuse:
    Coolermaster Cavalier 2006
    Maus und Tastatur:
    IBM Modell M + Logitech G500
    Betriebssystem:
    Windows 10 + Ubuntu (LTS)
    Monitor:
    Vorhanden
    Das wäre ja so, als würde man Nusspli in den Warenkorb legen, statt Nutella.
     
    ReVoltaire gefällt das.
  29. KTelwoot

    KTelwoot
    Registriert seit:
    15. September 2013
    Beiträge:
    4.047
    Mein RIG:
    CPU:
    Xeon 1230 V3
    Grafikkarte:
    GTX 1060
    Motherboard:
    Gigabyte H87 D3H
    RAM:
    16 GB DDR 3
    Laufwerke:
    Manche
    Soundkarte:
    Keine
    Gehäuse:
    Coolermaster Cavalier 2006
    Maus und Tastatur:
    IBM Modell M + Logitech G500
    Betriebssystem:
    Windows 10 + Ubuntu (LTS)
    Monitor:
    Vorhanden
    Anscheinend nur bei einem Feature.

    Beim Verkaufspreis rangiert die Rx6800 vor der 3070. Die (doppelte) Ram-Ausstattung dürfte hier Texurfetischisten überzeugen.
     
  30. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    17.537
    Konnte man so lesen, stimmt auch, aber in den Benchmarks zeigt sich dass die Intel CPUs ähnlich betroffen sind. Und das ist eben nicht nur bei PCGH so, sondern auch bei computerbase und anderen - sonst würde ich natürlich am Benchmark zweifeln. Auch ein 10900K bringt demnach kaum etwas (außer stark übertaktet) gegenüber einem 10700K und ist selbst gegenüber einem 10400K nur ~30% schneller. Das Spiel hat demnach grundsätzliche Probleme bei der Multicoreauslastung. Ich bin deswegen gespannt was die ersten großen Patches bringen, denn solange nicht mal ein 10900K doppelt so viel leistet wie ein 7700K läuft etwas grundlegend schief...

    Was soll uns das angesichts der Tatsache dass beides minderwertiger Schrott und Nutella einfach nur teurer ist genau sagen? :ugly:
     
  31. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    76.465
    Keine Ahnung wo deine Quellen sind, laut Computerbase skaliert das Spiel auf bis zu 8 Kernen perfekt, und profitiert auch noch von 12 Kernen (mit Raytracing).
     
  32. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    674
    Mein RIG:
    CPU:
    i9 9900K @ 4,5Ghz & -85mV
    Grafikkarte:
    ASUS TUF RTX 3070 @0,850V
    Motherboard:
    Asus Prime Z370A
    RAM:
    32GB 3200Mhz Corsair Vengeance
    Laufwerke:
    2x 1TB NVME SS
    1TB SATA SSD
    4GB HDD
    1GB HDD
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Logitech G213 + Anker Vertical Mouse
    Betriebssystem:
    Win 10
    Monitor:
    Acer Predator 144Hz WQHD Gsync
    Von Saturn? Die tuf? Wann bestellt?
    Meine Bestellung vom 6 Januar ist noch immer nicht verschickt worden...
     
  33. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    17.537
    Die genannten Werte beziehen sich allerdings nicht auf RT. Bei RT sieht es anders aus weil sich RT offenbar Kerne zusätzlich krallen kann, nur zu diesem Zweck (zumindest ist das bei CP 2077 der Fall). Aber es ist doch blöd wenn RT on super skaliert und RT off nicht, weil die meisten nicht mit RT oder zumindest nicht mit hohen RT Einstellungen spielen werden aka können. Ein Spiel muss doch auch ohne RT (was sowieso viel Leistung kostet, wodurch es relativ ist) einigermaßen gut skalieren. Und davon sieht man bei CP 2077 (RT off) eben nichts mehr. Was gut ist, ist natürlich Ansichtssache. Das ein 10900K nicht ganz auf die doppelte Leistung eines 7700K kommt finde ich eben nicht gut.

    Immerhin sind die Percentiles bei den 8+ Cores deutlich besser. Das ist noch etwas was man positiv festhalten kann.

    https://www.computerbase.de/2020-12/cyberpunk-2077-benchmark-test/4/
     
    Zuletzt bearbeitet: 19. Januar 2021
  34. 2Mensch

    2Mensch
    Registriert seit:
    24. Juli 2019
    Beiträge:
    2.373
    Ort:
    Rabbit hole
    Mein RIG:
    CPU:
    Ryzen 5 5600x
    Grafikkarte:
    Sapphire Pulse Radeon Rx 5700XT
    Motherboard:
    B550 Aorus Pro
    RAM:
    2x8GB G.Skill Ripjaws 3200Mhz
  35. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    674
    Mein RIG:
    CPU:
    i9 9900K @ 4,5Ghz & -85mV
    Grafikkarte:
    ASUS TUF RTX 3070 @0,850V
    Motherboard:
    Asus Prime Z370A
    RAM:
    32GB 3200Mhz Corsair Vengeance
    Laufwerke:
    2x 1TB NVME SS
    1TB SATA SSD
    4GB HDD
    1GB HDD
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Logitech G213 + Anker Vertical Mouse
    Betriebssystem:
    Win 10
    Monitor:
    Acer Predator 144Hz WQHD Gsync
  36. Wasserstoff [np] natürlich plond!

    Wasserstoff [np]
    Registriert seit:
    2. April 2002
    Beiträge:
    5.319
    Ort:
    ung?
    Ne, Gigabyte Vision von Mindfactory.
     
  37. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    76.465
    MadCat und badtaste21 gefällt das.
  38. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    14.924
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    Zotac GTX 1080 AMP!
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    Acer VG270UP
    Vor allem ist die Asus Dual nicht einmal besser als die FE
     
  39. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    20.010
  40. Knarfe1000 Homecomputer Veteran

    Knarfe1000
    Registriert seit:
    28. Dezember 2005
    Beiträge:
    4.991
Top