Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Wie gesagt, das Hauptproblem ist, dass es alle anderen GPU-Hersteller (also auch Intel, falls die mal was brauchbares haben sollten) und unpassende Hardware ausschließt und nicht verbreitet genug ist. Und ersteres schließt zweiteres halt erstmal mit ein. Zudem wird es auch kaum gepflegt. Bspw. hat AFAIK keiner oder kaum einer der DLSS1-Titel DLSS2 erhalten.
     
  2. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ich finde das schwer zu beurteilen solange weder klar ist ob AMD eine weitreichendere, offenere Lösung als Alternative anbieten kann, noch wie sich die Preis- und Versorgungslage in den nächsten Jahren entwickelt, wie gut MCMs funktionieren usw. Denn selbst wenn DLSS zum Softwarestandard wird, muss trotzdem die Hardware die dafür nötig ist weit verbreitet bzw. überhaupt vorhanden sein. AMD ist bei DLSS per se raus, ebenso alle GTX Grafikkarten. Sonst bleibt RT/DLSS lediglich die Kirsche auf der Torte für High End Hardware, wenn überhaupt.

    Da außerdem die Anforderungen von Spielen auch aufgrund solcher Möglichkeiten weiter steigen werden kann ich mir gut vorstellen dass DLSS effektiv ein Nullsummenspiel ist welches bereits nach einem Jahr genauso verpufft wie eine entsprechende Steigerung der Hardwareleistung. Denn darauf bauen jetzt alle zukünftigen (nvidia) GPUs auf, weswegen es weiterhin auf die Hardwareleistung als grundlegende Basis ankommt. Und dabei fehlt es an zu vielen Ecken und Enden für mich um jetzt schon diese Euphorie zu haben.

    An der Stelle schließt sich eben der Kreis hinsichtlich der Verbreitung: Für den geringen Anteil bei RTX Grafikkarten die sowieso schon mehr leisten als die meisten GTX Karten lohnt sich die Implementierung von DLSS 2.0 zumindest bei älteren Spielen nicht mehr. Für die GTX Grafikkarten die am ehesten profitieren würden gibt es DLSS 2.0 erst gar nicht. Das ist ebenso verständlich wie ein Schuss ins Knie. Denn natürlich ist es logisch dass man durch Softwarelösungen für alte GPUs einen potentiellen Neukauf nicht verhindern will - aber die Logik funktioniert eben nur dann wenn man den potentiellen Kunden auch eine GPU über alle Preis- und Leistungsklassen hinweg verkaufen kann und nicht wenn man sogar Probleme damit hat die eigenen Produktions- und Vetriebswege zu versorgen. :ugly:
     
    Zuletzt bearbeitet: 31. Januar 2021
  3. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.118
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    Ich kritisiere, dass man hier den einfachen Weg nimmt.

    Ich hoffe das CP 2077 kein Crysis ist (extrem schlechte Optimierung, die selbst auf heutigen Geräten beschissene Framteraten und Frametimes bringt weil Optimierung bei dem Spiel einfach nicht 0 optimiert wurde)

    Ich weiß, das DLSS auch in anderen Spielen existiert. Klar ist es besser als Downsamling.

    Lieber wäre mir aber eine Optimierung der Spiele plus eine bessere Nutzung der Hardware anstatt Taschenspielerltricks.

    Plus, dass man beim Wechsel des Herstellers komplett am Arsch ist.

    Die 1650 ist übrigens ein Turingchip, die ist neu. Bei der 1660 geht es übrigens auch nicht.


    Und natürlich ist die 3070 Highend. Zwar unteres Highend, aber Highend. Sie hat einen fetten Chip, ein breites Speicherinterface, nur der Ram ist extrem schwach.

    @ Lurtz Du verteidigst die Technik und kritisierst sie wieder. Was denn nun?
     
  4. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Einfach ist daran nichts. Man kommt langsam an die Grenzen der Fertigungsverfahren und damit wird das noch schwerwiegender werden.

    Downsampling? Wenn dann Upsampling.

    Ich finde die Technik gut, mir gefällt nur die proprietäre Umsetzung und die schlechte Pflege, Kompatibilität und Verbreitung nicht.
     
  5. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Dahingehend mache ich mir keine Sorgen, denn die RED Engine ist ein vielfach besserer technischer Unterbau als es die CryEngine damals war. Vergleichbar ist es zumindest dahingehend dass man zu viel wollte, aber die Hardware und Software zu ihrer Zeit dafür zu wenig konnte. Das Problem hatte auch GTA IV. Früher war es vor allem die Multicoreoptimierung an der es gehakt hat, jetzt ist es vielmehr die GPU Performance und vielleicht auch zunehmend die Speichermenge die nicht mehr ausreicht, wenn man die hohen Auflösungen, Raytracing u.a. als Standard etablieren und dennoch weiter optische wie technische Fortschritte machen will.

    Du musst auch sehen dass Crysis ein vergleichsweise einfaches und lineares Spiel war, ganz anders als CP 2077. Bei Crysis war mir deshalb schon früh klar dass es viel, viel besser laufen kann wenn man mehr Arbeit in die Optimierung steckt. Das zeigten ein paar Patches auch und danach haben sie aufgehört weil wahrscheinlich das Geld fehlte. Das sind Aspekte die bei CDPR keine Rolle spielen. Das Spiel war ein finanzieller Erfolg, die Probleme die es hat brauchen vor allem Zeit und da ein Multiplayer erst für 2023 geplant ist kann man sich etwa denken dass sie noch mindestens 2 Jahre am Singleplayer arbeiten (müssen).
     
  6. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.118
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Als Crysis raus kam gab es schon 4 Kerne im Mainstream. Die Engine nutzt nicht mal 2 wirklich aus.

    Crysis 3 zeigt ja was möglich ist.
     
  7. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Na das neue Technologie in der Regel nicht mehr bei alten Spielen implementiert wird, ist ja normal.

    Trotzdem ist nVidia der Marktführer und mehr die Zeit vergeht, desto mehr Leute werden eine RTX-Karte in ihrem Rechner haben. Interessant wird eher, das AMD so haben wird und wie aufwendig das jeweils sein wird, es zu implementieren. Wundern würde es mich aber nicht, wenn in einigen Jahren praktisch jedes aufwendiere 3D-Spiel DLSS und das entsprechende AMD-Pendant unterstützen wird, genauso wie Raytraycing auch immer weitere Verwendung finden wird. Auch daran gibt es IMHO nichts zu rütteln. Wo soll sich Grafik denn sonst noch weiterentwickeln?
     
  8. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Was heißt neue Technologie, nach außen hin gibt nVidia sich ja Mühe, DLSS wie eine Technologie erscheinen zu lassen, die im Wesentlichen immer das gleiche tut. DLSS1 war im Grunde aber einfach Crap. Da wäre es schon schön, wenn man den kleinen Katalog an DLSS-Titeln besser pflegen würde, statt es einmal einbauen zu lassen um es auf eine Marketingfolie schreiben zu können. Rein aus meiner Kundensicht ;)

    Ja, im PC-Bereich, aber wir leben in einer Zeit, wo idR Multiplattform entwickelt wird und PC-Versionen im Wesentlichen der Konsolenversion entsprechen. Und da ist kein Platz für DLSS.

    So wie bei GPU-PhysX, Hairworks und Co.? Da ist das auch nicht passiert, die sind alle entweder in generischere Technologien aufgegangen oder nach kurzer Zeit wieder vom Markt verschwunden. Und da DLSS genauso proprietär ist, glaube ich nicht, dass DLSS sich länger halten wird. Es sei denn Engines sind irgendwann so weit, dass DLSS-Support nur noch ein Häkchen im Treiber ist, und dann funktioniert es grundsätzlich mit allen Spielen, die darauf basieren. Solange es speziellen Aufwand durch den Entwickler bedeutet, wird es sterben.
     
  9. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Das waren im Vergleich zu DLSS aber Nieschenanwendungen in bestimmten Situationen. DLSS kann das ganze Spiel deutlich besser laufen lassen, ohne das die Qualität merkbar sinkt und für RTX wird das weiterhin wichtig bleiben, deswegen wird AMD auch eine entsprechende Technologie brauchen.

    Und neue Technologien werden halt eher selten in alte Spiele implementiert, die eh kaum noch jemand spielt. Und RTX wurde jetzt schon in einige Spiele noch nachträglich integriert.

    Und der PC-Bereich ist in den letzten Jahren dank u.a. China wieder deutlich gewachsen, auch gegenüber den Konsolen (die jetzt auch erstmal wieder eine Nutzerbasis aufbauen müssen mit den Next-Gens).
     
  10. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    GPU-PhysX hat eine Lösung für typische Probleme geboten, aber eben nur auf bestimmter Hardware. DLSS ist in diesem Sinne das gleiche.

    Klar ist es die viel potentere Technologie udn hat das Potential zum Gamechanger, ich persönlich glaube aus genannten Gründen des Aufwandes nur leider nicht daran. Ehrlich gesagt würde ich eine in der Spitze etwas schlechter abschneidende Lösung von AMD, die aber grundsätzlich mit jeder Engine und jeder Hardware funktioniert, vorziehen. Aber solange AMD nichts dazu sagt, hat nVidia immerhin den Vorteil in den Titeln, wo es verfügbar ist. Das ist für mich dann aber einfach noch kein Gamechanger.
     
  11. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Na, wenn AMD was offenes auf die Beine stellen kann (wenn ich das richtig im Kopf habe, arbeiten die ja immerhin mit MS dran, da ist also ne Menge Geld und Potential dahinter), dann kann es sein, dass das DLSS vielleicht - ähnlich wie FreeSync - irgendwann den Rang abläuft, wenn es zumindest ähnlich gute Leistungen bringt.

    Ich meine mit "DLSS" hier ehrlich gesagt auch eher "eine Technik wie DLSS" und nicht notwendigerweise "das DLSS(TM) von nVidia", auch wenn das im Moment halt die Technologie ist, die wir schon haben und die bereits sehr gute Ergebnisse liefern kann.
     
  12. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Ich glaube das wurde eher falsch verstanden, Microsoft stellt wohl nur eine Machine Learning-Schnittstelle zur Verfügung, die eigentliche Arbeit muss aber jemand anders machen. Aber mal sehen.

    Das sehe ich auch so, eine vergleichbare Technologie sollte Standard werden.
     
    Garm gefällt das.
  13. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Daepilin gefällt das.
  14. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    :muhaha:
     
  15. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    das is schon heftig wie schlecht das auf amd hw skaliert. Okay, natürlich is ne 3080 sehr viel stärker als ne PS5, aber ich hab halt auch ohne DLSS mit allem auf max meistens 70+ FPS in control/1440p... Habs aktuell nich installiert als vergleich, aber ich denke das is locker 3x Performance aus der 3080, ohne DLSS (denke 100+ FPS sind auf low/medium locker drin)

    Hätte jetzt aber trotzdem eher wie in anderen Spielen ein 1440p high auf 30FPS erwartet statt low-medium
     
  16. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Mit allem auf Max bedeutet inkl RT. Das zeig mir mal...
    https://www.computerbase.de/2020-09...t/3/#diagramm-control-raytracing-in-2560-1440
    https://www.golem.de/news/geforce-r...eistung-zum-gleichen-preis-2009-150508-5.html
    https://overclock3d.net/reviews/gpu_displays/nvidia_rtx_3080_founders_edition_review/7

    Du musst dann wohl ne Super 3080 haben.

    Was ist denn in einer PS5 genau verbaut von AMD? Es ist kein Zen3 und mit welcher GPU kann man da noch vergleichen? Eher so richtung RX 6800 maximal oder?
     
  17. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    ka obs in allen szenen über 70 bleibt, aber zumindest in einigen ;) Gespielt hab ich dennoch mit DLSS Quality, da schwankt es so zwischen 100 und 150 je ne szene (also enorm stark), daher vlt. auch der Unterschied zwischen den 57avg die die messen und den 70 die ich beim kurzen testen hatte.

    Die GPU is je nach Konsole im Bereich von nem halben/knapp über halbem RDNA2 chip afair
     
  18. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.160
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Zen 2 CPU mit 3,5Ghz und RDNA 1.5 (?) mit 36 CUs bei ~2,2 Ghz. Ne 6700XT wird 40CUs haben, also hat die GPU der PS5 eher 6700 Niveau.

    RDNA 1.5 weil gerne mal gemunkelt wird, dass es sich um einen deutlich angepassten RDNA 2-Chip mit eigener "Geometry-Engine" handelt, was auch immer das heißen soll.
     
  19. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Aber nicht mit RTX.

    Also ich habe mit RTX und DLSS mit Ausgabeauflösung 4k und Renderauflösung 1440p so zwischen 50 und 60 FPS, in hektischen Kämpfen vielleicht mal weniger. ich weiß gerade nur nicht mehr, ob ich wirklich alles auf Max habe, ich meine aber schon.
     
    Zuletzt bearbeitet: 1. Februar 2021
  20. the_mkay

    the_mkay
    Registriert seit:
    27. November 2012
    Beiträge:
    19.728
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    NVIDIA GeForce RTX 4090 Windforce 24G
    Motherboard:
    ASUS ROG STRIX B650E-F GAMING WIFI
    RAM:
    G.SKILL Trident Z5 Neo 32GB Kit (2x16GB) DDR5-6000 CL30 EXP
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Logitech G PRO X SUPERLIGHT
    Logitech G710
    Betriebssystem:
    Windows 10
    Monitor:
    Alienware AW3821DW (38 Zoll Ultrawide, 3840x1600, 144Hz)
    Dito. Um die 60 FPS im Schnitt mit 4K, RT Quality, DLSS 1440P und allem auf Max mit meiner 3080.
     
  21. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    ich spiel halt nich auf 4k. 1440p, alles max, DLSS Quality eigentlich immer dreistellig. Nur in der Foundation gabs n paar räume wo es in die 90er is.
     
    Garm gefällt das.
  22. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Okay stimmt, unter 1440p geht die gerenderte Auflösung ja auf unter 1080p runter. Gut, da hat man dann schon dreistellige Werte. :ugly:

    Spricht auch mal wieder für Control, dass ich nur eben anschauen wollte, wie die FPS so aussehen und am Ende stelle ich das dann wieder auf 4k zurück und spiele noch 30 Minuten weiter, weil es einfach so ein spaßiges Spiel ist. :ugly:
     
    Zuletzt bearbeitet: 1. Februar 2021
    Lurtz gefällt das.
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Ja, Control ist super :D Hab auch erstmal eine Screenshot-Tour gemacht nachdem ich eine Raytracing fähige GPU hatte. Nur schade dass der Denoiser so suboptimal ist in dem Spiel :(
     
  24. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Ja, gerade bei einigen Schatten und volumetrischen Effekten sieht es sehr..."krisselig" aus, dafür sind die Reflektionen fantastisch.
     
  25. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Er schreibt, er hat in WQHD ohne DLSS mit allem auf Max (Max bedeutet man hat auch RT an) immer über 70 FPS und das kaufe ich ihm nicht ab und die Tests die ich verlinkt habe zeigen das auch....
     
  26. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Nein, er schreibt "DLSS Quality", also ich nehme mal an die höchste Auflösung, die es einem unter 1440p anbietet, was bei mir irgendwas 900+p war.
     
  27. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    @Garm
    Nein...einfach nein....
     
  28. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Meine fresse, ich hab dir doch da oben schon geantwortet... Je nach Gebiet sinds definitiv 70+,aber control schwankt halt extremst... Wenn man da woanders benchmarked hat man halt nur mit 50er. Mit dlss hab ich ja auch ne Bandbreite von etwa 100, bis zum fps lock von 140...
     
  29. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ganz genau. Ich weiß nicht warum sie damals dachten es würde die Singlecoreleistung so stark steigen, aber es gab auf jeden Fall keinen guten Grund um nicht wenigstens auf zwei Kerne zu optimieren. Das war damals im Grunde schon Standard bei vielen AAA Produktionen. Aber immerhin haben sie daraus gelernt und die CryEngine stark weiterentwickelt. Das dauerte bei manchen anderen dafür wieder länger, weil die viele Jahre keinen Grund hatten über Quadcores hinaus zu denken. (betrifft vor allem Konsolenports)

    ---

    https://www.pcgameshardware.de/CPU-...ns-Verlagerung-zu-Samsung-nachdenken-1366128/
     
  30. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Visionär Jensen hatte die Idee schon wesentlich früher :KO:
     
  31. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Insbesondere weil vor dem RDNA 2 Release noch einige Medien kolportierten dass es womöglich ein Fehler war auf Samsung zu setzen und nvidia am falschen Ende gespart hat finde ich diese potentielle Entwicklung recht lustig. Es ist allerdings fraglich was dran ist, weil man bekanntlich nicht mal eben eine Fertigung in eine andere Fabrik verlagert. So oder so wird uns das also in diesem Jahr wahrscheinlich nichts mehr bringen. Und ob es nächstes Jahr noch allzu viel hilft ist ebenso fraglich. Aber ich fand es zu amüsant um es nicht zu posten. :p
     
  32. IamYvo gesperrter Benutzer

    IamYvo
    Registriert seit:
    23. Mai 2013
    Beiträge:
    863
    Ich rede extra von Control und du kommst mit Cyberpunk :D Ich sehe klar einen Unterschied bei Control im Stillstand zu Nativ, zb Lichtspiegelungen "frisseln", in Bewegung nicht. Lässt sich aber natürlich auch auf viele andere Effekte/Einstellungen ummünzen. In Bewegung wird alles immer relativ :D

    Warum sollte das als Antwort reichen? Hast du nun zb Control oder Death Stranding gespielt?
     
    Zuletzt bearbeitet: 2. Februar 2021
  33. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.803
    Das Spiel ist doch egal, die Technologie bleibt die gleiche. Aber ja, in Control tritt das auch auf. Im Stillstand ist das Bild ruhiger als in Bewegung, sieht man natürlich deutlicher, je niedriger die Renderauflösung ist. Und auch das Rauschen ist in Bewegung schlimmer, wobei es in Control wirklich Stellen gibt, wo es schon im Stillstand stark rauscht.
     
  34. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.118
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    Ja hab ich.
     
  35. 2Mensch gesperrter Benutzer

    2Mensch
    Registriert seit:
    24. Juli 2019
    Beiträge:
    3.378
    Ort:
    Rabbit hole
    Mein RIG:
    CPU:
    Ryzen 5 5600x
    Grafikkarte:
    Sapphire Pulse Radeon Rx 5700XT
    Motherboard:
    B550 Aorus Pro
    RAM:
    2x8GB G.Skill Ripjaws 3200Mhz
    Will wer?
    :ugly:

    In meinem Bekanntenkreis ist "PC-Gaming" immer mehr unter "erstmal abgehakt" zu finden. Oder man schaut was man halt mit der alten Karte -so vorhanden- spielen kann. Aber nach Monaten mit dem Hardwareluxx Bot treten doch gewisse Ermüdungserscheinungen auf :aua2:.
     
    Die-Fette-Elke gefällt das.
  36. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    PC Gaming ist bei mir zwar nicht abgehackt, aber alle weiteren Aufrüstpläne aufs nächste Jahr verschoben. Falls wirklich ein Spiel kommt, daß unspielbar wäre...das läuft nächstes Jahr auch noch.
     
    Zuletzt bearbeitet: 2. Februar 2021
  37. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Nächstes Jahr laufen die Spiele außerdem eher besser, nachdem sie einige Patches erhalten haben und vielleicht sogar DLSS 3.0 oder Super Resolution unterstützen. Andernfalls müssen sich die Entwickler eben wieder mehr mit der Optimierung ihrer Spiele beschäftigen solange die nötige Hardware bei der anvisierten Zielgruppe größtenteils nicht vorhanden ist. :nixblick:
     
  38. Die-Fette-Elke Die Fetteste Sau der WELT

    Die-Fette-Elke
    Registriert seit:
    28. Oktober 2003
    Beiträge:
    2.709
    Ort:
    Hier
    Dito was der bot da ausspuckt an Preisen ist ja nicht mehr feierlich. Zum Glück ist der backlog riesig und die Epic gratis Games meist nicht so fordernd.
     
    2Mensch gefällt das.
  39. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    AMD hat im letzten Quartal Markanteile verloren, weil die Produktionskapazitäten nicht mit Intel mithalten können (und demzufolge bekanntlich die Preise viel schlechter sind als bei Intel). Die werden sich also künftig wieder mehr dem Thema Preis/Leistung und damit auch dem Thema Produtkionskapazitäten widmen müssen wenn sie nicht möchten dass sich dieser Trend fortsetzt. Ich könnte derzeit auch keinem einen 5600X empfehlen solange der 10400F 220€ günstiger ist und für die meisten GPUs ausreicht, insofern überrascht mich das nicht.

    https://www.computerbase.de/2021-02/cpu-marktanteile-intel-amd/
     
  40. Mr. Schneepflug

    Mr. Schneepflug
    Registriert seit:
    24. August 2002
    Beiträge:
    5.566
    Ort:
    Omicron Persei 8
    Mein RIG:
    CPU:
    AMD Ryzen 9 5900x
    Grafikkarte:
    PNY XLR8 4090 RTX
    Motherboard:
    NXT N7 B550
    RAM:
    32 GB RAM
    Soundkarte:
    Marantz HD-DAC1 + Sennheiser HD800s
    Gehäuse:
    Lian Li O11 Dynamic XL
    Betriebssystem:
    Win 10
    Monitor:
    LG UltraGear 34GK950G (3440x1440, 120hz)
    Die meisten werden spätestens im Herbst mit dem Erscheinen des nächstens Battlefield-Teils wieder schwach werden.... ;)
     
Top