Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Geforce RTX 30 am Limit: Vergleich zwischen 10, 12 und 24 GiByte Grafikspeicher
    TL;DR:
    8GB sind am Ende, 10GB an der Grenze, 12GB jetzt optimal, aber 16GB+ würden auch in Zukunft noch reichen.
     
    16_volt gefällt das.
  2. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
  3. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Für High End Gaming, sollte man dazu sagen. Aber das sind doch sowieso Miningkarten, daher ist es doch egal. :tdv::p

    Aktuell wird die durchaus richtige Erkenntnis dass v.a. 8GB künftig eher zu wenig sind natürlich trotzdem nichts am Marktanteil ändern den nvidia hat. AMD taucht mit RDNA2 bei der Steam Hardwareumfrage noch gar nicht auf. :ugly: Daran werden sich die Entwickler vor allem am PC orientieren (müssen). Allgemein sind es aber vor allem die Konsolen die vorgeben werden was die PCs brauchen und was nicht. Und genau das halte ich für äußerst spannend, weil es diese Situation in der Form noch nie gab, dass die Konsolen technisch als Vorreiter fungieren, umso mehr nachdem sie zuvor das glatte Gegenteil waren. Denn die haben bekanntlich den Speicher verdoppelt, 8-Cores mit SMT und eine NVMe SSD.

    Am PC, im Mainstream, ist das überwiegend noch nicht der Fall. Da setzt sich der Bestand mehrheitlich aus Grafikkarten zwischen 4-8GB, v.a. SSDs, aber auch noch HDDs und Quad- und Hexacores zusammen. Mit ein Grund warum ich kein Interesse an der Hardware habe die es aktuell gibt, weil ich stark davon ausgehe dass es einen Umbruch auch bei der PC Hardware geben wird und muss sobald Konsolenspiele zeigen was noch geht und was nicht mehr. Ob wir das schon ab Herbst/Winter in diesem Jahr sehen weiß ich nicht, warten wir es ab. Jedenfalls bin ich mir sicher dass diese Konsolen mehr "Impact" in den nächsten 1-2 Jahren haben werden als jede Konsole zuvor.

    Naja, schon. Aber was meinst du warum nvidia die Karten genau so bestückt hat? Damit möglichst viele Leute keine Wahl haben wenn sie mehr als 8/10/12GB VRAM tatsächlich benötigen. Wegen der Performance allein wäre eine 3090 egal ob man UVP oder Endkundenpreise heranzieht sicher nicht interessant.
     
  4. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Kostet genau einen Klick und schon hat man auch mit 8Gb keine Probleme. Was aber mache ich mit meiner RX 6800 mit ihren 16GB VRam?
    Da kann man klicken was man will...die ist auch zu langsam wenn nur 16 Chunks genutzt werden. Aber immer wieder süß zu sehen wie man sich an gestellten Benchmarks aufhängen kann. Wer eine Karte will die so ziemlich alles abdeckt kommt eben an einer RTX 3090 nicht vorbei.
    https://ibb.co/m6vXFX2

    Noch dazu ist der Test eh Blödsinn. Die 12GB der RTX 3080Ti reichen vielleicht für die Benchmarklänge, oder vielleicht ein paar Minuten. In 4K/RT mit 24 Chunks bringst Du auch eine RTX 3090 langsam an ihre Grenzen. Ein typischer Sommerloch Artikel, schnell kreiert, um ein paar Klicks abzugreifen
     
    Zuletzt bearbeitet: 14. Juni 2021
  5. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Der Artikel hat zum Ziel auszuloten wo die Grenze bei diesen speicherhungrigen Spielen und Grafikkarten liegt. Warum sollten sie dann geringere Einstellungen wählen, nur damit wieder alle Karten gut wegkommen?

    Ja, weil 8GB dafür zu wenig sind. Das ist doch genau der springende Punkt um den es geht. :hmm:
     
  6. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    4K/5K...wer kauft sich eine RTX 3070 für solche Auflösungen? Weder der Chip der RX 6800 noch der von der RTX 3070 reichen aus um die Auflösung ausreichend zu befeuern. Schon in 1440p max haben die beiden mehr zu tun als ihnen lieb ist. Auf mid oder so ist doch keine Option...da kaufe ich mir lieber eine Konsole.
     
  7. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Es geht um die Auswirkungen der Speicher-Bestückung auf die Performance innerhalb einer GPU-Generation, um nichts anderes. Aber immer wieder süß zu sehen wie sich Fanboys an Kritik an ihrer Lieblingsfirma aufhängen können.
     
  8. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
    Warum haben Nvidia das so verpeilt?
    wollten die wirklich nur geld sparen oder haben die nicht mit bekommen wie demanding Spiele bald schon sein werden?
    oder beides?
     
  9. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Ich glaube nicht, dass das aktuell ist, er zeigt doch immer Screenshots von mindestens drei aktuellen GPUs :ugly:
     
  10. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Der künftig steigende Speicherbedarf betrifft sicher nicht nur 4K/5K Auflösungen, sondern automatisch auch alle Auflösungen darunter. Warum das ähnlich nach unten skaliert wie nach oben erklärt sich denke ich von selbst. Die Leistung einer 3070 reicht für 4K im übrigen durchaus, nicht unbedingt maxed out, das eher nur in gut optimierten Vulkan oder DX12 Titeln wie Doom Eternal oder Death Stranding - aber immerhin. Sonst wäre die Sache eindeutiger. Richtig ist auch dass die 3070 nicht als explizite 4K Karte beworben wird und als solche möglicherweise unabhängig von der Speichermenge keine allzu lange Zukunft mehr hat, ja.

    Aber wie gesagt, der Speicherbedarf macht sicher nicht vor 4K/5K Auflösungen halt, wird somit auch 1440p und 1080p betreffen. Und warum das relevant ist kann man ganz einfach anhand der Vergangenheit erklären. Insbesondere bei der GTX 680, 770 und 960 zieht sich die Speicherthematik durch wie an einer Perlenschnur, weil es jedes Modell jeweils als 2GB und 4GB Variante gab und alle in etwa dasselbe leisten. Während man bei einer GTX 680 noch gute Gründe hatte um sich die 4GB zu sparen, u.a. weil sie viel teurer war und seinerzeit wirklich kaum Mehrwert bot war das bei der 770 schon ein wenig anders und bei der 960 umso mehr.

    Und welche GPUs sind sogar heute noch für einige, wenn nicht die meisten Spiele, in 1080p relevant? Nicht oder sagen wir kaum die 2GB Modelle, so viel ist sicher. Deswegen ergibt eine RTX 3060 mit ihren 12GB für mich als einzige Karte aus dem Ampere Line-Up noch am ehesten Sinn, obwohl ich die in der Gesamtbetrachtung auch nicht toll finde und sie wie alles andere zu teuer ist. Lieber hätte ich Unrecht und dafür wäre mehr als genug Speicher auf den Karten als dass ich Recht hätte und in 2-3 Jahren interessiert sich kein Aas mehr für Turing und Ampere Karten die nur 8GB VRAM oder weniger haben, sodass man womöglich wieder einen Engpass hat weil alle nur noch die 12 und 16GB Karten wollen und die 8GB Karten auf dem Gebrauchtmarkt längst von Minern aufgekauft wurden.

    Weder noch. Ich bin fest davon überzeugt dass nvidia durchaus mal 12/16/20GB Modelle geplant hatte, aber die Großabnehmer der Miningfarmen und die allgemeine Nachfrage haben dazu geführt dass das schlicht nicht mehr erforderlich war. Den Speichermangel mag es geben, aber wer 12GB für die 3060 hat kann auch eine 3070 mit 16GB bestücken.
     
  11. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Nvidia spart immer am Ram. Sollen sie doch Kuchen essen. Seit Kepler verbaut man nur das nötigste. Was manchmal zu lustigen Szenen führt, gerade wenn man Karten länger behält.

    Da ist dann eine 770 mit 4 GB schneller, als eine 780, weil der, der Speicher ausgeht. Da kapituliert eine 680 vor eine 760 weil? Genau Ramprobleme. Einer 970 fällt übrigens die Sache mit den 3,5 GB immer mehr auf die Füße, wobei besser als der Nachfolger 1060 mit 3 GB, ist sie noch allemal.
     
  12. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Planen nicht, aber die Sache auf Eis legen schon eher...
     
  13. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Stalker 2 will einen Octacore und eine 1080 Ti für 1080p/60 :KO:
     
  14. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    Klingt nach einem Ramfresser
     
  15. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Der grüne Fanboy hat auch eine RX 6800.
    Ganz so grün bin ich ja nicht. Meine RX 6800 (die nebenbei laut 3DMARK/alle Tests zu den 10 schnellsten 6800er weltweit gehört) läßt mich schon einschätzen wieviel VRam ein Spiel braucht. Und für das von PCGH gezeigte MC reicht weder der Speicher noch der Chip. Für die gezeigten 24 Chunks ist eine RTX 3090 nötig.
    Die GB die PCGH da anzeigt reichen gerade mal für den Benchmark. Clickbait sonst nichts. Und die Forenexperten stürzen sich darauf.
    https://www.igorslab.de/minecraft-r...kloetzer-und-der-grafikspeicher-wundert-sich/

    Wollen wir mal fair vergleichen und die vielbestückten AMDs mit den selben Einstellungen/Spielen nehmen (teils sogar niedrigere Einstellungen).
    https://ibb.co/9vLmJjV
    Zeigt das jetzt, daß AMD Karten einfach nicht in der Lage sind 4K zu meistern? Zukünftige Spiele werden ja kaum weniger Anforderungen an den Chip haben.

    Wogegen das mit dem VRam noch gar nicht sicher ist. Stichwort Sampler Feedback und DirectStorage, daß den VRam Bedarf um das 2.5 fache veringern soll.
    https://www.youtube.com/watch?v=9QhBNy7lX_o

    soll ja auch für den PC kommen
    https://www.reddit.com/r/hardware/comments/muwsn8/directstorage_for_pc_will_support_pcie_30_nvme/
     
    Zuletzt bearbeitet: 15. Juni 2021
  16. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Wenn man natürlich nur die Grafikkarte mit dem meisten VRam nennt...kann es natürlich danach klingen. Ansonsten ist es halt die selbe Leistungsklasse.

    • OS: Windows 10
    • CPU: AMD Ryzen 7 3700X / Intel Core i7-9700K
    • RAM: 16 GB RAM
    • GPU: AMD Radeon RX 5700 XT 8 GB / Nvidia Geforce RTX 2070 SUPER 8 GB / Nvidia Geforce GTX 1080 Ti 11 GB
    • HDD: 150 GB verfügbar
    Wobei mich die RX 5700 XT und die GTX 1080Ti bei empfohlen wundern, da ja RT Support angekündigt wurde.

    Der PC ist, zum surfen und auch mal ne Runde STALKER, so auch noch in Funktion und wird auch aktuell gehalten. Ist mir zu schade zum wegschmeissen.
    Ansonsten bin ich weder mit AMD/Nvidia noch mit Intel verheiratet. Auch wenn ich von allen 3 was verbaut habe.
     
    Zuletzt bearbeitet: 15. Juni 2021
  17. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.827
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Ist aber nett von ihnen, dass sie schon vorher klarmachen, dass sie gar nicht erst versuchen werden, das Spiel zu optimieren. :fs:
     
  18. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.968
    Ist doch eh moderat. :wahn:
     
  19. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.544
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Früher oder später kommt halt eben der Zeitpunkt, wo die Altlasten von Last Gen Konsolen nicht mehr angerührt werden. Das da dann entsprechend die Anforderungen anziehen werden, vor allem im bezug auf die CPU, war doch längst abzusehen.
     
  20. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    Du hast doch das passende.
     
  21. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Solange man mit einem ordentlichen Quadcore inkl. HT/SMT (Skylake usw.) und bspw. einer GTX 1070 auf ca. 45fps in 1080p kommt ist das denke ich wirklich noch recht fair. Auf jeden Fall spielbar und das bei derzeit ca. 5-6 Jahre alter Hardware, die zum Release sogar rund 6-7 Jahre alt sein wird. Probleme haben demnach vor allem die neueren Karten die genug leisten für 1440p oder 4K, aber nicht den VRAM haben der scheinbar nötig ist. Es gibt trotzdem Schlimmeres...
     
  22. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    In Rainbow Six Siege ist DLSS in Version 2.2 aufgetaucht, die DLL ermöglicht es, das angeblich auch in anderen DLSS 2.x-Titeln zu nutzen.

    Soll unter anderem das Ghosting in einigen Titeln verringern, zB die Schlieren in Death Stranding:
    https://www.dsogaming.com/pc-perfor...n-be-used-in-older-games-to-reduce-artifacts/

    Soweit ich weiß basiert das aber alles auf einem Reddit-Thread, also Wahrheitsgehalt noch zweifelhaft.
     
  23. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Wenn sich bestätigt, dass FSR keine temporalen Daten verarbeitet und das bisher gezeigte Material repräsentativ ist, wird das leider ein kompletter Flop. Ein Teil von mir weigert sich zwar zu glauben, dass AMD Jahre nach Checkerboarding und DLSS 2.0 mit so einem Crap um die Ecke kommt, aber wer den Zustand vieler AMD-Treiberfeatures kennt, kann es auch nicht ausschließen...
     
  25. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Temporale Daten? Sind Zeitreisen doch möglich?
     
  26. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.160
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Nur bei einer TDP von 1.21 Gigawatt
     
  27. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Knarfe1000, Daepilin und 16_volt gefällt das.
  28. Spartan117 MODEЯATOR Moderator

    Spartan117
    Registriert seit:
    25. Juli 2004
    Beiträge:
    17.446
    DLSS war doch mit 1.0 auch nicht perfekt. :nixblick:
    Ich denke, ein bisschen Vertrauen in die Weiterentwicklung dieses Features kann man schon haben. Auch angesichts der Konsolenhersteller, die so ein Feature gut vermarkten können, wenn XBox und PS5 zwangsläufig Alterserscheinungen zeigen werden.
     
  29. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    DLSS 1.0 war ein völlig anderer Ansatz als 2.0 und wurde von nVidia zurecht verworfen, weil es ohne temporale Daten eben nicht vernünftig funktioniert. Wenn AMD jetzt Jahre danach damit um die Ecke kommt, ist das einfach vollkommen lächerlich.
    Es ist dann höchstens eine weitere Option für Upscaling, aber alles was in irgendeiner Form auf TAA basiert, wie es in vielen Engines heute schon vorhanden ist (Doom Eternal, Frostbite, Unreal Engine, WD Legion, Assassin's Creed seit Origins...), wird FSR an die Wand klatschen.
    Konkurrenz für DLSS 2.x wäre es nicht mal ansatzweise, wobei das natürlich immer noch den Nachteil der Verbreitung in Hardware hat, aber das wird sich ja immer mehr aufheben.
     
  30. Spartan117 MODEЯATOR Moderator

    Spartan117
    Registriert seit:
    25. Juli 2004
    Beiträge:
    17.446
    Technisch hast du sicher recht, aber gerade AMD hat schon gezeigt, dass sie einen langen Atem haben, was Features angeht. Siehe Freesync, bei dem sich am Ende auch Nvidia öffnen musste, oder auch Vulkan, das Microsoft gezwungen hat, DirectX zumindest ein bisschen weiterzuentwickeln.
    Wie gesagt, mit der Konsolenbasis aus der aktuellen (und letzten) Generation hat AMD einen riesigen Hebel, um FSR auf das Niveau von DLSS zu heben. Nicht zum Start, aber zumindest auf mittlere bis lange Sicht.
    Ich habe aber ehrlich gesagt, kein Gefühl dafür, wie lange Nvidia an DLSS entwickelt hat bzw. allgemein wie lange die Entwicklung von Machine Learning Algorithmen im Fall von Bildverarbeitung dauert. Von daher auch keine Ahnung, ob es Monate oder Jahre sein werden. :ugly:
     
  31. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.820

    Nvidia hat sich sicherlich nicht wegen freesync in dem Punkt "geöffnet", sondern eher weil die hdmi schnittstelle selber VRR bekommen hat und es von da einfach ist dann gleich Freesync mit zu unterstüzten. (sieht man ja auch an diversen neueren TVs welche mit Gsync, Freesync & VRR "Werben")
    Und selbst wenn AMD einen langen Atem hat, wenn der Enduser am Ende bei denen auch erst 2 Jahre nach Erstveröffentlichung des Features warten muss (zeitraum zwischen dlss 1 & 2 von Nvidia) bis es gleichauf mit den von Nvidia ist dürfte das eventuell einige Leute dann eher zu Nvidia Karten greifen lassen, selbst wenn die AMD Karten eventuell das bessere P/L Verhältnis haben sollten.
     
    Spartan117 gefällt das.
  32. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Das denke ich eben auch. Zumal DLSS den ganz entscheidenden Haken hat dass weiterhin nur die RTX Karten davon profitieren und nicht die ganzen neueren und älteren GTX Karten die sowas viel nötiger hätten. Für nvidia ist das super, aber es zaubert denen die sich solche Grafikakrten nicht leisten können kein Geld in die Tasche und denen die sich weigern diese Preise zu bezahlen auch keine RTX Karte in ihr System. Mich interessiert deshalb vorerst gar nicht so sehr wie gut FSR aussieht, vorausgesetzt es sieht nicht völlig grauenhaft aus, sondern vor allem welchen Performancegewinn sie damit erzielen können, in wie vielen Spielen und bei welchen Grafikkarten bzw. IGPs. FSR bedeutet für sehr viele in Zukunft ggf. den Unterschied zwischen spielbar und unspielbar. Anschließend können (und müssen) sie an der Verfeinerung der Bildqualität und diversen Details arbeiten, klar.
     
    Spartan117 gefällt das.
  33. Spartan117 MODEЯATOR Moderator

    Spartan117
    Registriert seit:
    25. Juli 2004
    Beiträge:
    17.446
    Die Zielgruppe, die Nvidia mit ihren proprietären Standards (GSync, Raytracing, DLSS) anpeilt, ist halt immer sehr spitz, so dass eher Enthusiasten damit bedient werden. AMDs Ansatz, klar auch aus der Not geboren als Second Mover, ist meist weit offener und eher auf die Masse ausgerichtet, was dann eben auch dazu führt, dass Standards verbessert werden. Hat HDMI nicht VRR bekommen, eben weil AMD eine standardkompatible und offene Lösung hatte, die eben kein eigenes (und recht teures) Hardwaremodul benötigt hat? (Und natürlich entsprechend lobbyiert hat. :wahn: )

    Der Zeithorizont ist für die Masse, denke ich, nicht entscheidend, da die wenigsten 400€+ geschweigen denn 1000€+ für eine Grafikkarte ausgeben (die aktuelle Situation mal außen vorgelassen :ugly: ). badtaste hats ja schon geschrieben: Für je mehr Karten und Generationen FSR verfügbar sein wird, desto meht Mitnahmeeffekte gibt es und desto größer wird die Hardwarebasis sein. Entsprechend werden auch immer mehr Spieleentwickler FSR einbauen, gerade wenn die Implementierung relativ unkompliziert sein sollte. Die Skaleneffekte sind nicht zu unterschätzen und könnten da durchaus AMD auf lange Sicht in die Karten spielen. Siehe auch Betamax und VHS, wo das technisch schlechtere Format gewonnen hat.
     
  34. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Wie sehr interessiert DLSS überhaupt die Mehrheit?

    Für Freaks, die in 2,5 oder 4 K spielen vielleicht interessant.

    Schon bei Full-HD ist der Zugewinn nicht mehr so toll und vor allem bezahlt man das ja unter Umständen mit Darstellungsproblemen oder Artefakten.
     
  35. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.820
    Ja, aber ewig hinter der Konkurrenz mit Features her zu hängen ist auch keine wirkliche "Lösung" weil man eben immer hinter denen hängt.


    Ka, da ich nicht weiß wie/wann Planungen vom HDMI Konsortium für neue Versionen angegangen werden....sprich, wieviele Jahre vorlaufzeit die bei so etwas nutzen...



    Im moment wäre der Zeithorizont aber gerade das entscheidende.
    Spiele werden in den nächsten paar Jahren sicherlich einen größeren Hardwarehunger Entwickeln als in den letzten paar (eventuell auch wegen den neuen Konsolen), und das führt zwangsweise dazu das viele neue Hardware kaufen müssen weil die Mindestanforderungen dann irgendwas bei gtx 1xxx oder gar 2xxx sind.
    Und da hilft dann auch keine Upscaling lösung großartig, egal wie gut die sein mag oder "Mehr" Karten unterstützt welche schon länger aussortiert sein sollten
     
  36. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Naja AMD hatte ja kommuniziert dass sie es gleich richtig und breit verfügbar machen möchten und dafür Zeit brauchen.
    Das wäre auch völlig okay gewesen, obwohl DLSS natürlich weit mehr Titel hat mittlerweile, aber es ist eben äußerst fraglich ob FSR in seiner aktuellen Form überhaupt Sinn macht. Auflösung runterstellen und nachschärfen kann jeder, und viele Engines bieten bereits TAA Upscaling.

    Aber gut, am 24. sehen wir es ja.

    Adaptive Sync gab es schon bevor das in HDMI implementiert wurde, dass Nividia das mittlerweile bei allen relevanten Anschlüssen unterstützt, ist klar auf AMDs Bemühungen rund um Freesync zurückzuführen, da der Großteil der Monitore das praktisch for free aktivieren konnte.

    In der Realität wird DLSS ja eher genutzt um hohe Auflösungen, oft in Kombination mit Raytracing zu bedienen, weil das sonst einfach extrem teuer ist.
    Ja höher die Zielauflösung, desto besser ist ja auch das Ergebnis. Besitzern von alten Karten bring es am Ende eh relativ wenig, weil der Gewinn bei FullHD kaum mehr vorhanden ist, da die Renderauflösung irgendwann einfach zu niedrig wird.

    Das Schicksal wird FSR aber ebenfalls noch härter treffen. Und nicht zuletzt hat AMD auch schon gesagt dass Nvidia für die Qualität der Implementierung in ihrem Treiber verantwortlich ist, da hat AMD nur begrenzt Einfluss.
     
  37. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Naja Nvidia verdient seit Jahren sehr gutes Geld mit den Freaks und die interessiert es definitiv.
    Du findest auch kein Review mehr wo DLSS nicht eine mehr oder weniger große Rolle spielt.

    Da halte ich VRR für weit irrelevanter.
     
  38. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Kommt darauf an welche Mehrheit gemeint ist. Die Mehrheit derer die eine RTX Karte besitzen dürfte sich dafür schon interessieren, aber dann tatsächlich eher nicht für 1080p, sondern für höhere Auflösungen. Und die Mehrheit aller Gamer würde sich vielleicht theoretisch dafür interessieren, hat aber weder die nötige Hardware dafür noch werden genug Spiele bereits unterstützt um die meisten Zielgruppen zu erfassen. Und das obwohl DLSS 2.0 den bekannten zeitlichen Vorsprung hat. Sowas kann daher toll sein wie es will, solange es nicht in die meisten Spiele integriert wird nutzt es nur einem (prozentual) eher kleinen Kreis.

    Hinzu kommt dass DLSS meines Wissens zwingend DX12 oder Vulkan voraussetzt, d.h. selbst wenn nvidia DLSS so anpassen wollte oder könnte (ich weiß nicht was von beidem unwahrscheinlicher ist) dass es nicht mehr auf spezielle Cores der RTX Karten angewiesen ist wären die Maxwell Chips die ältesten die es noch unterstützen würden. FSR ist im Gegenzug auch mit DX11 Karten kompatibel und kann dadurch im Grunde recht weit zurückreichen, ausgenommen wahrscheinlich bei den GPUs die keinen Treibersupport mehr erhalten. Die leisten aber - abgesehen von Kepler - ohnehin nicht mehr genug um allzu interessant zu sein, selbst mit FSR/DLSS.

    Das sich nvidia nicht um seine früheren Produkte schert ist aber denke ich sowieso klar. Es sei denn man kann sie neu auflegen und teuer verkaufen obwohl man bald den Treibersupport dafür einstellt, dann sagen sie natürlich wieder nicht nein dazu...

    In der Realität wird es vor allem deshalb so genutzt weil die meisten RTX Karten genug Leistung haben um das überhaupt zu ermöglichen. Das ist ohnehin immer die Voraussetzung. Ich bin deshalb felsenfest davon überzeugt dass auch DLSS viel öfter für 1080p genutzt werden würde wenn es wie schon erwähnt den Unterschied zwischen spielbar und unspielbar machen würde. Dieses Schicksal ereilt in Zukunft bestimmt auch erste RTX Karten, sodass sich selbst nvidia Gedanken machen könnte wie man die Bildqualität auch (oder gerade) bei den geringeren Auflösungen noch verbessern kann.

    Im Großen und Ganzen sind v.a. jene die mit IGPs und low end Karten spielen wahrscheinlich etwas hartgesottener was die Darstellungsqualität angeht als der typische "Mainstream and up" Grafikkartennutzer. Und da dieser Bereich im Gaming schon lange keine Nische mehr darstellt, woran auch die Marktsituation ihren Anteil hat, ist das bereits ein relevanter Bereich für Upscaling Lösungen - wie gesagt vor allem dann wenn es den Unterschied zwischen spielbar und unspielbar macht. Oder bei kompetitiven Onlinespielen vielleicht auch wenn man dadurch schlichtweg mehr fps erzielen kann, bei ähnlicher Bildqualität.
     
  39. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.814
    Was willst du denn mit dem Steinzeit DX11 Geraffel? Die API gehört dringend beerdigt, schlimm dass es überhaupt noch Spiele gibt, die darauf setzen.

    Man kann an DLSS ja viel kritisieren, aber da wo es läuft liefert es halt teils bahnbrechende Ergebnisse, jetzt mit 2.2 gibt es erneut
    hgroße Verbesserungen.

    Das ganze Thema Upscaling steht erst am Anfang, da wird noch viel passieren, aber es ist schon ganz klar von allen Herstellern auf neue Spiele ausgelegt. Für alte Hardware und Software würde ich mir da keine großen Hoffnungen mehr machen, auch nicht für FSR.
     
  40. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.124
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Ich freu mich schon. Ob man den Microsoftweg geht? Nutz DLSS oder lebe damit, dass nicht mal Hardware die 2 Jahre später rauskommt das Spiel darstellen kann (Quantum Break)?
     
Top