Das schönste Cyberpunk 2077 überhaupt ist auch gleichzeitig das unsinnigste überhaupt

Cyberpunk 2077 gehört zu den Titeln mit dem größten Anspruch an die Hardware überhaupt, aber wie schlimm wird es, wenn wir nicht nur in 4K, sondern in 8K spielen?

Geleiten wir zunächst den Elefanten aus dem Raum: Nein, es lohnt sich nicht wirklich, Cyberpunk 2077 in 8K zu spielen. Das bedeutet aber nicht, dass es keinen nennenswerten Unterschied machen würde. Was genau wir damit meinen, zeigen unsere FPS-Werte und Screenshots, die 8K mit 4K vergleichen.

Wie haben wir in 8K spielen können? Eine berechtigte Frage, schließlich gibt es bislang gerade mal einen PC-Monitor und nur recht wenige Fernseher mit dieser Auflösung. Wir haben uns aber für eine andere Lösung entschieden, genauer gesagt geht es um das sogenannte Downsampling. Dabei kam der Asus-Monitor ProArt PA32UCG-K zum Einsatz, über den ihr im folgenden Artikel mehr erfahrt:

5000-Euro-Monitor ausprobiert: Diese Bilder kriege ich nicht mehr aus dem Kopf

Besitzt ihr einen 4K-Monitor (3840x2160) wie das ProArt-Modell, könnt ihr sowohl mit einer Grafikkarte von Nvidia (Treiberoption DSR) als auch mit einem Modell von AMD (Treiberoption VSR) in Windows und in Spielmenüs die 8K-Auflösung auswählen (7680x4320), wenn Downsampling aktiv ist. Anschließend wird das Bild automatisch auf die native 4K-Auflösung herunterskaliert.

Die Farbgebung jedes einzelnen Pixels gelingt so genauer und die Bildqualität wird auch auf einem 4K-Bildschirm sichtbar verbessert. Das hat allerdings einen hohen Preis: Durch die viermal so hohe Pixelzahl von insgesamt über 33 Millionen (!) steigt der Anspruch an die Hardware immens, was vor allem die Grafikkarte und den VRAM betrifft.

Pixelmenge in Full HD (1920x1080)2.073.600
Pixelmenge in 4K (3840x2160)8.294.400
Pixelmenge in 8K (7680x4320)33.177.600

Hat man in Cyberpunk 2077 bei 8K eine Chance auf genug FPS?

Wenn man damit Werte grob im Bereich von 30 FPS meint und weder die Detailstufe noch die Anschaffungskosten der Hardware eine Rolle spielen, dann lautet die Antwort tatsächlich Ja. Mit einer Radeon RX 6900 XT von AMD (ca. 900 Euro) kommen wir in 8K bei niedrigen Details knapp auf 30 FPS, die RTX 3090 Ti von Nvidia (ca. 1.400 Euro) erreicht Werte leicht oberhalb von 35 FPS. Als CPU nutzen wir AMDs Ryzen 9 5900X in Kombination mit 32,0 GByte RAM.

Auf der Detailstufe Ultra, also ohne Raytracing, streichen beide Grafikkarten mit circa 10 FPS die Segel. Mit den Upscaling-Verfahren FSR (AMD) sowie DLSS (Nvidia) lässt sich das zwar etwas abmildern, allerdings nur auf den aggressiveren Stufen, die dann auch die Bildqualität sichtbar reduzieren. Die Stufe mit der höchsten Qualität schafft dagegen mit einem Plus von fünf FPS nur geringfügig Abhilfe.

Einige auf dieser Seite eingebaute Links sind Affiliate-Links. Beim Kauf über diese Links erhält GameStar je nach Anbieter eine kleine Provision ohne Auswirkung auf den Preis. Mehr Infos.
ASRock RX 6900 XT Phantom Gaming
ASRock RX 6900 XT Phantom Gaming
16 GByte VRAM, 2.150 - 2.340 MHz Boost-Takt, 5.120 Shader-Einheiten, 300 Watt TDP
987,58 €829 €
Gainward Geforce RTX 3090 Ti Phantom
Gainward Geforce RTX 3090 Ti Phantom
24 GByte VRAM, 1.860 MHz Boost-Takt, 10.752 Shader-Einheiten, 450 Watt TPD
1.399 €

Kommt Raytracing hinzu, ist es ganz vorbei. Der 16,0 GByte große VRAM der RX 6900 XT läuft bereits mit dem Preset RT Niedrig voll, bei der RTX 3090 Ti sind auf der höchsten Stufe RT Ultra sogar die 24,0 GByte nicht mehr genug. Aber was bringt das Spielen in 8K überhaupt?

Was Cyberpunk in 8K besser macht

Wie eingangs schon erwähnt sind es die optischen Verbesserungen durch das Spielen in 8K unserem Eindruck nach nicht wert, den extrem hohen FPS-Verlust hinzunehmen (auch wenn das Spiel selbst mit niedrigen Details noch ziemlich gut aussieht). Vorhanden sind die Verbesserungen aber durchaus.

Das Bild wirkt insgesamt nochmal schärfer, außerdem kommt es bei weiter entfernten und feinteiligen Objekten weniger zu einem leichten Flimmern. Unten seht ihr zwei stark vergrößerte Ausschnitte des Spiels in 4K und 8K im Vergleich, die das verdeutlichen, wobei der Effekt am stärksten auffällt, man das Bild selbst in Bewegung auf dem Monitor sieht.

8K-Auflösung links, 4K-Auflösung rechts 8K-Auflösung links, 4K-Auflösung rechts

8K-Auflösung oben, 4K-Auflösung unten 8K-Auflösung oben, 4K-Auflösung unten

Aber obwohl die Optik in 8K bereits auf einem 4K-Bildschirm tatsächlich noch ein Schippe drauf legt, steht dem der extreme FPS-Verlust gegenüber. Spielen wir mit der RX 6900 XT auf niedrigen Details in 4K statt in 8K, kommen wir mal eben so auf fast 80 statt nur fast 30 Bilder pro Sekunde.

Gleichzeitig nehmen wir die optischen Unterschiede deutlich weniger wahr, wenn wir uns auf das Spielgeschehen statt auf die Grafik konzentrieren. Der Unterschied bei den Bildern pro Sekunde ist stattdessen allgegenwärtig klar spürbar.

So interessant wir unseren kleinen Ausflug in die Welt des 8K-Gamings auch gefunden haben, so weit entfernt ist diese Welt also noch aus verschiedenen Gründen. Das gilt umso mehr, wenn man bedenkt, dass bei Steam laut aktueller Hardware-Umfrage immer noch zwei Drittel aller Spieler in Full HD unterwegs sind.

Apropos Hardware-Umfrage bei Steam: Warum Microsoft über die jüngsten Ergebnisse nicht so erfreut sein dürfte, erfahrt ihr im folgenden Artikel:

Windows 10 legt bei Spielerzahlen zu, doch ist die Überraschung wirklich so groß?

Wie steht ihr zum Spielen in 8K? Ein logischer nächster Schritt, der gerne so früh wie möglich durch passende Monitore auf dem PC erfolgen kann, völlig unnötig und überschätzt oder etwas dazwischen? Schreibt es gerne in die Kommentare!

zu den Kommentaren (68)

Kommentare(35)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.