Seite 2: Watch Dogs Legion im Technik-Check: Wie gut läuft die PC-Version?

GameStar Plus Logo

Artikel auf einer Seite lesen

GameStar Plus ist das Online-Abo für Gamer, denen gute Spiele wichtig sind. Schon ab 5,99€ im Monat. Deine Vorteile:

Zugriff auf alle Artikel, Videos & Podcasts von GameStar
Exklusive Tests, Guides und Reportagen
Jede Woche ein exklusiver Podcast
Jede Woche zwei exklusive Newsletter aus der Redaktion
Von Experten, die wissen, was gespielt wird
Keine Banner und viel weniger Werbespots
Jederzeit online kündbar

Du hast bereits GameStar Plus? Hier einloggen.

Einfluss der CPU: Vier Kerne vs. zehn Kerne

In einem Open-World-Spiel kann die Leistung der CPU besonders wichtig sein. Bei den folgenden Messungen stellen wir einen Core i9 10900K mit zehn Kernen einem deutlich langsameren Core i3 9100F mit nur vier Kernen und klar geringerer Taktrate gegenüber.

Zehn Kerne vs. vier Kerne - Detailstufe Sehr hoch
DirectX 12

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Core i3 9100F (4C/4T, max. 4,2 GHz) 2560x1440
67,8
48,3
Core i3 9100F (4C/4T, max. 4,2 GHz) 1920x1080
67,7
50,5
Core i3 9100F (4C/4T, max. 4,2 GHz) 3840x2160
66,3
46,9
  • 0,0
  • 24,0
  • 48,0
  • 72,0
  • 96,0
  • 120,0

Detailstufe Ultra
DirectX 12

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Core i3 9100F (4C/4T, max. 4,2 GHz) 2560x1440
58,3
42,7
Core i3 9100F (4C/4T, max. 4,2 GHz) 1920x1080
58,1
41,2
Core i3 9100F (4C/4T, max. 4,2 GHz) 3840x2160
57,2
42,0
  • 0,0
  • 22,0
  • 44,0
  • 66,0
  • 88,0
  • 110,0

Der Core i9 10900K hat wenig überraschend in allen Auflösungen die Nase vorne, wobei die Vorteile durch die steigende Last für die Grafikkarte sinken, je höher die Auflösung ist.

Der Core i3 9100F liefert dagegen in allen drei Auflösungen eine sehr ähnliche Leistung, weil er hier jeweils der limitierende Faktor ist. Grundsätzlich ist Watch Dogs dabei auch mit nur vier Kernen und vier Threads unserer Erfahrung nach durchaus ausreichend flüssig spielbar, wenn die Grafikkarte flott genug ist.

Unterschiede mit DirectX 11

Zehn Kerne vs. vier Kerne - Detailstufe Sehr hoch
DirectX 11

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Core i3 9100F (4C/4T, max. 4,2 GHz) 1920x1080
61,3
43,1
Core i3 9100F (4C/4T, max. 4,2 GHz) 2560x1440
59,2
42,2
Core i3 9100F (4C/4T, max. 4,2 GHz) 3840x2160
58,7
41,6
  • 0,0
  • 28,0
  • 56,0
  • 84,0
  • 112,0
  • 140,0

Detailstufe Ultra
DirectX 11

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Core i3 9100F (4C/4T, max. 4,2 GHz) 1920x1080
62,6
43,1
Core i3 9100F (4C/4T, max. 4,2 GHz) 2560x1440
61,8
41,3
Core i3 9100F (4C/4T, max. 4,2 GHz) 3840x2160
60,4
42,6
  • 0,0
  • 24,0
  • 48,0
  • 72,0
  • 96,0
  • 120,0

Die Ergebnisse fallen unter DirectX 11 grundsätzlich ähnlich aus, allerdings mit zwei Besonderheiten. Zum einen sind die minimalen FPS in Form des 99th Percentiles meist ein gutes Stück niedriger, was sich auch beim Spielgefühl bemerkbar macht.

Andererseits steigen die durchschnittlichen FPS mit dem 10900K, während sie mit dem 9100F eher etwas sinken. Aufgrund des runderen Spielgefühls empfehlen wir aber eher DirectX 12.

Einfluss des Videospeichers: 4,0 GByte vs. 8,0 GByte

Um beispielhaft zu überprüfen, wie empfindlich Watch Dogs Legion auf wenig VRAM reagiert, haben wir auf einem Ryzen.System mit PCI Express 4.0 die Radeon RX 5500 XT mit 8,0 und 4,0 GByte einander gegenübergestellt.

8GB VRAM vs. 4GB VRAM - Detailstufe Sehr hoch
DirectX 12

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Radeon RX 5500 XT - 8,0 GByte VRAM 1920x1080
63,5
52,9
Radeon RX 5500 XT - 4,0 GByte VRAM 1920x1080
52,5
43,7
Radeon RX 5500 XT - 8,0 GByte VRAM 2560x1440
44,1
36,9
Radeon RX 5500 XT - 4,0 GByte VRAM 2560x1440
35,4
27,9
Radeon RX 5500 XT - 8,0 GByte VRAM 3840x2160
23,6
20,7
Radeon RX 5500 XT - 4,0 GByte VRAM 3840x2160
18,7
13,8
  • 0,0
  • 14,0
  • 28,0
  • 42,0
  • 56,0
  • 70,0

Detailstufe Ultra
DirectX 12 (Absturz mit dem Modell mit 4,0 GByte VRAM)

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Radeon RX 5500 XT - 8,0 GByte VRAM 1920x1080
43,1
36,6
Radeon RX 5500 XT - 8,0 GByte VRAM 2560x1440
31,0
27,1
Radeon RX 5500 XT - 8,0 GByte VRAM 3840x2160
16,8
14,8
Radeon RX 5500 XT - 4,0 GByte VRAM 1920x1080
0,1
0,1
Radeon RX 5500 XT - 4,0 GByte VRAM 2560x1440
0,1
0,1
Radeon RX 5500 XT - 4,0 GByte VRAM 3840x2160
0,1
0,1
  • 0,0
  • 10,0
  • 20,0
  • 30,0
  • 40,0
  • 50,0

Bereits auf der Detailstufe »Sehr hoch« ist die Performance mit 4,0 GByte VRAM deutlich schlechter als mit 8,0 GByte, wobei der Verlust bei den wichtigen minimalen FPS meist ein gutes Stück größer ausfällt.

Auf der höchsten Detailstufe ist es unter DirectX 12 mit nur 4,0 GByte sogar wiederholt zu Abstürzen gekommen, so dass wir keine Messungen erstellen konnten.

Unterschiede mit DirectX 11

8GB VRAM vs. 4GB VRAM - Detailstufe Sehr hoch
DirectX 11

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Radeon RX 5500 XT - 8,0 GByte VRAM 1920x1080
67,5
52,3
Radeon RX 5500 XT - 4,0 GByte VRAM 1920x1080
62,5
27,3
Radeon RX 5500 XT - 8,0 GByte VRAM 2560x1440
45,9
37,3
Radeon RX 5500 XT - 4,0 GByte VRAM 2560x1440
43,8
24,2
Radeon RX 5500 XT - 8,0 GByte VRAM 3840x2160
24,4
20,6
Radeon RX 5500 XT - 4,0 GByte VRAM 3840x2160
17,8
7,6
  • 0,0
  • 14,0
  • 28,0
  • 42,0
  • 56,0
  • 70,0

Detailstufe Ultra
DirectX 11

  • durchschnittliche fps
  • 99th Percentile (Frametimes in FPS)
Radeon RX 5500 XT - 8,0 GByte VRAM 1920x1080
48,4
39,8
Radeon RX 5500 XT - 4,0 GByte VRAM 1920x1080
40,2
16,2
Radeon RX 5500 XT - 8,0 GByte VRAM 2560x1440
33,5
26,9
Radeon RX 5500 XT - 4,0 GByte VRAM 2560x1440
21,7
7,6
Radeon RX 5500 XT - 8,0 GByte VRAM 3840x2160
18,9
15,3
Radeon RX 5500 XT - 4,0 GByte VRAM 3840x2160
9,6
5,4
  • 0,0
  • 10,0
  • 20,0
  • 30,0
  • 40,0
  • 50,0

Mit DirectX 11 sind die Differenzen bei den durchschnittlichen FPS zwar deutlich geringer und die Werte generell etwas höher, dafür brechen die minimalen FPS aber stark ein. Auch für diese Hardware-Konstellation empfiehlt sich insgesamt eher der Griff zu DirectX 12.

So lief Watch Dogs Legion bei uns am besten

Watch Dogs reagiert auf wenig VRAM empfindlich, daher kann es sich lohnen, VRAM-hungrig Optionen wie die Texturdetails zu reduzieren, vor allem mit maximal 6,0 GByte VRAM. Außerdem empfehlen wir, DirectX 12 zu nutzen.

Nur für Besitzer von RTX-Karten interessant: Das beste Ergebnis habe wir erzielt, in dem wir den DLSS-Qualitätsmodus aktiviert und die Bildrate im Grafikkarten- respektive Geforce-Treiber auf 60 Bilder pro Sekunde limitiert haben. Die Frametimes waren dadurch spürbar glatter, wie ihr auch in den unten eingebetteten Vergleichsbildern sehen könnt.

FPS-Limit Treiber Die besten Frametimes und damit die stabilste Bildrate erzielen wir mit DLSS (Qualitätsmodus) und FPS-Limit im Treiber (60 FPS).

FPS-Limit Spiel Der FPS-Begrenzer im Spiel liefert ein schwächeres Ergebnis als der Begrenzer im Treiber.

ohne FPS-Limit Ohne FPS-Limit gibt es deutlich mehr Ausreißer nach oben, die Bildrate fällt öfter.

ohne DLSS, ohne FPS-Limit Ohne DLSS und FPS-Begrenzung gibt es die höchsten Ausreißer nach oben - dafür ist die Auflösung jedoch nativ.

Selbst auf einem 4K-TV ohne Bildsynchronisation lief Watch Dogs mit den genannten Einstellung sehr flüssig. Noch besser war das Ergebnis erwartungsgemäß auf einem 4K-Gaming-Monitor mit G-Sync-Modul.

2 von 2


zu den Kommentaren (59)

Kommentare(49)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.