Watt-Wahnsinn bei neuen Grafikkarten: Wie schlimm ist es mittlerweile wirklich?

16 Jahre Top-Grafikkarten von Nvidia im Vergleich: Wir schauen uns an, wie stark der Stromverbrauch mit der neuen RTX-4000-Generation gegenüber früher genau steigt.

Am 12. Oktober kommen Nvidias neue RTX-4000-Grafikkarten auf den Markt. Im Zuge der offiziellen Vorstellung sorgten nicht nur die hohen Preise, sondern auch der hohe Stromverbrauch für viele Diskussionen. Wir haben uns deshalb angeschaut, wie sich die Leistungsaufnahme von Nvidias Top-Modellen in den letzten 16 Jahren entwickelt hat - mit interessanten Ergebnissen.

Sämtliche Informationen zu den neuen Ada-Lovelace-Grafikkarten findet ihr im Artikel RTX 4000 vorgestellt: Alles zu Specs, Release, Preisen und Performance. Tipps, um mit eurem Gaming-PC Strom zu sparen und welche Erfahrungen wir mit dem Bau eines eigenen Balkonkraftwerks gemacht haben, könnt ihr in unserem passenden Podcast hören:

Link zum Podcast-Inhalt

Stromverbrauch von 8800 GTX bis RTX 4090

Für unseren Blick auf die historische Entwicklung der Leistungsaufnahme von Nvidia-Grafikkarten konzentrieren wir uns auf die Top-Modelle, die zum Launch einer neuen Generation erschienen sind. So kam etwa im Falle der GTX-900-Generation im September 2014 erst die GTX 980 mit einer TDP von 165 Watt auf den Markt, die im Juni 2015 durch die GTX 980 Ti mit einer TDP von 250 Watt abgelöst wurde.

Außerdem mit Blick auf die Grafik unten wichtig zu wissen: Während das Top-Modell zum Start lange Zeit eine X800/X80-GPU war, kamen zuletzt schon zum Release einer neuen Generation noch teurere High-End-Karten wie die RTX 2080 Ti oder die RTX 3090 auf den Markt. Außerdem beschränken wir uns auf Grafikkarten mit einer GPU. Die längst nicht mehr relevanten Dual-Chip-Modelle wie etwa die GTX Titan Z werden also nicht mit berücksichtigt.

Wir beginnen mit der legendären 8000er-Reihe und der Geforce 8800 GTX aus dem Jahr 2006, die wir bereits anlässlich unseres eigenen 25-jährigen Jubiläums mit einer Neuveröffentlichung des Original-Tests gewürdigt haben. Den Schlusspunkt markiert Nvidias neue RTX 4090 aus diesem Jahr.

Wie die Grafik oben zeigt, ist der Stromverbrauch der neuen Top-Modelle lange Zeit erstaunlich stabil geblieben. Werte zwischen 140 und 250 Watt waren von 2006 bis 2018 ein verlässlicher Rahmen, der erst im Jahr 2020 mit Erscheinen der RTX 3090 und ihrer TDP von 350 Watt durchbrochen wurde.

Mit 450 Watt liegt die RTX 4090 zwei Jahre später nochmal ordentlich höher, wobei dieser Wert bereits Anfang des Jahres auch schon bei der Vorgängergeneration durch die RTX 3090 Ti erreicht wurde.

Einige auf dieser Seite eingebaute Links sind Affiliate-Links. Beim Kauf über diese Links erhält GameStar je nach Anbieter eine kleine Provision ohne Auswirkung auf den Preis. Mehr Infos.

Wieso steigt der Stromverbrauch jetzt so stark an?

Die Antwort auf diese Frage ergibt sich, wenn man genauer betrachtet, warum die Leistungsaufnahme in den Jahren zuvor so stabil bleiben konnte. Dabei kommt es vor allem auf den Fertigungsprozess der Grafikchips an, außerdem spielt die Taktrate eine wichtige Rolle.

Während es in der Vergangenheit leichter möglich war, die Größe der GPU-Chips stetig zu verkleinern, gerät die Fertigung mittlerweile an gewisse Grenzen. So liegt der Unterschied zwischen der 8800 GTX und der GTX 680 rein auf die offizielle Angabe in Nanometern (nm) bezogen bei 62 nm (90 vs. 28 nm). Zwischen der GTX 1080 und der RTX 4090 mit ähnlichem zeitlichen Abstand beträgt die Differenz dagegen nur noch 12 nm (16 vs. 4 nm). Mit der tatsächlichen Chip-Größe haben diese Angaben zwar schon länger nichts mehr zu tun, die grobe Entwicklung zeigen sie aber dennoch auf.

Die Taktraten sind gleichzeitig zuletzt stark angestiegen, was einen hohen Verbrauch mit sich bringt. Während die GTX 980 unter Spielelast im Bereich von 1.100 MHz bis 1.200 MHz lag, kam die GTX 1080 schon auf deutlich höhere 1.600 bis 1.700 MHz. Die RTX 3090 schafft ungefähr bis zu 1.900 MHz, mit RTX 4000 sollen nun sogar Werte von stolzen 2.500 MHz erreicht werden.

Ebenfalls zu bedenken: Die offizielle Angabe zur Leistungsaufnahme von Nvidia muss nicht auch dem tatsächlichen Energiebedarf unter Spielelast entsprechen. Außerdem bieten Hersteller von Custom-Designs schon länger teils Modelle mit (deutlich) höheren Werten an.

Der neue 12VHPWR-Stromanschluss der RTX-4000-Generation, der per mitgeliefertem Adapter auch von älteren Netzteilen mit entsprechender Leistung beliefert werden kann, ermöglicht bis zu 600 Watt. Man darf gespannt sein, inwieweit RTX-4090-Modelle diesen Rahmen in der Praxis ausschöpfen werden. Bei der Größe und dem Gewicht der Grafikkarten macht sich die hohe Leistungsaufnahme jedenfalls schon durch ausladende Kühllösungen bemerkbar, wie ihr hier nachlesen könnt:

Die RTX 4090 könnte zu schwer für euren Rechner sein - doch »Dark Obelisk« rettet den Tag

Wie denkt ihr über die Entwicklung der Leistungsaufnahme von High-End-Grafikkarten? Mit Blick auf die steigende Leistung zu vernachlässigen, gerade in den aktuellen Zeiten ein Unding oder etwas dazwischen? Schreibt es gerne in die Kommentare!

zu den Kommentaren (81)

Kommentare(71)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.