Grafikkarten werden praktisch mit jeder neuen Generation leistungsstärker. Das dürfte die meisten kaum verwundern, schließlich schreitet die Entwicklung stetig voran. So gibt es fortlaufend Verbesserungen der Architektur und der Fertigung. Das Stichwort in dem Zusammenhang lautet Miniaturisierung
. Seit Jahrzehnten werden die Strukturen elektronischer Schaltkreise sukzessive verkleinert. Immer mehr Leistung kann so auf immer weniger Raum untergebracht werden.
Doch wenn wir uns die Entwicklung bei den Grafikkarten ansehen, stellen wir fest, dass sie gar nicht kleiner werden, sondern an Größe und Gewicht zulegen. Zumindest was die jeweiligen High-End-Beschleuniger der letzten Jahre anbelangt.
Um das einmal an einem Beispiel festzumachen: Nvidias Founders Edition der Geforce RTX 3080 Ti misst 285 Millimeter in der Länge, ist 116 Millimeter breit und 40 Millimeter hoch. Der direkte Vorgänger RTX 2080 Ti bringt es auf 267 x 112 x 35 Millimeter. Von der RTX 3090 (313 x 138 x 55 Millimeter) gar nicht erst zu reden. Doch warum ist das so?
Apropos Nvidia. Wenn das folgende Gerücht stimmt, sehen wir mit der kommenden Generation RTX 4000 den größten Leistungssprung seit Jahren:
Ein lange gültiges Gesetz wurde gebrochen
Bis einschließlich Nvidias Turing-Grafikkarten (RTX 2000) galt ein mehr oder weniger ungeschriebenes Gesetz: Die absolute Obergrenze der maximalen Leistungsaufnahme lag bei 250 Watt. Egal ob GTX 780 Ti, 980 Ti, 1080 Ti oder 2080 Ti, bei 250 Watt ist Schluss.
Die Founders Edition der RTX 3080 Ti hingegen kann bis zu 350 Watt Leistung aufnehmen, die RTX 3090 ebenfalls 350 Watt und die 3090 Ti sogar 450 Watt. Custom-Modelle können oftmals sogar noch mehr Leistung saugen. Die muss in Form von Abwärme erst einmal gekühlt werden. Trotz immer ausgeklügelter Systeme samt Vapor-Chamber, speziell angepassten Platinen und optimiertem Luftstrom werden die Kühlkörper, die sogenannten Radiatoren, daher immer größer und schwerer. Und somit auch die Grafikkarten insgesamt.
Dieser Trend scheint auch noch nicht vorüber zu sein. Denn die Leistungsaufnahme der kommenden Grafikkarten-Generation soll noch höher ausfallen, als es bei der aktuellen der Fall ist. So sprechen Gerüchte für die RTX 4080 bereits von 420 Watt TDP, für die RTX 4090 von 450 Watt und für die RX 4090 Ti sogar von 600 Watt.
Gut verfügbar: RTX-Karten bei Amazon
Wie ist das bei AMD? Bei AMD verhält sich das nicht viel anders. So lag die Obergrenze für die Leistungsaufnahme der letzten Radeon-Generation bei 225 Watt (RX 5700 XT Referenzdesign). Die aktuellen Spitzenmodelle in Form von RX 6900 XT und RX 6800 XT kommen schon auf 300 Watt, die RX 6950 XT sogar auf 335 Watt. Für die kommenden Modelle aus der RX-7000-Reihe sagen Leaker bis zu 450 Watt voraus.
Ist ein Ende der Entwicklung in Sicht?
Das lässt sich nicht sagen. Mit Blick auf die weitere Verkleinerung der Schaltkreise stoßen wir jedoch an Grenzen. Zum einen sind diese physikalischer Natur. So schalten herkömmliche Transistoren unterhalb von 5 Nanometern nicht mehr zuverlässig. Die Strukturen lassen sich also nicht beliebig verkleinern. Mehr Leistung wird daher nicht mehr in erster Linie durch bessere Effizienz erzielt, sondern mehr und mehr auch durch gesteigerte Leistungsaufnahme.
Zum anderen kostet die zunehmende Miniaturisierung auch immer mehr Geld. Denn es müssen aufwändige Verfahren entwickelt werden, um die Chips zu fertigen. Auch hier bietet es sich eher an, an der Leistungsaufnahme zu schrauben.
Wichtig in diesem Zusammenhang: Die Bezeichnungen für die Fertigungsverfahren haben heutzutage nichts mehr mit der echten Strukturbreite zu tun. Auch wenn 7 oder 10 Nanometer drauf steht, fallen die tatsächlichen Maße etwas größer aus.
In welche Performance-Regionen die neuen Grafikkarten von Nvidia und AMD vorstoßen sollen, könnt ihr in den folgenden Artikeln nachlesen:
- Erster Benchmark-Wert deutet an, wie schnell die RTX 4090 wirklich wird
- RTX 4090 Ti zeigt sich in Spielebenchmark, aber das spielt (fast) keine Rolle
- RX 7000 Specs geleakt: Neue Radeon-Grafikkarten sollen bis zu 3-mal schneller werden
Was meint ihr? Werden Grafikkarten in Zukunft immer größer und größer? Oder seht ihr ein Ende der Entwicklung? Schreibt es uns gerne in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.