Um Grafikkarten immer leistungsfähiger zu machen, gibt es im Wesentlichen zwei Säulen: Mehr Rechenkerne und (beziehungsweise oder) höhere Taktrate. Vorteile wie gesteigerte Leistung pro Taktzyklus, basierend auf Verbesserungen der generellen Architektur, lassen wir einmal außen vor.
Sowohl die Zahl der Rechenkerne als auch die Taktrate hängen sehr stark von der Verkleinerung der Strukturbreite ab. Ersteres, weil dadurch schlicht mehr Rechenwerke pro Flächeneinheit untergebracht werden können, zweiteres, weil diese Rechenwerke durch die Verkleinerung schneller schalten.
Hardware-Guides auf GameStar Plus
Ihr wollt nicht auf eine Grafikkarten-Revolution warten, sondern schon jetzt maximale Performance? Wir verraten euch, was ihr vor dem Aufrüsten zu einer Nvidia Geforce RTX 3000 oder AMD Radeon RX 6000 beachten müsst.
Dennoch werden Grafikchips tendenziell immer größer und dadurch auch immer teurer. Das basiert ebenfalls auf zwei Säulen: Größere Chips verringern die Ausbeute auf einem Silizium-Wafer und sind dabei gleichzeitig anfälliger für Schäden.
Die Lösung für diese Probleme lautet Chiplet-Design. Ein neues AMD-Patent gibt nun Hoffnung, das wir modulare GPUs vielleicht schon in naher Zukunft zu Gesicht bekommen werden. Doch noch sind Chiplet-Designs sehr komplex und dadurch kostspielig.
Was sind Chiplets?
Chiplets sind kleine Chips, die zu einem großen Chip-Array, also quasi einem großen Chip zusammengeschaltet werden. Das macht AMD bereits bei seinen Ryzen-Prozessoren (CPU) und ist damit bekanntermaßen auch sehr erfolgreich. Bei den Grafikkarten ist dieser Schritt aber deutlich schwerer zu vollziehen.
Was sind die Probleme mit dem Chiplet-Design?
Kurzum: die Signallaufzeiten, auch Latenzen genannt. Da GPUs im Gegensatz zu CPUs nicht sequenziell, sondern parallel arbeiten, müssen im Idealfall alle Kerne gleichzeitig auf den Speicher zugreifen können. Im Falle von Chiplets wird dies jedoch erschwert, da die einzelnen Module zusätzlich untereinander verbunden werden müssen.
Wie will AMD die Chiplet-Probleme lösen?
Damit Anwendungen, sprich Spiele, wie gewohnt in Form einer einzigen, monolithischen GPU mit der Grafikkarte kommunizieren können, soll nur ein Chiplet von der CPU angesprochen werden.
Zur Information: Die CPU gibt sogenannte Draw Calls (Zeichenbefehle) an die GPU aus, was im Übrigen gerade bei niedrigen Auflösungen oftmals der limitierende Faktor mit Blick auf die Bildrate sein kann - Stichwort CPU-Limit.
An das erste Chiplet (Primary Chiplet) sollen laut der Patentschrift alle weiteren Module via Crosslink mit hoher Bandbreite angebunden werden. Konkret soll das HBX (High Bandwidth Crosslink) die L3-, auch Last-Level-Caches genannt, der einzelnen Chiplets verbinden.
Wann ist mit Grafikkarten auf Chiplet-Basis zu rechnen?
Noch gibt es seitens AMD keine Ankündigungen in dieser Richtung. Bei Nvidia sollen die Grafikchips auf Basis der Hopper-Architektur auf ein Chiplet-Design setzen. Aktuellen Informationen zufolge soll vor Hopper aber noch die Lovelace-Architektur erscheinen.
Stand jetzt sieht es so aus, als bekämen wir Chiplet-GPUs innerhalb der nächsten zwei Grafikkarten-Generationen, also in den nächsten vier bis fünf Jahren, zu sehen.
Weniger weit in die Zukunft schauen die Chefredaktionen von GameStar, GamePro und Mein-MMO. Das erwarten wir für das Spielejahr 2021:
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.