Seite 2: Monstergrafikkarten mit zwei Grafikchips - Historie: Dual-GPU von früher bis heute

GameStar Plus Logo
Weiter mit GameStar Plus

Wenn dir gute Spiele wichtig sind.

Besondere Reportagen, Analysen und Hintergründe für Rollenspiel-Helden, Hobbygeneräle und Singleplayer-Fans – von Experten, die wissen, was gespielt wird. Deine Vorteile:

Alle Artikel, Videos & Podcasts von GameStar
Frei von Banner- und Video-Werbung
Einfach online kündbar

Exot: XGI Volari V8 Duo

Die Grafiksparten der im GPU-Bereich schon 2003 nicht mehr wirklich relevanten Firmen SIS und Trident entwickelten unter dem Namen XGI trotz schlechter Ausgangsposition gegen ATI und Nvidia unermüdlich weiter an neuen Grafikchips und wollten auch Spieler nicht außen vor lassen. Mit der Volari-Serie sollte der gesamte Markt vom Server bis zum Gaming-PC abgedeckt werden. Hinderlich war dabei allerdings die ziemlich geringe 3D-Leistung selbst bei den Topmodellen der Baureihe, dem V5 und dem V8.

Im Jahr 2003 versuchten sich SiS und Trident unter dem Namen XGI auch an Gamingkarten. Im Jahr 2003 versuchten sich SiS und Trident unter dem Namen XGI auch an Gamingkarten.

XGI sah sich gezwungen, zwei Grafikchips auf einer Platine unterzubringen, um mit den Karten der Konkurrenz mithalten zu können. Und zugegeben, eine Dual-GPU-Karte erweckte schon aufgrund ihren ungewöhnlichen Aussehens das Interesse der Fachpresse.

Die beiden Volari-GPUs sollten mittels des von XGI entwickelten BitFluent-Protokolls zusammenarbeiten, was sich in der Praxis allerdings als Fehlschlag herausstellte. Zwischen einer Volari V8 und einer Volari V8 Duo gab es nur selten spürbare Leistungsunterschiede, der zweite Grafikchip arbeitete also offenbar kaum mit. Nicht ganz grundlos sind sowohl XGI als auch die Volari-Reihe aus der kollektiven Grafikchip-Erinnerung verschwunden.

Neuzeit

Erst drei Jahre nach der glücklosen Volari Duo und vier Jahre nach den letzten Versuchen von 3dfx, den 3D-Markt zurückzuerobern, wagte sich Nvidia an eine Dual-GPU-Karte auf Basis der erfolgreichen Geforce-7900-GPUs. Gezwungen war Nvidia zu diesem Schritt nicht, anders als bei XGI waren die 7000er-Grafikchips auch alleine schnell genug. Mit der 7950GX2 ging es um Prestige, die Leistungskrone und die Aufmerksamkeit der Presse.

Ein wenig geschummelt ist Dual-GPU bei der 7950GX2 ja schon - Nvidia verbaut zwei PCBs aber nur einen PCIe-Kontakt. Ein wenig geschummelt ist Dual-GPU bei der 7950GX2 ja schon - Nvidia verbaut zwei PCBs aber nur einen PCIe-Kontakt.

Eingangs schrieben wir von Dual-GPU-Lösungen auf einer Platine - bei der 7950GX nutzte Nvidia allerdings gleich zwei Platinen, die intern in Sandwich-Bauweise verbunden waren. Das gleiche Prinzip nutzten die Kalifornier schon bei der zuvor erschienenen 7900 GX2, einer langen, stromhungrigen und schwer zu bändigenden Dual-GPU-Karte, die ausschließlich für den Einsatz in Komplettrechnern vorgesehen war. Die 7950GX2 galt daher als frei verkäufliche zweite Revision und ermöglichte erstmals auch Quad-SLI mit vier Grafikchips in einem Gaming-PC.

Zum Einsatz kamen zwei G71-Chips, wie sie mit höherem Takt auch auf der Geforce 7900 GTX eingesetzt wurden. Für glänzende Augen sorgten 1024 Megabyte DDR3-RAM, allerdings wie gewohnt aufgeteilt in je 512 Mbyte pro GPU. Trotz gegenüber den Single-GPU-Topmodellen gesenktem Chip- und Speichertakt erwies sich die 7950GX2 als schnellste Einzelkarte auf dem damaligen Markt wenngleich der Leistungsgewinn gegenüber Single-GPU-Karten mit nur maximal 20 Prozent vergleichsweise gering ausfiel.

Die EAX1950Pro Dual von Asus stand in Konkurrenz zu Nvidias 7950GX2. Die EAX1950Pro Dual von Asus stand in Konkurrenz zu Nvidias 7950GX2.

Im Gegensatz zu Nvidia entwickelte AMD vorerst kein Referenzdesign für eine Dual-GPU-Karte. Hersteller wie Sapphire sorgten daher in Eigenregie für entsprechende Karten wie die X1950 Pro Gemini. Zum Einsatz kamen dabei zwei X1950-Pro-GPUs, verbunden auf einer Karte mittels eines PCIe-Links. Mehr noch als Nvidias Geforce-Modelle kämpften AMDs Dual-GPU-Karten aber mit Microrucklern, vor allem im für hohe Benchmark-Ergebnisse bekannten AFR-Modus. Das galt noch stärker als bei High-End-Modellen wie der X1950 Pro Gemini für Mittelklassekarten wie der X1650 XT Gemini.

Die Radeon-3000-Serie war nicht für ihre Effizienz bekannt, trotzdem gab es mit der 3870 X2 ein Dual-GPU-Modell. Die Radeon-3000-Serie war nicht für ihre Effizienz bekannt, trotzdem gab es mit der 3870 X2 ein Dual-GPU-Modell.

Die nicht unbedingt für einen geringen Stromverbrauch berühmte AMD HD 3870 wurde von AMD ein Jahr später ebenfalls mit einem internen Crossfire-Interface als Dual-GPU-Karte HD 3870 X2 aufgelegt, um so auch mit dieser Generation CrossfireX zu ermöglichen. Die Karte kämpfte mit Hitze, Lautstärke, Energieverbrauch und Microrucklern und konnte Nvidias Geforce 9800 GX2 kaum etwas entgegenhalten.

Die 2008 von Nvidia auf den Markt gebrachte 9800 GX2 nutzte zwei von der Geforce 9800 bekannten G91-Kerne, Nvididas damaligen Star auf dem GPU-Sektor. Erneut nutzt Nvidia zwei Platinen mit einer fest verbundenen SLI-Brücke während AMD die technisch aufwändigere Variante mit zwei GPUs auf nur einem PCB wählte. Nicht nur in hohen Auflösungen war die Nvidia-Karte der AMD-Konkurrenz in den Benchmarks weit voraus.

Crysis 2 schrie geradezu nach Grafikpower mit DX11-Fähigkeiten. Zu schnell konnte eine Grafikkarte dafür nicht sein. Crysis 2 schrie geradezu nach Grafikpower mit DX11-Fähigkeiten. Zu schnell konnte eine Grafikkarte dafür nicht sein.

DX11-Ära

In der Folgezeit war eine Dual-GPU-Version der jeweiligen Topmodelle sowohl bei AMD als auch bei Nvidia eine Pflichtübung. Nach der Einführung der erstaunlich stromhungrigen ersten Fermi-Karten sollte auch eine GTX 490 die Leistungskrone für Nvidia holen und der HD 5990 von AMD den Kampf ansagen. Der schon bei der GTX 480 sehr hitzköpfige Fermi-Chip ließ sich aber offensichtlich nicht sinnvoll in ein Dual-GPU-Design zwingen, die GTX 490 wurde stillschweigend beerdigt.

Noch bevor Nvidia einen neuen SLI-Versuch starten konnte, eroberte AMD mit der HD 6990 die obersten Balken in den Benchmark-Tabellen mit zwei HD-6970-Chips. Auch Nvidias rundum verbesserter Fermi in der GTX 580 konnte der Leistung der HD 6990 nur wenig entgegenhalten. Das änderte sich mit der GTX 590, für die Nvidia zwei GF110-Chips mit je 512 Shader-Einheiten mit je 1,5 Gigabyte GDDR5-RAM auf eine Platine lötete. Das Rennen endete in einem Unentschieden, die Karten waren in ihrer Leistung ebenbürtig. Auch das Problem der weiterhin störenden Mikroruckler versprachen die beiden GPU-Hersteller endlich anzugehen.

GTX 690 Immer noch recht schnell: Nvidia GTX 690.

HD 7990 Auch die HD 7990 ist noch ausreichend schnell für viele aktuelle Spiele.

Nach der obligatorischen GTX 690 und einer Radeon HD 7990, die ebenfalls die jeweils schnellsten GPUs ihrer Generation zu zweit auf einer Platine arbeiten ließen, ließ Nvidia in der 700er-Serie die erwartete Dual-GPU-Karte ausfallen. Erst im März 2014 kündigte Nvidia die Geforce GTX Titan Z an, die Ende Mai 2014 mit zwei im Vollausbau vorliegenden GK110-Chips und insgesamt satten 12 Gigabyte RAM auf den Markt kam. Die auch für 4K-Gaming halbwegs ausreichende Leistung dieser Karte ließ sich Nvidia vor allem zu Release teuer bezahlen: Rund 2.250 US-Dollar waren anfangs aufgerufen - dagegen wirkte selbst die mit 1.499 US-Dollar nicht preiswerte Radeon R9 295 X2, der zwischenzeitliche Performance-Kronenträger, fast schon wie ein Schnäppchen. Immerhin, die Problematik der Microruckler ist durch stetige Treiberoptimierungen mittlerweile kein so großes Problem mehr wie bei vorherigen Generationen.

Auch aktuell ist die Geforce GTX Titan Z die schnellste erhältliche Grafikkarte, der Preis liegt allerdings noch immer bei etwa 1.700 Euro. Für die wassergekühlte R9 295 X2 verlangen Händler etwa 1.600 Euro. Doch Ablösung ist in Sicht: Von Nvidia wird Gerüchten zufolge noch in diesem Monat eine neue Dual-GPU-Grafikkarte auf Basis von Maxwell 2.0 erwartet. Auch AMD ist nicht untätig und arbeitet an einer ebenfalls für den Oktober 2015 erwarteten Dual-Fiji-Karte, die zwei R9 Nano entsprechen dürfte.

GTX Titan Z Die Titan Z ist extrem schnell aber auch extrem teuer – für 2.000 Euro kaufen Sie lieber einen ganzen High-End-PC.

R9 295 X2 Die R9 295 X2 übertrifft aktuelle Single-GPU-Karten meist immer noch – für 1.500 Euro lohnt die Karte aber überhaupt nicht mehr.

2 von 3

nächste Seite


zu den Kommentaren (35)

Kommentare(32)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.