Maximale Performance, ungeachtet der Kosten und der Wärmeentwicklung - Grafikkarten mit zwei Grafikchips auf der Platine stehen für Höchstleistungen ohne Rücksicht auf Verluste. Meistens jedenfalls, denn ein Blick in die Vergangenheit zeigt auch das eine oder andere Exemplar, bei dem der zweite Grafikchip scheinbar aus reiner Verzweiflung addiert wurde, um zumindest ansatzweise in einer Performance-Liga mit der jeweils aktuellen Konkurrenz spielen zu können.
Technische Grundlagen
Bei Spielern wurde die Nutzung mehrerer Grafikchips zur Leistungssteigerung primär durch das Unternehmen 3dfx bekannt. Deren Voodoo-Grafikbeschleuniger sorgten erstmals für eine anständige Geschwindigkeit bei gleichzeitig deutlich hübscherer 3D-Grafik.
Manch einer mag sich noch an monströs große Pixelhaufen erinnern, die in der Prä-Beschleunigungs-Ära den Monitor dominierten, wenn man als Spieler wieder einmal einer Textur zu nahe gekommen ist. Um die Leistung zweier Voodoo-Grafikkarten zu kombinieren, entwickelte 3dfx ein Verfahren namens Scan Line Interleave, kurz SLI. (Hinweis: Das aktuelle SLI-Verfahren von Nvidia erbte zwar das Kürzel, bedeutet diesmal aber ausformuliert »Scalable Link Interface«)
Dabei kamen allerdings noch zwei Grafikkarten zum Einsatz, die mittels eines Verbindungskabels gekoppelt wurden. Ein Grafikchip berechnete die geradzahligen Bildschirmzeilen, der andere kümmerte sich um die ungeraden. 3Dfx gelang es so, die maximale Auflösung auf 3D-beschleunigte 1024x768 Bildpunkte anzuheben - bei ungefähr der gleichen Framerate wie mit 800x600. Ein nicht zu verachtender Qualitätsgewinn für zahlungskräftige PC-Gamer der 1990er Jahre. Auf eine Platine lötete 3dfx mehrere vollwertige Grafikbeschleunigerchips aber erst später als sich der Performancekampf mit Nvidia seinem Finale näherte.
Vorher jedoch sah sich ein gänzlich anderes Unternehmen genötigt, aus zwei bewährten Grafikchips eine ungewöhnliche Dual-GPU-Grafikkarte zu basteln.
Frühzeit
Einen guten Ruf hatte ATI bei Spielern seinerzeit nicht unbedingt. Grafikkarten mit den Chips 3D Rage und Rage Pro fanden sich massenhaft in billigen Supermarkt-Rechnern. Die Grafikleistung für Games war bescheiden und wer schon immer einmal wissen wollte, wo die Geschichten über mangelhafte Grafiktreiber bei ATI/AMD ihren Ursprung nahmen, sollte sich ein Retro-System mit einer Rage-Grafikkarte zusammenbauen.
Mit dem Rage 128 und dem höher getakteten Rage 128 Pro machte ATI zwar seine Hausaufgaben in Sachen 3D-Beschleunigung, mit Nvidias 1999 erschienener Geforce 256 konnte der Chip aber beim besten Willen nicht mithalten - und das nicht nur wegen der bei ATI fehlenden Hardware-T&L-Einheit. ATI machte aus der Not eine Tugend und verbaute gleich zwei Rage 128 Pro GL auf einer seinerzeit extrem ungewöhnlichen Dual-GPU-Grafikkarte, der Rage Fury MAXX. Namensähnlichkeiten zu aktuellen Grafikbeschleunigern wie der R9 Fury X und R9 Fury dürften nicht zufällig sein.
Bereits bei der Entwicklung des Rage 128 Pro achtete ATI auf die Möglichkeit des Zusammenschlusses zweier Grafikbeschleuniger und implementierte eine Funktion namens Alternate Frame Rendering (AFR). Dabei berechnet jeder der Grafikchips ein komplettes Bild, immer im Wechsel mit seinem Partner auf der Grafikkarte. Wie auch bei heutigen Dual-GPU-Lösungen verfügte dabei jeder Grafikchip über einen eigenen Speicher - bei der Rage Fury MAXX waren es je 32 Megabyte.
AFR war einfach zu implementieren, brachte aber Probleme mit sich. So nahm die Berechnung keine Rücksicht auf unterschiedlich komplexe Bildinhalte, sodass immer wieder eine GPU auf die andere warten musste. Dennoch reichte die Leistung, vor allem bei damals als hoch geltenden Auflösungen wie 1600x1200, durchaus an die von Nvidias teurer Geforce 256 DDR heran. Der Preis der Fury MAXX hingegen lag nur etwas höher als der der vor allem bei hohen Auflösungen deutlich langsameren Geforce 256 SDR.
Während ATI sich mit der neu geschaffenen Radeon-Serie einen durchaus guten Ruf erarbeitete, war vom einstigen Überflieger-Erfolg von 3dfx nicht mehr viel zu spüren. Der im Jahr 2000 vorgestellte VSA-100 (Voodoo Scalable Architecture 100) sollte 3dfx in die Lage versetzen, fast beliebig in der Leistung steigerbare Grafikkarten zu bauen, indem die Architektur des Grafikchips fest auf das koppeln mehrerer GPUs ausgelegt wurde.
Spieler sollten mit den Multi-GPU-Karten Voodoo 5 5500 und Voodoo 5 6000 überzeugt werden. Diese starteten als Konkurrenz zu Nvidias erfolgreicher Geforce-2-Serie. Zuvor schon setzte Nvidia 3dfx mit den Karten der Serien TNT, TNT 2 und Geforce 256 stark unter Druck. Der Geforce 2 waren aber auch die zwei intern per SLI gekoppelten VSA-100-Chips der Voodoo 5 5500 unterlegen. Mit FSAA bot 3dfx allerdings exklusive Hardware-Beschleunigung für die damals noch ungewöhnliche Kantenglättung, die Konkurrenz in Form der Geforce 2 und ATIs Radeon brach bei Aktivierung von FSAA um über 25 Prozent in der Leistung ein.
Als Kaufargument für die gut 650 DM teure 3dfx-Karte mit ihren 2x 32 Megabyte Speicher reichte FSAA allerdings nicht aus, die Käufer bevorzugten die weniger komplexen und deutlich weniger stromhungrigen Nvidia-Grafikkarten. Diese kamen auch ohne den Anschluss eines 12-Volt-Molex-Stromanschlusses an die Grafikkarte aus - 3dfx forderte für damalige Verhältnisse ungewöhnliche Zugeständnisse von seinen Käufern.
Während sich die Voodoo 5 5500 noch halbwegs solide verkaufte, gelangten von der Voodoo 5 6000 nur extrem wenige Modell auf den freien Markt - und auch die nur inoffiziell und mit Prototypen-Stempel. Hier koppelte 3dfx gleich vier VSA-100 mit 4x 32 Megabyte Grafikspeicher auf einer beeindruckend langen Platine. Probleme mit dem PCI-Subsystem sowie Instabilitäten bei hoher Last verhinderten eine Veröffentlichung der Monster-Grafikkarte. Die Voodoo 5 6000 sollte übrigens aufgrund ihres massiven Stromhungers mit einem eigenen Netzteil namens Voodoo Volts auf den Markt kommen.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.