Nvidia Geforce GTX 580

Grafikkarten   |   Datum: 09.11.2010
Seite 1 2 3 4 5   Wertung

Nvidia Geforce GTX 580 im Test

Noch mehr Power, aber leiser

Nvidias Geforce GTX 580 zeigt im Benchmark-Test, was in Ihr steckt: Die 480 Euro teure GTX 580 ist die bislang schnellste Grafikkarte überhaupt!

Von Daniel Visarius |

Datum: 09.11.2010


Mit einem Preis von rund 480 Euro ist die Nvidia Geforce GTX 580 eine klassische High-End-Grafikkarte. Allzu viel Neues hat der Bolide, der nur ein halbes Jahr nach der Geforce GTX 480 erscheint, aber nicht zu bieten. Im Test entpuppt sich die Geforce GTX 580 im Wesentlichen als eine optimierte GTX 480: Durch die nun 512 statt 480 Shader-Einheiten und die beschleunigten Taktfrequenzen rechnet die Geforce GTX 580 quer durch alle Benchmarks 25 Prozent schneller als das Vorgängermodell. Nun leidet die Geforce GTX 480 aber weniger an schlechter Performance als an dem unter Last irrsinnig lauten Lüfter, dem exorbitanten Strombedarf und den damit einhergehenden hohen Temperaturen. Ob Nvidia auch hier erfolgreich nachbessern konnte, das lesen Sie auf den folgenden Seiten. Konkurrenz für die Geforce GTX 580 gibt es bis zur kommenden Radeon HD 6970 nur in Form der mindestens 500 Euro teuren Zwei-Chip-Grafikkarte Radeon HD 5970.

Achtung: Dieser Test wurde auf unser neues Grafikkarten-Wertungssystem umgestellt und ist deshalb nicht ohne Weiteres mit vorhergehenden Tests vergleichbar. Alle wichtigen Tests gleichen wir sukzessive an das neue Wertungssystem an.

Nvidia Geforce GTX 580 : Mit 512 statt 480 Shader-Einheiten und höheren Taktraten hängt die Geforce GTX 580 die GTX 480 locker ab. Mit 512 statt 480 Shader-Einheiten und höheren Taktraten hängt die Geforce GTX 580 die GTX 480 locker ab.

Die Geforce GTX 580

Als die Geforce GTX 480 Ende März 2010 auf den Markt kam, war sie Nvidias erste DirectX-11-Grafikkarte und mehrere Monate im Verzug, AMD hatte sein gesamtes Angebot schon längst auf DirectX 11 umgestellt. Die Gründe für die Verschiebung haben wir im Test der GTX 480 bereits aufgearbeitet: Die ersten Exemplare des GF100-Grafikprozessors (Codename Fermi) waren schlichtweg unbrauchbar und fehlerhaft, auch wenn das Nvidia damals noch tapfer dementierte. Wie wenig Wahrheit in diesen Aussagen steckte, verriet Nvidias CEO Jen-Hsun Huang auf der Hausmesse GPU Technology Conference: »Fermi war anfangs völlig kaputt«. Zu Beginn der Präsentation der neuen Geforce GTX 580 schlug Ben Berramondo vor den versammelten Journalisten in die gleiche Kerbe: »Die GTX 480 war viel zu laut«. Man habe aber die Probleme des GF100-Chips mit dem neuen GF110-Baustein auf der Geforce GTX 580 überwinden können. Trotz höherer Performance begnüge sich die GTX 580 mit weniger Strom als die GTX 480.

Nvidia Geforce GTX 580 : Der GF110-Grafikprozessor hat wie der GF100 auf der GTX 480 einen 512 KByte großen L2-Cache-Speicher. Der GF110-Grafikprozessor hat wie der GF100 auf der GTX 480 einen 512 KByte großen L2-Cache-Speicher. Der GF110 wurde dazu zwar nicht komplett neu entwickelt (was in der kurzen Zeit auch unmöglich gewesen wäre), aber gegenüber dem GF100 doch grundlegend verbessert. So habe man jeden der drei Milliarden Transistoren unter die Lupe genommen und besser auf seine Aufgaben hin ausgerichtet. Weniger leistungsrelevante Schaltkreise bestehen nun aus langsameren Transistoren, die weniger Strom als bisher ziehen sollen. Für die Performance wichtige Schaltkreise bestehen jetzt aus den schnellsten Transistoren, die Auftragsfertiger TSMC im Programm hat. Weiter hat Nvidia noch einige kleinere Verbesserungen vorgenommen, die unter anderem die Leistung in einigen sehr texturlastigen Spielen steigern. All diese Änderungen führen in Kombination mit der gestiegenen Fertigungsqualität dazu, dass Nvidia den GF110 mit 512 aktiven Shader-Einheiten, acht Polygontesselatoren und 64 Textureinheiten ausliefern kann. Der GF100 auf der Geforce GTX 480 beherbergte zwar ebenso viele Einheiten, aber viel zu wenige Chips waren voll funktionstüchtig. So konnte die GTX 480 lediglich auf 480 Shader, 7 Tesselatoren und 60 Textureinheiten zurückgreifen. Weil die Taktfrequenzen der Shader-Einheiten und übrigen Chipbestandteile zudem statt 1.401 beziehungsweise 700 MHz nun 1.544 und 772 MHz betragen und der 1.536 MByte große GDDR5-Videospeicher mit effektiv 4.008 statt 3.696 MHz läuft, dürfte die Geforce GTX 580 in den Benchmarks-Test deutlich besser abschneiden und eventuell sogar AMDs Zwei-Chip-Platine Radeon HD 5970 einholen.

Ansonsten unterstützt die Geforce GTX 580 (wie die Grafikkarten der GTX-400-Serie) die 3D-Brille Nvidia 3D Vision, PhysX-Effekte auf der Grafikkarte und das Spielen auf bis zu drei Monitoren, wenn Sie zwei Platinen als SLI-Verbund konfigurieren. An eine einzelne Karte lassen sich (anders als bei AMD) nur zwei Monitore anschließen. Dazu stehen zwei Dual-Link-fähige DVI-Ausgänge sowie ein Mini-HDMI-Ausgang zu Verfügung, für den Sie allerdings einen Adapter brauchen. Die HDMI-Buchse entspricht dem Pseudostandard HDMI 1.4a, geht über den Funktionsumfang von HDMI 1.3 also nur dahingehend hinaus, dass Sie das so genannte Frame-Packing-Format beherrscht, mit dem Sie über die Geforce einen 3D-Fernseher korrekt ansteuern können. Im Gegensatz zur Geforce GTS 450 und Geforce GTX 460 kann die Geforce GTX 580 aber nicht die High-End-Soundformate Dolby True HD und DTS Master Audio an einen entsprechenden Verstärker weiterreichen.

Nvidia Alien vs. Triangles
Diesen Artikel:   Kommentieren (82) | Drucken | E-Mail
Sagen Sie Ihre Meinung (» alle Kommentare)
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1 2 3 ... 9 weiter »
Avatar Piismaker
Piismaker
#1 | 09. Nov 2010, 15:12
Ziemliche Rakete die neue GeForce... :D
rate (30)  |  rate (3)
Avatar aForce
aForce
#2 | 09. Nov 2010, 15:19
Sieht verdammt gut aus!!
Das mit dem SLI für 3 LCD's finde ich aber extrem schade
rate (8)  |  rate (4)
Avatar Piismaker
Piismaker
#3 | 09. Nov 2010, 15:21
Trotzdem warte ich noch auf den Test der neue Radeon... ich brauch nicht die "schnellste Single-Chip" Karte der Welt, sondern die Sinnvollste :D
rate (30)  |  rate (5)
Avatar Canack
Canack
#4 | 09. Nov 2010, 15:24
GTX580 vs. HD6870:
~50% schneller, ~110% teurer.
rate (9)  |  rate (22)
Avatar Jahkri
Jahkri
#5 | 09. Nov 2010, 15:30
Hmmm... kam ja schneller als gedacht. Aber ist noch bei keinem Händler gelistet (zumindest in CH).

Naja... mal abwarten wieviel die dafür wollen. Wäre allerdings ne tolle Ablösung für meine GTX 280.

Aber ich werde wahrscheinlich noch bis Anfang nächstes Jahr warten bis die mit Spannung erwarteten Hit-Games (vorallem The Witcher 2, Dragon Age 2, Deus Ex:HR, usw.) erscheinen.

Grüsse aus CH
jahkri
rate (6)  |  rate (1)
Avatar Asavar Khul
Asavar Khul
#6 | 09. Nov 2010, 15:34
Zitat von Canack:
GTX580 vs. HD6870:
~50% schneller, ~110% teurer.


Man muss halt wissen wofür man sie braucht. Bei großen Auflösungen und 8 facher Kantenglättung rechnet die Geforce 100% schneller und bei der Radeon hingegen beginnt es zu ruckeln.

Mir würde diese Karte zwar auch gefallen aber ich denke ich schaue lieber was für eine Leistung die 560 bringen wird.
rate (13)  |  rate (1)
Avatar Adecius
Adecius
#7 | 09. Nov 2010, 15:46
Beeindruckend. Man sieht doch das die Fermi Architektur gewaltig Potenzial hat. Da bin ich gespannt ob AMD ähnlich viel nachlegen kann. Der reine Leistungsunterschied zu einer 5870 ist schon gigantisch. So gross, das ich meine Zweifel habe das AMD da etwas vergleichbares ohne Crossfire, zumindest mit dem aktuellen Chip bringen kann.
Das würde mich fast reizen von meiner 5870 auf die gtx 580 umzusteigen, leisten könnte ichs mir. Aber was hab ich davon in 1680 :P
Ich spar mir lieber das Geld.
Hm, wobei... da hätte ich soviel überflüssige Leistung das ich auch in ein paar Jahren noch alles ohne Probleme in der nativen Auflösung in höchsten Einstellungen spielen könnte.
Aber dann gibts wieder Grafikkarten die evtl viel weniger Strom brauchen bei noch mehr Leistung...
Hach diese ewige abwägerei. Ob man sich das jetzt gönnt oder eine Grafikkarte in 5 Jahren. Ein zu schnell wirds wohl nie geben. Wenn man es sich finanziell leisten kann, kann man eigentlich nie behaupten es wäre eine falsche Investition (gewesen).
rate (6)  |  rate (4)
Avatar Damnatus
Damnatus
#8 | 09. Nov 2010, 15:58
nVidia is back! Yeah. Wurde auch Zeit.
rate (23)  |  rate (8)
Avatar Piismaker
Piismaker
#9 | 09. Nov 2010, 15:58
Zitat von Adecius:
Beeindruckend. Man sieht doch das die Fermi Architektur gewaltig ......... falsche Investition (gewesen).


Ich würde unbedingt noch auf den Test der neuen Radeon warten. Die wird ja wahrscheinlich noch diesen Monat vorgestellt.
rate (6)  |  rate (9)
Avatar richie9197
richie9197
#10 | 09. Nov 2010, 16:06
Geiles Teil
rate (10)  |  rate (4)
1 2 3 ... 9 weiter »

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten