Nvidia Geforce GTX 670

Grafikkarten   |   Datum: 10.05.2012
Seite 1 2 3 4 5 6 7   Wertung

Nvidia Geforce GTX 670 im Test

Geforce-Oberklasse für 400 Euro

Im Test ist die Geforce GTX 670 die erste Grafikkarte aus Nvidias neuer 28-nm-Generation für weniger als 500 Euro. Benchmark-Leistung und Energieffizienz sind weiter Spitze, der Referenzlüfter aber zu laut.

Von Hendrik Weins |

Datum: 10.05.2012


Zum Thema » Nvidia Geforce GTX 680 im Test Turbo-Geforce setzt neue Maßstäbe » Nvidia Geforce GTX 690 im Test Brutal teuer, brutal schnell » 10 Grafik-Meilensteine Auf dem Weg zur Geforce GTX 680 » Geforce-Historie 19 Jahre Grafikkarten Nvidia setzt bei der neuen Geforce GTX 670 auf den GK104-Grafikchip, der auch bei den Top-Modellen der Geforce-GTX-600-Serie zum Einsatz kommt. Somit basiert die neue Grafikkarte ebenfalls auf der aktuellen Kepler-Architektur und dem modernen 28-nm-Fertigungsprozess, was die Energieffizienz gegenüber der Vorgängergeneration nahezu verdoppelt.

Nach der rund 500 Euro teuren Geforce GTX 680 und dem extrem schnellen, aber auch wahnwitzig teuren 1.000-Euro-Flaggschiff Geforce GTX 690 mit zwei Kepler-Grafikchips soll die Geforce GTX 670 für beinahe preiswerte 400 Euro ab sofort erhältlich sein.

Nvidia selbst vergleicht die GTX 670 vor allem mit der Radeon HD 7950 und will diese durch die Bank schlagen. Aber auch AMDs rund 420 Euro teures Flagschiff Radeon HD 7970 soll von der GTX 670 zumindest eingeholt, wenn nicht sogar überholt werden. Im Test der Geforce GTX 670 werden wir das durch ausführliche Benchmarks überprüfen.

Update: Gut ein Jahr nach Veröffentlichung der aktuellen Radeon- und Geforce-Generation haben wir das komplette Portfolio von AMD und Nvidia erneut getestet. Durch permanente Treiber-Optimierungen haben sich die Relationen der einzelnen Karten zueinander leicht verschoben, so dass die in diesem Artikel stehenden Benchmarks nicht mehr das aktuelle Leistungsgefüge abbilden. Ständig aktualisierte Benchmarks finden Sie im Artikel Die besten Grafikkarten.

Nvidia Geforce GTX 670 : So viel sei vorweg verraten: An Leistung mangelt es der Geforce GTX 670 im Test nicht. So viel sei vorweg verraten: An Leistung mangelt es der Geforce GTX 670 im Test nicht.

Geforce GTX 670 im Detail

Wie schon auf der Geforce GTX 680 und der Geforce GTX 690 verwendet auch die Geforce GTX 670 den im modernen 28-nm-Prozess gefertigten GK104-Chip. Allerdings wurde der im Vergleich zur GTX 680 leicht abgespeckt. Liegen die Taktraten von 915/6.008 MHz noch exakt auf dem Niveau der beiden Grafikchips der GTX 690, läuft die GTX 680 mit 1.006/6.008 MHz aber mit einem rund 10 Prozent höheren Chiptakt. Auch der 2,0 GByte große GDDR5-Videospeicher der GTX 670 entspricht den teureren Modellen ebenso wie die maximale Speicherbandbreite von 192,2 GByte/s, die durch den identischen Speichertakt und das ebenfalls 256 Bit breite Speicher-Interface bedingt wird. Statt acht SMX-Shaderblöcken mit je 192 Rechenwerken wie auf der GTX 680 sind auf der Geforce GTX 670 aber nur noch sieben vorhanden. Dementsprechend reduziert sich die Shader-Anzahl von 1.536 auf 1.344 und die der Textur-Einheiten von 128 auf 112.

Abgesehen vom fehlenden SMX-Baustein sind sich Geforce GTX 680 und GTX 670 extrem ähnlich. Alle neuen, mit Kepler eingeführten Techniken, sind mit an Bord. Damit unterstützt die GTX 670 unter anderem das verbesserte VSync sowie die Turbo-Technik GPU Boost, die die Taktraten der Grafikkarte entsprechend der Auslastung automatisch erhöht. Nvidia verspricht je nach Kühlung eine Steigerung auf mindestens 980 MHz, in unserem Test erreichte der Grafikchip maximal 1.084 MHz. Ohne Last sinken die Taktfrequenzen auf 324/648 MHz ab und helfen so beim Strom sparen. Welche Vorteile die einzelnen Neuerungen der Kepler-Architektur genau bedeuten, haben wir im Test der Geforce GTX 680 ausführlich überprüft.

Nvidia Geforce GTX 670 : Anders als bei aktuellen Radeon-Karten lassen sich an die GTX 670 bis zu drei Monitore anschließen, ohne einen Displayport-TFT oder einen passenden Adapter zu brauchen. Anders als bei aktuellen Radeon-Karten lassen sich an die GTX 670 bis zu drei Monitore anschließen, ohne einen Displayport-TFT oder einen passenden Adapter zu brauchen. Technisch ist die Geforce GTX 670 auf der Höhe der Zeit und unterstützt mit DirectX 11.1 sowie PCI Express 3.0 die wichtigen aktuellen Standards. Die Nvidia-eigene Technik 3D Vision 2 sorgt in Verbindung mit einem passenden 120-Hertz-Monitor und der 3D-Vision-Brille für gelungenes, stereoskopisches 3D oder erlaubt den Betrieb von bis zu vier Monitoren an einer Grafikkarte. Für diesen Fall besitzt die GTX 670 zwei Dual-Link-fähige DVI-Ausgänge sowie einen HDMI- und einen Displayport-Anschluss. Auch PhysX zur Berechnung von Physik in Spielen beherrscht die GTX 670, auch wenn diese Technik nur von den wenigsten Titeln unterstützt wird – bislang ist beispielsweise unklar, welche neuen PhysX-Titel in diesem Jahr überhaupt erscheinen.

Technische Daten

Geforce GTX 670

Geforce GTX 680

Radeon HD 7970

Grafikchip

GK104

GK104

Tahiti XT

Fertigung

28 nm

28 nm

28 nm

Chiptakt

915 MHz

1.006 MHz

925 MHz

Shader-Einheiten

1.344

1.536

2.048

Textur-Einheiten

122

128

128

GDDR5-Speicher

2.048 MByte

2.048 MByte

3.072 MByte

Speichertakt (effektiv)

6.008 MHz

6.008 MHz

5.500 MHz

Speicheranbindung

256 Bit

256 Bit

384 Bit

Speicherbandbreite

192 GB/s

192 GB/s

264 GB/s

Stromverbrauch (Volllast)

170 Watt

195 Watt

250 Watt

Stromverbrauch (Leerlauf)

15 Watt

15 Watt

15 Watt

Preis

400 Euro

500 Euro

Diesen Artikel:   Kommentieren (61) | Drucken | E-Mail
FACEBOOK:
TWITTER:
 
WEITERE NETZE: Weitersagen
Sagen Sie Ihre Meinung (» alle Kommentare)
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1 2 3 ... 7 weiter »
Avatar Tauly
Tauly
#1 | 10. Mai 2012, 15:05
Mein Leben für Ner'zhul
rate (32)  |  rate (4)
Avatar derr
derr
#2 | 10. Mai 2012, 15:06
scheint klasse zu sein wird villeicht meine gtx 560 ti ersetzen..
mit nem neuen lüfter versteht sich ;)
rate (12)  |  rate (6)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#3 | 10. Mai 2012, 15:13
Überraschend, dass die Karte jetzt einfach so und ohne viel "Tada!" seiten Nvidia raus kommt!

Edit: Was hab ich euch denn getan?
rate (15)  |  rate (11)
Avatar Paksh1
Paksh1
#4 | 10. Mai 2012, 15:15
Wenn AMD nicht bald mit nem Hammer aufschlägt wirds hart für die jungs ^^ ich hab eine 680gtx von gainward und muss sagen

ich mag nicht nur züge jetzt auch brechstangen :P

mit dem Baby dürfte man locker 4 jahre auskommen grade bei der 600er serie is Nvidia nen echter Hammer gelungen sind zwar recht teuer aber man muss betrachten wie lange die Lebenszeit von den babys ist ^^
rate (10)  |  rate (24)
Avatar »Dragoon«
»Dragoon«
#5 | 10. Mai 2012, 15:16
Zitat von Tauly:
wie auf einmal gefühlte 100 tests gleichzeitig rauskommen ^^

aber 400 euro hm..


Heute ist Release-Tag der GTX 670, da ist wohl auch der NDA gefallen für von Nvidia gestellte Vorfürmodele.
rate (2)  |  rate (3)
Avatar Morrich
Morrich
#6 | 10. Mai 2012, 15:18
Wie erwartet zum offiziellen Marktstart noch zu teuer gegenüber der Konkurrenz, aber das wird sich wohl recht schnell ändern.

Leistungs- und Verbrauchswerte stimmen auf jeden Fall schonmal.

Wenn die Preise jetzt noch soweit sinken, dass man für die GTX670 nur max. 30€ mehr zahlen muss als für die HD7950, dann passt das durchaus.

Nun erwarte ich noch die kleineren Karten in dem Preisbereich der für die meisten Kunden interessant ist. Nämlich 150-250€.
rate (13)  |  rate (3)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#7 | 10. Mai 2012, 15:21
Also wirklich!
Hab nur ich das Gefühl oder hat wirklich jede der letzten Referenzkarten einen ziemlich unbrauchbaren Lüfter?
Die Karte nimmt unter Last drei Watt mehr als die GTX 560 Ti auf und deren Lüfter läuft mit weniger als der Hälfte an Sone.

Sorry, Nvidia und AMD, aber solche Kühllösungen sind für mich einfach inakzeptabel!

Wäre das Referenzdesign Single-Slot könnte man ja solch extreme Lautstärken noch akzeptieren, aber so...

P.s.: Immerhin war der Lüfter der Referenz-560Ti ja auch sehr gut, aber trotzdem : Die Karte war Mittelklasse(vom Preis), dass hier ist High-End. Da kann man schon ein bischen mehr Kühlungsqualität erwarten!
rate (7)  |  rate (9)
Avatar Black83
Black83
#8 | 10. Mai 2012, 15:26
Kauf dir halt eine gescheite Wakü, dann macht sie gar keine Geräusche mehr und wird keine 50°C bei full OC heiß. Referenzdesigns sind auch nur dazu da, damit der Wakü Kühlblock passt :D
rate (3)  |  rate (8)
Avatar se2ast9an438
se2ast9an438
#9 | 10. Mai 2012, 15:27
Ich wart jetzt nur noch auf ein Coustom Design das so lang ist wie die Platine und dann überleg ich mir ernsthaft einen Gaming HTPC zu bauen!
Ich finde die Karte echt super wenn der Preis noch etwas fällt...
rate (3)  |  rate (0)
Avatar Hatschi18
Hatschi18
#10 | 10. Mai 2012, 15:27
Zitat von Cd-Labs: Radon Project:
Also wirklich!
Hab nur ich das gefühl oder hat wirklich jede der letzten Referenzkarten einen ziemlich unbrauchbaren Lüfter?


Naja... habe hier die GTX680 von Zotac und die ist vom Gehäuse bzw. Lüfter her identisch mit dem Original.

Ich höre den Lüfter überhaupt nicht, während ich BF3 mit vollen Details spiele (Ton aus). Die Temperaturen sind im normal Bereich.

Dennoch wurde auch bei der Karte wegen angeblich lautem Lüfter geklagt (von den Testzeitschriften). Alternativ bleiben Tools wie MSI Afterburner, wo sich die Lüftergeschwindigkeit regulieren lässt.

Eventuell mag das Lüftergeräusch ein Problem werden, bei mehreren Monitoren, oder bei etwas, was die Grafikkarte mal ins Schwitzen bringt, Benchmarks z.B.
Aber das ist beim normalen Zocker, der sich keine Gedanken um Tweaks und Frameskitzeleien machen will, eher selten der Fall.
rate (3)  |  rate (1)
1 2 3 ... 7 weiter »

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten