Nvidia Geforce GTX 670

Grafikkarten   |   Datum: 10.05.2012
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
Avatar Tauly
Tauly
#1 | 10. Mai 2012, 15:05
Mein Leben für Ner'zhul
rate (32)  |  rate (4)
Avatar derr
derr
#2 | 10. Mai 2012, 15:06
scheint klasse zu sein wird villeicht meine gtx 560 ti ersetzen..
mit nem neuen lüfter versteht sich ;)
rate (12)  |  rate (6)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#3 | 10. Mai 2012, 15:13
Überraschend, dass die Karte jetzt einfach so und ohne viel "Tada!" seiten Nvidia raus kommt!

Edit: Was hab ich euch denn getan?
rate (16)  |  rate (11)
Avatar Paksh1
Paksh1
#4 | 10. Mai 2012, 15:15
Wenn AMD nicht bald mit nem Hammer aufschlägt wirds hart für die jungs ^^ ich hab eine 680gtx von gainward und muss sagen

ich mag nicht nur züge jetzt auch brechstangen :P

mit dem Baby dürfte man locker 4 jahre auskommen grade bei der 600er serie is Nvidia nen echter Hammer gelungen sind zwar recht teuer aber man muss betrachten wie lange die Lebenszeit von den babys ist ^^
rate (10)  |  rate (24)
Avatar »Dragoon«
»Dragoon«
#5 | 10. Mai 2012, 15:16
Zitat von Tauly:
wie auf einmal gefühlte 100 tests gleichzeitig rauskommen ^^

aber 400 euro hm..


Heute ist Release-Tag der GTX 670, da ist wohl auch der NDA gefallen für von Nvidia gestellte Vorfürmodele.
rate (2)  |  rate (3)
Avatar Morrich
Morrich
#6 | 10. Mai 2012, 15:18
Wie erwartet zum offiziellen Marktstart noch zu teuer gegenüber der Konkurrenz, aber das wird sich wohl recht schnell ändern.

Leistungs- und Verbrauchswerte stimmen auf jeden Fall schonmal.

Wenn die Preise jetzt noch soweit sinken, dass man für die GTX670 nur max. 30€ mehr zahlen muss als für die HD7950, dann passt das durchaus.

Nun erwarte ich noch die kleineren Karten in dem Preisbereich der für die meisten Kunden interessant ist. Nämlich 150-250€.
rate (13)  |  rate (3)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#7 | 10. Mai 2012, 15:21
Also wirklich!
Hab nur ich das Gefühl oder hat wirklich jede der letzten Referenzkarten einen ziemlich unbrauchbaren Lüfter?
Die Karte nimmt unter Last drei Watt mehr als die GTX 560 Ti auf und deren Lüfter läuft mit weniger als der Hälfte an Sone.

Sorry, Nvidia und AMD, aber solche Kühllösungen sind für mich einfach inakzeptabel!

Wäre das Referenzdesign Single-Slot könnte man ja solch extreme Lautstärken noch akzeptieren, aber so...

P.s.: Immerhin war der Lüfter der Referenz-560Ti ja auch sehr gut, aber trotzdem : Die Karte war Mittelklasse(vom Preis), dass hier ist High-End. Da kann man schon ein bischen mehr Kühlungsqualität erwarten!
rate (7)  |  rate (9)
Avatar Black83
Black83
#8 | 10. Mai 2012, 15:26
Kauf dir halt eine gescheite Wakü, dann macht sie gar keine Geräusche mehr und wird keine 50°C bei full OC heiß. Referenzdesigns sind auch nur dazu da, damit der Wakü Kühlblock passt :D
rate (3)  |  rate (8)
Avatar se2ast9an438
se2ast9an438
#9 | 10. Mai 2012, 15:27
Ich wart jetzt nur noch auf ein Coustom Design das so lang ist wie die Platine und dann überleg ich mir ernsthaft einen Gaming HTPC zu bauen!
Ich finde die Karte echt super wenn der Preis noch etwas fällt...
rate (3)  |  rate (0)
Avatar Hatschi18
Hatschi18
#10 | 10. Mai 2012, 15:27
Zitat von Cd-Labs: Radon Project:
Also wirklich!
Hab nur ich das gefühl oder hat wirklich jede der letzten Referenzkarten einen ziemlich unbrauchbaren Lüfter?


Naja... habe hier die GTX680 von Zotac und die ist vom Gehäuse bzw. Lüfter her identisch mit dem Original.

Ich höre den Lüfter überhaupt nicht, während ich BF3 mit vollen Details spiele (Ton aus). Die Temperaturen sind im normal Bereich.

Dennoch wurde auch bei der Karte wegen angeblich lautem Lüfter geklagt (von den Testzeitschriften). Alternativ bleiben Tools wie MSI Afterburner, wo sich die Lüftergeschwindigkeit regulieren lässt.

Eventuell mag das Lüftergeräusch ein Problem werden, bei mehreren Monitoren, oder bei etwas, was die Grafikkarte mal ins Schwitzen bringt, Benchmarks z.B.
Aber das ist beim normalen Zocker, der sich keine Gedanken um Tweaks und Frameskitzeleien machen will, eher selten der Fall.
rate (3)  |  rate (1)
Avatar Viper
Viper
#11 | 10. Mai 2012, 15:28
400€ sind imho zu teuer für die Leistung, das wird wohl eher kein Kassenschlager wie z.B die GTX 460 oder 560Ti, da hätte man von Anfang an härter kalkulieren müssen, so wird der Großteil wohl eher noch abwarten bis die Preise sinken.
rate (5)  |  rate (2)
Avatar Columbo1
Columbo1
#12 | 10. Mai 2012, 15:32
Die hol ich mir zum Release von Crysis 3.
rate (1)  |  rate (3)
Avatar Wahnsinn
Wahnsinn
#13 | 10. Mai 2012, 15:33
Die wirds dann wohl in ein paar Monaten werden (Oder entsprechende Refreshes). =)
rate (2)  |  rate (1)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#14 | 10. Mai 2012, 15:35
Zitat von Hatschi18:


Naja... habe hier die GTX680 von Zotac und die ist vom Gehäuse bzw. Lüfter her identisch mit dem Original.

Ich höre den Lüfter überhaupt nicht, während ich BF3 mit vollen Details spiele (Ton aus). Die Temperaturen sind im normal Bereich.

Dennoch wurde auch bei der Karte wegen angeblich lautem Lüfter geklagt (von den Testzeitschriften). Alternativ bleiben Tools wie MSI Afterburner, wo sich die Lüftergeschwindigkeit regulieren lässt.

Eventuell mag das Lüftergeräusch ein Problem werden, bei mehreren Monitoren, oder bei etwas, was die Grafikkarte mal ins Schwitzen bringt, Benchmarks z.B.
Aber das ist beim normalen Zocker, der sich keine Gedanken um Tweaks und Frameskitzeleien machen will, eher selten der Fall.

Naja, die Frage ist hier wohl, womit Gamestar die Geräuschsemmisionen momentan testet.
Früher wars ja mal nen Spiel(ich glaube Anno 1404), ist es dann momentan Anno 2070 oder seit ihr auf Furmark umgestiegen?
Dann wäre das Ergebnis nämlich wirklich nicht praxisrelevant.
Deine Ausführung finde ich im Vergleich dazu ziemlich interessant, danke!

P.s.: Es wird mit Metro 2033 gemessen: "... und so messen wir in Metro 2033 unter Volllast einen Verbrauch von maximal 282 Watt für unser Testsystem..."
rate (0)  |  rate (1)
Avatar krucki
krucki
#15 | 10. Mai 2012, 15:41
Hm, wenn irgendein Boardpartner die Kühlung mti eine Laustärke von 1 Sone schafft, dann wirds was. Sonst greife ich zur Powercolor 7950.
rate (0)  |  rate (2)
Avatar Goldphor
Goldphor
#16 | 10. Mai 2012, 15:58
Zitat von Cd-Labs: Radon Project:
Überraschend, dass die Karte jetzt einfach so und ohne viel "Tada!" seiten Nvidia raus kommt!

Edit: Was hab ich euch denn getan?



Das ist bei Gamestar.de Normal du bekommst oft Daumen Runter ohne ersichtlichen Grund.
rate (7)  |  rate (6)
Avatar sgtluk3
sgtluk3
#17 | 10. Mai 2012, 16:01
Tja...teilweise 30% schneller als HD7870 und teilweise "nur" gleich schnell.
dafür mehr als 100€ teurer. Bei mirds dann wohl doch die 7870. Schade Nvidia. Wäre Sie günstiger hätte ich sie mir geholt.
rate (2)  |  rate (2)
Avatar Morrich
Morrich
#18 | 10. Mai 2012, 16:01
Zitat von Viper:
400€ sind imho zu teuer für die Leistung, das wird wohl eher kein Kassenschlager wie z.B die GTX 460 oder 560Ti, da hätte man von Anfang an härter kalkulieren müssen, so wird der Großteil wohl eher noch abwarten bis die Preise sinken.


Ist doch immer so, dass die Karten zu einem überhöhten Preis rauskommen um die abzukassieren die partout nicht warten wollen und dann fallen sie in den nächsten Wochen nochmal ein gutes Stück.

Also alles wie gehabt. Wenn die Teile bei etwa 350-360€ angekommen sind, dann stehen sie in guter Konkurrenz zu den etwa 330€ teuren HD7950 Modellen.
rate (0)  |  rate (2)
Avatar sgtluk3
sgtluk3
#19 | 10. Mai 2012, 16:03
Zitat von Morrich:


Ist doch immer so, dass die Karten zu einem überhöhten Preis rauskommen um die abzukassieren die partout nicht warten wollen und dann fallen sie in den nächsten Wochen nochmal ein gutes Stück.

Also alles wie gehabt. Wenn die Teile bei etwa 350-360€ angekommen sind, dann stehen sie in guter Konkurrenz zu den etwa 330€ teuren HD7950 Modellen.


Naja, das Problem ist nur, dass ich auch für 300€ ne 7870 kaufen kann, die einfach übertakte auf Niveau einer 7950 und dann immer noch gespart habe.
rate (2)  |  rate (2)
Avatar Premium Sycko
Premium Sycko
#20 | 10. Mai 2012, 16:07
Hört sich alles ganz gut an, aber 400€ ist mir dann doch zu viel des guten.
rate (4)  |  rate (2)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#21 | 10. Mai 2012, 16:10
Zitat von Goldphor:



Das ist bei Gamestar.de normal du bekommst oft Daumen runter ohne ersichtlichen Grund.

Ich glaube, dass liegt auch zum Teil daran, dass Votes Punkte geben.
Manche Leute sind sich ja aber auch echt für nichts zu schade...
rate (7)  |  rate (5)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#22 | 10. Mai 2012, 16:13
Zitat von Columbo1:
Die hol ich mir zum Release von Crysis 3.

Nur vom Titelbild darauf zu schließen, dass diese Karte für Crysis 3 prädestiniert ist, halte ich dann doch für etwas zu kurzsichtig.

Ausserdem ist bis dahin sicher schon längst eine Refresh-Generation auf dem Markt!
rate (0)  |  rate (6)
Avatar Feverr
Feverr
#23 | 10. Mai 2012, 16:16
Wieder einmal eine gelungene Grafikkarte für den High-End-Bereich, aber im wichtigsten Bereich, der von 100€ bis 200€, hat NVidia nur sehr wenig zu bieten.

Zudem liebäugeln viele mit 4 Jahren und längerer Haltbarkeit, vergessen dabei aber dass nächstes Jahr neue Konsolen herauskommen und die Anforderungen dadurch sehr steigen könnten, wodurch die Leistung der aktuellen High-End-Karten wieder knapp ausfallen könnte.

Aber ich bin mal optimistisch und sage, dass eine momentane High-End-Karte auch für eine gute Darstellung von Next-Gen-Titeln ausreichen kann.
rate (2)  |  rate (2)
Avatar Hatschi18
Hatschi18
#24 | 10. Mai 2012, 16:29
Zitat von Feverr:
Wieder einmal eine gelungene Grafikkarte für den High-End-Bereich, aber im wichtigsten Bereich, der von 100€ bis 200€, hat NVidia nur sehr wenig zu bieten.


400er Serie? Vor meiner 680 hatte ich eine 460 GTX und mit der konnte ich BF3 auf mittleren Details ruckelfrei spielen. Die Karte kostet momentan zwischen 70-180€ (je nach Variante).

Wer volle Details, 16-AA und Co ruckelfrei spielen will, der darf nichts unter 200€ erwarten. Die 400er Serie reicht aber dennoch locker aus für 80% der Spiele mit vollen Details.
rate (4)  |  rate (3)
Avatar Rollora
Rollora
#25 | 10. Mai 2012, 16:32
Aha im Vergleich zur 7970 braucht sie fast 100 Watt weniger unter Last und ist gleich schnell?
Tschüss AMD
rate (6)  |  rate (3)
Avatar sgtluk3
sgtluk3
#26 | 10. Mai 2012, 16:44
Zitat von Rollora:
Aha im Vergleich zur 7970 braucht sie fast 100 Watt weniger unter Last und ist gleich schnell?
Tschüss AMD


Naja kommt immer auf das Spiel an. Sie ist nie viel schneller und in Metro sogar um einiges langsamer.
Vielleicht fallen dadurch aber die Preise der AMD Karten, was ich sehr begrüßen würde.
rate (2)  |  rate (3)
Avatar mh0001
mh0001
#27 | 10. Mai 2012, 16:56
Zitat von Luk3:
Tja...teilweise 30% schneller als HD7870 und teilweise "nur" gleich schnell.
dafür mehr als 100€ teurer. Bei mirds dann wohl doch die 7870. Schade Nvidia. Wäre Sie günstiger hätte ich sie mir geholt.


Lesen bitte, nicht 7870 sondern 7970. Diese ist sogar 10€ teurer als die GTX670.
rate (1)  |  rate (3)
Avatar Morrich
Morrich
#28 | 10. Mai 2012, 17:12
Zitat von Rollora:
Aha im Vergleich zur 7970 braucht sie fast 100 Watt weniger unter Last und ist gleich schnell?
Tschüss AMD


Vorsicht vor den Gamestar Hardware Tests!

Computerbase kommt beim Test gerade mal auf 45W Differenz unter Last. Im IDLE ist die HD7970 sogar 3W genügsamer.
Das erscheint mir auch als das deutlich realistischere Ergebnis.

Und gleich schnell ist die GTX670 auch nur in FullHD. Alles was drüber liegt, entscheidet die HD7970 klar für sich.
Bei ner Karte die einen knappe 400€ kostet, kann man davon ausgehen, dass nicht nur in FullHD gespielt wird.

Also nix mit "Tschüss AMD". Bisschen objektivität walten lassen.
rate (6)  |  rate (5)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#29 | 10. Mai 2012, 17:21
Zitat von Morrich:


Vorsicht vor den Gamestar Hardware Tests!

Computerbase kommt beim Test gerade mal auf 45W Differenz unter Last. Im IDLE ist die HD7970 sogar 3W genügsamer.
Das erscheint mir auch als das deutlich realistischere Ergebnis.

Und gleich schnell ist die GTX670 auch nur in FullHD. Alles was drüber liegt, entscheidet die HD7970 klar für sich.
Bei ner Karte die einen knappe 400€ kostet, kann man davon ausgehen, dass nicht nur in FullHD gespielt wird.

Also nix mit "Tschüss AMD". Bisschen objektivität walten lassen.

Weder Computerbase noch Gamestar sollte man bei den Tests zur Leistungsaufnahme als Quelle nehmen, da beide den Verbrauch des Gesamtsystems ermitteln.

Als einzige Seite, die nur den Verbrauch der Karte misst, kenne ich Hardware4U:
http://ht4u.net/reviews/2012/nvidia_geforc e_gtx_670_im_test/index13.php
rate (2)  |  rate (4)
Avatar stojo
stojo
#30 | 10. Mai 2012, 17:31
Da ist ein Fehler im Test. Wenn man die Kategorie "Performance Rating" öffnet und oben die Kantenglättungsstufen durchklickt, liefern laut der Tabelle alle Grafikkarten die meiste Leistung bei 8X AA und 16x AF. Bitte korrigieren.
rate (2)  |  rate (2)
Avatar Feverr
Feverr
#31 | 10. Mai 2012, 17:39
Zitat von Hatschi18:


400er Serie? Vor meiner 680 hatte ich eine 460 GTX und mit der konnte ich BF3 auf mittleren Details ruckelfrei spielen. Die Karte kostet momentan zwischen 70-180€ (je nach Variante).

Wer volle Details, 16-AA und Co ruckelfrei spielen will, der darf nichts unter 200€ erwarten. Die 400er Serie reicht aber dennoch locker aus für 80% der Spiele mit vollen Details.


Naja für den gleichen Preis bekommt man eine AMD HD6870, die ca. 15% mehr Leistung bei gleicher Leistungsaufnahme bietet.
rate (2)  |  rate (3)
Avatar Kiwisouffle
Kiwisouffle
#32 | 10. Mai 2012, 17:53
wenn man bedenkt, dass der direkte konkurrent (hd 7970) ziemlich genau auf augenhöhe ist, schon eine preissenkung erfahren hat und weniger featurs besitzt, dann ist dieser listenpreis doch eine ziemliche ansage an AMD.
natürlich davon abgesehen, dass das neue high end segment seit letzter generation sowieso teurer geworden ist.

wenn ich dann nach release der konsolen aufrüste, werd ich wohl ins mid-range segment wechseln (müssen). ~100,- unterschied ist mir dann doch zu viel holz (=Stundent)
rate (0)  |  rate (1)
Avatar sgtluk3
sgtluk3
#33 | 10. Mai 2012, 17:54
Zitat von mh0001:


Lesen bitte, nicht 7870 sondern 7970. Diese ist sogar 10€ teurer als die GTX670.


Ich habe gelesen, und ich dachte zuerst die Karte soll die 7870 angreifen.
Aber ich finde dennoch, der Preis rechtfertigs das bisschen mehr Leistung gegenüber der 7870 nicht.
Aber erstmal abwarten was die Preise in den nächsten Wochen machen.
rate (1)  |  rate (1)
Avatar Kiwisouffle
Kiwisouffle
#34 | 10. Mai 2012, 18:02
Zitat von stojo:
Da ist ein Fehler im Test. Wenn man die Kategorie "Performance Rating" öffnet und oben die Kantenglättungsstufen durchklickt, liefern laut der Tabelle alle Grafikkarten die meiste Leistung bei 8X AA und 16x AF. Bitte korrigieren.


tja, das liegt an gamestar und ihrer sinnfreien entscheidung, nur zwei sehr hardware-freundliche spiele in der kategorie "8X AA und 16x AF" zu testen. damit man ja nicht sieht, wie nah die high end karten dann doch in den für sie relevanten einstellungen bei einander liegen!
das regt mich schon seit langem an den graka-tests der GS auf!
rate (1)  |  rate (2)
Avatar badtaste21
badtaste21
#35 | 10. Mai 2012, 18:12
Gemessen daran, das ne 7970 derzeit auch erst ab 400 € zu haben ist, kann man sagen das die 670 jetzt schon besser da steht (etwa gleiche Leistung, aber weniger Stromverbrauch, immerhin 80 Watt weniger !).
rate (2)  |  rate (1)
Avatar Rollora
Rollora
#36 | 10. Mai 2012, 18:39
Zitat von Morrich:

Also nix mit "Tschüss AMD". Bisschen objektivität walten lassen.

mehr Leistung, mehr Features weniger Verbrauch, gleicher Preis für Nvidia. Egal bei welchem Test, lediglich die Differenz schwankt ein kleines bisschen.
Wenn alles für eine Karte spricht : Tschüss AMD.
Bisschen Objektivität walten lassen.

Und komm mir jetzt nicht mit Preisnachlass, die 670 und 680er Boards haben ein wesentlich günstigeres Boardlayout (weniger Speicherbandbreite, billigere Wandler und co), sowie den deutlich kleineren und somit billiger produzierbaren Chip. Egal wie niedrig AMD im Preis geht, Nvidia geht mit und verdient dabei mehr. Im Gegensatz zu den vorigen Generationen ist hier Nvidia auf allen Linien das bessere Produkt geglückt und das muss ich als sonst regelmäßiger AMD bevorzuger einfach eingestehen.
rate (2)  |  rate (0)
Avatar Wari
Wari
#37 | 10. Mai 2012, 19:44
in bf3 bei 4facher kantenglättung gerade mal 53fps, sehr enttaeuschend..

warum achte ich nur auf bf3? weil meine gtx480 noch alle spiele locker schafft und ich bei bf3 auf max selber 45 fps habe..

der sprung von 45 auf 53 fps ist mir keine 400 euro wert...

gtx 690 bzw 680 sind mir zu teuer, von daher muss ich wohl mal wieder ne generation abwarten...
rate (0)  |  rate (1)
Avatar Sonic_1983
Sonic_1983
#38 | 10. Mai 2012, 19:55
das hört sich doch sehr sehr gut an,wird dan sehr bald meine 470 ablösen.
rate (0)  |  rate (0)
Avatar Haakon
Haakon
#39 | 10. Mai 2012, 20:33
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar schattenseele
schattenseele
#40 | 10. Mai 2012, 21:07
wie ist das eigentlich, wenn man ein board mit PCIe 2.0 hat? macht das einen unterschied?
rate (0)  |  rate (0)

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten