MSI Radeon HD 7950 Twin Frozr

Grafikkarten   |   Datum: 14.07.2012
Seite 1 2 3 4 5 6   Wertung

MSI Radeon HD 7950 Twin Frozr im Test

Mehr Takt und bessere Kühlung für Radeon HD 7950

Im Test der 340 Euro teuren MSI Radeon HD 7950 Twin Frozr klären wir, wie sich der höhere Takt und die verbesserte Kühlung der HD 7950 in den Spiele-Benchmarks auswirken.

Von Hendrik Weins |

Datum: 14.07.2012


Zum Thema » AMD Radeon HD 7950 im Test Sparsame High-End-Grafikkarte » Maximale Bildqualität Kantenglättung und Texturfilter » Radeon Eyefinity im Spiele-Test So gut spielen Sie auf drei TFTs MSI verspricht, dass die MSI Radeon HD 7950 Twin Frozr nicht nur schneller, sondern auch kühler und leiser arbeiten soll als das Referenzmodell der HD 7950. Möglich machen soll das der eigene Kühler mit zwei Lüftern namens Twin Frozr. Zudem hebt der Hersteller den Chiptakt der Radeon HD 7950 von 800 auf 880 MHz an. Während die Geschwindigkeit der 3,0 GByte großen Grafikspeichers mit effektiv 5.000 MHz unangetastet bleibt, beträgt die deutliche Steigerung des Chiptaktes exakt zehn Prozent.

Das Platinenlayout unterscheidet sich nicht vom AMD-Referenzmodell. Die Twin Frozr ist mit 27,5 cm genauso lang und auch die beiden sechspoligen Stromanschlüsse sowie die Videoausgänge (DVI, HDMI und zweimal Mini-Displayport) entsprechen dem Original. Im Test muss die 340 Euro teure MSI Radeon HD 7950 Twin Frozr zeigen, ob die Überaktung auch in Spielen einen mess- und vor allem spürbaren Vorteil bringt und auch, ob die Versprechungen bezüglich Temperatur und Lautstärke der Wahrheit entsprechen.

Update März 2013: Gut ein Jahr nach Veröffentlichung der aktuellen Radeon- und Geforce-Generation haben wir das komplette Portfolio von AMD und Nvidia erneut getestet. Durch permanente Treiber-Optimierungen haben sich die Relationen der einzelnen Karten zueinander leicht verschoben, so dass die in diesem Artikel stehenden Benchmarks nicht mehr das aktuelle Leistungsgefüge abbilden. Ständig aktualisierte Benchmarks finden Sie im Artikel Die besten Grafikkarten.

MSI Radeon HD 7950 Twin Frozr : Doppellüfter und erhöhte Taktraten, die MSI Radeon HD 7950 Twin Frozr verspricht mehr Leistung bei leiserer und besserer Kühlung. Doppellüfter und erhöhte Taktraten, die MSI Radeon HD 7950 Twin Frozr verspricht mehr Leistung bei leiserer und besserer Kühlung.

Testsystem

Unsere Testplattform besteht aus einem 3,4 GHz schnellen Intel Core i7 2600K mit 8,0 GByte DDR3-RAM und dem P67-Mainboard Maximus IV Extreme von Asus. Für kurze Ladezeiten sorgt die 512 GByte große Samsung SSD 830 . Unser Benchmark-Parcours setzt sich zusammen aus den DirectX-11-Titeln Anno 2070 , Battlefield 3 , Crysis 2 , Dirt 3 , Max Payne 3 , Metro 2033 sowie The Elder Scrolls 5: Skyrim . Alle Spiele testen wir mit maximalen Details sowohl mit als auch ohne Kantenglättung. Bei Crysis 2 haben wir zudem die per Patch nachgereichten, hochauflösenden Texturen und den DirectX-11-Modus installiert.

Benchmark-Tests

MSI Radeon HD 7950 Twin Frozr : Fünf Prozent mehr Leistung holt Twin Frozr auch zehn Prozent mehr Takt. Fünf Prozent mehr Leistung holt Twin Frozr auch zehn Prozent mehr Takt. Im Test ohne Kantenglättung erarbeitet sich die MSI Radeon HD 7950 Twin Frozr einen Vorsprung von fünf Prozent gegenüber einer Radeon HD 7950 mit Referenztakt. Damit liegt die MSI-Karte gut zehn Prozent hinter einer mindestens 50 Euro teureren Radeon HD 7970 . Gegenüber der mit 270 Euro erheblich günstigeren Radeon HD 7870 kann sich die Twin Frozr mit einem Leistungsplus von zwölf Prozent absetzen – zu wenig für den Aufpreis von gut 80 Euro.

In Spielen stößt die Twin Frozr ohne Kantenglättung erst in 2560x1440 an ihre Grenzen, Full HD ist nie ein Problem. Während technisch weniger anspruchsvolle Spiele wie Dirt 3, Skyrim oder Max Payne 3 auch in 2560x1440 noch mit weit über 60 Bildern pro Sekunde laufen, rutscht die Grafikkarte in dieser Auflösung in Cryis 2, Metro 2033 oder Anno 2070 teilweise unter die wichtige 30-fps-Marke.

Anno 2070 maximale Details
1680x1050
1920x1080
2560x1440
Geforce GTX 690 2x 2.048 MByte
108
96
60
70
61
40
Radeon HD 7970 3.072 MByte
65
56
37
Geforce GTX 680 2.048 MByte
59
54
33
Geforce GTX 590 2x 1.536 MByte
56
51
30
Radeon HD 7950 3.072 MByte
52
45
29
Radeon HD 7870 2.048 MByte
52
45
29
Geforce GTX 670 2.048 MByte
48
42
26
Geforce GTX 580 1.536 MByte
47
39
24
Radeon HD 6990 2x 2.048 MByte
40
30
21
Geforce GTX 570 1.280 MByte
39
34
21
Radeon HD 6970 2.048 MByte
39
27
17
37
32
19
Radeon HD 7850 2.048 MByte
37
32
20
Radeon HD 6950 2.048 MByte
37
32
21
Radeon HD 6950 1.024 MByte
37
31
20
Radeon HD 5870 1.024 MByte
37
32
20
Radeon HD 6870 1.024 MByte
35
30
19
Geforce GTX 470 1.280 MByte
34
26
16
Radeon HD 6850 1.024 MByte
33
28
17
Geforce GTX 560 Ti 1.024 MByte
30
25
16
Radeon HD 5850 1.024 MByte
29
25
15
Geforce GTX 560 1.024 MByte
28
23
14
Radeon HD 6790 1.024 MByte
28
24
29
Radeon HD 7770 1.024 MByte
27
23
14
Geforce GTX 460 1.024 MByte
24
18
11
Radeon HD 5770 1.024 MByte
22
19
12
Geforce GTX 550 Ti 1.024 MByte
18
14
9
Radeon HD 7750 1.024 MByte
18
15
9
0
22
44
66
88
110
Gemessen in fps. Je höher, desto schneller. Unter 30 fps ruckelt es.
Diesen Artikel:   Kommentieren (21) | Drucken | E-Mail
FACEBOOK:
TWITTER:
 
WEITERE NETZE: Weitersagen
Sagen Sie Ihre Meinung (» alle Kommentare)
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
Avatar bigdaddy13
bigdaddy13
#1 | 14. Jul 2012, 20:31
Ähm, die Lautstärke von 2,4 sone ist ja gut und schön, aber die Lautstärke MUSS man immer in Relation zur Temperatur setzen!
Und die beträgt lächerliche 62°C!
Stellt man die Lüfter aller anderen Karten so ein, das die Chips nur 62°C warm werden unter Volllast (grafikintensives Spiel oder Furmark?), sind 2,4 sone sicher kein so schlechter Wert mehr.

Oder wir vergleichen die Lautstärke aller Karten bei denen die Lüfter so eingestellt sind, dass sie exakt 80°C unter Volllast erreichen.
Das ist nämlich das Anwenderszenario! Von den ca 15°C weniger habe ich nichts, wenn ich dafür die Lüfter höre. Steigt die Temp nie über 80°C hab ich was von dem leisen Kühlsystem.

Im Tests ist aber leider kein Hinweis auf die niedrige Temperatur und die damit ab Werk schlecht eingestellte Lüftersteuerung zu lesen, was sich natürlich entsprechend negativ auf die Lautstärke auswirkt.
Wenn hier also keine Lautstärkenwerte für 75-80°C angegeben werden, ist der "Test" oder zm. die Angabe von lautstärke und Temp sinnlos.


MfG
rate (7)  |  rate (0)
Avatar Lars-G90
Lars-G90
#2 | 15. Jul 2012, 01:12
Man will aber eine Karte, die von Werk aus leise ist und nicht erst nachreguliert werden muss. Wenn die Karte zu laut ist kann sie meinetwegen auch 12°C unter Last haben. Zu laut ist zu laut.
rate (2)  |  rate (2)
Avatar Kehool
Kehool
#3 | 15. Jul 2012, 01:42
bin ebenfalls der meinung von bigdaddy
es wäre keine schlechte idee zusätzlich die gewünschten temperaturen der karten auf einen referenzwert einzustellen (z.B. vertretbare 75°) und dann erneut die lautstärken zu vergleichen, (also eine grafik mit hersteller settings und eine mit modifizierten settings) damit man einen überblick bekommt wie effektiv die kühlung tatsächlich ist
die meisten eurer leser sollten in der lage sein speedfan o.Ä. herunterzuladen und zu konfigurieren :)

dass manche eine karte wollen die ab werk so leise ist spielt dabei keine rolle, da es genauso auch user gibt denen es nichts ausmacht die lüfter nachträglich zu konfigurieren und ja nichts dagegen spricht beide grafiken in den tests zu veröffentlichen

sollte das nachträgliche einstellen der lüfter schwierigkeiten bereiten könnte das ja kurz im test erwähnt werden

zusätzlicher zeitaufwand pro karte: 10-15 minuten?
rate (2)  |  rate (0)
Avatar Cabeleira
Cabeleira
#4 | 15. Jul 2012, 08:28
Man kann es nicht anders sagen, aber euer Performancerating ist einfach hochgradig unglaubwürdig!

Die GTX 680 schlägt die HD 7970 Ghz Edition in 2560x1440 und 8xMSAA/16xAF um 16%, die normale HD 7970 sogar um 23%. Je höher die Auflösung, desto größer wird der sowieso schon viel zu hohe Vorsprung der GTX 680.

Diese Werte widerspechen allen anderen Reviews renomierter Hardwareseiten: Ganz gleich ob ComputerBase, PCGH, Hardwareluxx, HT4U, Tom's Hardware, TechPowerUp, Guru3D, AnandTech, oder wer auch immer. Die Tests von diesen echten Hardwareseiten kommen auf genau das gegenteilige Ergebnis.

Ich hoffe das Sümmchen das ihr von Nvidia bekommen habt gleicht den Verlust an Glaubwürdigkeit wieder aus.
rate (2)  |  rate (5)
Avatar nastyboy
nastyboy
#5 | 15. Jul 2012, 09:42
Zitat von bigdaddy13:


Wenn hier also keine Lautstärkenwerte für 75-80°C angegeben werden, ist der "Test" oder zm. die Angabe von lautstärke und Temp sinnlos.


MfG


Wieso Sinnlos ? Alle Angaben beziehen sich auf die Testumgebung/Einstellungen/Testsetup/Benchszen en usw usf. es sind keine FAKTEN, wird es auch niemals sein. Es bezieht sich alles nur auf die Angaben die dem Tester widerfahren sind, nichts anderes !

Die GK wird niemand beim Spielen unter hoher Last hören, wie denn auch, man hängt ja nicht wie ein Tester mit den Ohren an der GK beim Spielen. der Tester lässt einen Bench ablaufen ohne Sound und meckert das die Karte unter Volllast dann ein wenig zu hören ist ? Das ist jammern auf hohen Niveau, ohne mit der Karte je gespielt zu haben, so was nehme ich nicht für Voll. Wenn mir ein Tester beibringen will, dass meine Karte die er durch einen vordefinierten Testablauf schickt, diese und jene Werte erbringt und auch noch unter Last zu Laut wäre, dann ist es seine subjektive Meinung und hat rein gar nichts mit der Realität zu tun die mir/oder anderen Spielern widerfahren ist.

Genauso wenig nehme ich Fps Zahlen ernst, denn diese beziehen sich meist auf eine kurze ( vllt. 30/60sek. ) Benchszene, kommen Spiele wie Anno/skyrim hinzu, so sind die Angaben der Frames eh für ar***, weil es da dann auf die CPU-leistung ankommt, Bf3 ist zwar ein Grafisch anspruchsvolles Spiel, lässt sich aber nur im SP-Modus Benchen, in MP Schlachten auf großen 32/64er Maps, wandelt Bf3 sich auch in ein cpu-lastiges Spiel, also auch hier eigentlich nichtssagende Frames. Man kann ja nicht davon ausgehen, das jeder einen i7 im Rechner hat, hat man bspw. eine AMD x6 11oot im PC, können mal schnell 30-40% Unterschiede (skyrim)in den Frames aufkommen.

Nochmals zu der lautstärke, ich behaupte mal das man diese Karte/ oder auch andere die unter Last angeblich etwas Laut sein sollen, beim Spielen nicht hören wird, den man konzentriert sich beim Spielen NICHT auf den Grafikkartenlüfter, okay es gibt Negativ Beispiele von einigen Referenzplatinen, aber das ist diese MSI ja nicht ;)

Temperaturangaben sind auch nicht simulierbar bei den tausendfach auf den Markt befindlichen unterschiedlichen Gehäusetypen, mit 1/2/3/4/5 im Case angebrachten Lüftern - Man versucht zwar seit Jahren die besten simulierten Test auf unterschiedlichen Webseiten zumachen, aber da kein selbst gebauter PC den anderen gleicht, ist rein gar nichts als Fakten anzusehen ! Meine Karte hat bei normalen Zimmertemperaturen 27°, bei meinen Kumpel mit baugleicher sind es 31°, bei zunehmender Hitze ( Sommertemps) geht es dann auch mal schnell über 30° im idle. Seine Lüfter laufen auch mit einer etwas höheren rpm als meine, nennt sich dann Serienstreuung/Auslesefehler eines Tools ^^

Alles subjektiv, genauso wie mein Wort zum Sonntag, wie immer ^^
rate (1)  |  rate (3)
Avatar nastyboy
nastyboy
#6 | 15. Jul 2012, 09:58
Zitat von Cabeleira:

Ich hoffe das Sümmchen das ihr von Nvidia bekommen habt gleicht den Verlust an Glaubwürdigkeit wieder aus.

Wie oft eigentlich nun noch ? Alle Werte die Webseite X/Y/Z machen, beziehen sich immer und immer wieder auf die verwendete Hardware, Spieleinstellungen etc.pp. und sind nicht vergleichbar mit anderen, nicht heute, morgen oder sonst wann. Deine angebeteten Webseiten, sprechen in der Regel vllt. 5-7% der spielenden PCler (bencher) an, hat dementsprechend nichts mit otto oder lieschen mormalo zu tun !!

Wann kapiert ihr das endlich mal und selbst die Angaben von Deinen genannten Webseiten sind unterschiedlich, schon mal verglichen ? Glaub nich :D
rate (2)  |  rate (4)
Avatar Rawoe
Rawoe
#7 | 15. Jul 2012, 10:54
Das die Kartenhersteller Lautstärke zugunsten der Temperatur aufgeben, ist meistens der Fall, Gigabyte hat z.B. bei der GTX 680 den gleichen Fehler gemacht. Bei einem Test gab´s dan Kritik, und Gigabyte hat ein neues BIOS nachgeliefert, was die Lüfterkurven optimierte. Bei einem Nachtest sah es dann wesentlich besser aus.
Aber es kann doch auch gleich ab Werk so gehen, ohne zu Flashen oder die Lüfterkureven manuell anzupassen.
rate (0)  |  rate (1)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#8 | 15. Jul 2012, 11:07
Die Frage lautet:
Wozu?!
Wozu sollte man sich diese Karte holen, wo es doch schon die Powercolor HD 7950 PCS+ gibt?

http://www.gamestar.de/hardware/grafikkart en/powercolor-radeon-hd-7950-pcs/test/powercol or_radeon_hd_7950_pcs,447,2565080,5.html

WESENTLICH leiser unter Volllast, leiser und kühler im Idle!

Sogar die Taktraten sind 100%ig identisch!

Und die Powercolor ist auch noch günstiger...


P.s.: Es ist ein Armutszeugnis, dass Gamestar selbst bei Links, die zur eigenen Seite führen Leerzeichen einbaut!
Hier ein komfortabler Kurzlink:
http://goo.gl/y7ioC
rate (1)  |  rate (0)
Avatar Cabeleira
Cabeleira
#9 | 15. Jul 2012, 11:07
Zitat von nastyboy:

Wie oft eigentlich nun noch ? Alle Werte die Webseite X/Y/Z machen, beziehen sich immer und immer wieder auf die verwendete Hardware, Spieleinstellungen etc.pp. und sind nicht vergleichbar mit anderen, nicht heute, morgen oder sonst wann. Deine angebeteten Webseiten, sprechen in der Regel vllt. 5-7% der spielenden PCler (bencher) an, hat dementsprechend nichts mit otto oder lieschen mormalo zu tun !!

Wann kapiert ihr das endlich mal und selbst die Angaben von Deinen genannten Webseiten sind unterschiedlich, schon mal verglichen ? Glaub nich :D


In den Test dieser Webseiten zeichnet sich aber ein eindeutiger Trend ab:

1. Das die HD 7970 Ghz schneller ist als die GTX 680 (bei GameStar ist sie deutlich langsamer)

2. Das beide HD 7970 besser in höheren Settings mit viel AA/AF abschneiden (bei GameStar steigt in 2560x1440 + 8xMSAA/16xAF aber der Vorsprung der GTX 680, sogar die GTX 670 ist in diesem Setting schneller als die HD 7970!)

Jetzt muss halt jeder selber beurteilen was er glaubwürdiger findet: Den eindeutigen Trend, der sich aufgrund diverser Benchmarks renomierter Hardwareseiten weltweit mit zig unterschiedlichen Spielszenen und Hardwaresettings überdeutlich abzeichnet, oder die Ergebnisse von GameStar, die genau das Gegenteil darstellen und offensichtlich durch einen Benchmarkparkours zustande gekommen sind, der genau auf den Leib der Nvidias geschneidert wurde.

Es tut mir auch überhaupt nicht Leid, wenn dich meine Kritik stört. Es gibt halt noch Menschen die sich diverse Meinungen einholen und verschiedene Tests miteinander vergleichen, anstatt stur das zu fressen, was einem jemand diktiert, auch wenn man damit zu einer Minderheit gehört. Es gibt genug Esel die jeden Tag die Bild aufschlagen und den Mist der da steht auch noch für Tatsachen hinnehmen.

Kritik ist nie überflüssig.
rate (5)  |  rate (2)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#10 | 15. Jul 2012, 11:16
Zitat von Cabeleira:


In den Test dieser Webseiten zeichnet sich aber ein eindeutiger Trend ab:

1. Das die HD 7970 Ghz schneller ist als die GTX 680 (bei GameStar ist sie langsamer)

2. Das beide HD 7970 besser in höheren Settings mit viel AA/AF abschneiden (bei GameStar steigt in 2560x1440 + 8xMSAA/16xAF diesen Setting sogar der Vorsprung der GTX 680)

Jetzt muss halt jeder selber beurteilen was er glaubwürdiger findet: Den eindeutigen Trend, der sich aufgrund diverser Benchmarks renomierter Hardwareseiten mit zig unterschiedlichen Spielszenen und Hardwaresettings überdeutlich abzeichnet, oder die Ergebnisse von GameStar, die genau das Gegenteil darstellen und offensichtlich durch einen Benchmarkparkours zustande gekommen sind, der genau auf den Leib der Nvidias geschneidert wurde.

Es tut mir auch überhaupt nicht Leid, wenn dich meine Kritik stört. Es gibt halt noch Menschen die sich diverse Meinungen einholen und verschiedene Tests miteinander vergleichen, anstatt stur das zu fressen, was einem jemand diktiert. Es gibt genug Esel die jeden Tag die Bild aufschlagen und den Mist der da steht auch noch für Tatsachen hinnehmen. So einer bin ich nicht.

1. Das liegt am Benchmarkparkour von GS!
Battlefield, Dirt 3, Max Payne 3 und Skyrim sind halt Nvidia-Kepler-Freundlich, daran lässt sich nichts ändern!

2. Dass die GTX 680 in 2560x1440 8xAA/16xAF so gut abschneidet, liegt an 1.!
Denn in den Settings werden nur noch drei Spiele gebenched:
Dirt 3, Max Payne 3 uuuuuund.......Skyrim!!!
Hmmm...
__________________________________________ ___________________________

Dazu muss man aber sagen, dass Skyrim anfangs so aussah, als würde es die HD 7970 stark bevorzugen.
Dass heisst, die Ergebnisse sind wohl keine Absicht!

An der Stelle von GS würde ich noch irgend ein Spiel wie Risen hinzunehmen, mit dem man dann mit SSAA Benches macht!
rate (2)  |  rate (0)

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten