Powercolor Radeon HD 7990 Devil 13

Grafikkarten   |   Datum: 16.12.2012
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Neuester Beitrag  |  » Erster Beitrag
Avatar REDxFROG
REDxFROG
#58 | 26. Dez 2012, 20:12
Und wieder alles schön mit Neider-Kommentaren vollgespammt.

Krank was hier immer los ist.
rate (0)  |  rate (0)
Avatar dernamedersolangist
dernamedersolangist
#57 | 24. Dez 2012, 22:13
Zitat von Cernan01:


Es gibt auch Menschen, die haben eine wesentlich bessere Ausstattung. Ich würde auch gerne bei 7600x1440 Punkten spielen (3 x 27 Zoll), bei diesen Auflösungen geht einer GTX 680 und Radeon 7970 schnell die Puste aus.

Für die aktuellen Spiele im Einmonitorbetrieb ist das wahrlich Quatsch. Und bei der Lautstärke völlig indiskutabel, vom Stromverbrauch mal ganz abgesehen.


Finde es immer witzig bei Anschaffungskosten von 1000 Euro für ne GPU, den Aspekt Stromverbrauch mit einzubeziehen ... Wohl am falschen Ende gespart, was? ;)

Das erinnert mich jedesmal an unsere südländischen Staatsbürger, welche mit A8 und S-Klasse rumgurken, aber zu sechst im Plattenbau wohnen :D
rate (2)  |  rate (0)
Avatar Coldgamer95
Coldgamer95
#56 | 22. Dez 2012, 10:58
Zitat von Cd-Labs: Radon Project:

Das große Problem ist doch nur, dass die Karte hier teuer, laut, schwer und noch nicht mal absolut übertrieben schnell zugleich ist!
Dazu zieht sie Strom wie der Devil himself!

Sprich, sie ist einfach nicht empfehlenswert!


Den Stromverbrauch und die Lautstärke lassen sich ganz einfach mit einer Wasserkühlung beheben.
(vorausgesetzt man hat eine eingebaut. eine neue einbauen wegen dieser Karte würde aus dem Preis-Nutzen-Verhältnis fallen.)
Dem Rest stimme ich allerdings zu.
rate (0)  |  rate (1)
Avatar BMF_RedHot
BMF_RedHot
#55 | 20. Dez 2012, 15:51
hmmmm....
nvidia FTW
rate (0)  |  rate (3)
Avatar nastyboy
nastyboy
#54 | 18. Dez 2012, 20:01
Zitat von Dr.Popeye:


gehts nicht?

kann man sich denn wenigstens vier dieser überaus gelungenen und sinnvollen devil 14 in den rechner stecken?

Der Teufel liegt im Detail ^^

Btw: Same as GTX690 ...
rate (0)  |  rate (0)
Avatar Dr.Popeye
Dr.Popeye
#53 | 18. Dez 2012, 15:11
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Vi
Vi
#52 | 18. Dez 2012, 11:46
Zitat von Old:
Da sieht man was für Power man heutzutage entwickeln kann ,ist schon beeindruckend ,wenn ich ein wohlhabender währe und mir das Geld schwuppe währe,dann währe es was geworden,aber dennoch ist es doch sehr laut was mich persönlich sehr stören würde.
Was ich auch nicht verstehe,testen die Entwickler nicht nach der Fertigung die Lautstärke ?

MfG



Wer 1000€ für eine Grafikkarte übrig hat, hat auch noch die Mittel um sich eine Wasserkühlung zu leisten.
rate (0)  |  rate (1)
Avatar nastyboy
nastyboy
#51 | 18. Dez 2012, 08:58
Zitat von Dr.Popeye:


kein problem, man kann sich ja auch 4 gtx 690 kaufen und in einen rechner stecken.

Zwei zum Spielen und die anderen zwei als Deko ?
rate (1)  |  rate (0)
Avatar bew86
bew86
#50 | 18. Dez 2012, 07:20
Na Klasse, und in 2 Montaten gibts ne neue Serie und die Mittelklasse ist schon fast schneller als diese 1000 Euro Karte....Hardware Mafia
Genau das Selbe mit dem Directx kram.."Dx 10 muss man haben" kamen eine Handvoll Spiele raus..dann kam 10.1 wieder da selbe Stalker und ein paar andere..dx11 auch das Selbe..Ab dx9 ging es bergab mit der Spielemechanik es geht ja wie man sieht nur noch um Geld und nicht den Fortschritt...Wenn man mal vergleicht 2007-2012 Grafikentwicklung einfach nur lachhaft. Dagegen 2002-2005 oder 1997-2002 das waren Fortschritte!!
Also so eine Graka wrürde ich mir nur holen, wenn sie vom Laster fällt !
rate (0)  |  rate (0)
Avatar Dr.Popeye
Dr.Popeye
#49 | 18. Dez 2012, 02:00
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Old
Old
#48 | 17. Dez 2012, 22:30
Da sieht man was für Power man heutzutage entwickeln kann ,ist schon beeindruckend ,wenn ich ein wohlhabender währe und mir das Geld schwuppe währe,dann währe es was geworden,aber dennoch ist es doch sehr laut was mich persönlich sehr stören würde.
Was ich auch nicht verstehe,testen die Entwickler nicht nach der Fertigung die Lautstärke ?

MfG
rate (1)  |  rate (0)
Avatar cvzone
cvzone
#47 | 17. Dez 2012, 22:03
Was regt ihr euch den über den Preis auf, Nvidia Quadro, das sind die Abzockkarten. 2000-4000 Euro für ECC Speicher und bessere Treiber. ;)
rate (2)  |  rate (1)
Avatar Coolstyle
Coolstyle
#46 | 17. Dez 2012, 20:21
Überteuerter Elektroschrott.
rate (2)  |  rate (3)
Avatar nastyboy
nastyboy
#45 | 17. Dez 2012, 19:11
Zitat von Vi:


Streng mal google ein wenig an, da gibt es ein paar Tests die etwas anderes sagen.
Und natürlich hast Du recht, FullHD ist auch keine sinnvole Testauflösung.
Den Rest überlese ich mal dezent.


Schick mir mal 10 verschiedene Tests/Reviews die alle dieselben Ergebnisse haben, natürlich die die man per google findet ^^

Entscheidend ist das was zu hause hinten raus kommt, nicht das was irgendein Holzkopf da testet mit welcher Hardware/Software unter welchen dummdämlichen Szenarien auch immer. Wer danach eine Karte kauft wird zu 10000%tiger Sicherheit die Karte wieder zurück schicken ^^

Ein CPU-Limit bekommt man immer dann, wenn der Tester zu dämlich ist, eine GK mit non gpu-lastigen Spielen zu testen - Anno und Skyrim nimmt man ja auch für CPU-Tests, voll lol ^^

Zitat von Hendrik Weins:


Der Grund ist ein ganz einfacher. Wenn wir jetzt für den Test dieser Karte die CPU übertakten, sind alle anderen Werte sinnlos.

Sind sowieso alle Sinnlos, weil die Modelle in der Liste nicht alle Ref.Karten sind und btw. ist die 7990 ein costom-Modell, die GTX690 ist ein Ref-Modell ..... Ergo alles fürn Ars.. !!!
rate (0)  |  rate (2)
Avatar Vi
Vi
#44 | 17. Dez 2012, 17:40
Zitat von TheBrainbug:


Die CPU limitiert hier überhaupt nichts. Insbesonders kann die selbe CPU im Vergleich mit anderen Karten wohl kaum einen Vorteil/Nachteil bringen.
DualGPUs sind für extrem hohe Auflösungen/Multi-Monitor-Lösungen gedacht. Aber sicher nicht für 32-Kern-Xenon-Kombinationen, rofl.


Streng mal google ein wenig an, da gibt es ein paar Tests die etwas anderes sagen.
Und natürlich hast Du recht, FullHD ist auch keine sinnvole Testauflösung.
Den Rest überlese ich mal dezent.
rate (2)  |  rate (2)
Avatar ninjo2k
ninjo2k
#43 | 17. Dez 2012, 16:48
das kaufen auch nur deppen, die nicht in der lage sind preis/leistung zu rechnen. meistens extrem verunsicherte leute, die unbedingt das beste brauchen, dass sie dann ihrer gamestar hardware ja die #1 haben.
leider haben immer die größten n00bs die dicksten pcs.
rate (0)  |  rate (2)
Avatar Vi
Vi
#42 | 17. Dez 2012, 16:42
Wieso wird hier eine absolute High-End Karte in einem Rechner getestet wo eindeutig die Cpu limitiert?

Wenn man dafür als Grund "Vergleichbarkeit" mit bisherigen Testergebnissen benennt, dann ändert es dennoch nichts daran, das die Ergebnisse keine Aussagekraft besitzen, weil sie eben, aus oben genanntem Grund, "nicht" vergleichbar sind.

Für Interessenten solcher Karten, die deren Potential auch nutzen wollen, ist das Lesen dieses Tests leider Zeitverschwendung.

Nett gemeint, aber leider daneben.
rate (3)  |  rate (1)
Avatar LordOfTheWar
LordOfTheWar
#41 | 17. Dez 2012, 16:27
Mal ehrlich. Die Karte kostet, wie die Gtx 690 1000€, ist schlechter als die 690 und teilweise sogar schlechter als die Gtx 590 die weitaus weniger kostet. Wozu also diese Karte kaufen wenn man für den gleichen Preis 20+ Frames die Sekunde mehr bekommt?
rate (0)  |  rate (2)
Avatar Falkenfluegel
Falkenfluegel
#40 | 17. Dez 2012, 15:53
Zitat von Arthon:



Mir geht es selbst tatsächlich nur um ein 1 Monitor System mit 1920x1200 Auflösung und dafür würde aktuell sogar eine Radeon 7850 reichen, jedenfalls so lang man nicht unbedingt auf PG Niveau spielen möchte.


Selbst 1920x1200 haben doch die meisten nicht. Ich kauf mich doch net jedes Jahr nen neuen Bildschirm wenn was neues raus kommt, solange das Ding noch einwandfrei läuft.
rate (0)  |  rate (0)
Avatar Malsi
Malsi
#39 | 17. Dez 2012, 15:34
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar morti
morti
#38 | 17. Dez 2012, 14:47
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Hendrik Weins
Hendrik Weins
#37 | 17. Dez 2012, 13:48
Zitat von Cryptoman6:
Aber ob der Test mit dem neuen Treiber gemacht wurde? Denn man sieht ja, wie sich der Beta Treiber der Radeon HD 7970 auswirkt, dass sogar eben diese eine GTX 680 schlägt. Ich würde das ja mal gerne wissen, welche Versionen jeweils verwendet wurden..


Es war der derzeit aktuelle 12.10. Den 12.11 Beta habe ich zu Testzwecken auch installiert, dessen Performance aber nicht in den Test einfließen lassen.
rate (0)  |  rate (1)
Avatar Cryptoman6
Cryptoman6
#36 | 17. Dez 2012, 13:35
Aber ob der Test mit dem neuen Treiber gemacht wurde? Denn man sieht ja, wie sich der Beta Treiber der Radeon HD 7970 auswirkt, dass sogar eben diese eine GTX 680 schlägt. Ich würde das ja mal gerne wissen, welche Versionen jeweils verwendet wurden..
rate (1)  |  rate (0)
Avatar tulrich6uoa
tulrich6uoa
#35 | 17. Dez 2012, 13:21
Warum bekommt die Karte bei Leistung kein - für Microruckler? o0
rate (0)  |  rate (2)
Avatar Hendrik Weins
Hendrik Weins
#34 | 17. Dez 2012, 10:07
Zitat von CSO:
Lieber Herr Weins !
Es wird in ihrem Test immer der Kritikpunkt Mikroruckler aufgeführt.
Was natürlich auch seine Richtigkeit hat.
Ich persönlich kenne allerdings keinen der 2x7970er bzw.nen Crossfire Setup ohne die Radeon Pro Tools benutzt.

http://www.tomshardware.de/Crossfire-SLI-M ikroruckler-Radeon-Pro,news-248333.html
(Leerzeichen entfernen)

Download
http://forums.guru3d.com/showpost.php?p=44 11106&postcount=5483

Das Tool bzw. die Funktionen
Dynamic Vsync Control (DVC)und Dynamic Framerate Control (DFC) sollten hier doch wenigstens erwähnt werden,wenn schon nicht fürs Testen benutzt.


Vielen Dank für den Hinweis, ich werde das Tool im Artikel nachträglich erwähnen.

Zitat von CSO:

Zitat Gamestar:
"Unsere Testplattform besteht aus einem 3,4 GHz schnellen Intel Core i7 2600K mit 8,0 GByte DDR3-RAM und dem P67-Mainboard Maximus IV Extreme von Asus. Aus Gründen der Vergleichbarkeit lassen wir die Taktfrequenz des Prozessors unangetastet, auch wenn die Karte ihr volles Potenzial in einigen Titeln erst bei schnelleren CPUs ausspielen kann."

Das muss man jetzt nicht verstehen...oder?
4.5 Ghz sollten da schon anliegen,zbs mit nem 3770K.
Der passende Unterbau ist ja verfügbar mit dem Maximus.
Warum sollte keine Vergleichbarkeit gegeben sein?
Es geht doch eigentlich nur um die GTX 690 und die Radeon 7990.
Turbo-BIOS der Radeon benutzt?
Welche Treiber wurden verwendet?
Warum keine aktuellen Beta Treiber?

Die PCGH bekommts doch auch hin...

http://www.pcgameshardware.de/AMD-Radeon-H ardware-255597/Tests/Test-Powercolor-Radeon-HD-7990-Devil-13-1026268/
(Leerzeichen entfernen)


Der Grund ist ein ganz einfacher. Wenn wir jetzt für den Test dieser Karte die CPU übertakten, sind alle anderen Werte sinnlos. Es geht ja nicht nur um den Vergleich zur GTX 690, sondern auch zur HD 6990, der GTX 590, den Singlechip-Modellen HD 7970, HD 7970 GHz Edition, GTX 680 und GTX 670. Für den ein oder anderen ist auch ein Vergleich mit der alten High-End-Garde GTX 580, HD 6970 oder anderen Karten interessant. Genau da, liegt das Problem.
Bei der Treiber-Version halten wir uns an die WHQL-Treiber, da ein Großteil unserer Leser ebenfalls nur die offiziellen Treiber benützen. Zudem können wir bei Beta-Version keine Tricksereien ausschließen, jeder Treiber wird erst auf inoffizielle Anpassungen hin überprüft. Nur so bekommen wir eine vernünftige Vergleichbarkeit der einzelnen Karten.
rate (1)  |  rate (1)
Avatar DrProof
DrProof
#33 | 16. Dez 2012, 20:42
Zitat von kojote_666:


DO YOU HEAR ME ? THIS MADE MY DAY !!! :>


HEAR YOU!
JOB DONE! (^-^)
rate (4)  |  rate (3)
Avatar dernamedersolangist
dernamedersolangist
#32 | 16. Dez 2012, 19:18
Zitat von verbrannter:


Naja, um Battlefield 3 wirklich flüssig zu spielen(ist bei mir jetzt so 50fps aufwärts)braucht es schon starke Karten wie ne gtx 670, Radeon HD 7970 oder eine stark übertaktete Hd 7950. Für Leute die das Spiel in 3D genießen wollen wirds schon knapp, und für 3 Bildschirme(full HD) und 3D sind selbst 2 GTX 690 zu langsam. Daher bin ich von der aktuellen Hardware eher enttäuscht.



Is wohl eher alles Ansichtssache, denn BF 3 läuft bei mir in FullHD auf High und 2 AA selbst mit einer HD5850 Toxic ohne den kleinsten Ruckler... Man kann sich viel einreden und bei der nächsten Generation von GPUs ruckelt es dann plötzlich wieder bei einer GTX670 oder einer 7970 :)
rate (4)  |  rate (2)
Avatar dernamedersolangist
dernamedersolangist
#31 | 16. Dez 2012, 19:11
Da ich das Glück habe, Mikroruckler nicht wahrzunehmen, würde ich mir lieber 2 HD 7970 GHz Edition für je 350€ holen und glatte 250 Euro sparen :)

...brauch ich aber nicht, da ich momentan nur BF3 zocke und alles mit alter Hardware bestens läuft
rate (4)  |  rate (0)
Avatar kojote_666
kojote_666
#30 | 16. Dez 2012, 18:04
Zitat von DrProof:
"Schatz warum flackert das licht?"
"Ich hab den Rechner angemacht!"

"Schatz was ist das für ein Geräusch? Fliegen hier nun Flugzeuge drüber?"
*glotz aus Fenster*
"Nein, das ist nur meine neue Grafikkarte!"

"Schatz wann verbringst du Zeit mit mir?"


"Schatz"
"Schatz?!?!?"


DO YOU HEAR ME ? THIS MADE MY DAY !!! :>
rate (2)  |  rate (3)
Avatar nastyboy
nastyboy
#29 | 16. Dez 2012, 17:27
Selten einen Test gelesen der so voll gepappt ist mit Fehlern, weiter so !!!
rate (2)  |  rate (1)
Avatar Berlinchild89
Berlinchild89
#28 | 16. Dez 2012, 15:27
Solche karten machen eh nur mit einer Wakü "Sinn" .
rate (5)  |  rate (0)
Avatar tssixtyone
tssixtyone
#27 | 16. Dez 2012, 15:02
Toll wäre diese Graka in den kommenden nexGen Konsolen :)
rate (3)  |  rate (4)
Avatar b1nd89
b1nd89
#26 | 16. Dez 2012, 14:56
Naja,sieht wie zu erwarten kein Land gegen Nvidia's FPS-Monster :D
Und ein Armutszeugnis für AMD,dass sie es immernoch nicht hinbekommen haben vernünftige Treiber zu liefern...
rate (1)  |  rate (3)
Avatar ProDuReX
ProDuReX
#25 | 16. Dez 2012, 14:38
Wer sich eine GTX690 oder HD7990 zulegt, ist meiner Meinung nach einfach nur dämlich. Ein viel zu überzogener Preis, starker Preisfall(gemäß Leistung) und der Mehrwert ist für den Preis auch für die Katz. Mit den Ein-Chip-Karten, die zwar auch teuer sind, hat man vielmehr von. Und man kann sich in der Zeitspanne lieber zwei 400EUR Karten holen, als auf einmal direkt so eine teure. Ist genau wie bei den PCs...Wer mehr als ~1200EUR(+exkl. Extras) für einen PC ausgibt, sollte mal sein Kopf einschalten. Ok, solche Karten sind zwar sowieso nur was für Nerds, aber das solche Anschaffungen, wenn man nach Leistung sucht, total dämlich sind, ist ja eigtl. schon trivial...
rate (3)  |  rate (4)
Avatar 3941
3941
#24 | 16. Dez 2012, 14:38
so.. wo is der typ dem ich, vor ein paar monaten, gesagt habe dass das ding vermutlich laut wird? ich musste nur einen blick drauf werfen...

ich wurde aber für doof erklärt... wer ist jetzt doof? :P
rate (3)  |  rate (0)
Avatar mh0001
mh0001
#23 | 16. Dez 2012, 14:29
Zitat von Dr.Popeye:
eine idioten-abzock-karte.


Wem es das wert ist und wer das Geld dafür hat, der kann es sich von mir aus gerne kaufen. Das müssen trotzdem keine Idioten dann sein. Nur wenn das einem selber das Geld nicht wert ist, braucht man ja nicht gleich auf die Allgemeinheit schließen.

Ich persönlich würde so eine Karte immer noch für sinnvoller erachten, als sich z.B. Designer-Kleidung oder irgendeinen Schmuck in ähnlich hohen Preisregionen zu kaufen.

Jeder das, was er will. Ich würde über niemanden urteilen, nur weil er für bestimmte Sachen (viel) mehr Geld ausgibt als ich.
rate (4)  |  rate (4)
Avatar Falcon
Falcon
#22 | 16. Dez 2012, 14:26
Zitat von Arthon:


Mir geht da eher "<10cm und kein Geld für nen Sportwagen" durch den Kopf.

Ich seh den nutzen in solchen PC Komponenten nicht mehr.
Hochgemoddete Spiele laufen mitlerweile auch auf mittelklasse PCs einwandfrei. Vielleicht geht es darum Crysis 2 und Battefield 3 gleichzeitig starten zu können uuuuund dazu evtl. noch 4x D3 um nebenbei bissel die bots laufen lassen zu können, während nebenbei Wow läuft, damit man dort in Orgrimmar bei 176fps mit der Gilde chatten kann? o.O


Kommt immer auf die Monitor-Auflösung an... Für Full- HD Popel- Auflösung gebe ich dir aber Recht.

Dennoch sollte man sich halt solche Kommentare sparen... nur weil DU es nicht brauchst, gilt das noch lange nicht für Jedermann.
rate (5)  |  rate (1)
Avatar deraufdecker81
deraufdecker81
#21 | 16. Dez 2012, 14:23
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Berlinchild89
Berlinchild89
#20 | 16. Dez 2012, 13:45
Die brauch ich unbedingt für die neuesten Konsolenports :D
rate (4)  |  rate (5)
Avatar DerOliver
DerOliver
#19 | 16. Dez 2012, 12:30
Zitat von Adecius:
Wie genau stellt man das mit dem Downsampling ein? Ich hab das nur mal bei Anti Aliasing gelesen mit der Internen höheren Auflösung. Ist das Spielabhängig?


http://www.pcgameshardware.de/Grafikkarten -Hardware-97980/Tests/Downsampling-Bessere-Gra fik-in-jedem-Spiel-auch-in-Crysis-2-Update-mit -Geforce-Treiber-29551-817462/

(leerzeichen entfernen -.-)
rate (0)  |  rate (1)

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten