AMD Radeon HD 7970

Grafikkarten   |   Datum: 22.12.2011
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
Avatar -Cryptic-
-Cryptic-
#1 | 22. Dez 2011, 06:47
Oha, nett nett. ;)
Hatte ja daran gezweifelt ob AMD es wirklich hinkriegt. Aber das sieht doch schon ganz ordentlich aus.
Bin mal gespannt was Nvidia darauf antworten wird.
rate (60)  |  rate (2)
Avatar smooth1980
smooth1980
#2 | 22. Dez 2011, 07:29
Gleich mal vorbestellt das Geschoss.
rate (22)  |  rate (37)
Avatar Brainworks
Brainworks
#3 | 22. Dez 2011, 07:56
Zitat von smooth1980:
Gleich mal vorbestellt das Geschoss.


Meine Adresse kennst du ja
rate (69)  |  rate (4)
Avatar Iaquinta
Iaquinta
#4 | 22. Dez 2011, 07:57
Dann wird es wohl Zeit zu wechseln.
rate (13)  |  rate (33)
Avatar venlafaxin
venlafaxin
#5 | 22. Dez 2011, 07:57
"Mit 2.048 Shader-Einheiten verfügt die neue Grafikkarte über 25 Prozent mehr Recheneinheiten als eine HD 6970 (1.536 Shader)."
...
"Zudem verlangt AMD 500 Euro für das neue Spitzenmodell, ein Drittel mehr als Nvidias Geforce GTX 580 (400 Euro) kostet"
...

mathe-nachhilfe??! ;)
rate (39)  |  rate (7)
Avatar tGN
tGN
#6 | 22. Dez 2011, 08:04
Zitat von venlafaxin:

"Zudem verlangt AMD 500 Euro für das neue Spitzenmodell, ein Drittel mehr als Nvidias Geforce GTX 580 (400 Euro) kostet"
...

mathe-nachhilfe??! ;)


Das wollte ich auch gerade schreiben... Wenn ich mich nicht vollkommen verrechnet habe ist die Grafikkarte (soweit es denn stimmt) 25% schneller und kostet 20% mehr...
rate (3)  |  rate (8)
Avatar Dominian
Dominian
#7 | 22. Dez 2011, 08:06
Freue mich, dass es wieder voran geht im Bereich GraKa, aber ich warte lieber auf die Nvidia und den dann folgenden Preiskampf im nächsten Jahr.

Ich wüsste auch nicht wozu ich derzeit eine bessere GraKa brauche.
rate (23)  |  rate (1)
Avatar venlafaxin
venlafaxin
#8 | 22. Dez 2011, 08:16
Zitat von tGN:


...kostet 20% mehr...


bezogen auf die genannten zahlen... 25% mehr...

löl ;)
rate (10)  |  rate (6)
Avatar Kehool
Kehool
#9 | 22. Dez 2011, 08:28
bei der lautstärke würde ich wirklich noch etwas warten bis es karten mit besseren kühllösungen gibt

sapphire und powercolor hauen da ja ganz gerne ein 2 lüfter system rauf
rate (18)  |  rate (2)
Avatar tGN
tGN
#10 | 22. Dez 2011, 08:34
Zitat von venlafaxin:


bezogen auf die genannten zahlen... 25% mehr...

löl ;)


Ich brauche offenbar auch nen Mathe-Nachhilfekurs. Rechnet es bitte mal jemand vor? ;)

Um zum eigentlich Thema zu kommen: Von der Leistung her ist die Karte super! In Anbetracht der Lautstärke warte ich auf eine Direct CU-Lösung von Asus. Braucht zwar viel Platz, ist aber sehr schön leise...
rate (8)  |  rate (2)
Avatar Lefty2Gunz
Lefty2Gunz
#11 | 22. Dez 2011, 08:39
Nettes Teil ! Aber der highend markt ist nichts für mich , 500 für ne Grafikkarte ist mir dann dochn bissl übertrieben ! Aber freu mich für jeden der sich das Teil leisten kann und wird ;)
rate (10)  |  rate (2)
Avatar Begbie
Begbie
#12 | 22. Dez 2011, 08:45
wer braucht das Teil ?
Da hol ich mir lieber eine Graka für Eur 300.00 und für den Rest
geh ich in den Puff .
rate (25)  |  rate (14)
Avatar nebu2k
nebu2k
#13 | 22. Dez 2011, 08:46
Zudem verlangt AMD 500 Euro für das neue Spitzenmodell, ein Viertel mehr als Nvidias Geforce GTX 580 (400 Euro) kostet – bei einer um 25 Prozent höheren Performance kein besonders gutes Preis-Leistungs-Verhältnis.

Ähm kann mir den Satz mal einer erklären? Die Karte kostet 1/4 mehr. Das sind 25% und sie leistet 25% mehr was 1/4 entspricht.
rate (5)  |  rate (2)
Avatar Optimyst
Optimyst
#14 | 22. Dez 2011, 08:46
na das nenn ich mal "in yo face, nvidia!" :D
nein ernsthaft, eine starke konkurrenz ist gut für uns spieler. nur weiter so!!!
rate (7)  |  rate (6)
Avatar venlafaxin
venlafaxin
#15 | 22. Dez 2011, 08:46
Zitat von tGN:


Rechnet es bitte mal jemand vor? ;)



400+25%=500 (kostet 25% mehr)
500-20%=400 (kostet 20% weniger)

ich bin kein klugscheisser... ich weiss es wirklich besser! :D
rate (23)  |  rate (2)
Avatar wiZ
wiZ
#16 | 22. Dez 2011, 08:51
Anscheinend gibts Probleme mit der Wärmeleitpaste, deswegen liegt der Kühler nicht optimal am Chip auf. Hab ich auch computerbase gelesen.
Also ist sie unter Last vllt doch ein bisschen leiser als hier steht.
rate (11)  |  rate (0)
Avatar TeellchT
TeellchT
#17 | 22. Dez 2011, 08:55
öhm..welche spiele wollt ihr damit spielen?

<- 6870 BF3 auf Ultra
<- 6870 Anno 2070 alles aufgedreht

??????
rate (6)  |  rate (8)
Avatar CSO
CSO
#18 | 22. Dez 2011, 09:07
Zitat von TeellchT:
öhm..welche spiele wollt ihr damit spielen?

<- 6870 BF3 auf Ultra
<- 6870 Anno 2070 alles aufgedreht

??????


Ultra mit 60 Bildern Average in BF3?
Wohl kaum mit einer 6870.
Und auf Caspian Border 64er Server kannste deine Ultra Einstellungen mit der Karte in die Tonne hauen.
Wenn ich so einen Mist immer lese.
Mit 30 FPS (wenn es hochkommt) rumeiern,aber Hauptsache auf Ultra geschraubt.
Zeigt dir doch jeder Bench das die Karte zu wenig Dampf dafür hat.

Für mich persönlich ne sehr interessante Karte.
In 5760x1080 Eyefinity (BF3) haben 2x 6970er schon ordentlich zu pumpen.
Preise sollen erst mal runter gehen,Alternative Designs ...und dann werden 2 Stück gekauft.
rate (13)  |  rate (11)
Avatar KingLamer
KingLamer
#19 | 22. Dez 2011, 09:11
ok, die karte macht etwas her und spitzenmodelle hatten noch nie ein gutes P/L verhältnis. es braucht nur noch eine gute kühllösung (z.b. asus directcu II).

Zitat von Begbie:
wer braucht das Teil ?
Da hol ich mir lieber eine Graka für Eur 300.00 und für den Rest
geh ich in den Puff .

eher umgekehrt, will ich mal hoffen...
rate (6)  |  rate (2)
Avatar TeellchT
TeellchT
#20 | 22. Dez 2011, 09:13
Zitat von CSO:


Ultra mit 60 Bildern Average in BF3?
Wohl kaum mit einer 6870.
Und auf Caspian Border 64er Server kannste deine Ultra Einstellungen mit der Karte in die Tonne hauen.

Für mich persönlich ne sehr interessante Karte.
In 5760x1080 Eyefinity (BF3) haben 2x 6970er schon ordentlich zu pumpen.
Preise sollen erst mal runter gehen,Alternative Designs ...und dann werden 2 Stück gekauft.



jo..sag ma bescheid wenn du's ausprobiert hast
rate (2)  |  rate (2)
Avatar willsnone
willsnone
#21 | 22. Dez 2011, 09:46
und wieder kein ssaa unter dx10/11 und von downsampling wieder keine Spur. ich versteh nicht warum's das nicht mal umsetzen bei AMD. da könnte man die enorme Leistung in qualität investieren, aber ohne diesen optionen ist diese enorme Leistung ziemlich sinnfrei für normal Anwender. so ist AMD leider wieder keine Alternative zu nvidea. echt schade. aber ich hoffe das zumindest die nvidea Preise ein bisschen fallen, dann wärs doch nich so sinnfrei. ;)
rate (5)  |  rate (6)
Avatar mr.ioes
mr.ioes
#22 | 22. Dez 2011, 09:51
Standard Graka Kühler kann man eh vergessen, obs jetzt sehr laut ist oder nur laut ist dann auch schon egal.

Einmal 40-80€ in ne gscheite Kühlung stecken und man hat wortwörtlich Ruhe die nächsten Jahre.
rate (2)  |  rate (2)
Avatar Plautze
Plautze
#23 | 22. Dez 2011, 10:00
Moment, ich hab' wohl was verpaßt ... welches Spiel benötigt jetzt genau eine solche Grafikkarte ?
rate (6)  |  rate (10)
Avatar DerToteAmOzean
DerToteAmOzean
#24 | 22. Dez 2011, 10:00
Hört sich doch nicht schlecht an, hätte ich nich schon ne 580gtx, würd ich se mir wohl holen (:
rate (1)  |  rate (1)
Avatar ThoyanVX
ThoyanVX
#25 | 22. Dez 2011, 10:01
Das klingt ja schon einmal nicht schlecht, aber....

- die aktuelle Lautstärke geht ja mal gar nicht, hoffentlich wird es mit den Customdesign´s deutlich besser.

- GTX 580 (Standard-Takt) geschlagen, mal mehr, mal weniger deutlich. In den Hohen Auflösungen, liegt das aber glaube ich primär an dem größeren Videospeicher, wenn der überläuft wird die Grafikkarte ja recht stark eingebremst, wenn ich mich nicht irre.Ist mir aber persönlich zu wenig. Meine Graka (GTX 480) ist übertaktet. Da schrumpft der Vorsprung der HD7970 schon mal weiter zusammen.

- Vom Stromverbrauch unter Last bin ich doch enttäuscht, hätte gedacht, das dieser besser ausfallen würde.

- Tja mal schauen was Nvidia raushaut, denke aber es wir ähnlich laufen wie seinerzeit mit der HD5870 & GTX 480. AMD legt vor holt sich die Krone und muss diese dann an Nvidia wieder abgeben. Aber auch erst in ein Paar Monaten.

Fazit: Die Generation HD7000er & GTX600er lasse ich aus. Meine GTX 480 OC hat mehr als genug Dampf um auf die nächste Generation zu warten.
rate (2)  |  rate (11)
Avatar wiZ
wiZ
#26 | 22. Dez 2011, 10:08
Am lächerlichsten sind die, die sich immer über den Stromverbrauch der High-End Modelle beschweren. Warum, denkt ihr am besten selber nach.
rate (6)  |  rate (4)
Avatar nebu2k
nebu2k
#27 | 22. Dez 2011, 10:08
Zitat von Plautze:
Moment, ich hab wohl was verpaßt ... welches Spiel benötigt jetzt genau eine solche Grafikkarte ?


Battlefield 3 z.b.

was sollen immer diese blöden Kommentare bei neuer Hardware? Ich hab ne 6970 und die kommt schon manchmal an ihre Grenzen mit der richtigen Pheriepherie.
rate (5)  |  rate (7)
Avatar 4K.Demo
4K.Demo
#28 | 22. Dez 2011, 10:19
Oh je noch lauter als die 470er? Ich hab bei meiner 470er nen Thermalright Spitfire draufgeschnallt (war übrigends nicht billig). Die Karte schnurrt nur noch mit sehr guten Temps.

Aber die ist ja NOCH lauter? Ist das eigentlich möglich? Was hat sich AMD nur dabei gedacht? Da brauchste ohne neuen Kühler erst gar nicht anfangen ausser der PC steht im Keller und es stört niemand.

Würd ich niemals kaufen.
rate (5)  |  rate (1)
Avatar apel996
apel996
#29 | 22. Dez 2011, 10:29
Schatz, ich hab mich neu verliebt.
rate (5)  |  rate (3)
Avatar Shark280 =stealth=
Shark280 =stealth=
#30 | 22. Dez 2011, 10:42
Zitat von tGN:


Das wollte ich auch gerade schreiben... Wenn ich mich nicht vollkommen verrechnet habe ist die Grafikkarte (soweit es denn stimmt) 25% schneller und kostet 20% mehr...

sie kostet 25% mehr 400/4 = 100 --> 400+100=500
rate (1)  |  rate (1)
Avatar Sekker
Sekker
#31 | 22. Dez 2011, 10:43
Nicht schlecht, evtl. wechsel ich doch noch irgendwann vom Nvidia Lager zu AMD ;)

Und wenn diese Graka mal in einer Konsole stecken würde evtl. mal XBox 720 oder PS4, dann tobt aber der Graka Markt und dann kann es vielleicht mal wirklich Fotorealistische Grafik mit Echtzeit Raytraycing geben usw. usf.
rate (2)  |  rate (6)
Avatar Sir Twist
Sir Twist
#32 | 22. Dez 2011, 10:48
Hatte mir von der 28-nm-Fertigungsprozess deutlich mehr versprochen.
Die Lautstärke und der Stromverbrauch finde ich nicht i.O.
Wenn ich an den neuen Fertigungsprozess, das neue Design und den Stromverbrauch mir anschaue hatte ich auch auf mehr Leistung getippt.
Naja die Treiber dürften noch einiges rausholen aber trozdem.
rate (5)  |  rate (2)
Avatar I3aum
I3aum
#33 | 22. Dez 2011, 10:51
Zitat von willsnone:
und wieder kein ssaa unter dx10/11 und von downsampling wieder keine Spur. ich versteh nicht warums das nicht mal umsetzen bei AMD. da könnte man die enorme Leistung in qualität investieren, aber ohne diesen optionen ist diese enorme Leistung ziemlich sinnfrei für normal Anwender. so ist AMD leider wieder keine Alternative zu nvidea. echt schade. aber ich hoffe das zumindest die nvidea Preise ein bisschen fallen, dann wärs doch nich so sinnfrei. ;)
Wenn du dir diese Karte kaufst bist du kein "Normaler Anwender".. Denn du kaufst dir die Karte um mind. 2 Bildschirme zu Betreiben + Spiele auf Max zu Spielen und eventuel 3D rein zu hauen!! nicht um abundzu Sims, NFS oder FIFA auf mittel zu zocken -.-....

Zitat von ThoyanVX:

- GTX 580 (Standard-Takt) geschlagen, mal mehr, mal weniger deutlich. In den Hohen Auflösungen, liegt das aber glaube ich primär an dem größeren Videospeicher, wenn der überläuft wird die Grafikkarte ja recht stark eingebremst, wenn ich mich nicht irre.Ist mir aber persönlich zu wenig. Meine Graka (GTX 480) ist übertaktet. Da schrumpft der Vorsprung der HD7970 schon mal weiter zusammen.

Alter ist dein Hirn ausgeschaltet ??
Denkst du etwa die HD7970 ist nicht übertaktbar?? Und da steigt der Vorsprung der HD7970 zu deiner Karte wieder...

Bin aber trotzdem auf die Nvidia Karten gespannt und freue mich auf nen Fetten Konkurenz kampf :-).. wobei ich amd den Sieg gönnen würde, trotzdessen, dass iich momentan ne nvidia karte habe :-)
rate (6)  |  rate (3)
Avatar XxJigsawxX
XxJigsawxX
#34 | 22. Dez 2011, 10:56
warten wir mal ab, was nvidia zu antworten hat
rate (4)  |  rate (2)
Avatar Teralios
Teralios
#35 | 22. Dez 2011, 11:01
Zitat von ThoyanVX:
Das klingt ja schon einmal nicht schlecht, aber....

- die aktuelle Lautstärke geht ja mal gar nicht, hoffentlich wird es mit den Customdesign´s deutlich besser.

- GTX 580 (Standard-Takt) geschlagen, mal mehr, mal weniger deutlich. In den Hohen Auflösungen, liegt das aber glaube ich primär an dem größeren Videospeicher, wenn der überläuft wird die Grafikkarte ja recht stark eingebremst, wenn ich mich nicht irre.Ist mir aber persönlich zu wenig. Meine Graka (GTX 480) ist übertaktet. Da schrumpft der Vorsprung der HD7970 schon mal weiter zusammen.

- Vom Stromverbrauch unter Last bin ich doch enttäuscht, hätte gedacht, das dieser besser ausfallen würde.

- Tja mal schauen was Nvidia raushaut, denke aber es wir ähnlich laufen wie seinerzeit mit der HD5870 & GTX 480. AMD legt vor holt sich die Krone und muss diese dann an Nvidia wieder abgeben. Aber auch erst in ein Paar Monaten.

Fazit: Die Generation HD7000er & GTX600er lasse ich aus. Meine GTX 480 OC hat mehr als genug Dampf um auf die nächste Generation zu warten.


Du darfst nicht vergessen, dass die Treiber für die neue Architektur noch nicht optimiert sind. Ein Teil der Leistung wird erst noch kommen, da Fehler behoben werden usw. So wie ich das nämlich aktuell verstanden habe, ist die HD7970 doch auch teilweise bis zu 60% schneller, als die 580er. Wenn sie an den Treibern nun arbeiten und diese weiter verbessern, werden die sicher noch einigen Spielen die nach unten Ausbrechen die Leistung reinholen und ggf. bei den anderen noch ein paar Pünktchen Leistung aufschlagen.

Was viele mit SSAA und DownSampling haben, verstehe ich nicht ganz. Ich spiele immer mit MSAA und selten mit SSAA oder DownSampling, da mir da oft die Bilder zu sehr vermatschen. Dies ist aber eine persönliche Meinung und persönliches Empfinden.

Eines bleibt aber zu sagen, im Gegensatz zu nVidia ist hier die ganz neue Architektur nicht so "katastrophal" gestartet, wie es der Fermi ist. Der Fermi war durchaus schnell, hat sich dies aber durch viel Wärme und einer extremen Leistungsaufnahme erkauft. Der neue AMD-Architektur braucht weniger als die 580er und leistet dabei mehr. Dass da der 28nm-Prozess geholfen hat, ja auch der, aber trotzdem ist es ein guter Start.
rate (6)  |  rate (0)
Avatar PeterPwned
PeterPwned
#36 | 22. Dez 2011, 11:06
Trotzdem fasse ich AMD Karten nicht mehr an. Meine 5970 war so dermaßen übel in Punkto Treibern und Grafikfehlern - bleibe ich doch lieber bei meinen 580igern.
rate (1)  |  rate (11)
Avatar ThoyanVX
ThoyanVX
#37 | 22. Dez 2011, 11:11
Zitat von I3aum:
Alter ist dein Hirn ausgeschaltet ??
Denkst du etwa die HD7970 ist nicht übertaktbar?? Und da steigt der Vorsprung der HD7970 zu deiner Karte wieder...


Nein, mein Gehirn ist eingeschaltet. Wenn es ausgeschaltet wäre, dann wäre ich tot.

Das die HD7970 übertaktbar ist ist mir bekannt. Darum ging es mir aber nicht, zumal in diesem Test keine OC-Ergebnisse genannt wurden, sprich das OC-Potenzial nicht bekannt ist.

Und ja, ohne OC ist mir meine OC-GTX480 schnell genug bzw. der Vorsprung der HD7970 nicht groß genug um EUR 500,00 zu investieren.

Wenn das OC-Potenzial bekannt ist, kann sich meine Meinung durchaus wenden. Wobei ich trotzdem erstmal die GTX6xx abwarten werde, wie hoch deren Leistungs ist / OC-Potenzial.
rate (1)  |  rate (3)
Avatar Affe
Affe
#38 | 22. Dez 2011, 11:13
Ich zocke in 3d un da kann man ja bekanntlich nicht genug grafikpower haben, meine gtx 580 geht da schon an ihre grenzen.
Un in sachen 3d kann amd nich mit nvidia mithalten, habe gerade erst den neuen asus monitor mit 3d vision 2 gekauft un da hat nvidia das problem ghosting deutlich reduziert un den helligkeitsverlust durch die shuttertechnik fast eleminert. Un was die räumliche tiefe angeht kann auch nichts mit 3d vision mithalten. Eine Amd karte mit dieser power is somit nur für leute die an mehrern monitoren zocken intressant. Ich warte auch auf nvidias antwort.
rate (2)  |  rate (1)
Avatar My Name is Earl
My Name is Earl
#39 | 22. Dez 2011, 11:20
Ich hoffe das NVidea mit der nächsten Generation (6....) endlich ihren Videospeicher vergrößert! Spiele wie BF3 brauchen für Ultra nunmal mind. 1,5GB Ram (Laut Entwickler Video) und das dies nur vom absoluten Spitzenmodell geboten wird finde ich persönlich schade. Denn so bleibt auch bei SLI Systemen der Speicher der Engpass.

Was mich doch wundert ist wie hier die sehr hohe Wärmeentwicklung und die extreme Lautstärke mehr oder minder unter den Tisch gekehrt wird.

Ich finde für eine GraKa dieser Generationsstufe kann man mehr erwarten. Wenn ich mich da an die Kommentare zur Nvidea 4er Generation erinnere.

Naja ich bin sehr gespannt was AMD noch so bringt, ich war nie ein großer Fan aber die neue Generation könnte wirklich sehr interessant werden.

Da ich mir eh nie Referenzkarten kaufe bin ich gespannt was man auf dieser Basis tolles erschaffen kann.

Vielleicht wirds nächstes jahr eine AMD? Wer weiss ;)
rate (5)  |  rate (0)
Avatar Kehool
Kehool
#40 | 22. Dez 2011, 11:23
Zitat von Sir Twist:
Hatte mir von der 28-nm-Fertigungsprozess deutlich mehr versprochen.
Die Lautstärke und der Stromverbrauch finde ich nicht i.O.
Wenn ich den neuen Fertigungsprozess, das neue Design und den Stromverbrauch mir anschaue hatte ich auch auf mehr Leistung getippt.
Naja die Treiber dürften noch einiges rausholen aber trozdem.


referenzkarten sind praktisch nie sonderlich leise

einfach auf alternative kühllösungen warten.. dann klappts auch mit der lautstärke

zumindest im idle ist sie sehr leise da dort eine etwas höhere temperatur erlaubt wird als bei den meisten referenzkarten

25% mehr leistung aber gleichzeitig ein paar % (5-10% schätze ich mal) weniger stromverbrauch als eine gtx 580 finde ich durchaus angemessen für die neue strukturbreite
rate (3)  |  rate (1)

PROMOTION
 
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten