Hardware-News

Aktuelle Nachrichten rund um Hardware und Software, Grafikkarten, Windows und Internet.
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1
Avatar verlierer
verlierer
#1 | 04. Jul 2008, 15:49
Sehr schön!
Aber weiß man schon was über den Preis für das Prachtstück?
rate (0)  |  rate (0)
Avatar Shamestar
Shamestar
#2 | 04. Jul 2008, 15:51
Ähm R700 als 4870 x2? Ist das nun ne Single-GPU Karte oder folgt das den anderen Karten, bei denen die x2 Versionen immer 2GPUs hatten? Denn sonst wär sie ja nicht wirklich mit der GTX280 vergleichbar. Aber ich gehe mal eher davon aus, dass es sich um eine Single-GPU handelt, jedoch ist die Bezeichnung arg verwirrend.
rate (0)  |  rate (7)
Avatar iii
iii
#3 | 04. Jul 2008, 15:57
Zitat von Shamestar:
Ähm R700 als 4870 x2? Ist das nun ne Single-GPU Karte oder folgt das den anderen Karten, bei denen die x2 Versionen immer 2GPUs hatten? Denn sonst wär sie ja nicht wirklich mit der GTX280 vergleichbar. Aber ich gehe mal eher davon aus, dass es sich um eine Single-GPU handelt, jedoch ist die Bezeichnung arg verwirrend.


Warum sollten sie nicht vergleichbar sein?
rate (0)  |  rate (0)
Avatar GuitarHero
GuitarHero
#4 | 04. Jul 2008, 15:59
DIE GPU's von ATI sind skalierbar, d.h Das es sich um einen "Dual-Core" vom r770 handelt.

und außerdem ist sie sehr wohl vergleichbar sein da sie wahrscheinlich für den selben Preis wie GTX280 zu haben seid wird. also wahrscheinlich um die 450-500 €
rate (1)  |  rate (0)
Avatar Shamestar
Shamestar
#5 | 04. Jul 2008, 16:03
Zitat von iii:
Zitat von Shamestar:
Äh m R700 als 4870 x2? Ist das nun ne Single-GPU Karte oder folgt das den anderen Karten, bei denen die x2 Versionen immer 2GPUs hatten? Denn sonst wär sie ja nicht wirklich mit der GTX280 vergleichbar. Aber ich gehe mal eher davon aus, dass es sich um eine Single-GPU handelt, jedoch ist die Bezeichnung arg verwirrend.


Warum sollten sie nicht vergleichbar sein?


Weil eine GTX280 eine Single GPU Karte ist und eine Version mit 2 GPUs sicherlich folgen wird. Ich denke fairer ist es, die Single-GPU Varianten zu vergleichen. Sicherlich kostet die Dual-GPU Karte von AMD weniger als die Single GTX280 und preisleistungstechnisch hat AMD das um Längen bessere Produkt im Angebot, aber rein technisch betrachtet würde der Vergleich ein wenig hinken.
rate (1)  |  rate (6)
Avatar casual gamer
casual gamer
#6 | 04. Jul 2008, 16:03
@Shamestar

Es wird ein GPU mit mehreren Kernen werden.
rate (1)  |  rate (16)
Avatar Kevin27
Kevin27
#7 | 04. Jul 2008, 16:03
@Shamestar:
Doch es handelt sich um eine Dual-GPU Karte mit 2 4870er Chips (meines Wissens nach). Aber die muss ja abgehn wie Schmidts Katze wenn man nur die 4870er schon sieht :D
rate (3)  |  rate (0)
Avatar iii
iii
#8 | 04. Jul 2008, 16:28
Zitat von Shamestar:
Zitat von iii:
[q uote=Shamestar;9041027]Ähm R700 als 4870 x2? Ist das nun ne Single-GPU Karte oder folgt das den anderen Karten, bei denen die x2 Versionen immer 2GPUs hatten? Denn sonst wär sie ja nicht wirklich mit der GTX280 vergleichbar. Aber ich gehe mal eher davon aus, dass es sich um eine Single-GPU handelt, jedoch ist die Bezeichnung arg verwirrend.


Warum sollten sie nicht vergleichbar sein?


Weil eine GTX280 eine Single GPU Karte ist und eine Version mit 2 GPUs sicherlich folgen wird. Ich denke fairer ist es, die Single-GPU Varianten zu vergleichen. Sicherlich kostet die Dual-GPU Karte von AMD weniger als die Single GTX280 und preisleistungstechnisch hat AMD das um Längen bessere Produkt im Angebot, aber rein technisch betrachtet würde der Vergleich ein wenig hinken.


Ich hab gedacht hier geht es um Leistung und nicht um fairness?
rate (6)  |  rate (1)
Avatar GuitarHero
GuitarHero
#9 | 04. Jul 2008, 16:29
nein rein technisch gesehen ist es egal über wieviele Kerne eine GPU verfügt fakt ist der das NVidia lieber auf grosse Leistungsfähige SingleGPU's setzt, und ATI von Anfang an darauf geachtet haben einen skalierbaren Chip zu entwickeln, AMD/ATI hat damals (Athlon/Core2Duo) seinen Fehler erkannt und versucht dass jetzt auszumerzen, ich denke in 4-5 Generationen also HD 9850 ;-) werden Multi-Core GPU's das sagen haben da DirectX11 schon sehr viel wert auf GPGPU setzt.

laberlaber der Punkt ist der es ist egal wieviele Kerne es geht um Preis/Leistung!!!
rate (1)  |  rate (0)
Avatar Sebbe
Sebbe
#10 | 04. Jul 2008, 17:04
hmm falls nvidia nicht ein ass im ärmel hat...
:D eine GTX 280 GX2 die dann 600-700 watt aus dem netzteil zeiht xD
rate (3)  |  rate (0)
Avatar Fragnat1c
Fragnat1c
#11 | 04. Jul 2008, 17:05
Es ist aber nur dann egal wie viele Kerne eine Grafikkarte besitzt wenn auch die Mikroruckler beseitzgt wurden. Was nützt mir eine schnelle Dual-GPU-Karte wenn durch die Mikroruckler das flüssige Spielen trotzdem nicht immer möglich ist? Das Problem soll aber angeblich bei der 4870 X2 nicht mehr auftreten, man darf gespannt sein...

//Greetz
rate (2)  |  rate (0)
Avatar mho
mho
#12 | 04. Jul 2008, 17:14
Zitat von iii:


Ich hab gedacht hier geht es um Leistung und nicht um fairness?


Ein Dual-GPU Design hatte halt bisher viele Nachteile. Wenig Performancegewinn bei nicht optimierten Spielen, Mikroruckler.

Wenn diese Punkte verbessert bzw. ausgeschaltet wurden ist das natürlich toll. Wenn nicht, dann hinkt der Vergleich tatsächlich.
rate (0)  |  rate (1)
Avatar Alzi
Alzi
#13 | 04. Jul 2008, 17:16
Zitat von Sebbe:
hmm falls nvidia nicht ein ass im ärmel hat...
:D eine GTX 280 GX2 die dann 600-700 watt aus dem netzteil zeiht xD


NV GTX280 GX als Komplettpaket mit neuem Netzteil.

in welcher ausgabe war das doch gleich wieder, mit diesem USB Atomreaktor? ^^ Seine Zeit ist gekommen.
rate (2)  |  rate (0)
Avatar JokerGermany
JokerGermany
#14 | 04. Jul 2008, 17:19
Zitat von Shamestar:
[...]


WTF? :huh:

Warum sollte man Preis/Leistung nicht miteinander vergleichen?
Egal ob die eine Karte 2 GPUs und die andere nur einen hat.
AMD verfolgt eben einfach eine andere Taktik.
Es wird übrigens erstmal wahrscheinlich keine 2GPU Version kommen, weil sie zu viel Strom fressen würde ;)
rate (1)  |  rate (0)
Avatar SRottensteiner
SRottensteiner
#15 | 04. Jul 2008, 17:39
Letztendlich kommt es auf die Leistung in der realen Welt an. Wenn immer beide GPU's arbeiten, egal bei welchem Spiel, kann man durchaus eine 2 GPU Karte mit einer 1 GPU vergleichen. Wenn aber nur bei wenigen, speziell angepassten Spielen beide und nicht nur einer was tut, muss man hier eine Trennlinie ziehen.
rate (0)  |  rate (0)
Avatar DynamicStyle
DynamicStyle
#16 | 04. Jul 2008, 17:54
Zitat von casual gamer:
@Shamestar

Es wird ein GPU mit mehreren Kernen werden.
Wo bitte steht im Artikel das es mehrere GPU´s sind? Die Kartenbezeichnung hat sich ja nicht die GS ausgedacht!

Zur Vergleichbarkeit: Ich kenne kaum Leute denen es bei Grafikkarten interessiert ob mehrere Kerne eingesetzt werden oder nicht. Wichtig ist den Großteil doch eh nur die Leistungswerte und das Preis-Leistungs-Verhältniss. Und letzteres ist doch zum Vergleich geeignet.
rate (0)  |  rate (0)
Avatar der Bart
der Bart
#17 | 04. Jul 2008, 18:13
Zitat von Alzi:


NV GTX280 GX als Komplettpaket mit neuem Netzteil.

in welcher ausgabe war das doch gleich wieder, mit diesem USB Atomreaktor? ^^ Seine Zeit ist gekommen.


Allerdings ist der Stromverbrauch der 4870 (leider) nicht gerade das Gelbe vom Ei

[url]http://www.computerbase.de/artikel/ha rdware/grafikkarten/2008/test_radeon_hd_4870_c f_geforce_gtx_260_sli/26/#abschnitt_leistungsa ufnahme[/url]
rate (0)  |  rate (0)
Avatar Der Saxophonist
Der Saxophonist
#18 | 04. Jul 2008, 18:46
OMG anscheinend posen jier nur Leute die sich nicht umbedingt auskennen.

Ein Grafikchip hat sauviele Kerne (die aktuellen ATI z.b. über 800) denn jeder shaderprozessor usw hat einen Kern.
Man kann daher bei Grakas nur von Dual-CHIP Karten sprechen nicht aber von Dual-CORE Karten.

@shamestar Irgendwie argumentierst du nicht nachvollziehbar denn wenn du recht hast könnte man die ATI karten überhaupt nicht mit den Nvidia Karten vergleichen denn diese nutzen ja Direct X 10.1
also überdenk deine position noch mal!
rate (1)  |  rate (0)
Avatar Flup
Flup
#19 | 04. Jul 2008, 18:47
Also, nachdem hier mal wieder alle möglichen Leute ihre falsche Meinung kundtaten muss ich da mal einiges richtigstellen:

1. Es gibt keine Dual-Core Grafikkarten! Im Gegensatz zu den CPUs waren GPUs schon immer hoch parallel, also wenn man so will "Multi-Core". Es gibt nur Karten, wo mehrere Chips (nicht Cores) auf einer Platine (nicht Die) verbaut werden. Diese werden durch einen sog. Bridge-Chip verbunden.

2. Die HD4870x2 basiert eben auf 2 RV770, die hier R700 genannt werden. Sie werden nicht über den Speicher verbunden, sondern eben über diesen Chip

3. AMD verspricht, dass die Mikroruckler nicht mehr vorhanden sein werden. Technisch möglich wäre ein Treiberpuffer oder eine Funktion des "Bridgechips 2.0"

4. Soll es ein Problem beim Clock-Gating geben, was den Idle-Verbrauch der 48xx in die Höhe schnellen lässt. Dies lässt sich möglicherweise durch ein BIOS-Update der Karte oder durch die Treiber beheben.

Flup


EDIT: Bei 1. kam mir der über mir leider etwas zuvor ;)
rate (2)  |  rate (0)
Avatar Stieg
Stieg
#20 | 04. Jul 2008, 18:55
Ich bin mal gespannt ob ATI die Temps besser als bei der HD48X0 in den Griff bekommt, denn die schlägt ja immo im Negativen sinne alle Rekorde.
rate (0)  |  rate (1)
Avatar Thrice
Thrice
#21 | 04. Jul 2008, 20:44
Wenn man die Lüfterregelung manuell vornimmt (z.B auf 35% stellt) bleiben die Karten recht kühl.
Hiermal ein Link zu www.guru3d.com, dort wurde das ausführlich besprochen:

http://forums.guru3d.com/showthread.php?t= 265745

Ansonsten wird Powerplay beim Catalyst 8.7 hoffentlich richtig funktionieren.
rate (0)  |  rate (0)
Avatar casual gamer
casual gamer
#22 | 04. Jul 2008, 21:08
Zitat von DymamicStyle:
Zitat von casual gamer:
@Shamestar

Es wird ein GPU mit mehreren Kernen werden.
Wo bitte steht im Artikel das es mehrere GPU´s sind? Die Kartenbezeichnung hat sich ja nicht die GS ausgedacht!


Shamestar hat angefragt ob die Radeon HD 4870 X2 so wie die HD 3870 X2 über 2 GPUs verfügen wird, darauf habe ich geantwortet dass die Karte EINEN GPU mit Mehrkerntechnik verwenden wird.
rate (0)  |  rate (0)
Avatar Der Saxophonist
Der Saxophonist
#23 | 04. Jul 2008, 21:15
Zitat von casual gamer:
Zitat von DymamicStyle:
[quo te=casual gamer;9041119]@Shamestar

Es wird ein GPU mit mehreren Kernen werden.
Wo bitte steht im Artikel das es mehrere GPU´s sind? Die Kartenbezeichnung hat sich ja nicht die GS ausgedacht!



Shamestar hat angefragt ob die Radeon HD 4870 X2 so wie die HD 3870 X2 über 2 GPUs verfügen wird, darauf habe ich geantwortet dass die Karte EINEN GPU mit Mehrkerntechnik verwenden wird.


und genau das ist leider falsch!! siehe #19 und #18
rate (0)  |  rate (0)
Avatar Graf Metzger
Graf Metzger
#24 | 04. Jul 2008, 21:17
Mit Sicherheit wird Nvidia beim GT200b noch ein Ass aus dem Ärmel zaubern, trotzdem wird ATI sei jetziges Aufholen dadurch nicht einbüßen - im Gegenteil.
rate (2)  |  rate (0)
Avatar casual gamer
casual gamer
#25 | 04. Jul 2008, 21:18
@ Der Saxophonist

Danke für den Hinweis :).
rate (1)  |  rate (0)
Avatar der Bart
der Bart
#26 | 04. Jul 2008, 22:43
Zitat von Flup:

4. [B][U]Soll[/U][/B] es ein Problem beim Clock-Gating geben, was den Idle-Verbrauch der 48xx in die Höhe schnellen lässt. Dies lässt sich [B][U]möglicherweise[/U][/B] durch ein BIOS-Update der Karte oder durch die Treiber beheben.

:p

Es geht ja nicht nur um dem Idle-Verbrauch, der Last-Verbrauch ist für einen 55nm Chip im Vergelich zu NVidia's 65nm GTXs zu hoch.
rate (0)  |  rate (0)
Avatar DaViSFiT
DaViSFiT
#27 | 05. Jul 2008, 13:12
Also meine 8800 GTX wird je nachdem wie warm es ist zwischen 93°-98° warm, weil eine 4870 89° warm wird heisst das nicht das sie neue Hitzerekorde verbucht. Die 280/260 GTX werden nicht ganz so heiss weil der Lüfter einiges schneller und auch merklich lauter dreht als die 4870er ...
rate (0)  |  rate (0)
Avatar Stieg
Stieg
#28 | 05. Jul 2008, 13:35
Zitat von DaViSFiT:
Also meine 8800 GTX wird je nachdem wie warm es ist zwischen 93°-98° warm, weil eine 4870 89° warm wird heisst das nicht das sie neue Hitzerekorde verbucht. Die 280/260 GTX werden nicht ganz so heiss weil der Lüfter einiges schneller und auch merklich lauter dreht als die 4870er ...


Dann stimmt aber mit deiner Gehäusebelüftung was nicht, oder dein Rechner/ Lüfter ist total verstaubt. Normal solltest du unter Last etwa 80° haben.
rate (0)  |  rate (0)
Avatar DaViSFiT
DaViSFiT
#29 | 05. Jul 2008, 13:46
Ja genau, im Traum vieleicht ;) Bei mir war die Karte nun in 2 Gehäusen schon, bei meinen 2 Bekannten die ihre 88er in ebenfalls anderen Gehäuse haben kommen auf ca. die gleichen Temps. (Natürlich keine Standart 8800er, aber OC und XXX steht ja bei 90% der Karten drauf)
rate (0)  |  rate (0)
Avatar vybz
vybz
#30 | 05. Jul 2008, 15:00
Zitat von DaViSFiT:
Ja genau, im Traum vieleicht ;) Bei mir war die Karte nun in 2 Gehäusen schon, bei meinen 2 Bekannten die ihre 88er in ebenfalls anderen Gehäuse haben kommen auf ca. die gleichen Temps. (Natürlich keine Standart 8800er, aber OC und XXX steht ja bei 90% der Karten drauf)


lol, also ich glaube der Stieg hat Recht, das klingt nicht nach einem gut belüftetem Gehäuse. Ich habe auch eine 8800GT XXX, allerdings G92. Dies wurde mit dem Standardlüfter und ohne aktive gehäuselüftung 45-75° heiss. Nun mit anderem Lüfter und aktiver Gehäuselüftung liegt sie bei 35-55°. ich denke das ist verträglich, da die lüfter um niedrigster Drehzahl läuft. Eine 8800 mit knapp 90° würde mich daher schon stark wundern, außer du hast keine Gehäuselüftung, der Lüfter auf der GPU wurde manuell runter gedreht und die anderen Komponenten geben extrem viel Hitze ab, die sich danke der nicht vorhandenen Gehäuselüftung, extrem aufstaut.
rate (0)  |  rate (0)
Avatar Miwi
Miwi
#31 | 05. Jul 2008, 16:43
Zitat von Shamestar:
Weil eine GTX280 eine Single GPU Karte ist und eine Version mit 2 GPUs sicherlich folgen wird.

Was soll die dann für einen Energiebedarf haben und wer soll die bezahlen?
Miwi
rate (0)  |  rate (0)
Avatar Adecius
Adecius
#32 | 05. Jul 2008, 19:43
Ansich finde ich den Ansatz von Multi GPE ja gut, wenn mehrere GPE´s auf einer Karte sitzen, der Verbrauch sich in humanen Bereichen hält, sowie die typischen Sli/Kreuzfeuer :p Problemchen verschwunden sind.
Als Vergleich zu Einzel GPE´s find ich es teilweise "unfair". Man könnte da auch ein bischen ATI belächeln ala Sie brauchen erst mal zwei GPEs um es mit EINER GTX280 aufzunehmen. Allerdings muss man dann das Preis-Leistungsverhältniss berücksichtigen.
Für mich persönlich würde es sich besser lesen, gäbe es einen Kampf zwischen einer GTX280GX2 und einer R700, also zwei Doppel GPE´s. Ich denke aber das früher oder später Nvidia auch mit Mehrkern Grafikkarten anfängt. Da die Einzel Versionen doch teurer kommen. Ausser man würde den Fertigungsprozess auf, was weiss ich, 15nm wenn überhaupt möglich, reduzieren ;)
Gut, aber damit bin ich nicht sonderlich bewandert.
rate (0)  |  rate (0)
Avatar Alexx
Alexx
#33 | 06. Jul 2008, 11:29
Zitat von DaViSFiT:
Also meine 8800 GTX wird je nachdem wie warm es ist zwischen 93°-98° warm, weil eine 4870 89° warm wird heisst das nicht das sie neue Hitzerekorde verbucht. Die 280/260 GTX werden nicht ganz so heiss weil der Lüfter einiges schneller und auch merklich lauter dreht als die 4870er ...


wow, vielleicht solltest du im control panel die lüftung manuell auf 80 % drehen, weil sie normal bei 59 % immer ist (also bei mir zumindestens). 98 ° ist verdammt viel!
das höchste was ich je hatte waren 81°
rate (0)  |  rate (0)
Avatar marvi
marvi
#34 | 06. Jul 2008, 15:37
Ich hoffe und tippe auf einen preis von 350€, da die 280er von Nvidia schon unter 400€ gefallen sind.

Trotzdem weiß ich immer noch nicht, ob ich für so eine Dual-Karte ein Crossfire-board brauche oder nicht?!
rate (0)  |  rate (0)
1

PROMOTION
NEWS-TICKER
Freitag, 24.10.2014
18:50
18:38
18:30
17:45
17:30
17:18
17:14
16:47
15:55
15:46
15:16
15:10
15:04
15:00
14:44
13:55
13:16
13:15
13:08
13:04
»  Alle News

Aktuelle Tests

Wertung
89
Wertung
96
Wertung
94
WEITERE TESTS:
88
93
95
92
78
» Alle Hardware-Tests
 
Sie sind hier: GameStar > Hardware > News > Grafikkarten > ATI
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten