Hardware-News

Aktuelle Nachrichten rund um Hardware und Software, Grafikkarten, Windows und Internet.

Nvidia - GeForce 9800 GTX+ mit 55nm-GPU

PC Perspective hat bereits eine der angekündigten GeForce 9800 GTX+ in die Hände bekommen und zerlegt. Auf den Bildern wird klar, dass die neue Variante der 9800 GTX eine G92-GPU in 55nm-Bauweise besitzt und Nvidia aus diesem Grund die Taktfrequenz deutlich erhöhen konnte.

Von Georg Wieselsberger |

Datum: 20.06.2008 ; 11:53 Uhr


Nvidia : G92 in 55nm G92 in 55nm PC Perspective hat bereits eine der angekündigten GeForce 9800 GTX+ in die Hände bekommen und zerlegt. Auf den Bildern wird klar, dass die neue Variante der 9800 GTX eine G92-GPU in 55nm-Bauweise besitzt und Nvidia aus diesem Grund die Taktfrequenz deutlich erhöhen konnte. Laut dem Artikel hätte Nvidia den G92 eigentlich nur als Testlauf in 55nm herstellen lassen, war dann jedoch von den Ergebnissen beeindruckt. Zusammen mit der bevorstehenden Vorstellung der neuen ATI-Karten hätte dies dann zur Existenz der GeForce 9800 GTX+ geführt. Im Bild rechts die 55nm-GPU, rechts die ältere 65nm-Version. (Bildquelle: PC Perspective)

Täglich informiert sein? Jetzt Newsletter bestellen!

Diesen Artikel:   Kommentieren (19) | Drucken | E-Mail
Sagen Sie Ihre Meinung (» alle Kommentare)
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
Avatar jpgs
jpgs
#1 | 20. Jun 2008, 12:10
Ham angst vor Ati!!!
rate (1)  |  rate (5)
Avatar jpgs
jpgs
#2 | 20. Jun 2008, 12:13
Die wird bestimmt teurer als die norm.!!!
rate (1)  |  rate (4)
Avatar bigdaddy13
bigdaddy13
#3 | 20. Jun 2008, 12:34
also DAS ist die Karte, die von Anfang an die Geforce 8900GTX sein hätte sollen!
G92 Chip ist zu wenig, kleinere Struckturbreite, deutlich höhere Taktraten, weniger Vebrauch.
DAS ist ein Update der GF8800 Serie. Daher eine würdige GF8900GTX.
GF9xxx gibt es in meinen Augen sowieso nicht.
Also nach der 8er Serie gleich die GTX 280 und GTX 260.
Da die 4580 deutlich unter 200,- kostet, wird die wohl auch in diesem Bereich angesiedelt sein. Also unter 200,-, sonst kauft die ja niemand. Mal auf Tests warten. Auch wenn sich niemand mehr eine Graka kauft, die kein DX10.1 kann. Und die die NUR auf Leistung setzten und unbedingt Nvidia wollen, kaufen gleich eine neue GTX260 bzw GTX 280
Thats Nvidia;-)
rate (2)  |  rate (0)
Avatar Stieg
Stieg
#4 | 20. Jun 2008, 12:46
Zitat von jpgs:
Ham angst vor Ati!!!


Warum Angst? Es zeigt doch das es genügt, die uralte GPU durch optimierung wieder an den Nagelneuen ATIs vorbei ziehen zu lassen.
rate (6)  |  rate (7)
Avatar Marty_Gaw
Marty_Gaw
#5 | 20. Jun 2008, 13:01
Zitat von Stieg:
Zitat von jpgs:
Ham angst vor Ati!!!


Warum Angst? Es zeigt doch das es genügt, die uralte GPU durch optimierung wieder an den Nagelneuen ATIs vorbei ziehen zu lassen.


Genau,...

Außerdem sollte man mal sehen das der G200b auch in 55nm gefertigt werden soll,...

Der absolut beste Test ist es aber, das ganze auf ner alten Karte erst mal auszzuprobieren,...

Ganz unter uns,... die Skalierung zwischen 9800GTX und 9800GTX+ wird uns den weg der GTX280 zeigen,...

Die wird dann natürlich in gleichen maße davon profietieren und auch nochmal eine ganze Menge an Leistungsreserven mobilisieren können,...

So ist das ziemlich gut und Taktisch von NV,...

Genauso wie ATI erst falsche Info's über die Anzahl Ihrer 800 Stream-Prozessoren gemacht hat,...

Heute ist das alles Taktik,... und von beiden Seiten ziemlich gute sogar,...

Jetzt denkt ATI noch sie können gleich ziehen und haben das bessere P/L Verhältnis,... (maginal), bald wird aber der Leistungsunterschied wieder beim "alten" sein wie damals bei den 8800-Karten,...
rate (1)  |  rate (0)
Avatar Willow007
Willow007
#6 | 20. Jun 2008, 13:14
Zitat von Stieg:
Zitat von jpgs:
Ham angst vor Ati!!!


Warum Angst? Es zeigt doch das es genügt, die uralte GPU durch optimierung wieder an den Nagelneuen ATIs vorbei ziehen zu lassen.


Bedenke bitte, dass der Gegner die untere Mittelklasse von AMD is und nich die High-End. Und diese Karte hat bereits jetzt genug Leistung um die 9800GTX zu übertreffen. Und spätestens wenn die Treiber optimiert sind, wird die HD noch stärker werden.

Warte lieber ab, was passiert wenn die großen HD's kommen. Also die HD4870 und die X2. Das Beste is ja, dass AMD eigentlich nur über den Preis angreifen wollte und nicht über die Leistung. Würde sagen beides funktioniert dann dennoch sehr gut :-)

Lustig nur dass auf einmal keine tollen Sprüche kommen von wegen "Wir sind zu gut für diese Welt". Statt dessen versuchen sie schnellstmöglich den alten Schrott wenigstens ansatzweise so zu modifizieren, dass er noch halbwegs paroli bieten kann.

Die neuen Karten von NVidia sind ja preislich keine Konkurrenz.
rate (12)  |  rate (1)
Avatar Weedie
Weedie
#7 | 20. Jun 2008, 13:28
@bigdaddy13: Wie GS schon mehrfach erläuterte, braucht DX10.1 kein Mensch, bis es Spiele dafür gibt is eh schon die ganze aktuelle Hardware veraltet.
rate (0)  |  rate (1)
Avatar Marty_Gaw
Marty_Gaw
#8 | 20. Jun 2008, 13:30
Zitat von Stieg:
Zitat von jpgs:
Ham angst vor Ati!!!


Warum Angst? Es zeigt doch das es genügt, die uralte GPU durch optimierung wieder an den Nagelneuen ATIs vorbei ziehen zu lassen.


Naja, dann werden wir ja nach den ersten Test sehen was in den G200b noch drin steckt,... keine Änderung, nur kleineres Verfahren,.. So kommts im September auch bei den G200,...
Freu mich schon auf erste Tests.
rate (0)  |  rate (0)
Avatar Marty_Gaw
Marty_Gaw
#9 | 20. Jun 2008, 13:38
Zitat von Willow007:
Zitat von Stieg:
Zitat von jpgs:
Ham angst vor Ati!!!


Warum Angst? Es zeigt doch das es genügt, die uralte GPU durch optimierung wieder an den Nagelneuen ATIs vorbei ziehen zu lassen.


Bedenke bitte, dass der Gegner die untere Mittelklasse von AMD is und nich die High-End. Und diese Karte hat bereits jetzt genug Leistung um die 9800GTX zu übertreffen. Und spätestens wenn die Treiber optimiert sind, wird die HD noch stärker werden.

Warte lieber ab, was passiert wenn die großen HD's kommen. Also die HD4870 und die X2. Das Beste is ja, dass AMD eigentlich nur über den Preis angreifen wollte und nicht über die Leistung. Würde sagen beides funktioniert dann dennoch sehr gut :-)

Lustig nur dass auf einmal keine tollen Sprüche kommen von wegen "Wir sind zu gut für diese Welt". Statt dessen versuchen sie schnellstmöglich den alten Schrott wenigstens ansatzweise so zu modifizieren, dass er noch halbwegs paroli bieten kann.

Die neuen Karten von NVidia sind ja preislich keine Konkurrenz.


NV: Wir SIND zu gut für diese Welt,...

Nur mal so gegen den ATI FanBoy sag,....

Die G92 GPU basiert auf dem G80, richtig?

Die G80 ist seit mehr als 1,5 Jahren auf dem Markt, richtig?

Jetzt zeigt ein "alter" Chip wieviel Leistung noch in ihm schlummert,... das heißt doch nur das NV es die ganze Zeit nicht nötig hatte gegen die nicht vorhandene Konkurenz was besseres zu bringen,...

Jetzt komt ATI mit TOP aktuellen Karten, und NV geht hin, nimmt alte Teile, schraubt ein bischen was dran rum und schon sieht ATI wieder alt aus,...
Und was bringst du jetzt wieder,... P/L Verhältnis viel besser ? Tja, wenn ich ne neue Karte Kauf dann nur wegen den FPS,... die keiner braucht aber jeder ham will,... also NV,...

Der Stromverbrauch ist viel höher? Wen interessiert das, wenn ich ne GraKa für 500 Euronen kaufe dann interessiert mich der Mehrverbrauch im Vergleich zu meiner "alten" oder ner Neuen Konkurenzkarte von ca. 30-40 Euro im Jahr nicht,...

ATI ist bei weitem noch nicht gleich gezogen,...

Wer sagt, warte erst mal auf die noch kommenden größeren Karten, dem sag ich, warte erst mal auf die neuen G200b Karten,...

Also, eignetlic hat NV immer noch die Nase ganz weit vorne,...

Wers net sieht is blind,...

Alle Argumente die ich bs jetzt gelesen hab sin für die Katz,...

Bringt endlich mal ein paar stichhaltige, dann lasse ich mich gerne üerzeugen,...
rate (3)  |  rate (11)
Avatar Das einzigst Wahre...
Das einzigst Wahre...
#10 | 20. Jun 2008, 15:17
Zitat von Marty_Gaw:
Alle Argumente die ich bs jetzt gelesen hab sin für die Katz,...


...ebenso wie deine.:fs:
Jetzt überleg mal auf welchem Chip der RV770 basiert? Richtig auf dem RV670. Und wo kam der her? Von dem R600.
Also bringt dein Vergleich von wegen "alten Chip aufpeppen" nicht viel.
Außerdem solltest du mal überlegen, dass nicht JEDER diese 500€ für eine Karte ausgibt und ebenso auch nicht JEDEM egal ist was das Ding an Strom schluckt.
Natürlich, die ATI Karten sind bestimmt wieder ein kleiner oder großes Eck langsamer, aber für die meisten reicht die Leistung für einen 19" Monitor dicke, und da wären wir wieder beim Preis/Leistungs Verhältnis.
Und wenn Nvidia wirklich ZU GUT für diese WELT wäre, dann bräuchten die weder eine 9800GTX+ noch die vorzeitige Preissenkung bei ihren GTX2XX Modellen.
rate (2)  |  rate (1)

PROMOTION
NEWS-TICKER
Dienstag, 21.10.2014
13:52
13:39
13:18
12:48
12:27
12:25
11:53
11:40
10:42
10:35
10:29
10:15
09:57
09:50
09:21
08:40
08:31
08:15
Montag, 20.10.2014
20:02
18:58
»  Alle News
 
Sie sind hier: GameStar > Hardware > News > Grafikkarten > Nvidia
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten