Hardware-News

Aktuelle Nachrichten rund um Hardware und Software, Grafikkarten, Windows und Internet.
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1
Avatar LawandOrder
LawandOrder
#1 | 16. Mai 2012, 10:12
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Klatsch
Klatsch
#2 | 16. Mai 2012, 10:14
Endlich mal. Diese schrottige GTX680 wird mir langsam zu lahm und langweilig. Auch 2 davon machen den Kohl nicht fett und schmatzig. Ich will am liebsten 4 Gtx mit dem neuen Kepler. Aber das bleibt wohl Wunschdenken.
rate (14)  |  rate (8)
Avatar Dee-Jay
Dee-Jay
#3 | 16. Mai 2012, 10:23
Ich will die Geforce GTX 660 Ti.
rate (14)  |  rate (3)
Avatar Doktore
Doktore
#4 | 16. Mai 2012, 10:27
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar hightech
hightech
#5 | 16. Mai 2012, 10:28
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Was soll man mit einem 384 Bit breiten Speicherinterface? wenn schon dann bitte 512 Bit!

AMD´s Radeon HD 8xxx wird 512 Bit nutzen.

Also nVidia HAUT REIN ;-)




Hast Du überhaupt Ahnung von dem was Du hier schreibst ? - Ich glaube nicht.
rate (18)  |  rate (2)
Avatar cushycrux
cushycrux
#6 | 16. Mai 2012, 10:28
Ja ist gut.
rate (1)  |  rate (7)
Avatar Doktore
Doktore
#7 | 16. Mai 2012, 10:32
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Doktore
Doktore
#8 | 16. Mai 2012, 10:40
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Belasca
Belasca
#9 | 16. Mai 2012, 10:52
Zuvor man sich jetzt bei der konkurenz beschwert(eh nur ales dummes gelaber von wegen wir wären schneller. Lach)...
Bedanken dürft ihr euch bei den konsolen.
rate (1)  |  rate (2)
Avatar -Razor
-Razor
#10 | 16. Mai 2012, 10:54
Ich warte auf GK122 mit 8.640 Shader-Einheiten und 1.024 Bit breiten SPeicherinterface. Alles darunter ist mir zu lahm. *rolleyes*
rate (7)  |  rate (0)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#11 | 16. Mai 2012, 10:55
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Was soll man mit einem 384 Bit breiten Speicherinterface? wenn schon dann bitte 512 Bit!

AMD´s Radeon HD 8xxx wird 512 Bit nutzen.

Also nVidia HAUT REIN ;-)

Also wirlich, der GK 110 hätte damit ja nur 384bit/8bit*1500(Speichertakt)*4(Gddr5)=288 Gbyte Speichertranspherrate!
Ist doch gar nichts...

Die Anzahl der Shadereinheiten im Maximalausbau hingegen überrascht mich wirklich, so viele hätte ich nun nicht vermutet.

Naja, die sonstigen Angaben wären dann rein rechnerisch noch:
48 ROPs(Rasteroperatoren, wichtig für AA-Skalierung) und 224 TMUs(TextureMappingUnits, wichtig für AF-Skalierung)bzw. 206 bzw. 190 im nicht-Vollausbau. //GK 104--32ROPs und 128 TMUs

Allein von diesen Technischen Daten könnte auch der GK 110 ein Gaming-Monster werden, auch wenn die Taktung hier alles entscheidet.
Und wahrscheinlich wird die benötigte Leistung aus der Stecckdose wieder extrem ausfallen!
rate (6)  |  rate (0)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#12 | 16. Mai 2012, 10:57
Zitat von Doktore:
Interessant zu wissen ist, dass die GK104 Chips, die jetzt in den 6xx Karten verbaut werden, ursprünglich für die schwächsten Modelle der 6xx Serie geplant waren. Der GK110 Chip sollte ursprünglich in einer 680 verbaut werden. Da aber ATI mit ihren neuen Karten eine so "schwache" (unter den Erwartungen) Leistung abgeliefert hat, hat nVidia die GK104 verbaut und ist immer noch schneller als ATI. Wäre ATI ein würdiger Konkurent (was ich mir wirklich wünschen würde), wäre die 680er doppelt so schnell fürs gleiche Geld gewesen.

Ein gutes Beispiel zu "die Konkurenz belebt das Geschäft".

Höchstwahrscheinlich ist aber die GTX 680 viel höher getaktet, als es eine GTX 660 gewesen wäre. Auch der Speicher und sonstige Ausstattung ist womöglich viel hochwertiger als sie es bei einer GTX 660 TI gewesen wäre.
rate (0)  |  rate (0)
Avatar LawandOrder
LawandOrder
#13 | 16. Mai 2012, 11:10
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar sirius3100
sirius3100
#14 | 16. Mai 2012, 11:18
Schade dass im Artikel die speziellen Cloudgaming-Fähigkeiten (schnelleres H.246 encoding auf der Graka; sowie die Möglichkeit die Spiele mehrerer User auf einer Karte zu berechnen) einiger der angekündigten Karten nicht erwähnt wurden.

Soweit ich das mitbekommen habe hat das auf der Konferenz ´nen relativ großen Rahmen eingenommen.

Ob's die GK 110 ohne die relativ schwachen AMD-Karten früher auf den Enduser-Markt geschafft bezweilfe ich übrigens.
Die Preise für die 28nm-Fertigung scheinen deutlich höher zu sein als anfangs vermutet, weshalb die aktuellen Grakas von AMD und Nvidia auch verhältnismäßig viel kosten. Eine Graka auf GK 110-Basis wäre da sicher sehr teuer geworden.
Möglicherweiße sollen dann aber eben Anfang nächsten Jahres (wenn die Preise vermutlich etwas gesunken sind) auch Geforce-Karten mit dem GK 110 erscheinen.
rate (0)  |  rate (0)
Avatar foramentor
foramentor
#15 | 16. Mai 2012, 11:22
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Dein LANGWEILIG wird zunehmend langweilig.

Zitat von LawandOrder:

Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)

Und das glauben wir alle natürlich vorbehaltlos.
rate (6)  |  rate (3)
Avatar LevArris
LevArris
#16 | 16. Mai 2012, 11:40
Zitat von LawandOrder:


Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)


[Troll Warnung]

YEA, du bist DER GERÄT!!!
( http://www.youtube.com/watch?v=6z2lTxGdVN4 )

[/Troll Warnung]
rate (2)  |  rate (2)
Avatar McGrub
McGrub
#17 | 16. Mai 2012, 11:48
Zitat von Doktore:
Interessant zu wissen ist, dass die GK104 Chips, die jetzt in den 6xx Karten verbaut werden, ursprünglich für die schwächsten Modelle der 6xx Serie geplant waren. Der GK110 Chip sollte ursprünglich in einer 680 verbaut werden. Da aber ATI mit ihren neuen Karten eine so "schwache" (unter den Erwartungen) Leistung abgeliefert hat, hat nVidia die GK104 verbaut und ist immer noch schneller als ATI. Wäre ATI ein würdiger Konkurent (was ich mir wirklich wünschen würde), wäre die 680er doppelt so schnell fürs gleiche Geld gewesen.

Ein gutes Beispiel zu "die Konkurenz belebt das Geschäft".


Quelle? Oder ist das reine Spekulation? Ich meine erzählen kann sowohl NVidia als auch AMD viel, wenn der Tag lang ist.

AMD: Hier unsere neue Grafikkarte...
Nvidia: LAAAANGWEILIG...wir könnten jetzt schon doppelt so schnell, wenn wir wollten
AMD und Kunden: Zeigt mal...
NVIDIA: Nö...später!
rate (4)  |  rate (0)
Avatar Kehool
Kehool
#18 | 16. Mai 2012, 11:48
"Bisher ist nicht bekannt, ob Nvidia den GK110 im Jahr 2013 dann auch auf Geforce-Grafikkarten einsetzen wird."

laut heise.de schon
rate (0)  |  rate (0)
Avatar Kivi
Kivi
#19 | 16. Mai 2012, 11:50
Wird also sicher die Geforce 7xx Serie sein. Ende 2012/Anfang 2013 wäre dann wohl zeitgleich mit AMD's 8xxx Serie.
rate (0)  |  rate (0)
Avatar Kehool
Kehool
#20 | 16. Mai 2012, 12:07
Zitat von Doktore:

Zuerst einmal, 384 bit ist für Spieler mehr als ausreichend. Es wird erst im GPGPU (GPU Computing) Bereich interessant mehr zu haben. Und in dem Bereich wird AMD sogut wie gar nicht eingesetzt, egal was die für ein Interface mitbringen, weil man sonst mit OpenCL arbeiten müsste, was im Vergleich zu CUDA ziemlich abstinkt. Nicht von der Geschwindigkeit, die ist annähernd gleich, sondern in der Art und Weise der Programmierung.


natürlich ist die anbindung relevant für spiele
ich will doch möglichst schnell viele texturen gleichzeitig laden können

für GPGPU ist eher die latenz des speichers limitierend
rate (0)  |  rate (0)
Avatar Blutkasper
Blutkasper
#21 | 16. Mai 2012, 12:34
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Robert81
Robert81
#22 | 16. Mai 2012, 12:53
Die Welt will einen Chip im 5.25 Format. Einschieben und fertig.
Warum muss das immer so ein kleines Fuzzelding sein, alles verschenkte Leistung :D
rate (0)  |  rate (0)
Avatar Kehool
Kehool
#23 | 16. Mai 2012, 13:55
Zitat von Doktore:
Interessant zu wissen ist, dass die GK104 Chips, die jetzt in den 6xx Karten verbaut werden, ursprünglich für die schwächsten Modelle der 6xx Serie geplant waren. Der GK110 Chip sollte ursprünglich in einer 680 verbaut werden. Da aber ATI mit ihren neuen Karten eine so "schwache" (unter den Erwartungen) Leistung abgeliefert hat, hat nVidia die GK104 verbaut und ist immer noch schneller als ATI. Wäre ATI ein würdiger Konkurent (was ich mir wirklich wünschen würde), wäre die 680er doppelt so schnell fürs gleiche Geld gewesen.

Ein gutes Beispiel zu "die Konkurenz belebt das Geschäft".


der GK 110 war mit sicherheit nie für die vor kurzem erschienene GTX 680 bestimmt

bereits jetzt kann nvidia schon nicht genügend chips liefern
wie würde das dann erst mit einem chip aussehen der aller wahrscheinlichkeit nach annähernd die doppelte größe hat
die ausbeute wäre katastrophal

und die 4 monate die nvidia zeit hatte um auf die ersten benchmarkergebnisse von AMD zu reagieren reichen ohnehin bei weitem nicht um ein anstehendes release komplett umzuwerfen

was höchstens sein könnte ist dass man eine ursprünglich mit dem gk104 geplante gtx670 kurzerhand in die 680 umbenannt hat aber auch das wäre so kurz vor release schon mit einigem aufwand verbunden
rate (3)  |  rate (0)
Avatar bigdaddy13
bigdaddy13
#24 | 16. Mai 2012, 16:19
Also ist doch was dran, dass der "wahre" High End Kepler erst gegen Ende 2012 erscheinen könnte.
Somit ist die GTX680 eigentlich die GTX670/675, wenn man die bisherigen Leistungsbezeichnungen innerhalb der Serie/Reihe/Chips beibehalten würde.
Als was kommt dann der high End Kepler raus? GTX780?

@LawandOrder: die habens immer noch nicht kapiert, dass dein post Sarkasmus war.
Selbst nach der nächsten Meldung, dass du dir dabei viel mehr gedacht hast, hats bei manchen immer noch nicht "Klick" gemacht im Kopf. Arme, engstirnige Menschen

MfG
rate (0)  |  rate (1)
Avatar MechUnit
MechUnit
#25 | 16. Mai 2012, 17:00
Zitat von LawandOrder:


Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)


es heißt zwar immer "don't feed the troll", aber: scheinbar hast du nicht wirklich viel mehr ahnung. oder kannst du erklären, wieso dir 256 oder 384bit speicherinterface nicht reichen?

selbst 256bit sind mehr als ausreichend, um gleichzeitig viele, große textures zu laden!
rate (1)  |  rate (0)
Avatar Pu244
Pu244
#26 | 16. Mai 2012, 17:47
Zum Thema Speicherinterface:

Mehr ist definitiv besser, allerdings verteuert es die Platine. Scheinbar ist das so schlimm das es sich lohnt wesentlich besseren Speicher zu nehmen als ein besseres Interface. Die HD 2900 war mit ihrem 512 Bit Interface einfach viel zu teuer und die GTX 280/285 war zwar eine geniale Karte, der Profit dafür eher mau. 384 Bit sind ein guter Kompromiss wie 8800 GTX, GTX 480 und 580 beweisen. Hinzukommt das es dank GDDR5 erst vor kurzem einen enormen Sprung gegeben hat.
rate (0)  |  rate (0)
1

PROMOTION
NEWS-TICKER
Samstag, 01.11.2014
00:02
Freitag, 31.10.2014
18:46
17:44
16:57
16:40
16:09
15:26
14:01
13:52
13:47
13:42
13:37
13:13
12:54
12:44
12:06
11:36
11:32
11:15
10:58
»  Alle News
 
Sie sind hier: GameStar > Hardware > News > Grafikkarten > GPU Technology Conference
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten