Hardware-News
Aktuelle Nachrichten rund um Hardware und Software, Grafikkarten, Windows und Internet.
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1
Gelöschter User
#1 | 16. Mai 2012, 10:12
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Klatsch
Klatsch
#2 | 16. Mai 2012, 10:14
Endlich mal. Diese schrottige GTX680 wird mir langsam zu lahm und langweilig. Auch 2 davon machen den Kohl nicht fett und schmatzig. Ich will am liebsten 4 Gtx mit dem neuen Kepler. Aber das bleibt wohl Wunschdenken.
rate (14)  |  rate (8)
Avatar Dee-Jay
Dee-Jay
#3 | 16. Mai 2012, 10:23
Ich will die Geforce GTX 660 Ti.
rate (14)  |  rate (3)
Gelöschter User
#4 | 16. Mai 2012, 10:27
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar hightech
hightech
#5 | 16. Mai 2012, 10:28
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Was soll man mit einem 384 Bit breiten Speicherinterface? wenn schon dann bitte 512 Bit!

AMD´s Radeon HD 8xxx wird 512 Bit nutzen.

Also nVidia HAUT REIN ;-)




Hast Du überhaupt Ahnung von dem was Du hier schreibst ? - Ich glaube nicht.
rate (18)  |  rate (2)
Gelöschter User
#6 | 16. Mai 2012, 10:28
Ja ist gut.
rate (1)  |  rate (7)
Gelöschter User
#7 | 16. Mai 2012, 10:32
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Gelöschter User
#8 | 16. Mai 2012, 10:40
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar Belasca
Belasca
#9 | 16. Mai 2012, 10:52
Zuvor man sich jetzt bei der konkurenz beschwert(eh nur ales dummes gelaber von wegen wir wären schneller. Lach)...
Bedanken dürft ihr euch bei den konsolen.
rate (1)  |  rate (2)
Avatar -Razor
-Razor
#10 | 16. Mai 2012, 10:54
Ich warte auf GK122 mit 8.640 Shader-Einheiten und 1.024 Bit breiten SPeicherinterface. Alles darunter ist mir zu lahm. *rolleyes*
rate (7)  |  rate (0)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#11 | 16. Mai 2012, 10:55
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Was soll man mit einem 384 Bit breiten Speicherinterface? wenn schon dann bitte 512 Bit!

AMD´s Radeon HD 8xxx wird 512 Bit nutzen.

Also nVidia HAUT REIN ;-)

Also wirlich, der GK 110 hätte damit ja nur 384bit/8bit*1500(Speichertakt)*4(Gddr5)=288 Gbyte Speichertranspherrate!
Ist doch gar nichts...

Die Anzahl der Shadereinheiten im Maximalausbau hingegen überrascht mich wirklich, so viele hätte ich nun nicht vermutet.

Naja, die sonstigen Angaben wären dann rein rechnerisch noch:
48 ROPs(Rasteroperatoren, wichtig für AA-Skalierung) und 224 TMUs(TextureMappingUnits, wichtig für AF-Skalierung)bzw. 206 bzw. 190 im nicht-Vollausbau. //GK 104--32ROPs und 128 TMUs

Allein von diesen Technischen Daten könnte auch der GK 110 ein Gaming-Monster werden, auch wenn die Taktung hier alles entscheidet.
Und wahrscheinlich wird die benötigte Leistung aus der Stecckdose wieder extrem ausfallen!
rate (6)  |  rate (0)
Avatar Cd-Labs: Radon Project
Cd-Labs: Radon Project
#12 | 16. Mai 2012, 10:57
Zitat von Doktore:
Interessant zu wissen ist, dass die GK104 Chips, die jetzt in den 6xx Karten verbaut werden, ursprünglich für die schwächsten Modelle der 6xx Serie geplant waren. Der GK110 Chip sollte ursprünglich in einer 680 verbaut werden. Da aber ATI mit ihren neuen Karten eine so "schwache" (unter den Erwartungen) Leistung abgeliefert hat, hat nVidia die GK104 verbaut und ist immer noch schneller als ATI. Wäre ATI ein würdiger Konkurent (was ich mir wirklich wünschen würde), wäre die 680er doppelt so schnell fürs gleiche Geld gewesen.

Ein gutes Beispiel zu "die Konkurenz belebt das Geschäft".

Höchstwahrscheinlich ist aber die GTX 680 viel höher getaktet, als es eine GTX 660 gewesen wäre. Auch der Speicher und sonstige Ausstattung ist womöglich viel hochwertiger als sie es bei einer GTX 660 TI gewesen wäre.
rate (0)  |  rate (0)
Gelöschter User
#13 | 16. Mai 2012, 11:10
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Avatar sirius3100
sirius3100
#14 | 16. Mai 2012, 11:18
Schade dass im Artikel die speziellen Cloudgaming-Fähigkeiten (schnelleres H.246 encoding auf der Graka; sowie die Möglichkeit die Spiele mehrerer User auf einer Karte zu berechnen) einiger der angekündigten Karten nicht erwähnt wurden.

Soweit ich das mitbekommen habe hat das auf der Konferenz ´nen relativ großen Rahmen eingenommen.

Ob's die GK 110 ohne die relativ schwachen AMD-Karten früher auf den Enduser-Markt geschafft bezweilfe ich übrigens.
Die Preise für die 28nm-Fertigung scheinen deutlich höher zu sein als anfangs vermutet, weshalb die aktuellen Grakas von AMD und Nvidia auch verhältnismäßig viel kosten. Eine Graka auf GK 110-Basis wäre da sicher sehr teuer geworden.
Möglicherweiße sollen dann aber eben Anfang nächsten Jahres (wenn die Preise vermutlich etwas gesunken sind) auch Geforce-Karten mit dem GK 110 erscheinen.
rate (0)  |  rate (0)
Avatar foramentor
foramentor
#15 | 16. Mai 2012, 11:22
Zitat von LawandOrder:
Ich sag es mal wie Homer Simpson,

LANGWEILIG!

Dein LANGWEILIG wird zunehmend langweilig.

Zitat von LawandOrder:

Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)

Und das glauben wir alle natürlich vorbehaltlos.
rate (6)  |  rate (3)
Avatar LevArris
LevArris
#16 | 16. Mai 2012, 11:40
Zitat von LawandOrder:


Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)


[Troll Warnung]

YEA, du bist DER GERÄT!!!
( http://www.youtube.com/watch?v=6z2lTxGdVN4 )

[/Troll Warnung]
rate (2)  |  rate (2)
Avatar McGrub
McGrub
#17 | 16. Mai 2012, 11:48
Zitat von Doktore:
Interessant zu wissen ist, dass die GK104 Chips, die jetzt in den 6xx Karten verbaut werden, ursprünglich für die schwächsten Modelle der 6xx Serie geplant waren. Der GK110 Chip sollte ursprünglich in einer 680 verbaut werden. Da aber ATI mit ihren neuen Karten eine so "schwache" (unter den Erwartungen) Leistung abgeliefert hat, hat nVidia die GK104 verbaut und ist immer noch schneller als ATI. Wäre ATI ein würdiger Konkurent (was ich mir wirklich wünschen würde), wäre die 680er doppelt so schnell fürs gleiche Geld gewesen.

Ein gutes Beispiel zu "die Konkurenz belebt das Geschäft".


Quelle? Oder ist das reine Spekulation? Ich meine erzählen kann sowohl NVidia als auch AMD viel, wenn der Tag lang ist.

AMD: Hier unsere neue Grafikkarte...
Nvidia: LAAAANGWEILIG...wir könnten jetzt schon doppelt so schnell, wenn wir wollten
AMD und Kunden: Zeigt mal...
NVIDIA: Nö...später!
rate (4)  |  rate (0)
Avatar Kivi
Kivi
#18 | 16. Mai 2012, 11:50
Wird also sicher die Geforce 7xx Serie sein. Ende 2012/Anfang 2013 wäre dann wohl zeitgleich mit AMD's 8xxx Serie.
rate (0)  |  rate (0)
Gelöschter User
#19 | 16. Mai 2012, 12:34
Dieser Kommentar wurde ausgeblendet, da er nicht den Kommentar-Richtlinien entspricht.
Gelöschter User
#20 | 16. Mai 2012, 12:53
Die Welt will einen Chip im 5.25 Format. Einschieben und fertig.
Warum muss das immer so ein kleines Fuzzelding sein, alles verschenkte Leistung :D
rate (0)  |  rate (0)
Avatar bigdaddy13
bigdaddy13
#21 | 16. Mai 2012, 16:19
Also ist doch was dran, dass der "wahre" High End Kepler erst gegen Ende 2012 erscheinen könnte.
Somit ist die GTX680 eigentlich die GTX670/675, wenn man die bisherigen Leistungsbezeichnungen innerhalb der Serie/Reihe/Chips beibehalten würde.
Als was kommt dann der high End Kepler raus? GTX780?

@LawandOrder: die habens immer noch nicht kapiert, dass dein post Sarkasmus war.
Selbst nach der nächsten Meldung, dass du dir dabei viel mehr gedacht hast, hats bei manchen immer noch nicht "Klick" gemacht im Kopf. Arme, engstirnige Menschen

MfG
rate (0)  |  rate (1)
Avatar MechUnit
MechUnit
#22 | 16. Mai 2012, 17:00
Zitat von LawandOrder:


Habe ich. Mehr als du dir vorstellen kannst. Viel mehr ;-)


es heißt zwar immer "don't feed the troll", aber: scheinbar hast du nicht wirklich viel mehr ahnung. oder kannst du erklären, wieso dir 256 oder 384bit speicherinterface nicht reichen?

selbst 256bit sind mehr als ausreichend, um gleichzeitig viele, große textures zu laden!
rate (1)  |  rate (0)
Avatar Pu244
Pu244
#23 | 16. Mai 2012, 17:47
Zum Thema Speicherinterface:

Mehr ist definitiv besser, allerdings verteuert es die Platine. Scheinbar ist das so schlimm das es sich lohnt wesentlich besseren Speicher zu nehmen als ein besseres Interface. Die HD 2900 war mit ihrem 512 Bit Interface einfach viel zu teuer und die GTX 280/285 war zwar eine geniale Karte, der Profit dafür eher mau. 384 Bit sind ein guter Kompromiss wie 8800 GTX, GTX 480 und 580 beweisen. Hinzukommt das es dank GDDR5 erst vor kurzem einen enormen Sprung gegeben hat.
rate (0)  |  rate (0)
1

NEWS-TICKER
Freitag, 29.07.2016
15:42
15:28
15:00
14:57
14:48
14:35
14:22
14:01
13:41
13:25
13:20
13:01
12:54
12:06
12:00
12:00
11:49
11:47
11:00
10:32
»  Alle News
 
Sie sind hier: GameStar > Hardware > News > Grafikkarten > GPU Technology Conference
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© Webedia - alle Rechte vorbehalten