Praxis

Spiele und Systemanforderungen, Kaufberatung sowie Windows-Ratgeber.
Seite 1 2 3 4

Hardware-Vorschau

Das kommt 2013

Spieler haben 2013 sensationell gute Aussichten: Schnellere und trotzdem sparsamere Prozessoren und Grafikkarten, leistungsfähigere Smartphones und Tablets sowie endlich neue Konsolen. Außerdem kommen vermehrt 4K-Fernseher auf den Markt.

Von Hendrik Weins |

Datum: 28.01.2013


Zum Thema » Hardware-Rückblick 2012 PC. Konsolen und Smartphones » Ouya – Alls nur Hype? Was kann die Android-Konsole? » Xbox 720 oder Xbox 8? Ausblick auf die nächste Xbox Logitech G402 Hyperion Fury ab 50,49 € bei Amazon.de Am meisten Bewegung kommt 2013 noch in den Markt für Smartphones und Tablets, generell herrscht aber eher Evolution statt Revolution - vielleicht mit Ausnahme der neuen Konsolen. Mit den neuen Generationen von Geforce- und Radeon-Karten sowie Intels »Haswell«-Prozessoren und AMDs »Richland«-APUs mit schneller integrierter Radeon-Grafik bekommen alle wichtigen PC-Komponenten mit Ausnahme von AMDs Piledriver-CPUs eine Frischzellenkur, allzu große Leistungssprünge bleiben aber aus. Die gibt es aber auf dem Konsolenmarkt, denn Ende des Jahres soll zumindest die Microsoft Xbox 720 den Generationenwechsel einläuten. Am meisten Abwechslung und Spannung liefern die Neuvorstellungen von Smartphones und Tablets im Wochenrhythmus, die sich immer weiter annähern, aber auch durch Extreme voneinander abgrenzen wollen. Wir wagen einen Ausblick auf die kommenden Monate und klären, welche Produkte am wichtigsten werden und welche neuen Techniken sich durchsetzen.

PCs und Notebooks

Umwälzende Revolutionen oder bahnbrechende Erfindungen bleiben wohl auch 2013 ein Wunschtraum. Stattdessen gibt es im PC- und Notebook-Markt kleine Evolutionsschritte: Grafikkarten und Prozessoren werden im Wesentlichen noch schneller und etwas energieeffizienter. Intels neue CPU-Architektur namens »Haswell« ist wahrscheinlich die spannendste Neuerung im PC-Bereich, weil AMD und Nvidia ihre bekannten Grafikkarten-Architekturen nur aufwärmen und AMD gar keine neuen High-End-Prozessoren für veröffentlichen will.

Geforce GTX 780 & Co.

Jedes Jahr eine neue Grafikkarten-Generation, so lautet wohl das Motto von AMD und Nvidia. Über Nvidias kommende Geforce GTX 700 (oder wie auch immer sei heißen wird) gibt es derzeit nur viele Gerüchte, aber kaum etwas Handfestes. Angeblich soll der bereits exisiterende GK110-Chip, der zwar technisch auf dem aktuellen Kepler-Design basiert, aber derzeit noch auf keiner Desktop- oder Notebook-Grafikkarte zum Einsatz kommt, das Grundgerüst der kommenden Geforce-Serie werden. Mit 7,1 Milliarden Transistoren, 2.880 Shader-Einheiten und 384 Bit breitem Speicher-Interface überbietet der High-End-Chip den GK104 einer Geforce GTX 680 mit 4,3 Milliarden Transistoren, 1.536 Shadern und 256 Bit Speicher-Interface locker. Oder aber die bestehenden GK-Varianten der GTX-600-Serie werden hinsichtlich Leistung und Stromverbrauch verbessert, denn eine neue Architektur erwarten wir mit der Geforce GTX 780 nicht. Wann die ersten Modelle auf den Markt kommen, ist derzeit noch ungewiss, wir tippen aber auf April.

Nvidia NV1 (1995)
Die NV1 war 1995 unter dem Namen Diamond Edge 3D bekannt. Ein Durchbruch war der NV1 nicht gegönnt, selbst die Audio-Fähigkeiten halfen der Karte nicht. Als Microsoft 1995 den DirectX-Standard ankündigte, war die Architektur der NV1 endgültig veraltet.

Radeon HD 8000 oder HD 9000

Von AMDs nächster Generation gibt es derzeit zwar keinen Namen, aber immerhin einige Gerüchte zu den Modellspezifikationen. Dass AMD die kommende Radeon-Generation HD 8000 tauft, halten wir für unwahrscheinlich, da der Hersteller auf der CES Anfang Januar 2013 bereits die vollständige Radeon-HD-8000-Serie für PC-Hersteller ankündigte - aber alle vermeintlich neuen Modelle sind nur umbenannte Karten der bekannten HD-7000-Reihe um die Radeon HD 7970 . Bekannt sind dafür die Codenamen der wirklich neuen »Sea Islands«-Generation und dass diese auf der überarbeiteten »Graphics Core Next«-Architektur basieren, genannt GCN2. So sollen die kommenden Karten sowohl in Desktop-PCs wie in Notebooks sparsamer arbeiten und aufgrund einer höheren Shader-Anzahl und schnellerer Taktraten leistungsfähiger als die aktuellen Modelle sein. Angeblich sollen die neuen Grafikkarten bereits Ende März oder Anfang April auf den Markt kommen - wie auch immer sie dann heißen werden.

ATI Mach (ab 1991):
Abgebildet ist die ATI Mach 64 aus dem Jahr 1994, die mit maximal 8 MByte Speicher schon ein recht fortgeschrittenes Modell darstellte. Die Mach 64 war für die nicht mehr genutzten Anschlüsse ISA und VLB (VESA Local Bus), aber auch für den noch immer existierenden PCI-Slot erhältlich. 3D-Beschleunigung war damals noch ein Fremdwort, doch 2D-Beschleunigung bereits wichtig.

Intel Core i7 4770K mit neuer Haswell-Architektur

Nach »Tick« kommt »Tock« - und so bringt Intel 2013 mit den Haswell-Prozessoren eine neue Mikroarchitektur auf den Markt. Nach »Sandy Bridge« und »Ivy Bridge« sollen die CPUs mit Haswell-Kern nochmals mehr pro Takt und Kern leisten. Allerdings benötigen die neuen Desktop-Prozessoren der 4000er-Modellreihe dafür einen neuen Sockel mit 1150 Pins - es wird also in jedem Fall ein neues Mainboard fällig. Der maximale Stromverbrauch der Haswell-CPUs steigt gegenüber ihren Ivy-Bridge-Vorgängern von 77 Watt auf 84 Watt (TDP). Unverändert bleiben die Anzahl der CPU-Kerne sowie die Größe des Cache-Speichers. Mit sechs oder gar acht Kernen für den Mainstream-Bereich rechnen wir bei Intel-CPUs daher auch 2013 nicht. Allerdings soll die integrierte HD4600-Grafik bis zu 50 Prozent schneller arbeiten als die HD 4000 der Vorgänger. Damit könnte Intel dann langsam auch für Gelegenheitsspieler interessant werden, zumal Onchip-Grafiken in Notebooks die Akkulaufzeiten in der Regel deutlich verlängern.

Intel 4004 (1971)
Der erste wirklich universelle Mikroprozessor war der Intel 4004, den die Ingenieure für das japanische Unternehmen Busicom entwickelten und sich die Rechte an dem Chip für nur 60.000 US-Dollar selbst sicherten. Busicom selbst ging in Konkurs, ohne je ein Produkt mit dem Intel 4004 auf den Markt gebracht zu haben.

AMD »Richland«-APUs mit stärkerer Grafik

AMD wird 2013 keine neuen Prozessoren für Spieler vorstellen, sondern konzentriert sich ganz auf stromsparende CPUs mit integrierten Radeon-Grafikeinheiten - die sogenannten APUs. Der Nachfolger der aktuellen Trinity-Generation hört auf den Namen »Richland« und bietet gegenüber den aktuellen Modellen wohl vor allem eine leistungsfähigere Grafikeinheit. Die Top-Modelle bieten je vier Rechenkerne und eine integrierte Radeon HD 8570D oder HD 8670D. Günstigere Modelle wie der A4 6300 oder A6 6400K besitzen nur zwei Kerne und einen schwächeren Grafikchip. Die Prozessor-Kerne basieren technisch aber noch immer auf dem »Piledriver«-Kern der bereits erhältlichen APUs wie dem A10-5800K . Gegen Mitte des Jahres sollen die ersten Modelle mit Richland-Kern auf den Markt kommen, erst 2014 sollen dann auch die FX-Prozessoren mit dem Piledriver-Nachfolger »Steamroller« erscheinen.

AMD Am486 (1974)
Der AM9080 kam 1974 auf den Markt und war ein nicht lizensierter Klon von Intels 8080-Prozessor, einer 8-Bit-CPU die mit sagenhaften 2 MHz Taktfrequenz arbeitete und als erster universell einsetzbarer Mikroprozessor gilt. Erst 1982 bekam AMD die offizielle Lizenz von Intel, da IBM den Intel 8080 im IBM-PC verwenden wollte und IBMs Firmenpolitik mindestens zwei verschiedene Lieferanten für die Chips vorschrieb. Unter dem gleichen Lizenzabkommen entstand auch AMDs folgender Am286-Prozessor, eine Kopie von Intels 80286-CPU. (Bild: Konstantin Lanzet, GNU FDL)

INHALTSVERZEICHNIS

Seite 1
Seite 2
Seite 3
Seite 4
Diesen Artikel:   Kommentieren (66) | Drucken | E-Mail
Sagen Sie Ihre Meinung (» alle Kommentare)
Nur angemeldete Benutzer können kommentieren und bewerten!
» Zum Login

Sie sind noch nicht in der GameStar-Community angemeldet?
» Zur kostenlosen Anmeldung
Erster Beitrag  |  » Neuester Beitrag
1 2 3 ... 7 weiter »
Avatar TrudleR
TrudleR
#1 | 28. Jan 2013, 16:25
Ist vielleicht schön, so ein gekrümmter OLED-Fernseher. Das Problem ist, dass die Farben bereits nach 2 Jahren schon ziemlich nachlassen bei dieser Technik. Sowas würde ich mir nicht anschaffen.

4K Fernseher braucht man vorerst sowieso noch mind. 2 Jahre überhaupt nicht. Die Dinger sind 1. noch schweineteuer und 2. dauerts noch eine weile, bis die Konsolen diese Auflösungen nativ unterstützen werden und genug TV-Sender darauf umgestiegen sind. :)

Am meisten interessiert mich momentan der Project Shield von Nvidia. Möchte ihn nicht kaufen, aber nimmt mich wunder, ob Nvidia den Einstieg in die Gamerwelt mit dieser doch etwas gewagten Idee schaffen wird.
rate (14)  |  rate (2)
Avatar Saschisch
Saschisch
#2 | 28. Jan 2013, 16:31
Zitat von TrudleR:
Am meisten interessiert mich momentan der Project Shield von Nvidia. Möchte ihn nicht kaufen, aber nimmt mich wunder, ob Nvidia den Einstieg in die Gamerwelt mit dieser doch etwas gewagten Idee schaffen wird.


Naja, ist ja nicht der erste Versuch. Der erste hingegen ist kläglich gescheitert ;)
rate (7)  |  rate (0)
Avatar s-a-n-g-u-i-s
s-a-n-g-u-i-s
#3 | 28. Jan 2013, 16:33
In Japan haben die Fernsehsender vor bis 2016 vollständig auf 4k umzusteigen.
Ich hoffe mal wir haben dann in Deutschland wenigstens 720p^^

Die OLED werden bestimmt sehr schnell sehr viel haltbarer. Bei Plasma war das Einbrennen anfangs auch extrem, mittlerweile kann man es getrost ignorieren.
rate (14)  |  rate (2)
Avatar Belethino
Belethino
#4 | 28. Jan 2013, 16:33
Schade, dass sich AMD so aus dem Hig-End Markt für Prozessoren zurückzieht. Fehlende Konkurrenz war noch nie gut für die Endverbraucher, die jetzt (gezwungenermaßen) zu Intel greifen müssten.
rate (13)  |  rate (3)
Avatar Sirlunchalot
Sirlunchalot
#5 | 28. Jan 2013, 16:35
@ Daniel...Du hast in Deinem "Spielerechner" einen Q6700..? Mensch Junge...Du arbeitest für ein Spielemagazin und zockst auf einer solchen Krücke? Was'n da los?
rate (6)  |  rate (17)
Avatar Srefanius
Srefanius
#6 | 28. Jan 2013, 16:42
Zitat von Sirlunchalot:
@ Daniel...Du hast in Deinem "Spielerechner" einen Q6700..? Mensch Junge...Du arbeitest für ein Spielemagazin und zockst auf einer solchen Krücke? Wasn da los?
Dank der Konsolen reicht das doch noch in 90 % der Fälle. Ich habe hier nen e8400 dual core, der tuts auch noch. (allerdings nicht mehr lang, Haswell wird bei mir den Rechner erneuern)
rate (16)  |  rate (2)
Avatar megahuepfer
megahuepfer
#7 | 28. Jan 2013, 16:49
Zitat von Sirlunchalot:
@ Daniel...Du hast in Deinem "Spielerechner" einen Q6700..? Mensch Junge...Du arbeitest für ein Spielemagazin und zockst auf einer solchen Krücke? Wasn da los?


Die alten Quads sind nicht zu verachten. Natürlich stehen sie in keiner Relation zu den heutigen Quadcores von Intel im Hinblick auf Performance pro Watt. Aber sie waren damals und sind heute noch relativ schnell. Oder möchtest du deine CPU alle 2 Jahre wechseln?

Mich interessiert besonders die neue Geforce Serie, meine GTX260 muss endlich mal in den Ruhestand. Auf Dauer schluckt sie doch zuviel Storm. Generell finde ich es sehr gut, auf Energieeffizienz bei CPU's und GPU's zu setzen. Grade Notebooknutzer werden wohl 10 Stunden nur begrüßen können. Vorbei ist die Zeit, ständig nach einer Steckdose zu suchen^^

Allerdings, wozu Full HD Displays in Smartphones? Das iPhone 4 aus dem Jahr 2010 hat eine Pixeldichte von 326 ppi und ich erkenne keine Pixel mehr. In Sachen Auflösung sind mobile Display schon fast fertig. Jetzt geht es mir eher um einen niedrigeren Energieverbrauch bei gleicher Helligkeit und Kontrast.
rate (14)  |  rate (1)
Avatar Sirlunchalot
Sirlunchalot
#8 | 28. Jan 2013, 16:59
Zitat von megahuepfer:


Die alten Quads sind nicht zu verachten. Natürlich stehen sie in keiner Relation zu den heutigen Quadcores von Intel im Hinblick auf Performance pro Watt. Aber sie waren damals und sind heute noch relativ schnell. Oder möchtest du deine CPU alle 2 Jahre wechseln?


Naja...von "wollen" kann ja nicht die Rede sein! Aber als "Gamer" sollte man doch schon früher als alle sechs Jahre seine Hardware auf den neusten Stand bringen!
Ich hatte damals auch den Q6600, aber gerade am PC ist doch der Vorteil das man eben NICHT mit den mickrigen Grafikdetails der Konsole leben muss...von den schlechten Portierungen mal abgesehen!
Ich mein wenn ich mir beim Mercedeshändler einen Wagen kaufe und der Verkäufer selber fährt einen uralten Polo...dann hätte ich doch auch gerne das er aus Erfahrung spricht wenn er mir was verkaufen will!
rate (3)  |  rate (17)
Avatar Selygos
Selygos
#9 | 28. Jan 2013, 17:56
Zitat von TrudleR:
unterstützen werden und genug TV-Sender darauf umgestiegen sind....


Es sind ja derweil nicht mal viele TV Sender auf HD umgestiegen, wie ich finde.

Bis der erste Sender damit anfängt, dauerts wohl mit Sicherheit auch nochmal um die 5 Jahre.
rate (6)  |  rate (2)
Avatar hail_to_the_king
hail_to_the_king
#10 | 28. Jan 2013, 18:20
Zitat von Selygos:


Es sind ja derweil nicht mal viele TV Sender auf HD umgestiegen, wie ich finde.

Bis der erste Sender damit anfängt, dauerts wohl mit Sicherheit auch nochmal um die 5 Jahre.


das kann man so pauschal nicht sagen... sky gibts in hd, kabel digital ebenfalls, dann gibts hd+... wobei man da deutschland aber ohnehin nicht als maßstab nehmen sollte.
4k bleibt aber, da geb ich dir recht, ne teure spielerei für die, die es sich leisten können. notwendig ist es nicht; vorher kommt eine komplett-umstellung auf hd.
rate (0)  |  rate (1)
1 2 3 ... 7 weiter »

 
Sie sind hier: GameStar > Hardware > Praxis > Hardware-Vorschau
top Top
Werde Fan von GameStar auf FacebookFacebook Aboniere den YouTube-Kanal von GamestarYouTube Besuche Gamestar auf Google+Google+ GameStar auf Twitter folgenTwitter Alle RSS-Feeds von GameStar.deRSS-Feeds Jetzt GameStar-Newsletter bestellenNewsletter
© IDG Entertainment Media GmbH - alle Rechte vorbehalten