Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Ja wieso auch nicht?
    Wenn das ne Wertung sein sollte, dann behalte die doch einfach für dich.
     
    Jokin gefällt das.
  2. Knarfe1000 Homecomputer Veteran

    Knarfe1000
    Registriert seit:
    28. Dezember 2005
    Beiträge:
    10.904
    Du warst halt nicht ohne Grund gesperrt.
     
  3. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Wenn du das sagst.
    Darfst nun mit OT aufhören. Danke
     
    Jokin gefällt das.
  4. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Auch wenn die Vorzeichen allein was Preise und Stromverbrauch nicht so gut stehen, ich bin schon gespannt was Lovelace dann wirklich bringt. Ich würde mir davon deutlich mehr als von Ampere erwarten, was am Ende ja nur ein Turing-Shrink in einem mäßigen Fertigungsprozess war.

    Denke Ampere wird nicht gut altern, man sieht ja heute schon, dass es mglw. aufgrund von Entscheidungen wie der seltsamen Shader-Struktur in einigen Engines/Titeln sehr mies skaliert. Dafür spricht auch das Gemurkse mit dem VRAM (zu wenig und/oder zu viel Stromverbrauch). Man konnte es sich halt leisten, weil die Techpresse bei einer Firma, die 80% Markanteil bei Spielern hat, keine große andere Wahl hat, als mitzuhypen, und weil AMD auch nichts viel überzeugenderes präsentieren und vor allem in ausreichender Stückzahl auf den Markt bringen konnte oder wollte.

    Aber von Lovelace würde ich dann doch eine neue Architektur mit zeitgemäßer Fertigung erwarten. Man kann nur hoffen, dass man den Mainstream-Markt nicht völlig hinter sich lässt dabei... Aber ich denke Turing und Ampere werden mit Lovelace instant obsolet sein (abseits der Verfügbarkeit :wahn:).
     
  5. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.811
    Es gibt auch Bluetooth usb Adapter, welche vermutlich die meisten nutzen die das brauchen.
    Und mit dem Lag/Verbindungsqualität kommt es immer auf die Beschaffenheit des Platzes an wo man es nutzt, da pauschal zu sagen das es "Mist" ist oder lagged ist also auch nicht wirklich zielführend, da man es einfach ausprobieren muss ob es gut geht oder nicht.
     
  6. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    PSA: Fullscreen Borderless Mode kostet richtig viel Latenz gegenüber Exclusive Fullscreen:
    https://twitter.com/RiotNu/status/1477703042015186946
     
    Indiana_Bart gefällt das.
  7. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Naja, die 8bitdo Adapater haben eben genau wegen dem geringen Inputlag und der vielzahl an unterstützten Gamepads, einen ziemlich guten Ruf.
    Ich nutze das Teil gerne für meinen Switch Pro Controller, dem 8bitdo SN30pro+, den JoyCons und, wenn Microsoft nicht die Firmware vom aktuellen XBox Controller aktualisiert hätte, auch damit.
     
  8. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.811

    Keine Ahnung ob es da verschiedene gibt (klicke mich jetzt nicht durch jeden einzelnen durch den ich da sehe), aber die Produktseiten die ich angeschaut habe zeigen auch nur das das ein BT Dongle ist.
    Dürfte im Grunde also keinen großen unterschied machen ob man jetzt das Teil nutzt oder einen irgendeines anderes Herstellers.
     
  9. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Ok, der Typ hat wahrscheinlich Murks gemacht. Wenn er in 480p testet und außerhalb der VRR Range ist, wird bei Borderless das WDM Vsync aktiv, das haut dann natürlich Latenz drauf, die man innerhalb der Range mit VRR nicht hat.
     
  10. Was? Wie? Worum geht´s? 480p? Wo steht das? 480 fps (limiter) lese ich?

    Und 0,54 ms entsprechen "nix", also quasi "nix" also 0, also nichts,nullnichts. :rotfl:

    Ich glaube du hast die 0,54 ms als 54 ms gelesen? ;)
     
  11. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Abseits der Verfügbarkeit - d.h. aus der technischen Betrachtung heraus - erwarte ich das sogar. Die Ampere Archiktektur sehe ich dabei nur gar nicht so sehr als Problem an, sondern v.a. wie nvidia die Ausgestaltung der Karten vermurkst hat. Teilweise ist das ein Ergebnis dessen dass sie vor allem für Miner attraktiv sein sollen, teilweise Absicht, teilweise würde ich sogar von Planungsfehlern sprechen. Aber das macht es in der Gesamtbetrachtung nicht weniger unsinnig. Gerade die High End Chips werden es in ein paar Jahren auf dem Gebrauchtmarkt recht schwer haben. Sofern sie so lange durchhalten, denn das darf angesichts der Art und Weise wie einige Modelle zusammengeschustert wurden und der Belastungen die sie dennoch aushalten mussten durchaus bezweifelt werden. :nixblick:

    Aber so oder so wäre das Win-Win für nvidia. Wenn die Karten in ein paar Jahren gebraucht keiner mehr zu einem hohen Preis los wird bieten sie den Leuten genauso gerne neue Modelle an wie bei einem Defekt. Dahinter steckt wahrscheinlich schon ein gewisses Kalkül. Immerhin kann ein Leistungssprung bei einer neuen Archikteur dazu beitragen dass sich die Preislage insgesamt verbessert. Kann, nicht muss. Es wird nämlich immer wieder argumentiert dass ganz früher (also in den 90ern, Anfang der 2000er) vieles so irre teuer war und es damals auch bezahlt wurde. Dabei wird völlig außer Acht gelassen dass der Preisverfall der älteren bis obsoleten Hardware ebenso immens war. High End hatte eine vel kürzere Halbwertszeit. Eine 2080 ti ist auch nach vier Jahren noch High End.

    Anfang der 2000er war sowas nach vier Jahren low end oder sogar nur noch Office. Bspw. habe ich 2003 eine 9800 XT gekauft, die wurde vier Jahre später bereits von den Mobile GPUs in gewöhnlichen Einsteiger Laptops überholt. (8400M GS bspw.) Von solchen Leistungszuwächsen können wir heute nur noch träumen und trotzdem sind die Karten so teuer. :(
     
  12. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Ja, 480fps.

    Woher hast du die 0,54 ms? :confused:
     
  13. Die 9800 XT war eine aufgebohrte 9700, die man locker über 9700 Pro takten konnte (mit einem Kühler, der keine 50 g wog).

    Aber ja, damals waren das andere Verhältnisse, denn eine High-End-Grafikkarte reichte für eben gerade flüssige 30 bis 40 Bilder/s in Doom 3, in 1.280 x 1.024 wohlgemerkt:

    https://forum.aquacomputer.de/softw...timedemo-benchmark-alle-mitmachen/index2.html

    Heute hat man eben die Range:

    Full HD geringe bis mittlere Details in 40 bis 60 Bilder/s gut spielbar und teilweise noch ansehnlich... bis 4K maximale Ultra-/Raytracing Grafik (= braucht kein Mensch, zieht 800 Watt aus der Steckdose und läuft noch immer bei 90 Bilder/s).

    Eine Grafikkarte, die 10x langsamer ist als High-End, reicht noch immer für ein halbwegs akzeptables "Spielerlebnis".

    Ja, nur Full HD und ja, nur mittlere Details und ja, nicht dauerhaft über 60 Bilder/s, aber das gab´s früher gar nicht.

    Selbst alles, was 2x oder 3x langsamer ist als High-End reicht meist noch für WQHD und hohe Details bei dauerhaft >60 Bilder/s.
     
  14. Aus dem verlinkten Beitrag, aber ich war wohl im falschen Beitrag, weil ich mit deinen "480p" abgelenkt war.

    Du bezogst dich auf die 10 ms Unterschied zwischen Windowed/Full Screen.

    https://pbs.twimg.com/media/FIHa1TMVcAEDKqe?format=png&name=large
    https://pbs.twimg.com/media/FIHbKdOVEAIuFo3?format=jpg&name=4096x4096

    Es gäbe also diese Latenzunterschiede nicht, wenn er auf maximal 140 fps reduzieren würde? Ist das eine Behauptung oder Wissen?
     
  15. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
  16. skills0402

    skills0402
    Registriert seit:
    25. November 2009
    Beiträge:
    6.279
  17. ileus findet einiges fair

    ileus
    Registriert seit:
    16. Juni 2009
    Beiträge:
    12.668
    Ich hab auch eine im PC der Frau, der staubt aber eig mehr vor sich hin :ugly: Aber ich stell mir auch die Frage welche Karte ich dann reintun soll..
     
  18. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Tja, also ich habs direkt getestet. Einmal mit Bluetooth onboard am Notebook und einmal mit dem 8bitdo Dongle und das sind Welten.
    Es gibt von 8bitdo mehrere, ja, aber nur 3 mit USB meine ich. Andere Dongles sind z.B. für den SNES oder so.
     
  19. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    16_volt gefällt das.
  20. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    AMD bringt eine Radeon mit 4 GB VRAM mit RX 580/590-Performance für 200$. Ich kann nimmer :ugly:

    Der Ryzen 7 5800X3D kriegt 96 MB L3-Cache und soll damit den i9 12900k in Spielen schlagen. Zudem läuft er noch auf alten B450-Brettern...

    Edit: Selbst die RTX 3050 hat 8 GB VRAM :ugly:²
     
    Zuletzt bearbeitet: 4. Januar 2022
    16_volt und Indiana_Bart gefällt das.
  21. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.820
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Ja, für die ganzen Spiele, die auf den normalen Ryzen 5000ern und Intel 12000ern nicht gut laufen... :ugly:
     
    16_volt gefällt das.
  22. Soldier224

    Soldier224
    Registriert seit:
    9. Februar 2014
    Beiträge:
    696
    Mein RIG:
    CPU:
    R7 7700X
    Grafikkarte:
    Asus Dual OC 4070
    Motherboard:
    AS Rock 670e Steel legend
    RAM:
    2x 16GB G.Skill Flare EXPO X5 schwarz DDR5-6000 DIMM
    Laufwerke:
    2x 2TB Samsung Pcie 4 980 Pro SSD
    Soundkarte:
    750 Watt be quiet! Straight Power 12 Modular 80+
    Gehäuse:
    Corsair 7000D ; Kühlung: be quiet! Dark Rock Pro 4 Tower Kühler
    Maus und Tastatur:
    Konan XP Air
    Roccat Vulcan II
    Betriebssystem:
    Windows 11 Home
    Monitor:
    2x 27 Samsung G65B (G6) WQHD, 240 HZ, HDR 600
    Man müsste eigentlich diese billigen Karten gar nicht herstellen. Rx550 / 560 umlabeln: fertig. Die Rx550 ist immer noch so teuer wie vor Jahren Mal die Rx570. Als wäre man nicht in der Zeit stehen geblieben sondern rückwärts gelaufen.
     
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Er hat weniger Standard- und Boosttakt, schlägt aber dennoch den 5900X mit 15%, kann also gut sein dass er effizienter ist.
     
    Zuletzt bearbeitet: 4. Januar 2022
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Naja, RDNA2 bringt immerhin modernere Video-Codecs und Hardware-Features mit. Und natürlich bessere Verbrauchswerte. Preise sind halt ein Witz. Das ist eine Karte für eSports-Titel mit Grafik von vor 5-10 Jahren.
     
  25. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Diese nVidia-Präsentation :hammer:

    RTX ON

    REFLEX OFF
    Miss!
    REFLEX ON
    Hit!
    :eek:

    27" 1440p displays provide a 3% aim improvement over 24" 1080p displays :runter::ugly::hoch:
     
  26. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.051
    Ort:
    Daheim
    Nice :D
     
  27. Garm

    Garm
    Registriert seit:
    9. September 2004
    Beiträge:
    49.820
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D mit Arctic Liquid Freezer II 360
    Grafikkarte:
    ASUS TUF Gaming GeForce RTX 4090 24GB OC
    Motherboard:
    Asus ROG Strix X570-E
    RAM:
    64GB G.Skill DDR4 PC 3600 CL16 Ripjaws
    Laufwerke:
    2TB Corsair Force Series MP600 NVME
    2TB Samsung 860 Evo SATA
    4TB WD Red Pro SATA
    2TB WD Black SN850X
    8TB WD Red Pro SATA
    Gehäuse:
    Phanteks Eclipse P600S mit be quiet! STRAIGHT POWER 11 Platinum 850 Watt
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    ASUS ROG Strix XG27UQ 27 Zoll 4K Gaming Monitor
    Lustig, wie Nvidia uns ernsthaft weiß machen will, dass die Karte für 250$ für Spieler verfügbar sein wird. :fs:
     
  28. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Welche WErbung ist das?
     
  29. IamYvo gesperrter Benutzer

    IamYvo
    Registriert seit:
    23. Mai 2013
    Beiträge:
    863
    Wenn dann noch RGB mit im Spiel ist, wuhuuuu
     
  30. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Immerhin hat die eine brauchbare Vram Ausstattung. Schon toll wie die Situation mit der Vram Bestückung bei RDNA2 vs Ampere genau umgekehrt ist, die einen haben im low end zu wenig, die anderen im high end :ugly:
     
    Garm gefällt das.
  31. Soldier224

    Soldier224
    Registriert seit:
    9. Februar 2014
    Beiträge:
    696
    Mein RIG:
    CPU:
    R7 7700X
    Grafikkarte:
    Asus Dual OC 4070
    Motherboard:
    AS Rock 670e Steel legend
    RAM:
    2x 16GB G.Skill Flare EXPO X5 schwarz DDR5-6000 DIMM
    Laufwerke:
    2x 2TB Samsung Pcie 4 980 Pro SSD
    Soundkarte:
    750 Watt be quiet! Straight Power 12 Modular 80+
    Gehäuse:
    Corsair 7000D ; Kühlung: be quiet! Dark Rock Pro 4 Tower Kühler
    Maus und Tastatur:
    Konan XP Air
    Roccat Vulcan II
    Betriebssystem:
    Windows 11 Home
    Monitor:
    2x 27 Samsung G65B (G6) WQHD, 240 HZ, HDR 600
    8 GB wird noch einiges an Zeit reichen bei Wqhd. Die wenigsten werden mehr brauchen. Bei Igorslab wurde auch schon gesagt, dass viel VRam Auslastung Luft ist. Das Spiel nimmt dann vllt. Auch 10 GB aber nicht immer weil es sie braucht.
     
  32. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.210
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Damit hast du jetzt leider ein Fass aufgemacht bei @Lurtz :ugly:
     
  33. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ich musste auch lachen, aber die RTX 3050 8GB klingt abgesehen vom zu erwartenden Preis gar nicht mal so schlecht (dadurch leider auch für Miningfarmen interessant) und es scheint eine relativ ausgewogene GPU zu sein. Die Ausstattung reicht in Verbindung mit DLSS für so einiges, dürfte etwa im Bereich 1660S/1070 liegen. Das Problem ist nur wenn es denn stimmt was techpowerup bereits in der Datenbank listet: Es ist wohl ein GA106, d.h. der Chip ist genauso groß wie der Chip der 3060, die Ausbeute dürfte also eher gering sein, d.h. man kann auch auf Dauer nicht damit rechnen dass die Stückzahlen stark zunehmen und wenigstens die Preise dieser GPU sinken.

    Zur Chipgröße bei Navi 24 habe ich noch nichts gefunden, aber ausgehend von Navi 23 dürfte immerhin das etwas besser sein. Ändert aber natürlich nichts an der lächerlichen Speicherausstattung.... naja, wenn es denn wenigstens die gierigen Griffel der Miner etwas abhält. Irgendwo muss man schließlich anfangen. :immertot:
     
  34. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Muss ja jeder selbst wissen was er so glaubt ^^
     
  35. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Der entscheidendere Faktor ist ohnehin das absehbar gruselige Preis/Leistungsverhältnis.
     
  36. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Wenn man ADL die Efficiency-Kerne wegnimmt, mutiert Intel zum absoluten Perf/Watt-King :ugly: Was mal wieder dafür spricht, dass die angeblichen E-Cores nur dazu da sind, mehr Threads in den Chip zu bekommen, nicht für die Effizienz :ugly:

    [​IMG]
     
  37. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    Man würde fast meinen, Intel hätte was an der Fertigungsgröße gemacht. :wahn:
     
  38. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.099
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Natürlich muss AMD beim neuen Sockel AM5 Intel alles nachmachen. Während TR wenigstens Führungschienen drin hat, verzichtet man bei AM5 wohl drauf. Super.
     
  39. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Deswegen leuchtet es mir auch nicht ein warum Intel keinen 8-Core mehr ohne E-Cores anbietet. Natürlich wäre der 12600K/KF dadurch gerade für Gamer nicht mehr sonderlich attraktiv, aber das liegt nunmal daran dass die E-Cores generell ziemlich uninteressant sind für Gamer. :ugly: Und im produktiven Bereich setzt man ohnehin längst auf eher mehr Kerne. Wem wollen sie einen reinen 8-Core daher vorenthalten? Und warum? :nixblick:
     
  40. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.738
    Jetzt gibt es neben Wifi 6E auch noch Wifi 6 Release 2. Super sinnvoll erst den ganzen Standard zu vereinfach und eine Zahl anzuhängen, um jetzt wieder alles durch Anhängsel zu verkomplizieren :aua:
     
    Astorek86 gefällt das.
Top