Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.072
    Ort:
    Daheim
    Also im Sommer gibts neue AMD CPU und Herbst Intel? :hmm:
     
  2. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
    so siehts aus zumindest was auf LTT TechNews gesagt wurde.
     
  3. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.072
    Ort:
    Daheim
    Mhh ok und Herbst auch neue Nvidia Grafikkarten?
     
  4. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Greymon55 meinte kürzlich dass die ersten Lovelace Modelle im September kommen, aber ich würde trotzdem damit rechnen dass sich der Release der kleineren Modelle bis weit ins nächste Jahr hinein zieht. Und vielleicht verleihen die AMD Multi-Chiplet Karten der Sache noch etwas Würze.

    Zunächst würde eigentlich der Release von Intels "Alchemist" GPUs anstehen, der für das erste Halbjahr 2022 geplant war. Aber so schleppend wie die mit ihren Treibern voran kommen ist es schwer zu sagen ob sie es überhaupt noch vor AMD/nvidia schaffen werden. Muss bitter sein wenn man womöglich gute Hardware hätte, in einer Zeit in der nahezu alles nachgefragt wird womit man irgendwie spielen, minen oder arbeiten kann und die Preise durch die Decke gehen - aber trotzdem verliert man jeden Tag Geld weil unzumutbare, nicht konkurrenzfähige Treiber den Release immer weiter verzögern. :ugly:
     
  5. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Durch die Xilinx-Übernahme liegt AMDs Market Cap gerade das erste Mal in ihrer Geschichte über der von Intel.
     
    ileus und 16_volt gefällt das.
  6. Fürst

    Fürst
    Registriert seit:
    3. März 2016
    Beiträge:
    1.142
    Wann ist das denn passiert? Als ich meinen Ryzen 3700 gekauft habe hieß es noch "Intel den Arsch aufryzen". Das ist ja noch gar nicht so lange her eigentlich. Hat Intel also aufgeholt oder hat es AMD (mal wieder) verkackt?
     
  7. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Nichts ist passiert, AMD verkauft nur alles, was es anbieten kann, und hat es deshalb nicht nötig die Preise zu senken.

    Da Alder Lake als Plattform etwas moderner ist und zudem zumindest noch eine mögliche Aufrüstoption hat, greift man aktuell halt eher zu Alder Lake. Aufgrund der hohen Mainboardpreise (wobei das auch nur im Budget- und Highend-Segment gilt, im Mittelklassebereich zahlt man bei beiden 150-250€ für ein "gescheites" Mainboard), ist die Preisdifferenz am Ende nicht riesig.
     
  8. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    ...oder im Niedrigpreissegment rumzuschachern^^
     
  9. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Bin auf der Suche nach einem kompakten Aktivsubwoofer für meinen PC.

    Habe ein altes Yamaha Pianocraft, das ich am PC betreibe, leider nur 2.0.

    Zwecks etwas bumms habe ich mir dann den Subwoofer eines noch älteren Logitech 2.1 Systems dran geklemmt, was aber eher etwas suboptimal ist, da dieser zwingend mit einem der Lautsprecher, die dabei waren, verbunden sein muß, um zu funktionieren. Jetzt habe ich diesen Lautsprecher einfach auf den Woofer gelegt, aber der Kabelsalat nervt mich tierisch, und ich möchte einen separaten kleinen Woofer unter den Schreibtisch stellen.

    Muß nicht groß sein, braucht auch nicht viel Leistung, aber ich finde meist Geräte, die für Home-Cinema konzipiert sind, was mir dann erstens deutlich zu groß und auch zu teuer ist.
    Mehr als 100 € wollte ich eigentlich nicht ausgeben dafür, eher weniger.

    In welche Richtung könnte ich da schauen? Herstellermäßig.
     
    Zuletzt bearbeitet: 16. Februar 2022
  10. sgt__luk3

    sgt__luk3
    Registriert seit:
    6. Dezember 2021
    Beiträge:
    3.244
    Mein RIG:
    CPU:
    Ryzen 7 5800X3D @ Liquid Freezer II 280mm
    Grafikkarte:
    AMD RX 6900 XT
    Motherboard:
    Gigabyte X570 Aorus Elite
    RAM:
    32GB DDR4 3200
    Soundkarte:
    Topping MX3, DIY Lautsprecher, Auna Mic, Hifiman HE400SE
    Gehäuse:
    Cooler Master Qube500
    Maus und Tastatur:
    Akko 5075B Plus mit Aliaz Silent Switchen
    KBD75V2 mit Tecsee Coral Switchen
    Glorious Model D wireless
    Betriebssystem:
    Linux Mint Cinnamon
    Monitor:
    LG OLED42C21LA
    Seit wann sind 250€ Mittelklasse?
    B550 Mittelklasse mit recht ordentlicher Ausstattung liegt bei 150€.
    250€ kosten nur die teuersten B550 Boards und das ist dann keine Mittelklasse mehr.
    Selbst bei X570 kostet die Mittelklasse keine 250€. Das geht dann schon eher Richtung High End.
     
  11. Flexum1978

    Flexum1978
    Registriert seit:
    9. März 2015
    Beiträge:
    204
    Servus, hatte mir die 32 GB patriot viper steel 3600 gekauft. Die wollten ums verecken nicht mehr als mit 2666 laufen. Xmp Profil und manuelle Übertaktung brachte immer nur das Problem, das der Monitor kein Bild von sich gab. Genervt von csmo reset hatte ich mal das neuste BIOS aufgespielt. Und siehe da volle 3600 yeeessss. Hätte nicht gedacht das es das brauch. Ist das b550 phantom gaming 4 von asrock
     
  12. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Kundenbindung ist neben den Marktanteilen allerdings nicht so unwichtig wie AMD offenbar glaubt. Denn selbst mit günstigen Einsteigerprodukten, in dem Fall Prozessoren, mit denen man quasi kein Geld verdient werden nunmal immer auch Mainboards mit entsprechendem Sockel - sprich Plattformen - verkauft die im Zweifel sogar später noch aufgerüstet werden können. Bspw. jüngere Leute die wenig Geld haben und deshalb oder weil die vorhandene GPU sowieso nicht mehr hergibt eher noch zu einem Quadcore greifen verliert AMD dadurch möglicherweise sogar langfristig.

    Das ist eine gewisse Überheblichkeit, auch bei den GPUs, die ich nicht nachvollziehen kann. Auf der einen Seite Produkte kaputt sparen um auch den letzten Cent Gewinn auf eine möglichst sinnlose Art und Weise zu erzwingen, siehe 6500 XT, auf der anderen Seite Produkte gar nicht erst anbieten oder wenn dann nur im OEM Bereich, wo es vielfach sowieso egal ist was drin steckt weil die meisten Kunden von Hardware schlichtweg gar keine Ahnung haben? Erscheint mir nicht logisch... Und warum nutzen sie eigentlich Globalfoundries nicht mehr für die RX 500er während nvidia sogar Kepler Chips produziert?
     
  13. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Die AM4 Plattform neigt sich dem Ende ihres Lebenszyklus zu. Leute, die jetzt eine Lowend AM4 Plattform kaufen werden in der Zukunft also auf dem Gebrauchtmarkt ihr CPU Upgrade erwerben müssen, weil AMD dann nur noch die AM5 Plattform im Programm hat.

    Würde AMD daher jetzt noch LowEnd AM4 Prozessoren auf Zen3 Basis anbieten dann würden sie nicht nur jetzt auf Gewinn verzichten, sondern auch am zukünftigen Upgrade des "LowEnd-Kunden" genau nichts verdienen.

    Dass AMD mit der 6500XT so leichtfertig ihr so mühsam aufgebautes Standing im GPU Markt wieder mit dem Arsch einreißt versteh ich auch nicht :nixblick:

    Zu GloFo: Vermutlich sind die Kapazitäten, die sie dort haben, mit der Produktion der I/O-Dies für Zen3 ausgelastet. Und du meinst sicherlich Turing. Wäre sehr lustig, wenn nVidia Kepler wieder aus dem Hut zaubert, nachdem sie gerade erst den Treibersupport dafür eingestellt haben :D
     
  14. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Ich hatte das sogar bereits geschrieben und wieder gelöscht, denn ich würde nicht damit rechnen dass sie es bei AM5 anders machen. Und wenn dann erst wieder viel später, d.h. erst im nächster Jahr. Darauf wartet eben auch keiner der jetzt eine CPU braucht.

    Ne, Kepler ist schon was ich meinte. Die GT 700er basieren auf Kepler und meines Wissens werden sie nach wie vor produziert, obwohl (!) der Treibersupport eingestellt wurde. :ugly: So einen Quatsch sollte AMD sich natürlich sparen, dafür gibt es noch genug alte Gebrauchtkarten und zum Gaming sind die sowieso sinnlos. Aber was dagegen spricht Globalfoundries nochmal mit den RX 570/580 Chips zu beauftragen muss mir tatsächlich entgangen sein. Kann schon sein dass sie mit allem anderen ausgelastet sind. Das wäre angesichts der Nachfrage in der gesamten Halbleiterindustrie immerhin logisch.
     
  15. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.255
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Weil Chips der Karte sind vergleichsweise groß. Und es muss Kapazität frei sein. Und dann natürlich auch RAM.

    Amd würde gerne mehr produzieren, ihre Auftragnehmer sind aber am Limit.
     
  16. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Zen3+ scheint in Sachen Energieffizienz ein ordentlicher Schritt nach vorne zu sein.

    Laut LTT gegenüber der Vorgängergeneration doppelte Akkulaufzeit (fast 11,5 Stunden gegenüber 5,75 Stunden) beim Youtube Playback, wobei beide Laptops mit gleicher Akkugröße und Bildschirmauflösung ausgestattet sind.
     
  17. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Kein Wunder, die Videocodecs der iGPU waren ja vorher nur auf Vega-Niveau, also völlig veraltet gegenüber Intel :ugly:
     
  18. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Intel will 2022, wait for it, 4 Millionen dGPUs ausliefern. Bei einem Markt 2021 von ~95 Millionen dGPUs von AIBs. Und die 4 Millionen sind, wait for it, INKLUSIVE Notebook-GPUs!

    Was hat Intel nicht für Töne gespuckt die Gamer aus ihrer Misere zu befreien. Mit 4 Millionen (Notebook-)GPUs.

    :atomrofl: :hammer: :atomrofl:

    Dafür weiß man heute schon, dass man 2023 den Ultra-Enthusiast-Markt wird bedienen können. Ganz ganz bestimmt!
     
  19. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.975
    Da war der Blockchain-Chip halt wichtiger. :ugly:
     
  20. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
  21. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Es würde mich demzufolge nicht mehr wundern wenn einzelne Miningfarmen bereits mehr nvidia GPUs betreiben als Intel in diesem Jahr überhaupt liefern kann. Das sich drei Konkurrenten dieselben, eingeschränkten Fabriken teilen müssen ist natürlich recht sinnlos. Und trotzdem hätte ich wenigstens Stückzahlen im zweistelligen Millionenbereich erwartet, selbst wenn es nur 10-20 Mio. gewesen wären. Immerhin sind die Treiber dadurch ebenfalls ziemlich egal, weil die real wahrscheinlich nur 1-2 Mio. tatsächlich oder zumindest theoretisch für Gaming relevanten Intel Grafikkarten für den Gesamtmarkt völlig bedeutungslos wären.

    Ob es schlau war etwas zu behaupten was sich nicht kapitalisieren lässt wird sich spätestens an den Börsen zeigen.
     
  22. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
  23. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Soweit ich das überblicke bleibt dir da außer einem Mono-Sub nicht viel übrig. Und die fangen bei 150€ an.
     
  24. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    :heul:

    Ja dann werd ich mich wohl mal einfach auf dem Gebrauchtmarkt umsehen.
     
  25. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Beim AM5 scheint AMD aber auch voll auf DDR5 zu setzen. Denke, dass alleine schon deswegen keine wirklichen Budget-Builds möglich sein werden.


    Die GT700er Karten sind aber keine ernsthafte Gaming-Alternative, außer arglosen Leuten 500€ "Gaming"-Builds auf eBay und Amazon ans Bein zu binden.

    Und es ist vermutlich auch was völlig anderes, eine bestehende Produktion einfach weiter laufen zu lassen als Geld in die Hand nehmen zu müssen und eine Produktionsstraße wieder umzurüsten. Vor allem dann, wenn diese Kapazität dann fehlt, um die notwendigen I/O Dies für die profitablen Desktop- und vor allem Server CPUs zu produzieren.

    Denke, der Servermarkt ist für AMD kurz-, mittel und langfristig einfach wichtiger als der DIY-Markt, sodass man dort auch die Prioritäten setzt.
     
  26. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Richtig, die Preise der DDR5 Module und ultimativ auch der Mainboards verhindern das wahrscheinlich noch eine ganze Weile.

    Natürlich ist das keine Gaming Alternative. Deswegen habe ich es doch auch gar nicht erwähnt :ugly:

    Trotzdem zeigt es dass man selbst uralte Chips offenbar wirtschaftlich produzieren kann ohne die anderen Produktionsketten unnötig zu belasten und AMD könnte das bei den alten GCN Architekturen (RX 400/500 und Vega, die anderen bekommen sowieso keinen Treibersupport mehr) sicher auch angesichts der Preise für solche Karten. (theoretisch jedenfalls, es mag viele Gründe geben die in der Praxis dagegen sprechen)

    Mir ist allerdings noch ein anderer Gedanke gekommen, den ich dummerweise zunächst übersehen habe: Die RX 570/580 war schlichtweg besser als die 6500 XT. :immertot: Da die Gewinnspanne bei der 6500 XT allerdings höher sein dürfte und man natürlich nicht möchte dass die Leute stattdessen bevorzugt die älteren, besseren Karten in der Neuauflage kaufen, sodass es die Preise der 6500 XT drücken würde, spielt das sicher auch eine Rolle.

    Das wäre bei einer RX 550 wiederum kein Argument, die als Konkurrenz für die GT 1030 herhalten würde. Nvidia nimmt diese Gewinne mit, obwohl sie das sicher noch weniger nötig hätten als AMD. AMD will es nicht oder kann es nicht, aber deswegen sind sie im Kleinen wie im Großen immer Nummer zwei... Erst hatten sie lange keine High End Produkte, jetzt haben sie kaum noch Low End Produkte und nvidia hatte eben immer von allem etwas. :nixblick:
     
  27. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.255
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
  28. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
  29. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.286
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Mit fps Limit verbraucht es dennoch weniger, aber nicht so viel weniger, wie man erwarten würde.

    Ich bremse meine Grafikkarte ja auf zweierlei Wegen ein: Obergrenze Takt bei 1800Mhz, d.h. die boostet gar nicht. Ich weiß, dass wenn sie frei drehen kann, gerne mal auf 19xx geht, fast 2xxx sogar, dann ins powerlimit läuft und wieder senkt. Und dann immer wieder. Total sinnfrei so ein boost, außer man nutzt eine Wakü und gibt der Grafikkarte mehr Saft oder so.

    Zusätzlich habe ich die fps auf 90 begrenzt. Die wenigstens Spiele laufen bei mir überhaupt schneller in den Einstellungen, die ich bevorzuge (ja ich weiß, Ultra ist oft Unsinn, aber "hoch" oder "sehr hoch" darf es schon sein ^^), insofern machen die 90 Sinn denke ich.
     
    nofxman gefällt das.
  30. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.072
    Ort:
    Daheim
    Die limitierst du im Treiber?
     
  31. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.286
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Genau
     
  32. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.072
    Ort:
    Daheim
    Kann mir jemand nen guten USB-C oder Thunderbolt 4 Hub mit 4 oder 5 Anschlüssen empfehlen?
     
  33. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Hast du mal geschaut was die bis zu 5 Jahre alten, gebrauchten 8GB Modelle der RX 400/500er kosten? Das sowas nicht wirtschaftlich wäre kann auf keinen Fall der Grund sein. Dann schon eher dass die Gewinnspanne der 6500 XT so viel größer ist dass man sich das Geschäft nicht mit älteren, aber besseren Karten versauen will an denen man weniger verdient - das hat natürlich mit der Chipgröße und Ausbeute zu tun, ist mir auch klar. Oder damit dass es wirklich so einfach ist und die Kapazitäten nicht geschaffen werden können, ohne etwas anderes dafür abzuschreiben.

    So viel größer sind die Chips im übrigen nicht, relativ zur Leistung betrachtet, die letztendlich preisbestimmend ist. Zwischen der RX 550 und der 590 bewegt man sich im Rahmen einer Die Size von 103-232mm² und die GT 1030 ist mit 74mm² sogar kleiner als die GT 710 mit 87mm². Wie gesagt, um diese Kepler und Pascal Karten geht es mir sowieso nicht. Braucht für das was sie kosten eigentlich auch kein Mensch und trotzdem werden sie gekauft. Aber wenn selbst sowas noch wirtschaftlich hergestellt werden kann wäre das garantiert auch bei den RX 500 Modellen nochmal möglich.

    Es ist nur glücklicherweise nicht mehr sonderlich relevant, weil ich annehme dass die GA107 Ausführung der RTX 3050 deutlicher Richtung 300€ und die 6500 XT langsam in Richtung 200€ tendiert. Gut ist das deswegen noch lange nicht, ich würde es mir auch anders wünschen, aber AMD hat nunmal leider nicht die Stückzahlen egal wovon um einen großen Unterschied zu machen, Intel hat sich als bedeutungslos geoutet und nvidia go brr... :ugly:
     
    Svenc gefällt das.
  34. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Ganz interessant wie sich die E-Cores in Spielen verhalten. Mit E-Cores hat man bei einem 12700k bis zu 40 W weniger Verbrauch als mit deaktivieren E-Cores, bei gleichen avg fps und Frametimes. Von seltenen Spezialfällen wie dem Gras in Total War vielleicht abgesehen.
    Sprich die E-Cores machen die CPU tatsächlich vor allem effizienter, bringen in Spielen aber praktisch keine Performance-Vorteile.

    Ein Problem ist bei Alder Lake wohl auch noch, dass sie sich die Stromversorgung mit den P-Cores teilen. Ohne das, wie es zB schon bei Alder Lake U gemacht wird, sollten die Verbrauchsvorteile noch größer werden.
     
  35. Svenc

    Svenc
    Registriert seit:
    24. November 2000
    Beiträge:
    7.678
    Ort:
    D
    Brrr, diese 6500XT ist ja mal fantastisch. Für den lumpigen Preis von 250-300 Euro eine Karte, die etwa auf dem Niveau von Mainstreamchips von 2016 ist -- das heißt, wenn sie mit ihren 4GB VRAM mal nicht überfordert ist. :ugly:

    Hatte gerade einen Kommentar von Heise auf dem Schirm.Kommentar: AMDs Radeon RX 6500 XT zeigt, wie kaputt der Grafikkartenmarkt ist | heise online
    Gut, bleib ich weiter bei den Indies, Oldies, und meiner 1050 ti. Die schauen zwar oft nicht ganz so gut aus, ein zwei Komfortfunktionen fehlen manchmal auch, haben aber oft knackigere Mechaniken als ihre "Nachfolger" -- das "mit stetig steigenden Entwicklungs-Kosten müssen wir auch immer größere Zielgruppen erschließen"-Paradox. :D
     
  36. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.087
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    Deswegen verwende ich zusätzlich zum Framelimiter alle 5 Profile des MSI Afterburner und habe diese mit Hotkeys belegt.
    So dass ich je nach Spiel und gewünschter FPS bei Bedarf auch mal massiv Undervolten kann. Denn mit Undervolt UND Framelimiter bekommt man auch die NVidia Chips gebändigt.

    Ich empfehle hier mal die NIVIDIA GPU im Afterburner auf das absolute minimum zu undervolten. Das sind 700Mv. Und dann zu schauen, wieviel Boost Clock damit möglich sind. Damit verliert man meistens so um die 25-35% Leistung, aber senkt auf den Strombedarf auf ca. 40%.
    Die Karten bleiben damit meistens unhörbar und oft unter 50°C.
    Das macht vor allem bei älteren oder anspruchsloseren Spielen Sinn.
     
  37. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.087
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    Für 200€ verkaufen und für 370€ eine RTX 3050 holen?

    170€ für einen Leistungssprung von 100-150% +DLSS kann man schonmal machen :)
     
    Svenc gefällt das.
  38. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Bei älteren/anspruchslosen Spielen boostet die Karte eh nicht ganz hoch.
     
  39. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.072
    Ort:
    Daheim
    Wie muss ich denn das im Treiber einstellen bei G-Sync?
    So wie ich es gemacht habe oder Fenster und Vollbild? :hmm:

    Ist es jetzt so wie ich es eingestellt habe dann so, dass wenn ich in nem Spiel Borderless Fullscreen wähle G-Sync nicht funktioniert? :hmm:


    [​IMG]
     
  40. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.286
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Nach meiner Erfahrung funzt G-Sync dann auch in solchen Spielen, weil ab Windows 10 ein Borderless Spiel eh wie ein fullscreen Spiel behandelt wird. Ich habe es auch nur für "Vollbild" aktiviert und hatte nie Probleme mit Spielen, die ich im Borderless Window laufe ließ.

    Du kannst übrigens immer überprüfen, ob G-Sync aktiv ist, wenn du deinen Augen nicht trauen willst (und das meine ich jetzt nicht als Scherz, beim Nvidia Treiber von vor ein paar Wochen war G-Sync kaputt, ich habe es nicht direkt gemerkt, gefixt wurde es dann mit einem hotfix-Treiber) und zwar so:

    Du musst am linken Seitenrand einen Einstellungebreich von "Anzeige" aktiv haben, also z.B. den G-Sync Bereich wie in deinem Screenshot. Oben in der Menüleiste gehst du dann auf "Anzeige" und setzt den Haken bei "Indikator G-Sync Kompatibilität".

    Im Spiel wird es dann oben rechts angezeigt, wenn G-Sync genutzt wird.
     
Top