Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Würde ich nicht machen. Spiele laden selbst von ner SATA-SSD verdammt flott und ich denke nicht, daß eine PCIe 4 gegenüber einer PCIe 3 so viel Vorteil bietet, auch wenn die maximale Datenrate doppelt so hoch ausfällt.
     
  2. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Angesichts der mehr als 3 Jahre Vorsprung die nvidia dahingehend hat ist es für mich ohnehin schon beeindruckend wie schnell und konsequent AMD aufholen konnte. Aktuell ist es das Rennen um RT und Upscaling, künftig wird noch das Rennen um die Multi Chiplets dazu kommen - alles recht spannend. Umso trauriger dass der Endverbraucher quasi nichts davon hat solange damit vorzugsweise eine lukrative Umweltschweinerei ermöglicht wird.

    Die meisten PCIe 4.0 SSDs sind zwar tendenziell schneller und damit eher mal über dem PCIe 3.0 Limit, sonst hätte der neuere und schnellere Standard angesichts der höheren Preise logischerweise keinen Sinn, aber den Mehrwert für einen Privatnutzer muss man erstmal finden. Zumal das Board den Standard auch haben muss, sonst ist es erst recht sinnlos. Ich halte die ~100€ die man sich bspw. bei einer 2TB 970 Evo gegenüber der 2TB 980 Pro sparen kann jedenfalls für eine logische Ersparnis, auch wenn die 980 Pro klar besser ist.

    Ein Kompromiss wäre eine 1TB PCIe 4.0 SSD und eine 1TB SATA SSD oder sowas. Das ist aber weniger eine Empfehlung als vielmehr eine Option die Preis/Leistung in den Fokus rückt.
     
  3. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    https://www.flatpanelshd.com/news.php?subaction=showfull&id=1614946171

    Das dürfte mittelfristig den Tod für LCDs bedeuten.
    Spannend auch wie das angesichts der stetig steigenden Energiebedarfe von GPUs ausgehen soll. Wenn mehr als 500 W-Netzteile für PCs in der EU nicht mehr zugelassen sind...

    Dieser enorme Energiehunger von GPUs und teils auch hochgezüchteten x86-CPUs kann nur ein Irrweg sein.
     
  4. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Nun :ugly: mein 65"xh9505 nimmt sich in HDR bis maximal 300W, der steht da nich gut da :ugly:

    Auf dauer is OLED natürlich die überlegene Technik, aber leider halt aktuell noch fast doppelt so teuer (1100€ für den Sony, der LG CX in 65" is um 2k, wird dabei in HDR nur etwas mehr als halb so hell und hat schlechteres motion handling. wenn auch hdmi 2.1 support). Aber neulich bei HDTVTest auf Youtube ne Prognose gesehen, dass OLED Panels die nächsten 1-2 Jahre deutlich günstiger in der Produktion werden sollen. Das wird zwar nicht 1:1 an die Consumer weitergegeben, aber es is ein Schritt.

    Bei PCs ist es doch meistens so, dass das nur für fertigpcs gilt. Als selbstbauer muss man ja auch aktuell die ultra low power sachen noch nicht so beachten und auch der 12V only PSU Standard is da ja (noch) nicht verbreitet.

    Allerdings sind auch da 500W einfach nicht realistisch umsetzbar, spätestens wenn man Workstations mit mehreren GPUs anguckt. Ich würde natürlich auch gut finden, wenn die Entwicklung mehr in Richtung Effizienz gehen würde, aber aktuell rechne ich damit (noch) nicht im Mainstream. Aber Komponenten wie der Apple M1 zeigen ja eine Möglichkeit, und vlt wird auch Alder Lake da spannend.
     
  5. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Da mein Englisch unter aller Sau ist und ich mir nur die Grafiken angeschaut hab, mal eine Frage dazu:

    Warum ändert sich mit einem neuen Aufkleber der Stromverbrauch?
    Daß man die Verbräuche anders klassifiziert, leuchtet mir ein, aber daß ein neues Label plötzlich den Stromverbrauch senkt, ist schon interessant. Da bestelle ich mir doch gleich neue Aufkleber für meinen Kühlschrank. :ugly:

    Oder sind das nur Beispielbilder, die nur fiktive Werte beinhalten?
     
  6. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Die Skala wurde einfach angepasst, viele vorher A-Geräte sind jetzt nur noch G, weil vorher wirklich energieeffiziente Geräte A++++ oder so brauchten, was die Skala sinnlos gemacht hat.
     
  7. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Grundsätzlich ein richtiger Ansatz, aber wie so oft werden die Prioritäten falsch gesetzt. Denn die Realität sieht so aus dass mehr und mehr elektrisch geheizt wird, zunehmend mehr E-Autos geladen werden müssen und weltweit Streaming, Mining usw. betrieben wird bis zum Abwinken. Entscheidender wäre die Art und Weise sowie die Menge der Stromgewinnung - wenn nämlich wie in Deutschland bspw. nach 20 Jahren die Förderung bei einem Windrad ausläuft und man mangels Planungsrecht nur noch das alte Windrad abbauen, dafür kein neues, leistungsfähigeres Windrad mehr aufbauen kann, ist das viel schlimmer als ein paar Millionen Fernseher die 50W mehr oder weniger verbrauchen.

    Bei PC Hardware ist es immerhin eindeutiger dass es hinsichtlich Energie- und vor allem Leistungseffizienz in die völlig falsche Richtung geht. Ich würde es zwar unsinnig finden die Netzteilleistung zu begrenzen, aber um dem entgegen zu wirken muss sich die Politik etwas einfallen lassen. Das hätte sie eigentlich schon vor 10-15 Jahren tun müssen als klar wurde wie wichtig eine eigene Chipfertigung in Europa gewesen wäre, aber da vielfach dieselben Politiker das Sagen haben die geistig irgendwo zwischen kalter Krieg und Wählscheibentelefon hängen geblieben sind müssen wir froh sein solange die nicht noch mehr abwirtschaften und kaputt machen als sie es ohnehin schon tun.

    Er hat allerdings recht, denn bei den neuen Labeln die zum Vergleich dargestellt werden steht etwa beim 55" Philips 113kWh/1000h, also 113W und beim alten Label war der Verbrauch bei 146W. Wie das zustande kommt verstehe ich auch nicht. Das im einen Fall pro Jahr und im anderen pro 1000h gerechnet wird ist ein erklärbarer Unterschied, aber warum sich der tatsächliche Verrbauch pro Stunde mit dem neuen Label geändert haben soll erschließt sich mir zumindest anhand dieser Gegenüberstellung nicht.
     
    Daepilin gefällt das.
  8. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Ja das leuchtet mir tatsächlich ein.

    Was ich nicht verstehe, warum das neue Label jetzt z.B. bei den letzten beiden so unterschiedliche Stromverbräuche vermittelt:

    Wie kann es sein, daß der 77" LG CX 4K OLED nach altem Label 172 Watt verbraucht, nach neuem Label aber nur 163?
    Und der 85" Samsung Q950T "QLED" 8K LCD nach altem Label 457 und nach neuem plötzlich 520?

    Der Stromverbrauch ändert sich doch nicht, nur die Einstufung der Effizenzklasse. Wenn ich an eine V8 Mercedes S-Klasse ein A180-Label anklebe, verbraucht die S-Klasse doch auch nicht plötzlich 8 Liter Sprit weniger.
     
  9. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Dann hätte ein Bild gereicht und man würde nicht die identischen Modellnummern dazu schreiben. Insofern finde ich die Angaben auch fragwürdig. :nixblick:
     
  10. DarkSora

    DarkSora
    Registriert seit:
    11. November 2014
    Beiträge:
    1.139
    Ich würde noch kein 4.0 nehmen. Grund dafür ist, dass aktuell noch immer Spiele für Xbox One und PS4 entwickelt werden, die eine herkämmliche HDD nutzen. Sobald für PS5 und Series standardmäßig entwickelt wird, kann sich da was ändern, aber die Spieleentwickler schauen ja auch darauf, was die Leute an Hardware haben und da wird auch viel Wert darauf gelegt, dass möglichst viele Geräte das stemmen können.

    Von daher wird meiner Meinung nach es noch einige Zeit dauern, bis 4.0 einen merkbaren Unterschied macht und bis es soweit ist, die Preise auch wieder stark gesunken sind.
    Wenn man sich aktuelle Ladezeitenbenchmarks ansieht, hat ja eine normale M2 keine allzu großen Vorteile gegenüber einer normalen SSD.


    Dann gibt es irgendeine neue Mainboard Technologie,. die 2 Netzteile parallel erlaubt :ugly:


    Einmal, wie weiter oben gesagt, nimmt man die ganzen A+++ weg und korrigert die Skala weiter nach unten, damit man die ganzen Plus Zeichen nicht mehr zählen muss und trotzdem die Geräte gut vergleichen kann.
    Und desweiteren wird das kw/H pro annum, also pro Jahr ersetzt durch kw/h pro 1000 Stunden.

    Für das Jahr hat man sich immer 4 Stunden pro Tag , also 365 x 4 Stunden vorgestellt. Demzufolge hast du laut der Rechnung mehr Stunden, als bei den 1000 und deswegen ist der Verbrauch alle 1000 Stunden auch gerringer, als der im Jahr, so wie man es vorher gerechnet hat.

    Rechenbeispiel: TV hat 60 Watt, also 0,06 kw/h

    pro annum 0,06 x 4 x 365 = 87,6 kw/h pro annum
    1000 Stunden = 0,06 x 1000 = 60 kw/h pro 1000 Stunden.

    Der TV hat in beiden Varianten die selbe Strommenge, die er zieht.
     
  11. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    @DarkSora

    Mir leuchtet deine Aufstellung schon ein. Im Alten Label stehen halt neben dem Jahresverbrauch noch die Watt-Verbräuche pro Stunde, die man ganz einfach auf den kw/h Verbrauch aufrechen kann, indem man sie mal tausend nimmt. Und hat so meine erwähnte Abweichung.

    Wenn da wie im Fall des letzten TVs in der Liste 634 kw/h per annum stehen, geht sich das nach deiner Beschreibung schon aus.
    Wenn da neben den 634 kw/h per annum aber auch noch 457 Watt (pro Stunde) stehen und ich diese mal 1000 nehme, komme ich halt auch auf 457 kw/h pro tausend Stunden und nicht auf 520, wie nach dem neuen Label.

    Das irritiert mich.
     
  12. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    vielleicht vorher kombiniert SDR/HDR? Das is ja jetzt getrennt. Alternativ vielleicht andere standards bei welcher Helligkeit geprüft wird. Das macht ja riesige Unterschiede (und deswegen nervt sony neuerdings auch jedes mal, wenn man die helligkeit oder eine bildeinstellung die die helligkeit beeinflusst ändert... jedes mal n popup, dass das den stormverbrauch erhöhen kann... sowas kann auch nich sinn der sache sein)
     
  13. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Auch eine Möglichkeit, für maximale Verwirrung zu sorgen.

    Man klassifiziert die Geräte nicht nur neu, man dreht auch noch fleißig an den Einstellungen, die dann wahrscheinlich völlig realitätsfremd sind, um den Verbrauch zu drücken.
    Und ändert dann auch gleich noch das Prüfverfahren.
    Haben sie sich wohl von der Autoindustrie abgeguckt.
     
  14. ancalagon Alarmarzt Meier-Wohlfühl

    ancalagon
    Registriert seit:
    26. September 2001
    Beiträge:
    48.199
    Ort:
    das muss "aus" heíßen nich "von" :p
    Meinem Dad ist wohl das Netzteil abgeraucht. Offenbar hat einen PC auf Basis des Intel 1156 .. ka woher oder wer den verschraubt hat.

    Netzteil alt war wohl auch ein bequiet-irgendwas mit 350 Watt. Spricht was dagegen, dort jetzt das Straight Power 11 oder ein Pure Power 11 einzubauen?

    Ka wie das vor 10 Jahren war, aber die Netzteile sollten dich die passenden Stecker fürs Mainboard haben, oder? :confused:
     
  15. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.975
    https://www.amazon.de/dp/B08WXBK4XD :ugly:

    Aber gut bei Servermainboards Standard.

    Natürlich, mir kommt vor es gab schon Hersteller die auf Testmuster reagiert haben und dann die Helligkeit veränderten.
     
  16. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.255
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Geht.
     
    ancalagon gefällt das.
  17. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.975
  18. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
  19. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Es ist schon ein bisschen älter, aber ich habe es heute erstmals über videocardz gesehen. MSI hat von Zotac offenbar nichts gelernt und setzt noch einen drauf, indem sie fast schon eine Wissenschaft daraus machen wie geil ihr Laptop doch für Mining ist - und das wird natürlich werbewirksam zelebriert. Ich weiß nicht ob ich das eher peinlich finden sollte oder einfach nur angewidert bin, aber wenn ich sowas lese ist das für mich fast schon die Essenz dessen was mit dieser Branche nicht mehr stimmt:

    https://www.msi.com/blog/mining-experiment-with-msi-gaming-laptop
    https://videocardz.com/newz/msi-pro...g-on-ge76-raider-laptop-with-geforce-rtx-3080 (nur für den Fall dass MSI meint den Blogeintrag wieder entfernen zu müssen)
     
  20. SIzzleBob

    SIzzleBob
    Registriert seit:
    27. Juni 2005
    Beiträge:
    589
    Mein RIG:
    CPU:
    Ryzen 7 3800X
    Grafikkarte:
    RTX 3070 FE
    Motherboard:
    MSI X570
    RAM:
    32GB G.Skill Trident Z Neo
    Laufwerke:
    1TB Gigabyte Aorus M.2 PCIe 4.0
    1TB Samsung 970 Evo M.2 PCIe 3.0
    Gelöschter User 213153 gefällt das.
  21. DarkSora

    DarkSora
    Registriert seit:
    11. November 2014
    Beiträge:
    1.139

    Beim letzten Mininghype gab es extra Mininggrafikkarten ohne HDMI Anschluss und jetzt verschwendet man mit jeder Laptopgrafikeinheit auch noch den Bildschirm und die Tastatur etc. :bse:

    Die Stecker müssten alle kompatibel sein. Und wenn es irgendein Sonderfall gibt, lässt sich das neue Netzteil problemlos bei den Shops umtauschen.
     
    ancalagon gefällt das.
  22. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.975
    Warum tote Hardware kaufen? Karten mit Anschlüssen kann man weiterverkaufen. GPUs ohne Anschlüsse ... kaum.
     
  23. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Die Verbräuche sind auf dem neuen Label bis auf ein, zwei Ausnahmen durch die Bank höher als auf dem alten Label. Die Trennung zwischen SDR und HDR macht auch Sinn, da der Stromverbrauch in HDR aufgrund der teils deutlich höheren Helligkeit entsprechend ansteigt. Daher würde ich sagen, dass die angegebenen Verbräuche eher der Realtität entsprechen, da man hohen HDR-Verbrauch nicht mehr durch niedrigen SDR-Verbrauch kaschieren kann.

    Was ich nicht verstehe ist, dass bei einigen wenigen Geräten der HDR-Verbrauch niedriger ausfallen soll als der SDR-Verbrauch beispielsweise der
    55" Philips 805. Entweder ist HDR dort komplett unbrauchbar oder die Werte sind vertauscht bzw. falsch.
     
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Naja, was stimmt denn nicht mit der Branche? Wenn MSI ihre Kunden gerade eher bei Minern sieht, bietet man denen halt Produkte an. Nur natürlich in unserem Wirtschaftssystem, oder?
     
  25. Oberst Topgun Herr Oberst

    Oberst Topgun
    Registriert seit:
    30. Juli 2001
    Beiträge:
    976
    Neues NT schon vorhanden? Hätte hier ein StraightPower 10 500W über...
     
  26. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Miner sind eben auch ne Kundengruppe der Hersteller. Das muss man nicht gut finden, ist aber Realität. Einzige Konsequenz die man ziehen kann ist, beim nächsten Hardwarekauf auf andere Hersteller zu setzen, die sich vielleicht nicht so sehr den Minern angebiedert haben.
     
  27. eNkelo La Yohda Stasella

    eNkelo
    Registriert seit:
    15. September 2009
    Beiträge:
    14.914
    Genau das war mein Hintergrundgedanke, wegen der Next-Gen Konsolen...

    Dann werde ich mal in eine 2TB investieren. Wäre meine nächste Frage gewesen, ob es unbedingt eine Samsung 960 Evo braucht...
     
  28. Megamind

    Megamind
    Registriert seit:
    4. Februar 2001
    Beiträge:
    21.143
    Ort:
    Dahoam is dahoam
    Mein RIG:
    CPU:
    Ryzen 7 5800X
    Grafikkarte:
    ASRock Taichi Radeon RX 6800XT
    Motherboard:
    Asus ROG Strix B550-f Gaming Wi-fi
    RAM:
    32 GB Crucial Ballistix DDR4-3600
    Laufwerke:
    SSD Samsung 970 Evo Plus NVMe 500GB
    SSD Samsung 870 Evo SATA 1 TB
    SSD Sandisk 3D Ultra SATA 1 TB
    Extern DVD Brenner LG-Hitachi
    Extern 2x4 TB Seagate 5400 rpm
    Extern 1 TB WD Mybook an Fritzbox 7590 als Mediaserver
    Soundkarte:
    Onbard
    Gehäuse:
    Bequiet Dark Base Pro 900 Rev.2
    Maus und Tastatur:
    Cherry MX-Board 3.0S MX-Brown + Kingston Hyper X Wrist Rest
    Logitech MX Master 3
    Xbox 360 Wired Gamepad
    Xbox One Wireless Gamepad
    Betriebssystem:
    Microsoft Windows 11 Home 64 bit
    Monitor:
    LG UltraGear 27GL850-B WQHD
    Also ich hab eine 970 Evo Plus als System SSD, aber nur mit 500 GB. Die ist schon flott. Generell bin ich mit Samsung SSDs bisher immer gut gefahren. Habe insgesamt 4 Stück bisher gekauft und sogar die erste von anno dazumal mit 120 GB (840 Evo) läuft heute noch problemlos in meinem Laptop.

    Sind halt preislich etwas höher angesiedelt. Wenn es dir nur um Speicherplatz geht, kannst du sicher auch zu einer günstigen greifen.
    Wobei ich immer noch der Meinung bin, für Spiele reicht die SATA-Schnittstelle locker aus. Was passiert da groß? Das Laden von Daten in den RAM, da kommts im Normalfall doch auf 2,5 Sekunden Ladezeit nicht an. Da bekommst du halt die 870 Evo mit 2 TB fast 100 € günstiger als die mit 970 Evo Plus mit 2 TB und M.2 Schnittstelle. Die normale 970 Evo ist grad mit einem Angebot für über 500 € bei Geizhals gelistet.

    Das Angebot jedoch ist groß und es gibt auch M.2 SSDs für 170 € mit 2 TB, aber deutlich langsamer als Samsungs Evo Reihe, für Spiele aber immer noch mehr als ausreichend.

    Ist nur meine Meinung. Ich sehe mehr Sinn darin, eine schnelle SSD als fürs Betriebssystem zu verwenden, die für ein flüssiges Arbeiten sorgt, schnelle Programmstarts inklusive. Wenn man spielt, ist man ohnehin in einem einzigen Programm unterwegs. Und angesichts der fallenden Preise bei Speichermedien wäre es in meinen Augen völlig falsch, jetzt teuer in etwas zu investieren, was später, wenn es gebraucht werden würde, längst überholt ist bzw. billiger wird durch wieder schnellere, neuere Produkte.
     
    eNkelo gefällt das.
  29. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.255
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q

    MSI hat bei mir eh ziemlich verschissen.

    Die wollten einen Fehler an der Elektrik nicht reparieren, weil der Monitor einen Kratzer auf der Bildschirmseite hat.

    Zack Garantie weg.
     
  30. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Nach dem Prinzip "Heuschrecke" ist es sicherlich ein natürliches Verhalten einfach nur zu fressen was man eben fressen kann. Deswegen hat dieses Wirtschaftssystem auch seit Jahrzehnten verschiedene, schwerwiegende Folgen für Mensch und Umwelt und weiterhin keine schöne Zukunft. Das ist aber nur ein Teilaspekt, der gewisse einfältige, systemische und triebgesteuerte Logiken im Denken und Handeln einiger "Heuschrecken" erklären kann, keiner der amoralisches, unethisches, rücksichtsloses, gieriges und dreistes Handeln beim Menschen rechtfertigt. "Eigentum verpflichtet" ist ein Treppenwitz. Sprich die Grundidee dass man Profit nicht über absolut alles stellt - wie Menschenrechte, Umwelt, soziale und volkswirtschaftliche Interessen - sondern an erster Stelle nach u.a. sozialethischen Prinzipien gewirtschaftet wird ist maximal ein Amusement der Geschichte und das Papier nicht wert.

    Aber wenn wir die rein wirtschaftliche Herleitung beiseite stellen und einfach mal speziell bei der Technik- und Hardwarebranche bleiben (die für mich so etwas wie die neue Ölindustrie geworden ist und sich genau so verhält) geht es (zumindest in diesem Bereich) um eine nie dagewesene Ressourcenverschwendung, die, weil das allein nicht krank genug ist, auch noch regelrecht zelebriert wird wie die Amis ihre Coal Runner zelebrieren. Es stimmt für mich hinten und vorne nichts mehr sobald komplette Systeme 'ready-to-use' hergestellt werden, wie eben Laptops, die anschließend nur wegen einem winzigen Teil welches sich darin befindet massenhaft für eine sinnlose Zweckentfremdung eingesetzt werden, bei der sie sogar noch mehr Ressourcen verschwenden. Und die Hersteller gehen nicht etwa subtil damit um, machen ihre skrupellosen Geschäfte und halten die Klappe, nein... sie geilen sich daran auf und bewerben diesen Wahnsinn als Normalität.

    Das ist krank und symptomatisch für einen zunehmenden, technokratischen Turbokapitalismus in dem Ethik und Moral keinen Platz mehr hat. Dabei geht es nicht darum zur netten und freundlichen Gummibärenbranche zu werden die jeder mag, sondern sich grundsätzlich die Frage zu stellen welchen Schaden man anrichtet. Das ist nicht nur ein bisschen Umwelt hier und ein bisschen böser Kapitalismus da, sondern es hat bereits massive, volkswirtschaftliche Folgen durch die einige Staaten zum politischen Eingreifen gezwungen wurden. Man denke an die Stromausfälle im Iran oder die Produktionsschiwerigkeiten bis hin zum Produktionsstopp in der Automobilindustrie. Solche Entwicklungen werden von diesen Firmen aus reiner Profitgier in Kauf genommen. Meine Frage wäre eher was bei denen noch stimmt?
     
    SchnabeltierX und Lurtz gefällt das.
  31. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.559
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
  32. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Das spricht allerdings sehr gegen nvidia, bzw. die Ernsthaftigkeit mit der sie die Sache angehen. Klar, mich überrascht das auch nicht, aber ich bin trotzdem gespannt ob und wie nvidia das nun wieder erklären will. :KO::ugly:
     
  33. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.559
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Genauso wie Nvidia auch erklären müsste, warum die Karten in CPU-limitierten Spielen um bis zu 30% gegenüber den Radeon Karten einbrechen
    https://www.youtube.com/watch?v=JLEIJhunaW8
     
    ActionNews gefällt das.
  34. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Eine Firma mit 80-85% Marktanteil muss sich nicht erklären :ugly: Aber ja, die Frage ist ziemlich gut... Vor allem weil nVidias Treiber, wie wir alle wissen, ja perfekt sind.
     
    ActionNews gefällt das.
  35. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    NVidia Treiber haben nie fehler. AMD Treiber sind immer zu 100% Fail!!! Sollte man doch langsam mal wissen!
    :ugly:

    Wer die Ironie findet, darf sie behalten.
     
    ActionNews gefällt das.
  36. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Also das gilt ja vor allem für den DX12-Treiber. Raytracing macht es noch schlimmer.

    Vulkan ist Gleichstand und bei DX11 schneidet nVidia weiterhin tendenziell besser ab.

    Ich frage mich was der Treiber da macht, wenn das bei einer low level API wie DX12 passiert.
     
  37. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Gerade weil es sich um den Marktführer handelt sollte man meinen dass die Treiber eine höhere Priorität haben. Aber das ist nvidia inzwischen offenbar genauso egal wie alles andere im Gamingmarkt, weswegen es mich nicht überrascht dass sowas bei der quasi nicht mehr vorhandenen QA keinem aufgefallen ist. Warum ein Treiber sogar mehr oder weniger das Gegenteil dessen macht was er bei einer low level API wie DX12 machen soll ist zumindest eine spannende Frage.
     
    ActionNews gefällt das.
  38. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.184
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Geplante Minderleistung damit man bei der Nachfolgegeneration nicht wieder das Problem hat wie bei Turing, wo die Leute von der Mehrleistung ggü Pascal enttäuscht waren :tdv:
     
  39. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.930
    Man muss ja nur mal DXVK-Tickets lesen, wen mal wieder von irgendwelcher Secret Sauce im nVidia-Treiber berichtet wird, die man nicht fixen kann. Die haben wahrscheinlich so viele Schleifen da eingebaut, dass sie selbst nicht mehr durchblicken :ugly:
     
  40. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.626
    Das wird wahrscheinlich so ziemlich den Tatsachen entsprechen. Mir ist allerdings noch ein anderer Gedanke gekommen: Vielleicht sollte sich Hardware Unboxed auch ältere Treiber vornehmen, nur für den Fall dass sich die tolle neue Hashrate Begrenzung im Treiber auch auf alle DX12 Anwendungen auswirkt oder ähnliche Späße. Irgendwoher muss es schließlich kommen. Es wäre ansonsten sehr komisch wenn die nvidia Treiber seit Jahren 20-30% Overhead mitschleifen ohne dass es jemandem bei nvidia und auch sonst aufgefallen wäre.

    Wenn es sich nur um 5-10% drehen würde könnte man das verstehen, aber nicht wenn eine RTX 3090 im CPU Limit weniger fps erzielt als selbst eine 5600 XT... Falls sie ihre GPUs daher jemals mit einem älteren Quad- oder Hexacore getestet haben kann mir niemand erzählen dass nicht wenigstens irgendein Praktikant vor dem Bildschirm saß und feststellen konnte dass die schnellste Gaming GPU wo gibt plötzlich nicht mehr die schnellste GPU ist wo gibt. Chef, Chef, der Mann kann nicht lesen! :ugly:

    Kennt ihr das? https://www.youtube.com/watch?v=6cj-KDpcOLg (damals, als Werbung noch einem guten Zweck dienen und gleichzeitig unterhaltsam sein konnte...)
     
Top