Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Leider nicht. Ich habe zwar einige recht ordentliche Steckleisten für die wichtigeren Geräte (eine müsste sogar von brennenstuhl sein) aber auch noch andere, günstigere Schutzstecker für weniger wichtige Geräte und trotzdem war neulich nach einem Stromausfall ein alter Monitor und ein altes PC Netzteil defekt. Die Kontrolleuchte des Schutzsteckers war ebenfalls aus, d.h. das "Schutz"element welches offensichtlich nichts taugt hat es komplett durchgeschossen und das obwohl es sich absolut sicher nicht mal um Blitzschlag gehandelt hat. Es kann auch nur sehr kurz gewesen sein, sonst hätte schließlich die Sicherung im Sicherungskasten ausgelöst. Aber die habe ich getestet und sicherheitshalber trotzdem ersetzt. Da funktioniert demnach alles. So richtig erschlossen hat sich mir der Grund und der Ablauf dieses Ereignisses jedenfalls noch nicht, aber selbst das kann es wohl geben. :nixblick:

    ---

    Apropos Monitore... hat jemand eine Idee was bei einem Monitor defekt sein kann wenn er immer nur läuft sobald er längere Zeit nicht am Strom war und dann durchgehend, sogar stundenlang ohne Probleme, aber sobald man ihn ausschaltet geht er danach nicht mehr an? Normalerweise würde ich auf das Netzteil tippen, weswegen ich zwei Netzteile (die sind extern) versucht habe die von den Leistungsdaten her exakt passen und ich habe sie sogar durchgemessen, das liefern sie auch. Immer dasselbe. Der Ein-/Ausschalter kann auch nicht das Problem sein, da man ihn immerhin ausschalten kann und beim einschalten auch kurz eine gelb/orange statt der bei Funktion blauen Kontrolleuchte aufleuchtet. D.h. da bleiben eigentlich nur noch etwaige Elkos im Gerät selbst, oder?

    Ich dachte auch schon an den Eco Modus, dass der irgendwie blockiert, aber ich kann mir sonst echt nicht mehr vorstellen das in dem Gerät so viel steckt was dieses Fehlerbild aufweisen kann. Würde er gar nicht funktionieren wäre es mir noch eher egal, dann kommt er eben weg, aber wenn man weiß dass das Gerät eigentlich funktioniert und man bereits so viel versucht hat fuchst einen das doch ziemlich. :hmm:

    Imho brauchen die alle zu viel Strom für die Leistung die sie bieten. Das die 3070 Ti besonders unnötig ist, vor allem weil sie anders als die 3080 Ti nicht mal mehr VRAM erhalten hat ist zwar schon ziemlich eindeutig, aber so im Allgemeinen reizt mich einfach gar nichts daran mir eine 300-400W GPU ins System zu bauen. Als wären die Grafikkarten nicht schon teuer genug... Undervolting ist zwar möglich, aber dafür dass man erstmal die Spannung und ggf. sogar den Takt anpassen würde kauft man erst recht keine Ti-Variante.
     
  2. Alcanu Dealt mit Keksen

    Alcanu
    Registriert seit:
    2. Mai 2006
    Beiträge:
    43.060
    Ort:
    Daheim
    Vielleicht sollte man die 30xx echt komplett überspringen und gleich auf 40xx hoffen. Bleibt bei den Preisen eh nix anderes übrig :uff:
     
    16_volt gefällt das.
  3. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Geht mir auch so, trotz Wasserkühlung. Mir vergeht die Lust auf diese GPU-Generation immer mehr, erst recht auf nVidia. Das muss alles erheblich effizienter werden und wenn's für nVidia sowie AMD blöde ausgeht, wird sie die GPU in einem Mac Pro mit Apple Silicon ziemlich verprügeln. Lt. Anandtech verbraucht die 8-Kern-GPU in Mac mini ca. sieben bis zehn Watt. Die größte Version im Mac Pro wird 128 Kerne haben, also ca. 110 bis 130 W verbrauchen, bei einer prognostizierten Leistung von 41 TFlops (die 8-Kern-Version im Mac mini schafft 2,6 TFlops). Das ist mehr als eine 3090, bei gut einem Drittel des Verbrauchs.

    Da Apple wohl Chiplets nutzen wird, mit je 8+2 CPU-und 16 GPU-Kernen, kann man die Leistung evtl. nicht so einfach hochrechnen, aber in Sachen Stromverbrauch sollte es schon passen. Aber selbst wenn jetzt 10% der Leistung durch die Architektur liegenbleiben würden, wäre das immer noch knapp über der Leistung einer 3090. Natürlich wird dieser Mac Pro ungleich teurer sein, aber Apple zeigt, was machbar ist.
     
    16_volt gefällt das.
  4. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Ganz ehrlich, ich hab inzwischen schon öfter mit dem Gedanken gespielt, den PC einfach aufzugeben und mir einfach einen Desktop-Mac hinzustellen. Fürs Spielen tut's die PS 5 und die Series X. Ältere Sachen kann ich problemlos auf dem Mac laufen lassen, höchstens DCS, VR & Co. wären wohl problematisch, aber so oft nutze ich das aktuell auch nicht, als dass sich dieser Wahnsinn im Hardware-Segment langsam noch lohnen würde.
     
    Kryptico gefällt das.
  5. IamYvo gesperrter Benutzer

    IamYvo
    Registriert seit:
    23. Mai 2013
    Beiträge:
    863
    Naja dafür lohnt sich Undervolting ja ganz gut :D
     
  6. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    Ich bin begeistert. :eek::ugly:
     
    Zuletzt bearbeitet: 9. Juni 2021
  7. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.117
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
  8. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.801
    Die Palit RTX 3070 Ti Gamerock OC zieht bis zu 360 Watt :ugly: :ugly:

    [​IMG]
     
    MadCat gefällt das.
  9. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.801
    "Die 3070 Ti ist eine Karte für 1080p mit RT. Die Performance erreicht dabei fast das Niveau einer 3060 ohne RT (die 3060 ohne RT ist 0-15% schneller als die 3070 Ti mit RT).
    Ergo kosten mich die RT Effekte fast doppelt so viel wie ohne RT (620 Euro zu 330 Euro). Nicht sehr attraktiv.
    Dazu der absurde Stromverbrauch.

    In Zahlen:
    1080p, mit RT, 3070 Ti, 290W, 620 Euro
    1080p, ohne RT, sogar etwas mehr fps, 170W, 330 Euro

    Also fast doppelter Preis und rund 70% höherer Stromverbrauch.
    Nur für RT. Rest identisch. Autsch."
    https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12703130#post12703130

    Wenn man es so sieht... :ugly: (Und dazu noch der VRAM mit RT ausgeht).

    Bei 220 W ist die Karte gleich schnell oder sogar langsamer als die non Ti. Was macht der GDDR6X auf der Karte, ist das eine PR-Maßnahme oder lag der noch so rum?
     
  10. IamYvo gesperrter Benutzer

    IamYvo
    Registriert seit:
    23. Mai 2013
    Beiträge:
    863
    Also auch wenn die Karte Unsinnig ist, aber diese Betrachtung ist schon ziemlicher Quatsch.
     
    DaHell63 gefällt das.
  11. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Stromverbrauch ist natürlich auch ein sehr "deutsches" Thema, weil man bei gut 30 Cent/kWh am Ende des Jahres durchaus merken wird ob ein PC (oder mehrere, wenn man eine Familie, Freundin, Freund usw. hat) nochmal 100-200Wh zusätzlich verbraucht. Es ist nichts was einen arm machen wird, anders als die GPUs selbst :ugly:, aber bspw. beim Vergleich zwischen einer GTX 1070, GTX 1660S/ti oder RTX 2060/2060S und der 3060 steht keine nennenswerte und manchmal auch keine Verbesserung der Performance per Watt - abseits von Raytracing und mit ein paar Ausnahmen. Bei den aktuellen High End Chips kann man immerhin sagen dass es über die 2080 ti bzw. 3070 hinaus so viel Leistung bislang nicht gab. Mehr aber auch nicht.

    Es ist insofern schon irgendwie demotivierend zu sehen was technisch möglich ist (bspw. bei Apple) und was alle anderen großen Hersteller lediglich anbieten.

    Dazu müssen wir uns doch nur fragen wem schnellerer Speicher u.a. nutzt. Und die Antwort ist, Trommelwirbel: Den Minern. Denn mehr Speicher brauchen die nicht, zumindest nicht unbedingt mehr als 8GB, aber mit schnellerem Speicher können sie zum Teil durchaus etwas anfangen. Gut, nun heißt es zwar die neue Hashrate Begrenzung würde einigermaßen funktionieren und das mag auch sein, aber das betrifft soweit ich weiß nach wie vor nur ETH und alles andere wird weiter mit voller Leistung laufen.

    Das ist sicherlich um zwei Ecken gedacht, aber ich finde man kann das auf RT bezogen schon so darstellen. In Zukunft wird RT on/off bestimmt noch öfter ggf. sogar trotz DLSS den Unterschied machen zwischen spielbar und nicht spielbar und wenn ein Spiel ohne RT dank DLSS oder FSR mit deutlich günstigeren GPUs gut spielbar ist, während sich selbst die teuersten GPUs mit RT+DLSS die Zähne daran ausbeißen, kann ich mir auch nicht vorstellen dass Raytracing in der Form wie sich nvidia das vorstellt eine Zukunft hat. Bei der UE5 ist das soweit ich das aufgeschnappt habe schon kein allzu großes Thema mehr, die wollen eher auf offene, nicht-proprietäre und v.a. eine eigene, effizientere Lösung setzen. Das ist alles nicht fix und ich hätte deswegen auch kein gutes Gefühl aktuell eine Grafikkarte zu kaufen, erst recht nicht wenn die so teuer sind und in 2-3 Jahren will sie womöglich keiner mehr. (zumal die GPUs in den Konsolen keine expliziten Tensor- und RT-Cores haben wie die nvidia Karten und was in den Konsolen verbaut ist hat bekanntlich ein gewisses Gewicht)
     
    Zuletzt bearbeitet: 9. Juni 2021
  12. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Die Kosten sind mir völlig wurscht, mir geht's um Effizienz und Abwärme. Wenn's aktuell nicht besser gehen würde, okay. Nur es geht ja offensichtlich besser. Natürlich muss man realistisch bleiben. Was Apple macht, wird auch im EK samt R&D vermutlich deutlich teurer sein. AMD und nVidia können das vermutlich aktuell nicht zu halbwegs vernünftigen Preisen. Ist auch okay, aber man könnte durchaus mehr machen, z.B. eine deutlich bessere Skalierung zwischen Leistungsaufnahme und Performance. AMD kriegt das auch etwas besser hin als nVidia. Eine 6800 XT ist ca. 17% schneller als eine 6800 und braucht dabei 28% mehr Strom (aktuelle Zahlen von Computerbase). Das ist noch okay. Die normale 3080 braucht dagegen fast 50% mehr Strom als die 3070, ist aber nur 26% schneller. Von der 3070 Ti fange ich besser erst gar nicht an.

    Wenn man jetzt rechnet, wie viele GPUs alleine im Consumer-Segment unterwegs sind, macht das schon einen gewaltigen Verbrauch aus und dementsprechend auch Abwärme. Rechnet man nun noch die Rechenzentren hinzu, mit Klimatisierung usw. -- ich will gar nicht wissen, wie viele TWh jährlich sinnlos in Wärme alleine durch GPUs verknallt werden und die Miner (ASICs) kommen auch noch oben drauf.
     
  13. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Die Dinger werden viel zu teuer werden, als dass das für die Miner lohnen wird. :ugly:
     
  14. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Alleine eine Bewertung auf so eine lächerliche Aussage - (die 3060 ohne RT ist 0-15% schneller als die 3070 Ti mit RT) - zu treffen, zeigt schon die Intention dahinter.
    Den Bullshit könnten man dann auch auf die, in RT kaum schnellere, RX 6900XT anwenden.
     
    16_volt gefällt das.
  15. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Klar, wer genügend Leistung hat, der wird wohl nativ spielen. Mit einer RTX 3070 und kleiner ist DLSS aber eine sehr willkomme Hilfe.
     
  16. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
    Aber Linus hat schon recht wenn man eine Karte wirklich braucht und man findet zufällig eine für UVP...dann ist es kein raus geworfenes Geld.
    Aber die 5900x auch jetzt nur gekauft weil sie halt auch nur 549 gekostet hat. Wollte auf keinen fall 1000 euro oder irgend so ein scheiß ausgeben.
     
  17. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Kostenreduktion ist doch aber das Hauptargument bzw. der größte Antrieb für effizientere Hardware in vielen, wahrscheinlich sogar nahezu allen Bereichen?! Sogar Abwärme hat direkt damit zu tun, denn je geringer die Abwärme, desto weniger kostenintensive Kühllösungen sind nötig. Schlussendlich mündet das wiederum in einen allgemein geringeren Ressourcenverbrauch, was durchaus ein relevantes Umweltthema daraus macht, auch wenn das seit Jahren offensichtlich ohne Rücksicht auf Verluste durch gigantische Server- und Miningfarmen torpediert wird. Das kritisierst du schließlich selbst und ich vernehme es so dass wir uns in punkto "unnötiger und absurder Ressourcenverbrauch" einig sind, nur vertrete ich die Ansicht dass man den Preis (oder die Kosten), die Effizienz und den Ressourcenverbrauch nicht getrennt voneinander betrachten sollte. Das geht Hand in Hand.
     
  18. Muffin-Man Lord Of Skill

    Muffin-Man
    Registriert seit:
    16. Februar 2006
    Beiträge:
    8.716
    Ort:
    LuKü auf WaKü gewechselt
    Jetzt heißt es auf den Drop warten:schwitz:

    Und mit mir warten allein im Luxx 1000 Leute drauf:shot:
     
  19. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    na, noch alles steif bei euch?
    --

    wenn ich schon mal eingeloggt bin, bis auf alder lake und mögliche bf6 sys upgrade gedanken (falls das game taugt, 50/50 :topmodel:) ist ja nicht wirklich was interessantes los das halbe jahr im hardware bereich

    kam damals etwa zwei wochen zu spät bevor die preise explodierten, sonst hätte ich nun wohl ein 3600er ryzen und wäre erst mal versorgt gewesen, aber wollte ja ursprünglich eh auf ein ddr5 sys upgraden, hoff. ist es dieses jahr Q4 dann soweit im consumer bereich
     
  20. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ohne eine entsprechend leistungsfähige GPU gibt es nunmal auch wenig Gründe um selbst ältere i5/i7 Quad- und Hexacores zu ersetzen. Das gilt im Grunde für alle GTX Karten von Maxwell bis Turing. Letztendlich wird vieles auf den tatsächlichen Leistungsbedarf der ersten next gen Spiele ankommen und ob sich FSR als game changer in möglichst vielen Spielen für möglichst viele GPUs erweist. Ankündigen kann man viel, aber in der angewandten Praxis beweisen muss sich FSR schließlich trotzdem erst noch.

    Ganz bestimmt sogar, zumal die 3GB Modelle schon 200€ und mehr kosten.

    ---

    Fake 1050 ti's für 60-70€ haben auf ebay übrigens auch wieder Hochkonjunktur. Aber anstatt dass ebay die offensichtlich rechtswidrigen Angebote dieser gewerblichen Betrüger konsequent löscht, löschen sie meinem Eindruck nach lieber die Angebote der Privatverkäufer die darauf reingefallen sind, die sogar dazu schreiben dass es sich um eine Fälschung oder auf jeden Fall keine 1050 ti handelt und das Ding wieder los werden wollen. Dabei sehen die Karten fast alle gleich aus, ist ja nicht so als könnte man kein Muster erkennen. :ugly:
     
  21. Muffin-Man Lord Of Skill

    Muffin-Man
    Registriert seit:
    16. Februar 2006
    Beiträge:
    8.716
    Ort:
    LuKü auf WaKü gewechselt
    Ja das war ne absolute shit show:nem:
     
    1 Person gefällt das.
  22. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Ich hatte das blöde ausgedrückt. Privat sind mir die Kosten ziemlich egal, weil das aufs Jahr gesehen überschaubar ist. Abwärme ist dagegen für mich ein ziemliches Killer-Kriterium, weil mir der Mist dieses kleine Zimmer hier verdammt aufheizen kann und das ist gerade jetzt im Sommer kein Spaß mehr, zumal ich Temperaturen über 20° c hasse wie die Pest.

    Die Rechenzentren-Betreibern sind die Kosten natürlich nicht egal. Es hat auch seine Gründe, warum z.B. Google inzwischen eigene Server-CPUs auf ARM-Basis entwickelt. Intel hat über Jahre seine Marktmacht missbraucht, um scheiss teure und extrem ineffiziente CPUs in den Markt zu drücken. AMD hat mit EPYC das klar bessere und auch recht effiziente Produkt (für x86-Verhältnisse), aber sie können nicht beliebig liefern, wie's der Markt braucht und Apple hat gezeigt, was man mit eigenen CPUs so alles anstellen kann. Noch dazu bekommt man die komplette Kontrolle über die Hardware. Können sich nur die ganz Großen leisten, aber wenn Apple, Google, Microsoft und Amazon Intel rauswerfen würden, hätte Intel wohl ein existenzielles Problem. Für alle anderen gibt's Firmen wie Ampere.

    Im Server-GPU-Markt dominiert nVidia quasi unangefochten. Es gibt zwar auf dem Papier einiges an Konkurrenz, gerade was AI-Beschleuniger angeht, aber im Endeffekt sind das alles Peanuts im Vergleich zu nVidias Marktmacht. Azure setzt z.B. fast ausschließlich auf Tesla-Karten, bei AWS sieht's nicht besser aus. AMD kommt quasi nicht vor, außer in der Alibaba-Cloud. Die Zahlen sind allerdings zwei Jahre alt, was aktuelleres habe ich auf die Schnelle nicht gefunden. Nun ist nVidia kein so untätiger Haufen wie Intel und sie versuchen die Leistung von Generation zu Generation deutlich zu steigern, aber zumindest bei Ampere haben sie sich das im wahrsten Sinne auch mit Ampere erkauft. Das sollte 'ne Warnung an die Rechenzentren-Betreiber sein, dass sie zu abhängig von einem Hersteller sind.
     
    Lurtz gefällt das.
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.801
    Gibt Gerüchte, dass Intel die Firma hinter RISC-V übernehmen möchte.
     
  24. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Das liest man nicht oft. Ich fühle mich ab 20°C überhaupt erst wohl. :ugly: Trotzdem ist mir Leistung anstelle von Verlustleistung natürlich auch lieber, dafür kauft man das Zeug schließlich. :yes:

    Unabhängig von Abwärme und Kosten gefällt mir der Trend hin zu mehr Leistung nur auf Kosten der Effizienz eben prinzipiell nicht. Ich gehe zwar nicht davon aus dass er sich in der Form und vor allem nicht dauerhaft fortsetzt, allein schon deshalb weil das an physikalische Grenzen stoßen würde, aber in vielen anderen Branchen wäre es gar nicht mehr denkbar, geschweige denn erlaubt, solche ineffizienten Produkte auf den Markt zu bringen. Das liegt zweifellos auch an der vorherrschenden Konkurrenzsituation. Die fehlte bei Grafikkarten lange Zeit je nach Bereich teilweise bis vollständig und das zeigt sich leider immer noch, vor allem solange die Nachfrage größer ist als das Angebot. Ich halte es deshalb für essentiell dass Intel im Grafikkartenmarkt Fuß fassen kann und AMD wieder auf die Beine kommt und endlich mal stehen bleibt, weil sonst nvidia weiterhin massenweise mit seinen Super-duper-ti Sinnlos-Modellen durch die Gegend kaspert und das Zeug wie Smarties an die Miningfarmen verteilt, aber bestimmt nicht an Gamer und die die es sogar wirklich brauchen, weil sie beruflich damit arbeiten.

    Normalerweise funktioniert das in einem freien Markt auch, es braucht aber alles seine Zeit und die hat dieser Markt eigentlich nicht wenn man nicht möchte dass sich der Nachfrage-Rückstau immer weiter vergrößert. (und das möchten die Hersteller sicher nicht, denn die würden auch lieber die Nachfrage bedienen und noch mehr verkaufen als derzeit) Aber egal wo man ansetzt, man kann selbst die besseren Maxwell und Pascal Chips nicht ewig rumziehen, denn irgendwann sind die entweder nicht mehr leistungsfähig genug um selbst in 1080p noch Spaß zu haben (FSR mal außen vor gelassen, das kann die Sache strecken, klarer Fall) oder schlichtweg defekt. Und ansonsten kommt im low end bis lower mainstream Segment überhaupt nichts nach. Die GT 1030 ist dafür ein Indikator, obwohl sie soweit ich das verstanden habe sogar nachproduziert wird, aber inzwischen auch ~100€ und mehr kostet. Das ist eine Karte die leistet kaum mehr als die besseren IGPs. Die Leistung hat man vor 10 Jahren schon in Form einer HD 6850 für 110-120€ bekommen. Wie soll das noch steigerbar sein? Unterhalb der GT 1030 gibt es doch fast nichts mehr neu? Wenn sogar diese Karten nach und nach unter die Räder kommen, auweia... :no:
     
    MadCat gefällt das.
  25. DerDarki

    DerDarki
    Registriert seit:
    26. April 2003
    Beiträge:
    23.115
    Ort:
    Olymp des Rock!
    Mein RIG:
    CPU:
    Intel i7 12700k
    Grafikkarte:
    MSI GeForce RTX 4080 Gaming X Trio
    Motherboard:
    Gigabyte Z690 Gaming X DDR4
    RAM:
    Corsair Vengeance LPX 32GB, DDR4-3200, CL16-18-18-36
    Laufwerke:
    LG Electronics BH16NS55 Blu-ray Brenner
    wd_black SN750 1TB
    Intel 660p 2TB
    Crucial P3 Plus 4TB
    Samsung QVO 870 2TB
    Soundkarte:
    Creative Soundblaster X3
    Gehäuse:
    Cooler Master Mastercase 5 Pro
    Maus und Tastatur:
    Roccat Kone AIMO
    Roccat Vulcan 122 AIMO
    Betriebssystem:
    Windows 11
    Monitor:
    MSI MPG 321URX QD-OLED // Dell S2721DGF
    Ach verdammt, wollte mir eigentlich keine 3080 TI kaufen. Allerdings gabs heute Nachmittag eine für 1599€ bei computeruniverse und jetzt ratet mal wer sich doch eine gekauft hat. :ugly:
    Scheint aber wohl ein Preisfehler gewesen zu sein wenn ich mir die anderen preise so ansehe und zur selben zeit gabs auch einige 3080er in dem Shop die aber teurer waren.
     
  26. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ins Exil gehen du wirst müssen, versagt du hast. :ugly:

    Aber da du sowieso eher mehr dafür bekommen würdest wenn dir irgendwas an der Karte nicht zusagen sollte kann man dich eigentlich nur beglückwünschen, sollte sie zu dem Preis tatsächlich ausgeliefert werden. So traurig das klingt, im Grunde ist es aktuell fast so etwas wie eine Wertanlage - ob nun beabsichtigt oder nicht. Jetzt musst du nur sicherstellen dass dein Netzteil die Karte auch packt, denn die Leistungsaufnahme kann je nach Modell wenig überaschend recht herb sein. (ohne UV, versteht sich)
     
  27. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
    Not cool dude.:uff:
     
  28. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    Jedenfalls Quadcore sollte man unabhängig von der Grafikkarte doch mittlerweile ersetzen.
    6 Kerne sind schon ein Minimum eine stabile Framerate zu haben.
     
  29. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Unabhängig von der Grafikkarte bestimmt nicht, ganz im Gegenteil. Welchen Sinn hätte es denn wenn du jemandem sagst 'kauf dir für 500€ das neueste CPU+Board+RAM Upgrade' und die GPU (bspw. eine GTX 1060, ist nunmal die beliebteste GPU, nach wie vor) läuft trotzdem vorher wie nachher bei fast allen Spielen am Anschlag? Jeder kann selbst prüfen ob die GPU das absolute Limit bildet oder nicht und danach bemisst sich ob man die CPU ersetzen sollte oder nicht. Und wenn man genau die handvoll Spiele spielen möchte bei denen ein i7 6700K oder i5 7500 oder was auch immer nicht mehr ausreicht überlegt man sich eben ob man Geld in die Hand nimmt und das Teil ersetzt oder noch wartet. Alles andere ist in dieser Pauschalität einfach nicht richtig, denn man sollte nicht übersehen dass der größte Anteil des Gamingmarkts von älteren mid range GTX Karten respektive den AMD Pendants bevölkert wird.

    Was soll abgesehen davon eine stabile Framerate sein? Auch konstante 5fps können eine stabile Framerate ergeben, das sagt doch nichts aus. :ugly: Für die Percentiles ist es natürlich immer schöner wenn man mehr Leistung, mehr Kerne, mehr Reserven, mehr Speicher, mehr von allem hat. Aber auf Grundlage dieser Erkenntnis könnte man auch feststellen dass sich jeder am besten gleich einen komplett neuen Rechner kaufen sollte. Ich denke mal das ist aus offensichtlichen Gründen nicht zielführend, vor allem weil sich die meisten Menschen den derzeitigen Markt schlichtweg nicht mehr leisten wollen (oder können). Da muss schon auch immer eine Kosten/Nutzen Abwägung stattfinden, denn sonst kann man tatsächlich einen neuen Rechner kaufen wenn das keine Rolle spielt. Und nebenbei bemerkt sind 6 Kerne nicht gleich 6 Kerne. Man kann mit einem i5 8400/9400 oder einem der ersten Ryzen 6-Cores ebenfalls unglücklich sein.

    Entscheidend ist was limitiert und wie stark, ob ein Upgrade einen deutlichen Effekt hätte usw. usf. (zumal es gute Gründe gibt um wenigstens noch die kommenden, neuen Sockel, DDR5 usw. abzuwarten)
     
  30. M4lock

    M4lock
    Registriert seit:
    22. Dezember 2018
    Beiträge:
    108
    Mein RIG:
    CPU:
    1. AMD Ryzen 7 3700x | 2. AMD Ryzen 7 3700x
    Grafikkarte:
    1. Asus TUF 3080 | 2. Asus Rog Strix RTX 2070
    Motherboard:
    1. Asus prime x570-pro | 2.Asus TUF X470-Plus
    RAM:
    1. Corsair Vengeance RGB PRO 32GB | 2.Crucial Ballistix Sport LT 2x8Gb
    Laufwerke:
    1. Samsung SSD 860 QVO 1TB
    1/2 Samsung SSD 970 EVO Plus 500GB
    1/2 Samsung SSD 970 EVO Plus 1TB
    2. KINGSTON SV300S37A 120GB
    2. KINGSTON SV300S37A 120GB
    Soundkarte:
    on Board
    Gehäuse:
    1. Asus Rog Strix Helios | 2. Cooler Master Cosmos S Big Tower
    Maus und Tastatur:
    Razer Naga LHE
    Logitech G110
    3DRudder (Fußsteuerung)

    1x PI 3b | 2x PI 4b 8gb
    Betriebssystem:
    Windows 10 Pro | Kali/Mint | Raspberry Pi OS
    Monitor:
    Acer Predator XB321HK und noch paar andere^^
    Zuletzt bearbeitet: 13. Juni 2021
    Die-Fette-Elke gefällt das.
  31. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    https://www.pcgameshardware.de/Graf...s/Nvidia-Treiber-ohne-Kepler-Support-1373783/

    Unter normalen Umständen hätte ich damit wirklich kein Problem. Erstens weil ich nicht betroffen bin und zweitens weil die Karten inzwischen 8-9 Jahre alt sind, ob man es glauben mag oder nicht.

    Aber ausgerechnet während der andauernden Marktsituation empfinde ich es einfach als unnötig schlechtes Timing den Treibersupport für Kepler einzustellen. Mir leuchtet durchaus ein dass man alte Hardware die schon lange kein Geld mehr bringt, bei der man auch kaum mehr zusätzliche Leistung herausholen wird (und will, anders als bei AMD), nicht ewig supporten kann, darüber müssen wir also nicht diskutieren. Ist für sich genommen logisch und nachvollziehbar, vor allem nach so langer Zeit. Nur sollte man gerade nach so langer Zeit auch neue und/oder günstige Alternativen in dieser Leistungsklasse anbieten die die Leute tatsächlich kaufen können, wenn man sowas entscheidet.

    Sonst ist es nur eine angesichts der massiven Umsatzsteigerungen geradezu lächerliche Kostenreduktion für die ohnehin aufgeblasenen Bilanzen und ein dicker Mittelfinger an diejenigen die sich bessere GPUs nicht mal leisten könnten wenn es sie (neu und in dieser Leistungsklasse) gäbe. Deutschland ist schließlich nicht die Welt und selbst hier hat die geballte, politische Inkompetenz offensichtlich krisenuntauglicher Teilzeit-Politiker ihre wirtschaftlichen Spuren hinterlassen. Immerhin ist es nur konsequent die Ausgaben für Treiber stetig weiter zu reduzieren, vielleicht schleifen sie dann auch in 10 Jahren noch dieselben Fehler mit. Wer Ironie findet darf sie behalten. :p
     
  32. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.544
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Wurde der Support für Kepler Karten nicht schon vor ewigkeiten eingestellt?

    Ehrlich gesagt vermisse ich diese katastrophalen Treiber aber auch keineswegs. Ich habe damals schon massive Probleme mit meiner damaligen GTX 770 gehabt die immer wieder in Treibercrashes resultierten, sobald ich meine Karte einmal nicht manuell heruntergetaktet hatte.
     
  33. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.117
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Nein, Keppler gab es lange.
     
  34. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Die 700er haben sie leider nie sonderlich gut behandelt mit ihren Treibern, das stimmt. Ich meine es war sogar so dass dadurch die eigentlich etwas leistungsfähigere GTX 770 in manchen Spielen der GTX 960 unterlegen war, nur wegen der Treiber die auf die damals neuen 900er zugeschnitten waren. Allerdings meinst du wahrscheinlich dass der Fermi Support schon lange eingestellt wurde (GTX 400/500). Das ergab durchaus Sinn, denn die Karten hatten 2018 weder den VRAM noch die Leistung um noch mit aktuellen Titeln mithalten zu können und es gab längst günstige und neuere Alternativen sowohl auf dem Gebrauchtmarkt als auch neu.

    Der Marktanteil den Kepler hat ist zugegeben nicht mehr riesig, aber ein paar Prozent sind es eben doch. Und wenn es danach gehen würde wie groß der Marktanteil ist könnte AMD den Treibersupport (außer für die RX 570/580 und die RX 5700 XT, die haben sich gut verkauft) mehr oder weniger komplett einstellen. Das kann folgerichtig kein Maßstab sein, auch wenn er das für nvidia sicher ist, aber ich meine in der Argumentation gegenüber nvidia sollte das kein Maßstab sein. Ändern kann man es zwar nicht und eigentlich könnte es mir egal sein, aber nvidia hätte es auch noch ausgehalten bis sich die Lage entspannt, egal ob es sich um Monate oder Jahre handelt.

    Ich frage mich: Was soll das ausgerechnet in diesem Jahr, unter diesen Umständen? Nvidia kann sowieso nicht mehr Karten auf den Markt bringen als sie es bereits tun. Stattdessen sorgen sie auf diese Weise für noch mehr Druck auf diesen Markt (nur diesmal von unten nach oben) - haben sie es so nötig dass selbst die GT Karten von der Resterampe immer teurer werden müssen, oder was? :no:
     
  35. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Was ja nicht unbedingt mit dem Treiber zu tun haben musste. Wenn Du die Karte manuell herunrtakten musstest, lag es wohl eher an der Karte die mit dem ihr zugedachten Takt überfordert war. Meine GTX 770 läuft heute noch problemlos.
     
  36. 16_volt gesperrter Benutzer

    16_volt
    Registriert seit:
    13. März 2021
    Beiträge:
    2.270
    Ort:
    Cerritos, California.
    Mein RIG:
    CPU:
    AMD 5900x
    Grafikkarte:
    MSI 3080ti Gaming X Trio
    Motherboard:
    Asus x570 PLUS
    RAM:
    32gb Corsair 3600Mhz
    Laufwerke:
    3x SSD 2x NVME 2x HDD
    Soundkarte:
    Creative SB AE-9PE/ HD650
    Gehäuse:
    Be Quiet!
    Maus und Tastatur:
    Logitech Wireless/Blackwidow v2
    Betriebssystem:
    Win 11
    Monitor:
    LG C1 48"
    Wohoo!
    Werde aber erst alles umbauen lassen wenn ich wieder aus Kalifornien zurück bin.
    [​IMG]
     
    DaHell63 gefällt das.
  37. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Jau, kaum einen Tag später offenbar genau das. Die haben doch echt nicht mehr alle Nadeln an der Tanne... -> https://www.pcgameshardware.de/Graf...97980/News/MSI-bringt-GT-730-zurueck-1373823/

    Geld rausziehen wo es nur geht, selbst wenn man dafür 9 Jahre alte, absolute low end Karten, die bereits von einer Vega 3 IGP in einem 200 GE oder 3000G locker eingeholt wurden nochmal neu auflegt, obwohl deren Treibersupport demnächst eingestellt wird. Und das Ganze für ca. 70-80€, also auch noch teurer als ein besagter Dualcore inkl. leistungsgleicher IGP. Kannste dir nicht ausdenken. :KO::spinner:
     
  38. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.117
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Überholt, nicht eingeholt.
     
  39. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Stimmt - und das bereits ohne FSR. Das macht es sogar noch schlimmer. :ugly:
     
  40. Oi!Olli Vollzeitskinhead

    Oi!Olli
    Registriert seit:
    7. Mai 2005
    Beiträge:
    67.117
    Ort:
    Essen
    Mein RIG:
    CPU:
    Ryzen R7 5800X3D
    Grafikkarte:
    XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
    Motherboard:
    Asus B 550 Strix F Wifi
    RAM:
    2x 32 GB Kingston FURY DIMM DDR4 3600
    Laufwerke:
    Viele SSD
    Soundkarte:
    Soundblaster Z
    Gehäuse:
    Raijintek Zofos Evo Silent
    Maus und Tastatur:
    Tastatur leuchtet
    Betriebssystem:
    Windows XI
    Monitor:
    Coolermaster TEMPEST GP27Q
    Ich hab übrigens noch eine alte Quadro hier ^^.
     
Top