Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Diverse Tests, hatte ich rund um den neuen Gehäuse Kauf bisschen mit recherchiert, so groß waren die Unterschiede aber nicht.
     
  2. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Das Marketing hat auf einige wohl tatsächlich mehr Eindruck gemacht als die harten (und wie ich finde äußerst abschreckenden) Fakten der Reviewer. Sicherlich hat nvidia das auch recht dreist gemacht, indem man der 3090 die 24GB gibt die sie verdient hat und der 3070 sowie 3080 vorerst nicht die 16GB und 20GB die diese Karten wiederum verdient hätten, sodass jeder der darauf achtet von den 24GB angezogen wird - aber so wie es aktuell ist, wie die Preise sind usw. sollte so gut wie niemand die RTX 3090 ernsthaft in Betracht ziehen.

    Auch viele der professionellen Anwender nicht, u.a. weil man bei LTT erfahren konnte dass die RTX 3090 nicht den Treibersupport bzw. Treiberpfad einer Titan RTX bekommen wird, weswegen bei denen in wenigen Benchmarks (aber immerhin) die Titan RTX nach wie vor knapp schneller war. Richtig gelesen. (ich weiß nicht wieso es nicht geht dass ich das Video mit Timestamp einbinde, aber ab 9:30 wer nicht das ganze Video sehen will)
    https://www.youtube.com/watch?v=YjcxrfEVhc8

    Die Titan RTX kann in speziellen workloads wie CAD schneller sein als die RTX 3090. Das muss man erst sacken lassen.

    Dieser Umstand bedeutet jetzt entweder es kommt noch eine Ampere Titan RTX (wie auch immer die aussehen soll) oder wer künftig Upgrades vornehmen will muss im Profibereich wieder die Quadro Karten für irgendwelche Unsummen anschaffen.
     
    Zuletzt bearbeitet: 24. September 2020
  3. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Naja der Profibereich hat aber auch andere Anforderungen und bei den Quadro Karten bezahlt man ja das meiste Geld nicht für die Karte sondern eher den Support der dahinter steckt in Form von speziellen Treibern und so was.

    Und NVidia hat doch gesagt, die 3090 löst die RTX Titan ab. Haben sie irgendwo gesagt, dass sie schneller ist? :jumbo::wahn::ugly::ugly::ugly:
     
  4. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
    Weiß hier einer wie Grafikkarten Produktion funktioniert,angenommen AMD hätte zum jetzigen stand Grafikkarten entworfen, die jetzt nur 10GB und nicht so schnell sind wie eine 3070,könnte AMD auf die schnelle die Karten verbessern und den Speicher reinballern?
     
    Zuletzt bearbeitet: 25. September 2020
  5. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Das geht nur mit den LEGO Grafikkarte, da kann man dann Speicherbausteine einfach anstecken. :teach:
     
    SchnabeltierX und Liver gefällt das.
  6. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Genau darum geht es doch auch bei der Titan RTX vs. RTX 3090. Obwohl die RTX 3090 die Titan RTX "ersetzt" (laut nvidia) übernimmt sie nicht alle diese Vorteile wie den Treibersupport einer Titan RTX (auch laut nvidia). Das heißt nichts anderes als dass man eine Titan RTX mit einer RTX 3090 gar nicht ohne Weiteres ersetzen kann, weil erst geschaut werden muss in welchen Arbeitsbereichen der fehlende "Titan" Support der 3090 dazu führt dass eine Titan RTX unter Umständen sogar besser abschneidet.

    Bei der Präsentation klang das noch ein bisschen anders. Da konnte man meinen dass es hier wirklich nur um einen anders bezeichneten, aber vollwertigen Ersatz für die Titan RTX geht - vielleicht um zukünftige Verwechslungen zu vermeiden. Stattdessen wird die 3090 nun ganz unverschämt als 8K Karte vermarktet, was genauso irreführend wie leider erfolgreich ist. Denn eigentlich meinen sie DLSS 1440p/WQHD - und so gut wie nie native 8K/FUHD. Und eigentlich sollte man dafür erstmal ein 8K Display haben. :ugly:
     
  7. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Hmmm, cyberport hat grad die Amazon pay Zahlung abgerufen :O mal gucken ob da dann mal was passiert (3080 Strix Non oc)
     
  8. UrShak error 404

    UrShak
    Registriert seit:
    3. Februar 2003
    Beiträge:
    2.554
    Hatte EVGA nicht angekündigt, dass sie diese Woche TAUSENDE Karten restocken würden? :fs:
     
  9. ActionNews Linux-User

    ActionNews
    Registriert seit:
    14. April 2001
    Beiträge:
    11.726
    Mein RIG:
    CPU:
    AMD Ryzen 9 7950X3D
    Grafikkarte:
    PowerColor Radeon RX 7900XTX Red Devil
    Motherboard:
    ASUS ROG Strix B650E-E Gaming WIFI
    RAM:
    32GB G.Skill 6000MHz CL30-38-38-96
    Laufwerke:
    - 1TB FireCuda 530 M.2-NVMe SSD
    - 2TB FireCuda 530 M.2-NVMe SSD
    - 2 TB Sabrent Rocket Q M.2-NVMe SSD
    - 1 TB Crucial MX500 SATA-SSD
    Gehäuse:
    Fractal Design Meshify S2 Light Tinted Tempered Glass
    Maus und Tastatur:
    Logitech MX Mechanical Tastatur
    Logitech MX Master 3S Maus
    Betriebssystem:
    Windows 11
    Monitor:
    27" IPS 144Hz Aorus AD27QD
    OK scheint als sei ein Teil der Instabilitäten der 3080 und 3090 Boardpartner-Karten auf ein Hardware Problem mit falschen Kondensatoren zurück zu führen:
    https://www.youtube.com/watch?v=7YQ7rNgoqMA

    Also entweder runtertakten und auf Austausch hoffen, selber löten oder zurück geben ;).

    EDIT: @Daepilin hattest du nicht Zotac und ASUS parallel bestellt? Sei froh, dass die Zotac von Amazon storniert wurde ;) ... scheint als hätte ASUS zumindest bei den Caps alles richtig gemacht und Zotac voll rein gelangt.
    Oder ist das vielleicht gar der Grund für die Zotac Stornierungen bei Amazon?
     
    Zuletzt bearbeitet: 25. September 2020
  10. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Die zotac hab ich an dem gleichen abend noch storniert, weil ich da dann dachte: 'Hey, jetzt nach release wird amazon.fr dir die strix nichmehr killen'... nun, haben sie gemacht... Aber im Luxx haben viele das Teil geordert, oft jetzt auch woanders als amazon...
     
    ActionNews gefällt das.
  11. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ungeachtet der Tatsache dass eine Karte ab Werk stabil laufen muss scheint es sowieso schlauer zu sein die 3080/3090 etwas herunter zu takten. Übertakten ist kaum möglich, umso weniger bei den Custom Modellen. Der einzige Sinn den es für OC geben kann ist tatsächlich ganz ohne Ironie wenn man den Raum etwas stärker beheizen will - denn in entsprechend mehr Leistung umgewandelt wird der zusätzliche Strombedarf offensichtlich nicht. :ugly:
     
    nofxman gefällt das.
  12. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.073
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    Ich Gründe den "RTX 3080 UC Fanclub e.V. "
    :ugly:

    Das setzt sich noch durch ;) ihr werdet sehen. Haha.
     
  13. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    ASUS scheint da aber auch nochmal intern nachgebessert zu haben. Folgt man via geizhals dem "Herstellerlink" entweder bei der TUF oder bei der TUF OC, findet man dort in der Gallerie Bilder wo man die kleinen Kondensatoren auf der Rückseite finde.

    Geht man aber direkt über die ASUS Webseite, findet man die TUF zweimal. Dort wird auch namentlich nicht zwischen OC und non-OC unterschieden. In der Gallerie wiederum findet man Bilder von Karten die komplett die großen Kondensatoren aufweisen.

    Jetzt denke ich mir zwei Szenarien: Entweder alle non-OC Varianten der TUF haben wirklich nur die großen, vermutlich weil ASUS gesehen hat, dass die trotzdem stabil laufen, weil sie halt generell niedriger takten als de OC Variante oder alle TUFs haben jetzt diese kleinen Kondensatoren drauf und die Einträge auf der Webseite deuten darauf hin, dass auch ASUS intern eine Revision 1 hatte und nun Revision 2 existiert.
     
  14. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    nope, wenn man bei reddit o.ä. guckt haben auch die non oc TUF die kleinen.


    Gibt auch Bilder von ner EVGA FTW3 nur mit den großen (die aktuelle revision hat n mix) und Asus tuf mit nem mix (da keine Ahnung was aktuell ist...)
     
  15. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Dann ist es vermutlich ein Clusterfuck. :ugly:

    Ich muss mich eh korrigieren, ASUS unterscheidet via URL zwischen OC und non-OC. Einmal isses die "O10G" (OC) und einmal die "10G" (non-OC). Das tolle daran ist, dass bei der OC-Variante die Bilder mit den billigen, großen Kondensatoren zu sehen sind und bei der non-OC Variante Bilder mit den kleinen, besseren. :runter::ugly::hoch:

    Einmal mit Profis. ^^

    Bleibt für die echten Erstkäufer, die direkt welche in der ersten Welle ergattern konnten, zu hoffen, dass sie nicht ins Kloh gegriffen haben bei dieser Sache.
     
  16. Muffin-Man Lord Of Skill

    Muffin-Man
    Registriert seit:
    16. Februar 2006
    Beiträge:
    8.716
    Ort:
    LuKü auf WaKü gewechselt
    das ist das risiko der early birds, das ist immer so gewesen, wird vmtl auch immer so bleiben
     
  17. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Ich vermute fast eher, die haben halt jetzt festgestellt, sobald sie die richtigen treiber hatten, dass das mit den einfacheren nich stabil ist. Es wird n Grund haben, dass die Strix frühstens Ende nächster Woche ausgeliefert wird und auch sonst Asus sehr langsam beim restocken ist.

    Ich bin optimistisch, dass meine Strix, wann immer sie kommt, das ordentliche Design hat :) Oder zumindest das, bis dahin, Standarddesign. (da gibts n chinesisches teardown mit nem mix, während der test von techpoweredup nur die kleinen zeigt. Who knows wer die aktuellere revision hat)
     
  18. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ich finde mein Ausdruck hat das gut zusammengefasst. Und ich kann mich eigentlich nie kurzfassen. Ich verlange Anerkennung! :motz: :ugly:

    Dem Igor habe ich jetzt btw. ein Abo dagelassen. Das ist damit der einzige Kanal dieser Art, den ich abonniere. Unbox Therapy noch, aber das ist halt eh nur ein Werbekanal. ^^
     
    Daepilin gefällt das.
  19. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Gut, Clusterfuck :D
     
    GODzilla gefällt das.
  20. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Ich undervolte ja selbst meine GTX 1080 und betreibe gleichzeitig aber auch OC damit xD
    Die läuft nämlich bei unter 1V immer noch locker mit 2Ghz
     
  21. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
  22. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
  23. Milione Zombie-Schlächter

    Milione
    Registriert seit:
    13. März 2009
    Beiträge:
    95.379
    Insbeondere da die Radeon VII nun wirklich nicht die Glanzstunde von AMD war. :ugly:
     
  24. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Davon ab ist das ein fps-Durchschnitt, der für Spiele im Februar 2019 bestand. Sowas hält freilich nicht ewig stand...
     
  25. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
    Weil ich davon ausgehe,das die neuen AMD Grafikkarten besser sein werden und sich Leute gefreut haben das jetzt 60FPS in 4k bei der RTX3080 möglich sind. Wenn also die AMD Grafikkarten damals, schon das geschafft haben,dann kann es eigentlich nur besser werden.
     
  26. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    :runter::ugly::hoch:

    Ich erläutere es aber gern nochmal: Die Radeon 7 hat im Februar 2019 über die damals in den Benchmarks genutzten Spielen im Schnitt 60fps in 4K geschafft.

    Aber Spiele werden kontinuierlich entwickelt, die Grafik verbessert sich dabei und es werden teils auch neue Techniken eingeführt. Einige brauchen wenig oder gar nicht mehr Rechenaufwand, wie HDR, andere jedoch massiv viel mehr Leistung, wie Raytracing.

    Das sollte eigentlich allgemein verständlich sein. :nixblick:
     
  27. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Nja, du musst immer innerhalb eines benchmarks vergleichen. Und da stehen die 2080ti bei 4k über 82 fps. Damit die 3080 wohl bei 100-110.

    Bei 4k60 fps geht's eher um die raytracing Effekte (und natürlich n paar high fidelity Spiele)
     
  28. BLUTSUCHT

    BLUTSUCHT
    Registriert seit:
    9. September 2005
    Beiträge:
    7.676
    Mein RIG:
    CPU:
    Ryzen 7 7700
    Grafikkarte:
    RTX 4070
    Motherboard:
    B650 ITX
    RAM:
    2x 16GB
    Laufwerke:
    WD SN770 1TB
    Intel 660p 2TB
    Soundkarte:
    Logitech G Pro X
    Gehäuse:
    Fractal Design Terra
    Maus und Tastatur:
    Corsair K70, Endgame Gear XM2we
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    LG UltraGear 27GL850-B
    Bezüglich der Crashes: Ich frage mich halt, unter welchen Umständen denn die Karte soweit boostet bzw. wie viele Karten das Ende realistisch betrifft. Wir hatten zum Launch doch einiges an Ware da und wir testen auch alle Karten, nicht bei einer ist das vorgekommen in unseren Tests, egal welcher Hersteller und egal welcher Boardpartner.

    Und wir hatten eigentlich mittlerweile alle Modelle da, von denen man im Internet auch Tests findet. Wir testen mit Furmark und 3DMark TimeSpy. Mal kurz über 2.0GHz gingen davon viele, abgestürzt ist nicht eine davon.
     
  29. Mr. Schneepflug

    Mr. Schneepflug
    Registriert seit:
    24. August 2002
    Beiträge:
    5.566
    Ort:
    Omicron Persei 8
    Mein RIG:
    CPU:
    AMD Ryzen 9 5900x
    Grafikkarte:
    PNY XLR8 4090 RTX
    Motherboard:
    NXT N7 B550
    RAM:
    32 GB RAM
    Soundkarte:
    Marantz HD-DAC1 + Sennheiser HD800s
    Gehäuse:
    Lian Li O11 Dynamic XL
    Betriebssystem:
    Win 10
    Monitor:
    LG UltraGear 34GK950G (3440x1440, 120hz)
    Stimmt aber für 2080Ti Besitzer lohnt sich ein Upgrade zur 3080 nicht, bei der 3090 sieht es da etwas besser aus. Haben die Custom 2080 Ti Karten zu Release nicht fast genauso viel gekostet wie aktuell die 3090? Zwischen 1200 und 1700 Euro war doch da alles dabei. Wer damals soviel Geld für eine 2080 Ti locker machen konnte, wird jetzt wohl auch das Geld für eine 3090 haben und damit immerhin bis zu 40% mehr Leistung bekommen.

    Was den Grafikspeicher angeht..... viele Spieler die mit einem Kauf der 3080 liebäugeln, haben eine 1080 oder sogar eine 980 Karte, was bedeutet das die Grafikkarte nicht jede Generation getauscht wird. Da würde ich mir aktuell VOR Next-Gen keine Karte mit "nur" 10GB kaufen, wenn bis jetzt noch nicht klar ist wieviel Grafikspeicher richtige Next-Gen Spiele benötigen werden und man die Karte wieder 2-3 Generationen behalten möchte. Es soll doch laut Gerüchten in ein paar Monaten eine 3080 Version mit deutlich mehr Grafikspeicher (20GB..?) erscheinen. Wenn ich die Karte mindestens 2 Jahre behalten möchte, dann würde ich lieber auf diese Karten warten.

    Der aktuelle Grafikspeicherhunger bezieht sich doch auf Current-Gen Spiele die Primär für PS4/XBox One entwickelt wurden, und deutlich weniger "Shared Memory" besitzen, als in PS5/XBox Series X.

    Erst das erste, richtige Next Gen Spiel (nicht Cross Gen) mit der zusätzlichen Option für mehr Details auf dem PC + 4k wird zeigen, ob dann 10GB immer noch genug sind. Auch Cyberpunk ist für mich noch kein Next-Gen Game, das ist immer noch Current Gen.
     
  30. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Die 3080 ist 30% schneller als die 2080 Ti, die 3090 um die 40%. Mit einer werksübertakteten 3080 schmilzt der Vorsprung für 3090 auf ein komplett vernachlässigbares Niveau. Dafür den doppelten Preis? Ja, es mag ein paar Enthusiasten geben, die das bezahlen werden, aber grundsätzlich ist es einfach nur völlig bescheuert für die paar Prozent so viel Geld auszugeben. Das Mehr an Speicher bringt mehr, als die Shader. Vor allem stabilere Bildraten. Aber auch das steht in keinem Verhältnis zum Aufpreis.

    Die Yields für 3090 werden unfassbar mies sein und der VRAM ist teuer. Ich kann den Preis von nVidias Position aus schon halbwegs verstehen, aber für den Verbraucher ist diese Karte komplett sinnlos. Und angesichts der technischen Probleme, würde ich auch von einer 3080 derzeit abraten.

    Wenn sich das mit den Caps bestätigt, können sie die Karten zurückrufen. Sicher kann man das im Treiber und in der Firmware regulieren, aber die Caps werden mit der Zeit ja nicht besser und die Probleme vielleicht ein zwei Jahren, ggf. auch früher, schon unter 2 GHz auftreten. Diese Dinger sind einfach zu sehr am Limit und mit viel zu heißer Nadel gestrickt worden. Den Board-Partnern kann ich da keinen großen Vorwurf machen. Sie bekommen die Spezifikationen von nVidia und entwickeln danach ein Layout mit passenden Komponenten. Außerdem hat man ja von Seiten der Board-Partner auch gehört, dass sie überhaupt erst brauchbare Treiber sehr kurz vor Release bekommen haben.

    Evtl. stimmt auch noch meine Theorie, dass sich die Chips teilweise nicht an ihre Spezifikation halten und zu viel Strom ziehen, was dann bei den Caps zu einem Spannungsabfall führt. So oder so: Konstruktionsfehler auf Hardware-Seite. Software-seitige Mitigations sind machbar, aber können u.U. das Problem nicht nachhaltig lösen und die Karten bleiben unter dem, was sie könnten. Das gibt in den USA sicher noch lustige Class Actions Suits.

    Es ist einfach absurd. Nvidia stellt einen eigentlich sehr potenten Chip hin, bringt ihn aber unnötigerweise zu Release schon an die Kotzgrenze. Teilweise wird sie aus diversen Gründen überschritten. Alles passierte extrem kurzfristig. Wieviel Schiss hat man bitte vor AMD, wenn man nicht mal bereit ist, auf wenige Prozent Leistung zu verzichten und sich potenziell mit einem überhasteten Launch all diese Probleme einzuhandeln? Den Verlust bei 50 W weniger merkt man bestenfalls in synthetischen Benchmarks, während sich die Karten würden erheblich einfacher kühlen lassen (billiger für alle Beteiligten), ggf. bessere Yields aufweisen (mehr verfügbare Karten zum Start) und sehr wahrscheinlich deutlich reibungslos laufen.

    Wie kann man aus einer Position der Stärke heraus so einen Scheiß machen? War das eine Art Notfallplan für den Fall, dass es absehbar ist, dass AMD gleichziehen kann? Hat Lisa Su ihrem Onkel eine 6900 XT geschickt und er ist halbtot umgefallen, dass die Karte die eigentliche 3080 plattwalzt? Ich weiß es nicht, aber anders kann ich mir das nicht mehr halbwegs rational erklären. So dumm kann niemand sein, der eigentlich ein gutes Produkt hat und es dermaßen in den Sand setzt. Zumal nVidia nun wirklich keine Firma ist, die bisher allzu ungeschickt am Markt agiert hat. Über die Preispolitik, insbesondere von Turing, kann man sich streiten, aber der Erfolg hatte nVidia recht gegeben ...
     
  31. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Hell, im luxx rennt einer seine 3080 in Spielen auf 180w und verliert einstelligen Leistung vs 370w... (hängt aber natürlich auch vom Chip und vom Spiel ab...) allgemein scheint es riesen Differenzen bei den Chips zu geben.. Da gibt's auch einen mit ner Gigabyte Karte die eigentlich das schlechte setup hat, aber trotzdem um rekorde kämpft mit richtig guten ocs...

    Das einzige: die Founders scheinen das crash problem weniger zu haben, die nutzen das 'bsssere' System mit 2 mlcc Arrays. Wir wissen halt nich was genau nvidia als spec ausgibt. Ob sie sagen, dass man mindestens 1 mlcc array braucht, oder ob sie sagen, dass es auch ohne geht.

    Denke aber auch, dass nvidia unbedingt vor der 6900xt bleiben will, um jeden Preis. Denke das is sehr unvernünftig, da sie genug USPs haben die AMD nicht hat, aber nja.... Den Leuten wäre dlss und Vlt bessere raytracing Performance leider in der Darstellung egal, wenn AMD 2 fps mehr in cod hätte...
     
  32. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Noch besser als die Radeon VII? Unvorstelbar! :ugly:

    Sorry, Spaß. Aber tatsächlich ist die Radeon VII doch nie wirklich ein Maßstab gewesen um AMD diesbezüglich eine bedeutsame Errungenschaft anerkennen zu können. Wenn die neuen Karten wider Erwarten nicht leistungsfähiger wären als die Radeon VII könnte AMD genauso gut direkt die weiße Fahne schwenken und sich nvidia vollständig unterwerfen. Ich habe gerade die Benchmarks nicht so im Kopf und müsste erst nachschauen, aber es gibt bestimmt einige Spiele in denen eine 2070S oder 5700 XT besser abschneidet als eine Radeon VII. Daher - Gott bewahre - natürlich müssen sie besser werden.

    Das kann insofern logisch sein weil man damit nur die Stabilität bei Furmark und 3D Mark testet - nicht die in verschiedenen Spielen. Daraus ergeben sich manchmal Unterschiede, die glaubt man nicht. (siehe Phänomen dass manche defintiv defekte GPU trotzdem problemlos Furmark laufen lassen kann, aber bei einem Spiel sofort abstürzt - gut, das hat manchmal mit defektem VRAM zu tun, aber häufg sind es auch andere Defekte)
     
    Zuletzt bearbeitet: 26. September 2020
  33. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Ich glaube jedenfalls nicht, dass Gigabyte oder Zotac eine Karte bauen, die sich nicht an die Mindestanforderungen von nVidia halten. Es hat ja bisher auch funktioniert und gerade Gigabyte ist jetzt nicht dafür bekannt, im Bereich der Spannungsversorgung im High-End-Segment unnötig zu sparen. Entweder stimmen die Spezifikationen von nVidia nicht oder die Chips halten sich nicht daran. Ggf. auch beides. Die GA-102 laufen nahezu am Limit ihrer Leistungsfähigkeit, ähnlich wie ein 10900K. Da sind keine Spielräume mehr. Das mag auch teils technisch bedingt sein, weil wir immer weiter in die Grenzbereiche der aktuellen Halbleiter-Technologie gehen, aber man sieht ja auch, dass die GA-102 mit deutlich reduzierten Power Targets immer noch gut laufen.

    Wenn's nur die Karten ohne MLCC betreffen würde, wäre die Ursache klar. Auch wenn ich mich immer noch fragen würde, wie das passieren kann. Aber so und selbst Founders-Karten? Das liegt an der Chip-Güte. Ich bleib dabei, dass nVidia aufgrund der miesen Yields alles rausballert, was irgendwie lauffähig ist. Das erklärt auch Gigabyte-Karten, die trotz ihrer Nachteile bei den Caps, deutlich besser gehen, als andere mit MLCC oder umgekehrt, also Founders-Karten, die trotz doppelten MLCC Arrays abschmieren.

    Wäre es den Leuten wirklich egal? Ich glaube nicht, die meisten schauen doch eher auf ein gutes Preisleistungsverhältnis. Klar, es gibt genug Vögel, die auf alles scheißen und sich diese Stromfresser, ggf. auch noch zwei davon, in die Kiste ballern, um jedes Frame rauszuquetschen. Ich bin ja selbst jemand, der in Sachen Hardware nur ungern Kompromisse eingeht, aber ich setze mir dennoch Grenzen. Sonst hätte ich aktuell auch 'ne 2080 Ti drin, aber die war mir schlichtweg für das Gebotene zu teuer.

    Wir sind hier Enthusiasten und durchaus nicht wenig, aber die gegen die Masse des Gaming-Markts, sind wir eine Nische. Es ist eben auch ein großes finanzielles Thema. Für die 800 EUR der 3080 kaufen sich viele ganze Rechner und darauf müssen sie über Jahre sparen. Insbesondere jetzt, da die Pandemie ganze Branchen zerlegt. Ich bin -- zu meinem großen Glück -- nicht in so einer Lage, aber deswegen muss ja man das Geld auch nicht mit vollen Händen zum Fenster rauswerfen. Schon gar nicht, wenn die Teile technische Probleme haben, die ggf. Hardware-bedingt sind und vielleicht sogar die Karten im fortgeschrittenen Alter zunehmend plagen bzw. den Wiederverkaufswert beeinträchtigen.
     
  34. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.286
    Statement von evga:

    EVGA: https://forums.evga.com/Message-about-EVGA-GeForce-RTX-3080-POSCAPs-m3095238.aspx

    „Hi all,

    Recently there has been some discussion about the EVGA GeForce RTX 3080 series.

    During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch. There were no 6 POSCAP production EVGA GeForce RTX 3080 FTW3 boards shipped.

    But, due to the time crunch, some of the reviewers were sent a pre-production version with 6 POSCAP’s, we are working with those reviewers directly to replace their boards with production versions.
    EVGA GeForce RTX 3080 XC3 series with 5 POSCAPs + 10 MLCC solution is matched with the XC3 spec without issues.

    Also note that we have updated the product pictures at EVGA.com to reflect the production components that shipped to gamers and enthusiasts since day 1 of product launch.
    Once you receive the card you can compare for yourself, EVGA stands behind its Sands

    Thanks
    EVGA“

    Irgendwas wird da schon dran sein, sonst machen die kein Statement und verzögern die karten. Es kann natürlich sehr gut sein, dass die mlcc Lösung einfach mit etwas schlechteren Chips klar kommt und man bei den poscaps n mega bin braucht.

    Ich werd jedenfalls trotzdem erstmal meine order halten. Wenn die Karte so schnell instabil wird, geht sie halt zurück.

    E: buildzoid video dazu: https://www.youtube.com/watch?v=GPFKS8jNNh0

    Der macht eigentlich immer sehr gute pcb Analysen
     
    GODzilla und ActionNews gefällt das.
  35. Elbow of Melninec

    Elbow of Melninec
    Registriert seit:
    3. November 2007
    Beiträge:
    25.445
    Irgendwie echt hart was Nvidia sich da geleistet hat. Und trotzdem schlägt es keine großen Wellen abseits der üblichen Gaming-Nerd Seiten. Auf Golem oder Heise z. B. nichts dazu zu lesen.
     
  36. Flachzange Like A Rolling Stone

    Flachzange
    Registriert seit:
    11. Juli 2005
    Beiträge:
    39.043
    Ort:
    und zu Flach
    ist doch schon immer so. :wahn: bei AMD wär der Aufschrei riesig. Nvidia hat den kompletten Launch verbockt und meiner Meinung sogar wissentlich, nach der Präsentation war es für mich eigentlich klar das es ne 3070 wird jetzt wird mindestens gewartet was AMD liefert.

    mal ein anderes Thema nutzt hier jemand Thermalpads? für die CPU zb. die von Thermal Grizzly? würd mich über Erfahrungen freuen.
     
    MadCat und Lurtz gefällt das.
  37. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.237
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    https://www.youtube.com/watch?v=j_1A0vifsZg

    ...diese Stromanschlussverlängerung kann ich nicht so recht fassen! :runter::ugly::hoch:

    der8auer lobt, dass die jeglichen Platz ausnutzen, aber dann müssen sie Platz verschwenden um so einen Kabelbaum reinzustopfen. :aua:

    /edit: Video weiter geschaut..."Universal-GPU-Montagevorrichtung"... :hammer:
     
    Zuletzt bearbeitet: 26. September 2020
  38. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Tragisch wie eh und je. Es ist aber zugleich eine Chance für AMD (wenn sie die nutzen können, sonst natürlich nicht :ugly:). Denn auf den Stromverbrauch müssen sie anders als zuvor nicht mehr schauen, könnten aber vielleicht sogar damit punkten und mit 12/16GB haben sie bereits die deutlich bessere VRAM Bestückung. Die Leistung der Ampere Chips hat außerdem ein recht hartes Limit nach oben hin, welches im Prinzip nur noch durch kleinere Hardware- und Softwareanpassungen verbessert werden kann. Klare Verhältnisse also.

    Online-Berichterstattung geht imho sowieso seit Jahren den Bach runter, weil sich alles nur noch am Mainstream und den potentiellen Werbeeinnahmen, affiliate links usw. orientiert. Man will schließlich auch weiterhin Werbeartikel , Samples und Co. bekommen und die gibt es nicht wenn man sich allzu kritisch mit einem der dominanten Hersteller eines Produkts befasst. Das ist eine gewählte Abhängigkeit in die sich einige Magazine gebracht haben und daraus entsteht Selbstzensur die leider diesen Effekt hat.

    Mittlerweile profitieren vor allem die aufstrebenden Youtube Tech Channel davon. (GN, igor's lab usw.) Wie beim Geld - die User sind nicht weg, nur woanders. :p
     
  39. Misie Gaming Blogbuster

    Misie Gaming
    Registriert seit:
    13. September 2018
    Beiträge:
    1.622
    Mein RIG:
    CPU:
    Intel Xeon E3-1231 v3 unter Alpenföhn K2 mit zwei Noiseblocker Multiframe M12
    Grafikkarte:
    Sapphire Radeon RX 570 Nitro+ 4 GB unter Prolimatech MK-26 mit zwei Blue Vortex 14
    Motherboard:
    Gigabyte GA-H97-HD3
    RAM:
    2x 4 GB Crucial Ballistix Sport + 2x 4 GB GeIL EVO Corsa DDR3, 1600 MHz, CL9-9-9-24
    Laufwerke:
    Samsung 840 Evo 120 GB
    OCZ Trion 150 240 GB
    Crucial MX500 500 GB
    Soundkarte:
    AKG K702 an Xonar D1 mit UNi Driver, Equalizer APO und HeSuVi
    Gehäuse:
    Antec Eleven Hundred mit drei Noiseblocker Multiframe M12, einem Corsair ML140 und einem Scythe Slip Stream 120
    Maus und Tastatur:
    Sharkoon Draconia
    SpeedLink Parthica
    PSU: be quiet! Pure Power L8 CM 530 Watt, Lüfter durch Noiseblocker Multiframe M12 ersetzt
    Betriebssystem:
    Windows 10 Pro 64 Bit
    Monitor:
    iiyama G-Master GB3461WQSU-B1 Red Eagle
  40. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.160
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
Top