Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    selbst wenn ich mit dem vram zufrieden gewesen wäre, das kühler konzept lang breit fett und ins gehäuse rauspusten hat mir nie gefallen, die sind alle so..

    was ist aus den msi twin frozr's etc geworden, das passt auch besser in den airflow hier, vorne rein hinten raus rest zu, mainboard wird eh schon zu heiß beim zocken, hab da nicht den mega tornado am start der sofort alles wegpustet, alles nurnoch lächerlich

    bin ich mal gespannt ob das wer gescheit testen wird, wie sich die gehäuselüfter (pwm) anpassen, müsste man halt eine karte finden die nicht so ist oder eine ältere und dann leveln via oc/bios damit beide gleich viel verbrauchen, müsst ich mal schauen wann wer zuletzt überhaupt so eine karte gebaut hat :ugly:
     
  2. Der_Lizardking

    Der_Lizardking
    Registriert seit:
    27. März 2015
    Beiträge:
    256
    Mein RIG:
    CPU:
    8700k
    Grafikkarte:
    1080 AMP Extreme
    Motherboard:
    Z370 Aorus Gaming 3
    RAM:
    16 GB
    Laufwerke:
    1TB nvme SSD/500 GB SSD/4TB HDD
    Soundkarte:
    Gehäuse:
    Fractal Design Define R5 Black Pearl
    Maus und Tastatur:
    CoolerMaster MM520/Logitech G213
    Betriebssystem:
    Win10
    Monitor:
    HP Omen 27
    Danke, hab die Zotac für 699 bestellt.
     
  3. TheSam

    TheSam
    Registriert seit:
    6. August 2006
    Beiträge:
    1.502
    Mein RIG:
    CPU:
    AMD Ryzen 5800x3d
    Grafikkarte:
    Gigabyte Geforce RTX 4090 Gaming OC
    Motherboard:
    MSI B550 Gaming Carbon
    RAM:
    Crucial 2x 16 GB 3600 CL 16
    Laufwerke:
    nur noch SSDs (diese Ruhe...)
    Gehäuse:
    Define R5 PCGH Edition
    Maus und Tastatur:
    Oculus Touch Controller
    Betriebssystem:
    Win 10
    Monitor:
    Oculus Rift CV 1 / Oculus Quest 2 + 3
  4. leThrax

    leThrax
    Registriert seit:
    28. Juli 2016
    Beiträge:
    1
    Mein RIG:
    CPU:
    Intel Core i7-13700K
    Grafikkarte:
    Zotac Trinity RTX 3080
    Motherboard:
    Gigabyte Z790 XAX
    RAM:
    32 GB G.SKILL 3600CL16
    Gehäuse:
    Fractal Meshify 2 RGB
    Maus und Tastatur:
    Logitech Pro Wireless
    Glorious GMMK2 mit Kailh Speed Bronze Switches
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    MSI MAG274QRF-QD
    Die Zotac ist schon verlockend. Die Frage ist natürlich für die auf Amazon, ob diese denn auch auf Lager ist. Überall ist sie ausverkauft oder wird erst in den nächsten Tagen geliefert. Bei Amazon kann man vorbestellen, aber ein genaues Lieferdatum vor dem kauf wird leider auch nicht angezeigt.
     
  5. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
  6. lotro86

    lotro86
    Registriert seit:
    1. Januar 2010
    Beiträge:
    443
    Ich habe die Karte auf Amazon vorbestellt. Als Lieferdatum (Prime Kunde) wird der 19.09., also Samstag genannt (während und nach der Bestellung(Mail)). Habe auch eine 3080 bei Alternate bestellt, aber diese war nach dem Kauf dann doch nicht mehr lieferbar. Ich warte mal den morgigen Tag ab. Irgendwo wird dann storniert. Vielleicht auch zwangsläufig bei beiden Shops :atomrofl:
     
  7. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    hm... hab auch mal ne zotac bei amazon mitgeordert, weil die produktseite der strix bei amazon.fr seit tagen kaputt war und ich sorgen hatte, dass das n placeholder ist/war und doch noch storniert wird...

    Und da watercool grad im hwluxx angekündigt hat erstmal nur FE und referenz (die zotac ist eine davon) zu supporten bin ich echt unsicher...

    Mit der Strix den besseren Chip(zumindest ne höhere chance auf nen guten chip) und das bessere Board (Die TUFs sehen qualitativ schon deutlich besser aus als das zotac board, die Strix wird nicht schlechter als die TUF sein) aber dafür n EK/Byski Kühler (laut tests bei der 2080ti grade beim Speicher und den VRMs deutlich heißer als Aquacomputer oder Watercool... und der Speicher is laut Igorslab n ziemlicher hotspot), oder die Zotac und n Heatkiller... Durch OC geht bei den Karten auch echt nicht viel wenn man sich so die Tests anguckt und dafür muss man dann mal eben 375+W durchjagen...

    Ich glaube ich entscheide einfach danach welche eher verschickt wird...
     
  8. P@l@din

    P@l@din
    Registriert seit:
    14. November 2000
    Beiträge:
    12.842
    Ort:
    Arcadia
    Mein RIG:
    CPU:
    AMD Ryzen 5800X3D
    Grafikkarte:
    PNY RTX 4080 Verto Triple Fan
    Motherboard:
    MSI X570 Gaming Plus
    RAM:
    32 GB RipJaws V 3200 Mhz
    Gehäuse:
    be quiet! Pure Base 500 FX
    Maus und Tastatur:
    Asus ROG Pugio II
    Evga Z15
    Betriebssystem:
    Win 11
    Monitor:
    KTC M27T20 (VA, Mini LED, HDR 1000)
    Ich bin ja mal gespannt was die 70er kann. An sich hatte ich überlegt von meiner 1070 auf die 3080 umzusteigen (trotz 1080 p aktuell), aber jetzt wieder ein neues Netzteil (kein Jahr alt, leider "nur 600 W") noch dazu, ich weiß nicht. Aber auch bei der 70er werden ja 650 W empfohlen, ich warte mal ab, was die Belastungstests da hergeben.
     
  9. Dimi727

    Dimi727
    Registriert seit:
    1. April 2006
    Beiträge:
    930
  10. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Nichts, nur dass die Welt am Arsch ist. :rotfl:
     
  11. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Dass da entweder Bill Gates keine Freunde bei Nvidia hat, oder es ne Joke Auktion unter Freunden is...
     
  12. Balupu User

    Balupu
    Registriert seit:
    4. Oktober 2009
    Beiträge:
    13.026
    Ort:
    Svärje
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D
    Grafikkarte:
    MSI GeForce RTX 4080 16GB VENTUS 3X OC
    Motherboard:
    Gigabyte B550 AORUS ELITE
    RAM:
    HyperX Fury DDR4 3200MHz 32GB
    Laufwerke:
    Samsung SSD 970 Evo Plus 500 GB (NVMe)
    Samsung SSD 860 Evo 500 GB
    Samsung SSD 850 Evo 250 GB
    Gehäuse:
    Corsair Carbide Series SPEC-DELTA RGB, Corsair TX750M, 750W PSU
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    Samsung 27" C27F390 Curved
    Bei mir hats dann doch nicht geklappt und im ganzen Land gibts nichts mehr auf Lager. Also doch bis Oktober warten :fs:
     
  13. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.082
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    Mich würde mal interessieren wieviele der neuen RTX 3080 Käufer noch auf Full HD sind. Scheint ja nicht so viel Sinn zu machen...
     
  14. Wolfpig

    Wolfpig
    Registriert seit:
    14. Dezember 2004
    Beiträge:
    43.828

    Also ob solche käufe bei vielen Sinn machen würden.
    Gibt doch genug Leute die nur sehen XX% mehr Leistung als X und das deswegen dann wollen, egal ob die Leistung genutzt werden kann oder nicht.
     
    Misie Gaming gefällt das.
  15. P@l@din

    P@l@din
    Registriert seit:
    14. November 2000
    Beiträge:
    12.842
    Ort:
    Arcadia
    Mein RIG:
    CPU:
    AMD Ryzen 5800X3D
    Grafikkarte:
    PNY RTX 4080 Verto Triple Fan
    Motherboard:
    MSI X570 Gaming Plus
    RAM:
    32 GB RipJaws V 3200 Mhz
    Gehäuse:
    be quiet! Pure Base 500 FX
    Maus und Tastatur:
    Asus ROG Pugio II
    Evga Z15
    Betriebssystem:
    Win 11
    Monitor:
    KTC M27T20 (VA, Mini LED, HDR 1000)
    Es ist halt durchaus auch eine Frage der Langlebigkeit. Natürlich ist eine 3080 für 1080p aktuell overpowered, aber a) steht die neue Konsolengeneration an und b) nutze ich Grafikkarten gerne auch mal 5 oder 6 Jahre (ich hatte das mal anderswo geschrieben: Ich bin z.B. von der 560 Ti auf die 970 gegangen und habe die eigentlich auch hauptsächlich nur wegen dem "kastriertem" Speicher abgestoßen) und die ersten Titel fangen an, die 60 FPS Marke - auch auf 1080p - in voller Pracht zu unterschreiten.
     
  16. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    ich mein, je nach spiel reicht es raytracing auf max zu setzen und auch die 3080 macht nichtmal ansatzweise 100 FPS in 1080p, vor allem ohne DLSS...
     
  17. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Eben, man hätte einfach auf 250 W als Kompromiss gehen und den Rest den Board-Partnern überlassen können. Stattdessen läuft der GA-102 sowohl bei nVidia selbst, als auch den Board-Partnern vom Start weg nahezu am Limit. Das macht niemand zum Spaß oder weil er kann. Die haben Schiss.

    Nvidia hat nicht gepennt, wie Intel, aber sie haben sich mit ihrer Entscheidung für Samsung wegen ein paar Dollar pro Chip mehr Marge, einfach heftig ins Knie geschossen. Als das entschieden wurde, hätte wohl auch niemand geglaubt, dass AMD jemals wieder auf die Füße kommt und auch nicht, dass TSMC dermaßen gute 7 nm-Prozesse anbieten kann.
     
  18. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Watercool und Aquacomputer kühlen alle Elemente der Karte, die auch vom Luftkühler der Founders- und Referenzkarten abgedeckt werden. EK macht das nicht, die entscheiden nach eigenem Gutdünken, was der Block abdeckt und was nicht. Alleine schon deswegen würde ich immer WC und AC bevorzugen. Abgesehen davon, ist die Fertigungsqualität einfach besser. Der EK-Block für meine 1080er ist ein dünnes Kupferplättchen-Spielzeug gegen den Heatkiller auf der 2080er. Außerdem nimmt WC z.B. bei Kühlern mit transparenten Elementen echtes Plexiglas von Röhm (früher Evonik). EK nimmt nur irgendein normales Acrylglas. Nun ist Plexiglas ein Markenname für Acrylglas, aber es gibt teils erhebliche Qualitätsunterschiede zwischen Plexiglas und irgendeinem billigeren Acrylglas. Billige Varianten können z.B. deutlich anfälliger für Brüche sein. AC nimmt AFAIK auch Plexiglas. Byski wird wohl auch eher ein anderes Acrylglas nehmen und zu ALC sag ich nix. :ugly:
     
  19. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Ich hätte ja auch lieber n Watercool Block... aber ob ich dafür dann halt statt ner scheinbar echt guten custom (gibt zwar keine strix tests, aber die kleine schwester tuf schneidet sehr gut ab, ich extrapolier da grad mal...) n absolute einstiegsvariante will...

    Aquacomputer hat halt im Forum angedeutet irgendwie auch Asus supporten zu wollen... die Frage ist halt ob Strix oder Tuf, wobei Strix natürlich ansich mit höherem Powerlimit viel mehr Sinn machen würde... Wird aber wohl auch weniger verkauft... zumindest am anfang
     
  20. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.890
    Tiger Lake für Laptops ist überraschend stark, die CPU-Performance ist singlethreaded höher als bei AMD und zumindest bis zu den Renoir Sechs-Kernern kann man auch multithreaded mithalten. Die Iris XE-Grafik ist deutlich stärker als Vega, allerdings scheinen die Treiber noch große Probleme mit Spielen zu haben.
     
  21. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Die Strix dürfte wahrscheinlicher sein, ja.

    Ich warte jetzt erstmal AMD ab, bevor ich mich entscheide. Die Indizien sprechen klar dafür, dass RDNA 2 genug Potenzial hat, nVidia zumindest leicht in den Hintern zu treten.

    Dürfte auch interessant sein, ob nVidia ggf. die nächste Generation auf TSMC umstellt. Dass Samsungs Fertigung in der Hinsicht nicht mit TSMC mithalten kann, ist ja auch nichts neues. Apple musste ja vor ein paar Jahren auch teilweise bei Samsung fertigen, weil TSMC nicht genug Kapazitäten hatte. Obwohl die Chips eigentlich gleich waren, wurde die Samsung-Version heißer bzw. verbrauchte mehr Strom. Es war zwar noch im moderaten Rahmen, so dass die Akkuleistung nicht allzu sehr gelitten hat, aber es ist ein Indikator dafür, dass TSMCs Prozesse einfach besser sind.
     
  22. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.890
    Bei Crysis Remastered limitiert der VRAM der 3080 auch schon (das Spiel läuft zwar allgemein beschissen, aber auch hier ist die Frage, ob man wirklich 700-900€ für eine GPU ausgeben will, wo heute gefühlt bereits jeder dritte Titel VRAM-limitert ist :aua:):
    https://www.youtube.com/watch?v=O-LijnyhbeA
     
  23. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    nja, ich hab ja schonmal irgendwo geschrieben, dass ich leider cuda brauche... daher entweder 3080, den riesen aufpreis auf 3090 (und ob ich in 1440p die 10gb voll bekomme who knows) oder potentiell im neuen jahr 20gb varianten... aber meh... wenn die verfügbarkeit so bleibt wird man ohne riesen verlust resellen und upgraden können, von daher...

    Aber klar, eigentlich hätte der Chip ein Design gebraucht mit 12 oder 16GB, das auf jeden Fall... Aber vermutlich hätte Nvidia sich dann selbst die 3090 zu wenig interessant gemacht...
     
  24. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    In Cinebench R20 Single-Core knackt der i7-1185G7 den i9-10900K mit 600 zu 542 Punkten und taktet 500 MHz niedriger. Heftig. Die neue Architektur zahlt sich also aus und 10 nm scheint auch langsam zu funktionieren. Die Desktop-Versionen könnten mit Zen 3 ungefähr gleich auf sein. AMD kann halt Intel mit Kernen totwerfen, wenn sie wollen. In der Hinsicht fehlt's bei Intel noch. Chiplets + IF sind einfach extrem flexibel und die letzten Flaschenhälse in der Hinsicht, räumt AMD Stück für Stück weg.

    Wenn AMD wirklich mit 5 nm noch mal die Kernanzahl pro CCD verdoppelt, wird's lustig.
     
  25. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Wenn AMD gut abgeht, wird nVidia versuchen zu kontern. Eine 3080 Ti mit mehr RAM wäre auf jeden Fall möglich.
     
  26. Balupu User

    Balupu
    Registriert seit:
    4. Oktober 2009
    Beiträge:
    13.026
    Ort:
    Svärje
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D
    Grafikkarte:
    MSI GeForce RTX 4080 16GB VENTUS 3X OC
    Motherboard:
    Gigabyte B550 AORUS ELITE
    RAM:
    HyperX Fury DDR4 3200MHz 32GB
    Laufwerke:
    Samsung SSD 970 Evo Plus 500 GB (NVMe)
    Samsung SSD 860 Evo 500 GB
    Samsung SSD 850 Evo 250 GB
    Gehäuse:
    Corsair Carbide Series SPEC-DELTA RGB, Corsair TX750M, 750W PSU
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    Samsung 27" C27F390 Curved
    Es ist natürlich klar, dass wir hier von absoluten Enthusiast-Situationen reden, also der Wunsch nach 4K60fps mit Raytracing. Wenn man da wirklich dran möchte, dann sollte man natürlich eher doppelt so viel Geld in die Hand nehmen und eine RTX 3090 kaufen bzw. eher noch 1000€ drauflegen.
     
  27. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.890
    Ja ne ist klar :ugly: Die 3080 ist klar als 2080 Ti-Nachfolger (=Enthusiasten-Klasse) und Raytracing-König beworben. Gerade für Raytracing tut der geringe VRAM aber enorm weh.

    Die 3090 legt rein leistungsmäßig nicht viel drauf, die Karte ist streng genommen nicht mal eine klassische Spieler-Karte.
     
  28. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    joa, wie gesagt, ich denke dann wird man recht 'günstig' upgraden können für vlt 100-150€ über differenz. Zumindest wenn das PCB bleibt und man nich den wasserblock auchnoch tauschen muss.... zumindest der EK is fast unverschämt teuer für die strix(210inkl backplate) und bei der größe wären WC und AC wohl nich viel billiger...
     
  29. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
    Hoffentlich rockt AMD mit ihren neuen Karten,einer flüssigen 4k und Raytracing Leistung und ordentlich VRAM. Die 3080 macht mir,ein ungutes Gefühl mit 10 GB und ich habe nicht vor, doppelt zu kaufen.
     
  30. Balupu User

    Balupu
    Registriert seit:
    4. Oktober 2009
    Beiträge:
    13.026
    Ort:
    Svärje
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D
    Grafikkarte:
    MSI GeForce RTX 4080 16GB VENTUS 3X OC
    Motherboard:
    Gigabyte B550 AORUS ELITE
    RAM:
    HyperX Fury DDR4 3200MHz 32GB
    Laufwerke:
    Samsung SSD 970 Evo Plus 500 GB (NVMe)
    Samsung SSD 860 Evo 500 GB
    Samsung SSD 850 Evo 250 GB
    Gehäuse:
    Corsair Carbide Series SPEC-DELTA RGB, Corsair TX750M, 750W PSU
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    Samsung 27" C27F390 Curved
    Ich weiß halt nicht was hier deine Erwartungshaltung ist? Wir sind noch weit davon entfernt Raytracing und 4K60fps als Standard zu haben und es ist wohl klar, dass Nvidia hier eher versucht genau diese Enthusiasten zur 3090 zu bewegen. Streng genommen sind 700-900€ heutzutage noch nichtmals ein solch exorbitant hoher Preis, wenn man sich Hardwarepreise der Vergangenheit inflationsbereinigt ansieht. Daher denke ich schon, dass das Preis-Leistungsverhältnis ganz ordentlich ist und man nicht erwarten sollte, absolut alles eben easy in 4K60fps+Raytracing spielen zu können.

    [​IMG]
    bisschen veraltet, aber als kleiner Vergleich. Da kann man sich ja auch nochmal zurückerinnern wie sehr man damals mit diesen Karten richtig tief neue technische Entwicklungen auskosten konnte.

    Mein Punkt ist: Wer wirklich auf 4K60fps mit Raytracing abzieht, sollte eher richtig tief investieren (3090) oder noch etwas warten bis Revisionen erscheinen oder AMD eine brauchbare Alternative anbietet.
     
  31. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Der VRAM ist ein Problem, ja, aber was mich gerade viel mehr trifft: ein 750 W Seasonic Prime reicht nicht, um die 3080er stabil laufen zu lassen? :ugly:
     
  32. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.890
    @Balupu: Es geht darum, dass der VRAM absehbarerweise limitiert und die Karte damit hart auf Kante genäht ist. Wenn dich das nicht stört, fein, ich finds krass dass es als normal angesehen wird, solche Beträge auszugeben und dann zu Release eine in einer entscheidenden Metrik deutlich zu knapp kalkulierte Karte zu bekommen - zusätzlich zu einer Gerüchteküche, die bereits Karten vom gleichen Hersteller verheißt, die dieses Manko ausmerzen werden.

    Ach, Details :ugly:
     
  33. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Bei AC und WC bekommt man aber die besseren Materialen, die bessere Fertigungsqualität und es wird hier hergestellt. Das Lohnniveau in Slowenien ist doch etwas niedriger.
     
  34. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Igor hat bei der FE doch schon spikes bis 500W gefunden :ugly: glaub die karte die er da drin hat is ne 3x8pin, die kann also nochmal höher...

    ich hoffe allerdings nich zuviel, sonst muss die strix doch fliegen, weil ich das netzteil auch upgraden müsste :ugly: hab auch nur 750W (straight power 11 gold) drin und dann alles zusammen 250€ aufpreis wäre die mir über die zotac nich wert
     
  35. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    soll wohl alles die verkäufe ankurbeln, übliche industrie spielchen :nixblick::wahn:
    einfach mal spiel patches und gpu treiber abwarten paar monate
     
  36. Balupu User

    Balupu
    Registriert seit:
    4. Oktober 2009
    Beiträge:
    13.026
    Ort:
    Svärje
    Mein RIG:
    CPU:
    AMD Ryzen 7 5800X3D
    Grafikkarte:
    MSI GeForce RTX 4080 16GB VENTUS 3X OC
    Motherboard:
    Gigabyte B550 AORUS ELITE
    RAM:
    HyperX Fury DDR4 3200MHz 32GB
    Laufwerke:
    Samsung SSD 970 Evo Plus 500 GB (NVMe)
    Samsung SSD 860 Evo 500 GB
    Samsung SSD 850 Evo 250 GB
    Gehäuse:
    Corsair Carbide Series SPEC-DELTA RGB, Corsair TX750M, 750W PSU
    Betriebssystem:
    Windows 10 Pro
    Monitor:
    Samsung 27" C27F390 Curved
    Verstehe den Punkt schon, aber wie gesagt: was ist denn hier die Erwartungshaltung? Nvidia hat die 3080 bewusst mit einem Kampfpreis angekündigt, also gibts natürlich einen Haken (VRAM), wo die Karte eben für die absoluten Enthusiasten problematisch wird. Ich denke aber, ein Großteil der Käufer wird nicht (schnell) in diese Grenzbereiche kommen - eben weil es noch kein Standard ist mit 4K60fps+Raytracing.

    Zumal die Karten (deutlich) günstiger als die 2080 Ti mit 11GB VRAM sind, dabei aber besser performen. Das hier ist ein Ansatz Raytracing stärker zu etablieren und wenn die Leute gehooked sind, werden einige bestimmt aufrüsten auf die 3080 Ti mit 12/16 GB VRAM oder was auch immer der Plan ist um vollends in den Enthusiastenbereich zu gehen. Und andere werdens nicht so kritisch sehen und kommen auch ohne Raytracing klar - zumal ich denke, dass bei den meisten ohnehin der Prozessor länger der limitierende Faktor bleiben wird.
     
  37. Knarfe1000 Homecomputer Veteran

    Knarfe1000
    Registriert seit:
    28. Dezember 2005
    Beiträge:
    10.951
    Habe bei Caseking eine Gigabyte 3080 Gaming OC für 825 Euro ergattert. War ein ziemlicher K(r)ampf, bis ich im Warenkorb auschecken konnte. Bin mal gespannt, wann die Karte kommt :D
     
  38. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Dem Aussehen nach, war das ein Seasonic Snow Silent 750 W Plantium. Kam 2015 auf den Markt. 62 A auf 12 V. Wenn da OCP greift, genehmigt sich die 3080 aber mal richtig viel, denn so viel wird der 3900X nicht fressen. Die CPU ist ja in dem Video kaum ausgelastet, also wird auch nur ein Chiplet viel Strom ziehen.

    OCP löst bei dem Ding lt. Computerbase bei 97 A aus. :ugly:

    Fast 1,2 kW. :ugly:

    Holy fucking shit. :ugly:
     
    mad_layne gefällt das.
  39. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Igor hat da einiges zu erklärt, dass es schon reichen kann, wenn nur n paar mal schnell hinternander starke spikes sind. 1.2kw kann ich jetzt eher weniger glauben, wie gesagt, er hatte 500 gemessen, und so extrem viel dicker is jetzt ne 3*8 auch nich
     
  40. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Ich bezog mich eher darauf, dass ein 750 W-Netzteil erst bei gut 1,2 kW auf 12 V die OCP auslöst. :ugly:

    Die 3080er wird kaum so viel gezogen haben. Selbst im Mikrosekunden-Bereich sollten Spikes nicht dermaßen hoch sein. Vermutlich ist das Netzteil nach ein paar Jahren im Alltag einer Hardware-Redaktion nicht mehr ganz auf der Höhe, aber zumindest seltsam finde ich das schon. Es könnte natürlich sein, dass Ampere noch schnellere und stärkere Lastwechsel hat, als Turing oder Pascal und damit irgendwie die OCP oder eine andere Schutzschaltung triggert. Da die Kiste ja lt. Video danach erst nach gewisser Zeit wieder anging, könnte es z.B. auch die Temperatur-Schutzschaltung gewesen sein.
     
Top