Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    wären halt tatsächlich höchstens auf einem level mit der 3080, bzw in Anwendungen mit vielen fp32 Berechnungen deutlich druner, ohne die extra features wie DLSS und who knows wie navi 21 im raytracing ist... das hat nvidia auch nich beim ersten versuch geschafft... und da man die 3080 ohne viel Leistungsverlust auf ~250W (oder je nach chip noch niedriger) setzen kann ka...

    Konkurrenz wäre halt schon geil, damit sich nvidia bei der nächsten karte so n bullshit launch nich erlauben kann... Beim Preis der 3080 kann man ihnen eigentlich wenig vorwerfen, höchstens, dass durch den hype + niedrigen supply die preise von AIB Karten gen Himmel gehen... Aber die Leute zahlen es halt auch und das is n ganz normales angebot/nachfrage verhalten der Händler... Beim Verbrauch ist halt die Frage, ob sie wegen AMD so extrem pushen, oder ob sie die chips einfach besser ausnutzen wollen von werk aus... 350W+ ging ja auch bei den 2080Ti recht locker für übertakter, vielleicht wollen sie nichtmehr soviel leistung brach liegen lassen...
     
    Zuletzt bearbeitet: 26. September 2020
  2. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.179
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Selbst wenn Navi 21 "nur" knapp unter 3080 Niveau performt, können die Karten mit 16MB VRAM, gleichem oder evtl. niedrigerem Preis sowie geringerer Leistungsaufnahme trotzdem das deutlich bessere Gesamtpaket darstellen.

    Und wo kommt eigentlich die Erwartungshaltung her, dass Big Navi deutlich schneller als ne 3080 sein soll? Hat AMD das jemals versprochen? Soweit ich weiß war immer von Navi2X die Rede, also von doppelter 5700XT Performance. Was irgendwo zwischen 2080ti und 3080 ist und so wie es aussieht auch von AMD erreicht wird.
     
  3. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Ich brauche mal Hilfe. Irgendwie checke ich das OC Verhalten nicht von meinem Ryzen 5 1600X.
    Aktuell habe ich folgendes im BIOS eingestellt:
    Multi: 40 (Entspricht also 4Ghz)
    VDDCR: Offsetmode: -0,05V
    DDR Voltage: 1.35V
    RAM-Takt: 3000Mhz
    C-States: Enabled
    Core Power Boost (oder wie das heißt): Disabled

    Soweit so gut.
    Die Settings sind so absolut stabil, die CPU taktet auf brav runter im Idle, aber die VCore, also der Wert CPU Core Voltage (SVI2 TFN) in HWInfo, klebt dauerhaft bei 1,312V. Unter Voll-Last dropt der Wert auf 1,262V, ist auch normal, weil eben V-Drop oder wie das bei Ryzen heißt.
    Aber wieso geht die Spannung nicht runter im Idle?
    Übersehe ich da irgendwas?

    Mainboard ist ein Asus Prime X370-Pro
     
  4. BLUTSUCHT

    BLUTSUCHT
    Registriert seit:
    9. September 2005
    Beiträge:
    7.676
    Mein RIG:
    CPU:
    Ryzen 7 7700
    Grafikkarte:
    RTX 4070
    Motherboard:
    B650 ITX
    RAM:
    2x 16GB
    Laufwerke:
    WD SN770 1TB
    Intel 660p 2TB
    Soundkarte:
    Logitech G Pro X
    Gehäuse:
    Fractal Design Terra
    Maus und Tastatur:
    Corsair K70, Endgame Gear XM2we
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    LG UltraGear 27GL850-B
    In dem Fall sollte es den Karten aber eigentlich egal sein, in welcher Anwendung sie über 2.0GHz takten.

    Aber - etwas kurious oder es gibt jetzt schon von vielen Herstellern verschiedene Karten. Wir haben die Kondensatoren verglichen, wir haben von allen Karten Bilder vom PCB gemacht, da wir die noch an jemanden weiterschicken müssen (an einen bekannten WaKü-Hersteller :ugly:).

    Die PCBs, die wir hier haben, weichen von der Kondensator-Bestückung ab, die man jetzt im Internet bei den Problemenfällen so sieht. Nur unsere Karten von Gigabyte haben keine Keramik-Kondensatoren. Alle anderen schon - wir hatten bisher folgende Karten da:

    Palit GamingPro (OC)
    Gainward Phoenix (OC)
    Gigabyte Eagle (OC)
    Gigabyte Gaming (OC)
    MSI Ventus (OC)
    MSI Gaming X Trio
    ASUS TUF (OC)

    Jeweils 3080 und 3090. Und das waren keine Samples, wir hatten vorab keine Ware, also das ist dann wohl auch Retail-Ware. Eventuell gibt es da also jetzt schon nachgebesserte Modelle. Und auch die Gigabytes, die auch noch ab Werk bei unseren Tests jedenfalls die höchsten Taktraten hatten, sind bei über 2.0GHz nicht abgeschmiert.

    Edit: Das ist aber jetzt nur das Wort von dem, der bei uns das Testing macht. Aber vllt. kann ich die Bilder organisieren und hier posten.


    Was steht im BIOS bei Cool`n`Quiet und den C-States? Evtl. da auch was geändert im Zuge des Overclockings?
     
    Zuletzt bearbeitet: 26. September 2020
  5. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.902
    Zum Umgang mit den AIBs was Ampere angeht:
    https://www.guru3d.com/articles-pages/geforce-rtx-3080-and-3090-what-we-know,1.html
     
    ActionNews gefällt das.
  6. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Es gibt im Bios kein Cool'n'Quiet
     
  7. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
  8. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Das ist zwar richtig für die jeweilige, potentielle (Über-)belastung der Kondensatoren, aber man wird daraus nicht entnehmen oder klar abgrenzen können ob die Kondensatoren in einem anderen Szenario (bspw. mit vollständiger VRAM Auslastung) bei Modell X früher schlapp machen als bei Modell Y. Ich würde aktuell per se nur wenig ausschließen angesichts dessen wie groß die Belastung für das Material ist. Es geht schließlich auch um die weitere Haltbarkeit einer GPU, nicht nur darum wie stabil sie testweise für ein paar Minuten ist.

    Dem Kunden kann das eher egal sein solange er sich auf Gewährleistung und später Garantie berufen kann, aber jedem Vertrieb und Boardpartner kann sowas natürlich nicht egal sein.
     
  9. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Rechnen wir's mal hoch: der Navi 10 mit 40 CUs auf einer 5700XT ist in den Computerbase-Benchmarks bei der durchschnittlichen 4K-Performance halb so schnell wie die 3080. Navi 21 wird nach diesen Angaben die doppelte Anzahl an CUs haben. D.h. selbst bei gleicher IPC wird sie ungefähr auf dem Niveau einer 3080 sein. Navi 10 ist aber bei knapp 2 GHz an der absoluten Kotzgrenze und frisst Strom wie blöde. Navi 21 ist das wohl nicht, wenn die Daten bei Videocards halbwegs stimmen, säuft das Ding ja bei 2,2 GHz nur um die 240 W. 10% mehr Takt. Navi 22 schafft 2,5 GHz, das spricht für ordentlich Spielraum nach oben für Partnerkarten und OC.

    Wenn AMD jetzt noch die IPC gesteigert hat, frisst Navi 21 den GA-102 zum Frühstück -- bei erheblich weniger Stromverbrauch und ggf. deutlich mehr Übertaktungsspielraum. Wenn die Karten dann noch gut verfügbar sind, hat nVidia ähnlich viel Spaß wie Intel. Und so unwahrscheinlich ist das nicht, denn wir wissen, dass TSMC die Prozesse gut im Griff und keinerlei Yield Probleme hat. AMD kann ja angeblich bei Zen 2 nahezu jedes produzierte Chiplet verwenden.

    Dass die hohen Taktraten kein Märchen sind, wissen wir außerdem durch die technischen Details zur PS 5. Wenn die APU schon fast 2,3 GHz schafft, dürfte die 2,2 GHz für Navi 21 kein großes Problem sein und auch die 2,5 GHz von Navi 22 erscheinen nicht unrealistisch.
     
    Mech_Donald, ianscz, Lurtz und 2 anderen gefällt das.
  10. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Von den Konsolen wissen wir außerdem dass die Leistung im Verhältnis zur Taktrate offenbar gut skaliert, was nicht minder wichtig ist, da die PS5 mit nur 36 CUs immerhin rund 10 TFlops schafft während die XSX obgleich deutlich niedriger getaktet mit 52 CUs ca. 12TFlops schafft.
     
    Lurtz und MadCat gefällt das.
  11. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Das wäre wirklich cool. AMD als starker Konkurrent lässt die Preise purzeln. Ich könnte nicht nur meinen PC-Monitor statt mit G-Sync Compatible (es gibt einige wenige Spiele bei denen funzt das einfach nicht) mit dem original AMD Freesync Premium Pro betreiben und dazu mein TV-Gerät, welches Variable Sync unterstützt, ebenfalls. Aktuell geht da halt nur das klassische V-Sync.

    Aber...es steht und fällt imho mit der Antwort auf DLSS 2.0 bzw. das zukünftige 3.0. Ohne dies, kein vernünftig performantes RTX in Spielen. Und RTX in Spielen hat zwar bis jetzt ein relatives Nischendasein geführt, wird aber spätestens mit CP2077 so richtig seine Muskeln spielen lassen, ganz zu schweigen vom push, den die neuen Konsolen generieren werden.
     
  12. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Interessant ist ja auch, dass die Informationen aus macOS 11 stammen. Bisher verbauen sie die 5700XT nur im normalen iMac 27". Es gibt eine W5700X im Mac Pro und ansonsten setzen sie für den iMac Pro und Mac Pro auf Vega Pro-Karten.

    Wäre gut möglich, dass die 2,2 GHz mit ca. 240 W in einem iMac 27" aus thermischer Sicht das Ende der Fahnenstange sind. Dessen Kühlsystem ist dem iMac Pro unterlegen, dem Mac Pro sowieso. Mit 'nem gescheiten Kühler geht da evtl. um einiges mehr. Partner-Karten mit 2,4 GHz auf 260 W? Why not. Fände ich etwas viel, aber sind immer noch 60 W weniger als die 3080 und mit 2,4 GHz dreht das Ding Kreise um den grünen Schluckspecht.

    Außerdem wäre es eine sehr gute Erklärung für nVidias -- aus aktueller Sicht -- völlig irrationales Verhalten, diesen Launch dermaßen zu verkacken. Zumindest mit den Daten aus macOS 11, bleibt nur ein logischer Schluss: nVidia wurde eiskalt von AMD erwischt und hat TSMC massiv unterschätzt bzw. Samsung überschätzt.

    Was stellt den Samsung eigentlich primär mit diesem Prozess her? Außer ein paar Exynos-SoCs habe ich auf die Schnelle nichts gefunden -- die gehen außerdem auch schon teilweise auf 7 nm. Sie mögen die Node für nVidia noch leicht angepasst haben, aber wenn man bedenkt, wie teuer und aufwendig sowas ist, werden das wirklich nur minimale Modifikationen gewesen sein. Die neueren Prozesse laufen eh alle mit EUV, also sind Backports nicht möglich.
     
  13. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Gut, aber das hängt offenkundig von der RDNA2 Architektur ab. Ohne performantes Raytracing bei den Konsolen (sei es durch eine Softwarelösung oder wie auch immer) geht von diesen auch kein Push in diese Richtung aus. Trifft das hingegen zu, müsste es folglich automatisch auf die Desktop GPUs zutreffen. :nixblick:

    Früher hat man sich über solche Grafikkarten wenigstens noch angemessen lustig gemacht. Als nvidia die GTX 480 vorgestellt hat - Fermi - wurde das Ding im Netz als 'Thermi' und 'Nvidia Grillforce' verspottet. Ampere wurde bereits ab Werk korrekt bezeichnet und zu warm werden die Karten auch nicht, weil nvidia diesmal wirklich an einen Grillaufbau gedacht hat. Langweilig. :runter::ugly:
     
  14. BLUTSUCHT

    BLUTSUCHT
    Registriert seit:
    9. September 2005
    Beiträge:
    7.676
    Mein RIG:
    CPU:
    Ryzen 7 7700
    Grafikkarte:
    RTX 4070
    Motherboard:
    B650 ITX
    RAM:
    2x 16GB
    Laufwerke:
    WD SN770 1TB
    Intel 660p 2TB
    Soundkarte:
    Logitech G Pro X
    Gehäuse:
    Fractal Design Terra
    Maus und Tastatur:
    Corsair K70, Endgame Gear XM2we
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    LG UltraGear 27GL850-B
    Das ist dann mittlerweile Teil von C-States, das war früher mal getrennt (evtl. irgendwo immer noch bei einem anderen Hersteller), dann müsste das damit abgedeckt sein. Aber das hat dann auch nix gebracht, nehm ich an?
     
  15. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Die Konsolen hatten da aber oft ihre eigenen Tricks, die sich dann nicht auf den PC übertragen ließen. Zum Beispiel hätten einige der Sony PS4 exclusives lange nicht so brilliant ausgesehen und wären so stabil in 30fps gelaufen, könnte die Konsole kein Checkerboard Rendering. Die PS5 wird ähnliche Tricks beherrschen. Auf der Xbox One X wird man vermutlich wie üblich mit upscaling und dynamischer Auflösung arbeiten, aber nichts davon kam in der vorigen Generation an Checkerboarding ran.

    Das ist keine mit DLSS vergleichbare Technik (soweit ich das beurteilen kann), aber der Effekt ist ganz ähnlich. Man spart an tatsächlicher Auflösung, bekommt man ein ziemlich gutes 4K Bild. Auf den PC hat es diese Technologie nicht geschafft, aber wie Digital Foundry bei Death Stranding PC zeigt, ist DLSS 2.0 eh besser.

    Insofern muss AMD da seinen eigenen Weg finden und DLSS kontern. Sonst nützt denen die beste Raytracing Performance nicht.
     
  16. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.902
    Klingt schon alles sehr gut bei AMD, auch wenn die Speicheranbindung noch ein Rätsel ist.
    Bitte noch einen funktionierenden AV1-Decoder, der von Ampere scheint aktuell ja auch noch nicht zu funktionieren...

    Ich finds auch ironisch dass die Ampere-Karten ausgerechnet die Bezeichnung für Stromstärke tragen bei dem Stromverbrauch :hammer:

    Mit die am besten aussehenden PS4-Titel, Uncharted 4 und The Last Of Us 2 nutzen kein Checkerboard-Rendering. Lasst euch doch nicht so sehr von Lederjackes Marketing verunsichern.

    Ich verstehe den Markt echt nicht. Alle Welt lässt sich vom nVidia-Launch verunsichern und schließt AMD generell aus, obwohl die Ampere-Karten gerade weder wirklich lieferbar noch preiswert sind, noch das Konkurrenzprodukt zu kennen. Unfassbar einfach nur.

    Äh 85% der Steamspieler spielen in 1080p oder weniger, in 4k spielen unter 5%. Insofern nein, AMD muss zum RDNA2-Launch DLSS sicher nicht kontern. Es wäre gut und sie sollten da zeitnah was zeigen können, aber DLSS ist genauso wenig der sichere KO-Schlag für AMD wie es PhysX, GSync und Co in der Vergangenheit waren, vor allem solange der Enginesupport eingeschränkt bleibt.

    Die Konsolen haben eh viel weniger RT-Leistung und werden RT intern oftmals mit weit unter 4k-Auflösung berechnen.

    Und ja, wer unbedingt Control mit 60fps in 4k und vollem Raytracing spielen wil, braucht halt eine 3080. Genau wie man früher am besten 2 Geforces für volle PhysX-Effekte brauchte. Das heißt noch lange nicht, dass das für den gesamten Spielemarkt gültig war und alle dann nur nohc auf PhysX gesetzt haben.
    Raytracing ist ein Paradigmenwechsel, das krempelt den Markt nicht sofort komplett um. Zumal die Konsolen für mindestens die nächsten 5 Jahre wieder den kleinsten gemeinsamen Nenner bilden werden.
     
    Misie Gaming gefällt das.
  17. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Ich bin nicht sicher was du meinst. Ich spielte Spiele mit RTX und DLSS 2.0 und finde die Umsetzung sehr gut. Eigene Erfahrung. :nixblick:

    Wenn man in Spielen wie Control RTX an- und DLSS abschaltet, sinkt die Performance stark. In etwa der Unterschied zwischen einerseits knapp unter 60fps mit DLSS und 30fps ohne. Und so sieht es in den meisten Spielen mit RTX aus. Ohne DLSS, abseits einer RTX 2080 Ti, in Auflösungen ab 1440p --> unspielbar.
     
  18. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.902
    Dem habe ich nicht widersprochen. Das heißt aber eben nicht, dass ein Spielerleben ohne DLSS nicht mehr möglich ist.

    nVidia geht seit Ewigkeiten Partnerschaften mit Entwicklungsstudios ein, um ihre proprietären Technologien prominent zu platzieren, das ist doch jetzt echt nichts neues :ugly: Und in dem Stadium ist DLSS halt gerade. Kann sein, dass das mal zum Industriestandard wird, da es aber eben proprietär ist und, noch schlimmer, von ganz spezifischen Hardwareeinheiten abhängt, die Konkurrenten gar nicht anbieten können, und die meisten Entwickler ungern große Teile ihrer Spielerschaft ausschließen, würde ich eben nicht darauf wetten, dass das mal Standard wird. Selbst bei Gsync ist nVidia mittlerweile eingeknickt, trotz so ca. 75% Marktanteil bei PC-Spielern in den letzten Jahren, im Highend-Bereich wahrscheinlich noch mehr. Und das brauchte nicht mal einen Enginesupport in irgendeiner Form, sondern hat grundsätzlich immer funktioniert.
     
  19. Flachzange Like A Rolling Stone

    Flachzange
    Registriert seit:
    11. Juli 2005
    Beiträge:
    39.050
    Ort:
    und zu Flach
    ich bin mir sicher das AMD auch ein DLSS Gegenstück in RDNA2 einbaut bzw. haben sie ja eh schon mit RIS oder FidelityFX anderer Ansatz ich weiß aber man hat eh noch zu wenig Infos bzw. ist das alles eher wage.
     
  20. Macro82

    Macro82
    Registriert seit:
    26. Februar 2009
    Beiträge:
    3.373
    Ort:
    In da woods
    Mein RIG:
    CPU:
    Ryzen 9 5900x /Corsair Hydro 100i RGB Platinum SE
    Grafikkarte:
    Asus Dual 1060 oc 6gb
    Motherboard:
    MSI MEG ACE X570
    RAM:
    32 gb Corsair Vengeance
    Laufwerke:
    Crucial mx500 500GB SSD
    Crucial P5 CT1000P5SSD8
    2 TB ST2000LX001 Firecuda SSHD
    2 TB ST2000LX001 Firecuda SSHD
    250 GB seagate Barracuda
    250 GB Kingston SSD
    HL-DT-ST BDDVDRW CH10L (BC2A)
    Soundkarte:
    Kraken Tournament Edition / Onbord /Speedlink Gravity Carbon RGB 2.1
    Gehäuse:
    Corsair Icue 465x
    Maus und Tastatur:
    Corsair K100 RGB Platinum
    Ironwolf Gauntlet
    Betriebssystem:
    Windows 10 Pro 64 bit / Linux Mint 20
    Monitor:
    LG 34uc79g-b 34 Zoll Ultra Wide
  21. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Man darf nur nicht vergessen: Die Desktop Grafikkarten leisten pauschal mehr. Insofern wären die Konsolen so oder so viel eher auf etwas DLSS-artiges angewiesen, was sich auf den PC übertragen lässt. Das meine ich. Ich glaube auch nach wie vor nicht dass Raytracing/DLSS bereits durch die Decke geht sobald die Konsolen da sind. Das ist eher eine mittelfristige, als eine kurzfristige Sache. Die ganzen Spiele die aktuell in Entwicklung sind können die Entwickler nicht so leicht auf alles umstellen was gerade neu ist und selbst wenn das nachträglich per Patch kommt, dauert das noch. Was wir sehen werden ist eine Zunahme von Spielen mit Raytracing und DLSS, zweifellos. Das bedeutet nicht dass man Spiele ohne Raytracing und DLSS nicht mehr spielen kann oder dass es sie nicht mehr geben wird.

    Und außerdem... Raytracing funktioniert optisch in einigen Spielen schlicht nicht. Beispielsweise halte ich Raytracing bei Fortnite bislang für überwiegend sinnlos. Verschiedene Strategiespiele werden davon nicht profitieren, bei schnellen Shootern werden es die meisten im Multiplayer abstellen und so gibt es noch andere Gründe. Umgekehrt gibt es auch Spiele mit Raytracing bei denen DLSS nur denen etwas bringen würde die es gar nicht nutzen können, weil sie keine RTX im Rechner haben. Nur weil es gerade neue GPUs gibt werden nicht alle direkt neue GPUs kaufen. Bei den Preisen werde ich wahrscheinlich auch selbst nie wieder eine High End GPU kaufen solange sie im Folgejahr bereits für 200-300€ als Mid-Range zu haben ist. Daher erreicht nvidia auch nur einen kleinen Teil selbst der eigenen Kunden. Das sind zahlenmäßig zwar viele, aber bei weitem nicht die Mehrheit.

    Die Mehrheit hat noch immer irgendwelche GTX 900/1000 Chips die in OEM Maschinen verbaut sind oder schlicht der beste Kompromiss aus Preis/Leistung waren. Der Mainstream gibt deshalb auch weiterhin den Takt an. Das sind vor allem die Konsolen und beim PC überwiegend Quadcores der letzten 10 Jahre mit 8-16GB RAM, GPUs mit 4-8GB VRAM. Die Umwälzungen die stattfinden werden beginnen erst mt der next gen und den neuen GPUs/Komplett-PCs die ab diesem Jahr angeschafft werden. Aber dazu müssen die auch erstmal da sein. Und ich glaube kaum dass AMD nach FidelityFX gesagt hat "so, das reicht, jetzt machen wir nichts mehr"... alles zu seiner Zeit. :p
     
  22. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Nope. Hab die C-State Control sowohl auf Enabled als auch auf Auto getestet. hat beides nicht funktioniert.
    Das ist wirklich sehr seltsam irgendwie.
    Allerdings verbraucht die CPU laut HWInfo im Idle dennoch nur knapp 30 Watt, also eigentlich ja alles normal oder nicht?
    Vielleicht liest auch HWInfo einfach verkehrt aus, keine Ahnung.
     
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.902
    badtaste21 gefällt das.
  24. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
  25. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Lurtz gefällt das.
  26. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Indem nvidia erst ganz kurz vor Release richtige Treiber rausgegeben hat.

    Vorher war das viel stochern im Dunkeln und Tests nur über ganz simple tools von nvidia ohne Auswertung
     
  27. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Es wird spannend...die beiden Einzel-Stromkabel für PCIe sind da! :eek: :ugly: Die Tage folgt dann noch ein neues Netzteil. Dank 80+ Gold macht es auch kein Unterschied, der tatsächliche Verbrauch vom System erhöht sich dadurch nur marginal.

    Tja und dann...bin ich für alles bereit. Auch für die kommenden 450W Monster von AMD. Hier habt ihr es zuerst gelesen! :wahn:
     
  28. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Hehe :D ich teste erstmal mit meine 750w...

    Dürfte aber eng werden um das Powerlimit der Strix auszunutzen :D (480w + cpu sind schon 600w... Ohne Spikes und ohne restliche hw)
     
  29. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Das Powerlimit der Strix ist unnötig und bekloppt, oder? :confused: Ehrm...asking for a friend. :wahn:
     
  30. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Bei der 3090 scheint es nur wenig zu bringen, 3080 reviews gibt's noch nicht.

    Aber es kann auch gut sein, dass unter Luft die 480w garnicht ausgenutzt werden, da die Karte zu heiß wird.


    Ps: ich Werd die Karte natürlich nicht dauerhaft da betreiben... Die wird wenn der Chip es zulässt im Alltag so irgendwo um 250w betrieben.
     
  31. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Ich betreibe meine GTX 1080 mit nur einem Kabel xD
    Das mache ich also schon seit Jahren falsch xD
     
  32. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.974
    Ich schätze da gehts um die Chinakracher-Netzteile.
     
  33. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Bei den 3080 is das aber wohl echt out of spec. Diese dual Kabel können wohl 288w. +70w von pcie = 358w.

    Bei Karten wie der 3080 tuf mit 375w limit is das out of spec
     
  34. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.974
    Je nach Hersteller halt. :nixblick:

    Ich habe keine Zweifel dass ein zB Bequiet auch 300 Watt durch 2x8 Pin durchbringt, auch wenns am gleichen Strang ist.
     
  35. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Wir können die drei Hanseln, die weltweit schon mal eine 3080 ausgepackt haben, leider nicht fragen. Aber das mindestes was ich erwarte, wenn man so einen Karton öffnet, ist ein A4 Blatt mit Instruktionen, das an zwei einzelne Kabelstränge anzuschließen. :D
     
  36. BLUTSUCHT

    BLUTSUCHT
    Registriert seit:
    9. September 2005
    Beiträge:
    7.676
    Mein RIG:
    CPU:
    Ryzen 7 7700
    Grafikkarte:
    RTX 4070
    Motherboard:
    B650 ITX
    RAM:
    2x 16GB
    Laufwerke:
    WD SN770 1TB
    Intel 660p 2TB
    Soundkarte:
    Logitech G Pro X
    Gehäuse:
    Fractal Design Terra
    Maus und Tastatur:
    Corsair K70, Endgame Gear XM2we
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    LG UltraGear 27GL850-B
    Ja, nun... nein. :D
     
  37. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Ausschließen kann man nichts, wenn man bedenkt dass alles so zeitlich knapp war wie es vielfach kolportiert wurde. Es wäre allerdings auch nicht unbedingt möglich (bzw. sinnvoll) die potentiell vielzähligen Design- und Produktionsfehler um die es hier mutmaßlich geht allein mit einem Treiber zu beheben. Daher scheint der jetzige Stand auf Wechselwirkungen hinzudeuten die ebenso individuell wie multikausal sein können. Die Kondensatoren sind wohl ein Teil der Problematik, aber was man dem Material zumutet ist generell nicht ohne.
     
  38. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.274
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Und die billigen Netzteile so:

    [​IMG]
     
  39. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    klar geht das in einem gewissen rahmen. Die extrem OCer jagen mit LN2 ja auch mal gerne deutlich mehr als 525W durch so ne Karte (spec limit für 3 x 8pin).

    Kann aber natürlich nicht die offizielle Empfehlung von Nvidia sein das ganze out of spec zu betreiben.
     
  40. Doktor Best

    Doktor Best
    Registriert seit:
    9. August 2005
    Beiträge:
    16.978
    Laut Nvidia Subreddit gibts anscheinend einen neuen Treiber der die Crashes fixt. War das ganze Huabei um die Kondensatoren womöglich doch übertrieben?
     
Top