Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Disqualifizieren wird sie sich dadurch nicht per se. Aber für mich ist die Preis-/Leistungsfrage und der Blick in die Zukunft ausschlaggebend. Denn es ist schon einigermaßen schwer vermittelbar warum ein womöglich günstigerer Komplett-PC wie eine Konsole 16GB GDDR6 haben kann und eine einzelne 3070 nicht. Außerdem gibt es seit vielen Jahren GPUs mit 8GB oder mehr und gerade bei einem solchen Generationswechsel sowohl bei den Konsolen als auch bei der GPU Leistung kann ich mir kaum vorstellen dass man bis in 2-3 Jahren mit den 8GB einer 3070 immer noch so glücklich ist wie man sich das aktuell vorstellt.

    Diese Illusionen haben sich einige damals bei der R9 Fury/X und nano auch gemacht. Was da alles kolportiert wurde, von wegen die Speicherkomprimierung und die schnelle Anbindung würde es richten, AMD hat es doch versprochen. :ugly: Sicherlich spielte das tatsächlich eine Rolle und zumindest die nano ist auch immer noch in Ordnung, aber VRAM limitiert und das war schon damals klar. Ebenso dass 4GB HBM mit 512GB/s keine R9 390 mit ihren 8GB GDDR5 und 384GB/s ausstechen können. Der 3070 haben sie aber nicht mal den schnelleren GDDR6X spendiert, sondern nur den GDDR6. Außerdem kommen noch zwei andere Faktoren hinzu: Was bietet AMD? (wahrscheinlich 16GB) Und bewahrheiten sich die Gerüchte um die 3070 ti/S mit 16GB VRAM? (wahrscheinlich schon, sei es nur um AMD zu kontern)

    Zusammengefasst:

    - weniger VRAM als bisher in der Leistungsklasse
    - kein schnellerer Speicher
    - eine Preisklasse in der 16GB locker drin wären
    - womöglich günstigere Konsolen mit dennoch mehr VRAM (shared, aber ist nunmal so)
    - Preis (?)
    - bis in 2-3 Jahren sind 8GB vermutlich da wo 4GB heute sind
    - sowohl AMD als auch nvidia bieten womöglich später noch Modelle mit mehr VRAM

    Es muss jeder selbst wissen ob er angesichts dieser Aspekte sofort zugreift und warum. Auch dafür gibt es Gründe. Ich würde es nur nicht empfehlen solange AMD nicht auch seine Modelle vorgestellt hat und überhaupt klar ist wie sich das alles im Gesamtbild dieser neuen GPU (und Konsolen-) Generation einordnet. Hier wird einiges neu sortiert und dennoch zur Standardausstattung in punkto VRAM zu greifen die man schon mindestens 5 Jahre hatte erscheint mir nicht unbedingt naheliegend. :nixblick:
     
    Lurtz gefällt das.
  2. UrShak error 404

    UrShak
    Registriert seit:
    3. Februar 2003
    Beiträge:
    2.554
    Danke erstmal für die Antworten.
    Bin wirklich gespannt auf die Reviews morgen, bin mir aber nicht sicher, ob ich dann doch einfach zur 3080 FE greife, falls diese durchweg positiv ausfallen.
    Falls nicht werde ich noch bis Ende Oktober warten und mir dann einen Überblick verschaffen, auch wenn es mir durchaus in den Fingern juckt endlich mal was neues zu holen, die GTX 960 hat ihren Dienst wirklich getan und ist eigentlich mit allem überfordert.

    Oder ich trinke Donnerstag drei Bier und bestelle mir dann was mit fancy RGB Beleuchtung für 800 Euro. :ugly:
     
  3. Doktor Best

    Doktor Best
    Registriert seit:
    9. August 2005
    Beiträge:
    16.978
    Kann man auf der Nvidia Homepage eigentlich mit Paypal oder Lastschrift zahlen, oder geht da nur Kreditkarte?
     
  4. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.557
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Ganz einfach: Höhere Frameraten bei der Auflösung = Mehr Spielraum für einen längeren Zeitraum.

    Ich habe sowieso nie verstanden, warum man sich für Auflösung XY eine ganz bestimmte Karte kaufen sollte. So lange man das Budget dafür hat, dann sollte man sich auch die entsprechende Grafikkarte kaufen und nicht an Komponenten geizen.
    Selbst eine 5700XT ist nicht leistungsstark genug, um in WQHD jedes aktuelle Spiel mit 100 Frames darzustellen.
     
    Zuletzt bearbeitet: 15. September 2020
    DaHell63 gefällt das.
  5. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    paypal soll gehen
     
  6. ActionNews Linux-User

    ActionNews
    Registriert seit:
    14. April 2001
    Beiträge:
    11.727
    Mein RIG:
    CPU:
    AMD Ryzen 9 7950X3D
    Grafikkarte:
    PowerColor Radeon RX 7900XTX Red Devil
    Motherboard:
    ASUS ROG Strix B650E-E Gaming WIFI
    RAM:
    32GB G.Skill 6000MHz CL30-38-38-96
    Laufwerke:
    - 1TB FireCuda 530 M.2-NVMe SSD
    - 2TB FireCuda 530 M.2-NVMe SSD
    - 2 TB Sabrent Rocket Q M.2-NVMe SSD
    - 1 TB Crucial MX500 SATA-SSD
    Gehäuse:
    Fractal Design Meshify S2 Light Tinted Tempered Glass
    Maus und Tastatur:
    Logitech MX Mechanical Tastatur
    Logitech MX Master 3S Maus
    Betriebssystem:
    Windows 11
    Monitor:
    27" IPS 144Hz Aorus AD27QD
    Naja warum sollte ich eine Grafikkarte auf "Vorrat" kaufen? Bis ich die Leistung brauche bekomme ich wahrscheinlich eine schnellere und günstigere Karte dank neuer Generation.
    Und die 5700XT ist zumindest meist für 90 FPS gut ... na gut in den Spielen die ich spiele .. mag sein, dass es da auch Spiele gibt die vielleicht bei 70-80 liegen wenn ich mir so toms hardware benchmarks anschaue. Und vielleicht haben da Andere andere Prioritäten, aber für mich ist 60+ FPS flüssig genug. Mag was anderes sein wenn ich Profi-Esports-Spieler bin, aber ob ich da 90 oder 144FPS habe macht da den Kohl wohl auch nicht mehr fett. Da kommt es doch eher auf das Können an. Aber gut da bin ich alter Sack mit meinen 40 eh raus ;).
     
  7. *Edit* Glaub ich hab was gefunden
     
    Zuletzt von einem Moderator bearbeitet: 15. September 2020
  8. Freystein it’s triple A in person!

    Freystein
    Registriert seit:
    16. April 2020
    Beiträge:
    5.557
    Mein RIG:
    CPU:
    AMD Ryzen 5 3600
    Grafikkarte:
    Powercolor RX 5700 XT Red Dragon
    Motherboard:
    MSI B450 TOMAHAWK MAX
    RAM:
    16 GB
    Laufwerke:
    Crucial MX 500
    Samsung 970 EVO
    Ich bin auch erst vor knapp 8 Monaten von einem 60hz zu einem 144hz Feesync Monitor gewechselt und der Unterschied ist deutlich spürbar, dafür braucht man keine Esport Spiele zu spielen.

    Ich merk das selbst, wenn ich von hohen Framerates zu 60 fps runtergehe, da fühlt sich das Spielgeschehen dann nicht mehr ganz so rund an.

    Nachteil ist zwar, dass man die entsprechende Hardware dafür braucht, aber wenn man erstmal die hohen Frames erreicht, dann möchte man das kaum noch missen.
     
  9. Den Unterschied spürst du sogar unter Windows :ugly:
     
  10. Wird es die FE eigentlich ausschließlich bei Nvidia geben oder kann man die auch bei den bekannten Onlinehändlern bestellen?
     
  11. TouchGameplay

    TouchGameplay
    Registriert seit:
    17. Oktober 2016
    Beiträge:
    1.509
    Ort:
    Erde
    Mein RIG:
    CPU:
    AMD Ryzen™ 9 5950X
    Grafikkarte:
    Gigabyte GeForce RTX 3090 Ti Aorus Xtreme Waterforce
    Motherboard:
    MSI X570 Unify
    RAM:
    PATRIOT VIPER STEEL 128GB DDR4 3600MHZ CL18
    Laufwerke:
    Western Digital WD_BLACK SN850X 2 TB
    Western Digital WD_BLACK SN850X 4 TB
    Soundkarte:
    Creative Sound Blaster Zx
    Gehäuse:
    Sharkoon Elite Shark CA200M
    Maus und Tastatur:
    Logitech G910 Orion Spectrum/Logitech G900 Chaos Spectrum
    Betriebssystem:
    Windows 11
    Monitor:
    Samsung OLED G9 (LS49CG954SUXEN)
    Direktvertrieb von Nvidia.
     
    1 Person gefällt das.
  12. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Amazon.fr hat mir grad geschrieben, dass die Strix doch schon diese Woche kommen soll :banana:

    Da sie die Bestellung bzw das Produkt offensichtlich bearbeiten nehm ich das such als gutes Zeichen, dass sie nichtmehr gecancelt wird
     
  13. ActionNews Linux-User

    ActionNews
    Registriert seit:
    14. April 2001
    Beiträge:
    11.727
    Mein RIG:
    CPU:
    AMD Ryzen 9 7950X3D
    Grafikkarte:
    PowerColor Radeon RX 7900XTX Red Devil
    Motherboard:
    ASUS ROG Strix B650E-E Gaming WIFI
    RAM:
    32GB G.Skill 6000MHz CL30-38-38-96
    Laufwerke:
    - 1TB FireCuda 530 M.2-NVMe SSD
    - 2TB FireCuda 530 M.2-NVMe SSD
    - 2 TB Sabrent Rocket Q M.2-NVMe SSD
    - 1 TB Crucial MX500 SATA-SSD
    Gehäuse:
    Fractal Design Meshify S2 Light Tinted Tempered Glass
    Maus und Tastatur:
    Logitech MX Mechanical Tastatur
    Logitech MX Master 3S Maus
    Betriebssystem:
    Windows 11
    Monitor:
    27" IPS 144Hz Aorus AD27QD
    Ich habe selbst einen 144Hz Monitor ... und ja man merkt wenn es über 60Hz geht ... zumindest gefühlt. Aber ich würde sagen ob 90 oder 120 FPS merkt man dann schon nicht mehr. Und das Schafft sogar die 5700XT meist locker. Was ich für keine Gute Idee halte ist ein einem Spiel mit G-Sync oder FreeSnyc Monitor anschlag an der Maximal Frequenz des Monitors zu betreiben, denn das hebelt G-Sync/FreeSync aus und gerade ohne Radeon Chill verpufft jede Mehrleistung der Grafikkarte in Abwärme.
     
  14. SchnabeltierX

    SchnabeltierX
    Registriert seit:
    27. Juni 2019
    Beiträge:
    217
    Mein RIG:
    CPU:
    Ryzen 3700x (Bequiet Dark Rock 4)
    Grafikkarte:
    RX6900XT
    Motherboard:
    Asrock X570 Pro 4
    RAM:
    16GB DDR4 3,2ghz HyperX Fury RGB
    Laufwerke:
    1TB Silicon NVME SSD gen 3
    1TB Samsung SSD Sata
    2TB Crucial BX500 SSD Sata
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Maus:Logitech G402
    Tastatur: Silver Crest
    Betriebssystem:
    Windows 10
    Monitor:
    Lenovo L24i-10 Netzteil: Corsair RMI 650W 80+ Gold
    Aber ist Free-Sync nicht dafür da,das der Bildschirm sich der FPS Leistung der Grafikkarte anpasst und soweit ich weiß,hat fast kein Spiel einen FPS Begrenzer eingebaut?
     
  15. the_mkay

    the_mkay
    Registriert seit:
    27. November 2012
    Beiträge:
    19.735
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    NVIDIA GeForce RTX 4090 Windforce 24G
    Motherboard:
    ASUS ROG STRIX B650E-F GAMING WIFI
    RAM:
    G.SKILL Trident Z5 Neo 32GB Kit (2x16GB) DDR5-6000 CL30 EXP
    Gehäuse:
    Fractal Design Define R6
    Maus und Tastatur:
    Logitech G PRO X SUPERLIGHT
    Logitech G710
    Betriebssystem:
    Windows 10
    Monitor:
    Alienware AW3821DW (38 Zoll Ultrawide, 3840x1600, 144Hz)
    Es synct nur die FPS mit der Frequenz des Monitors. MSI Afterburner hat einen FPS Counter eingebaut.
     
  16. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    Andersherum. Die Frequenz des Monitors wird an die gerade anliegenden FPS der GPU angepasst. Das bringt eben tatsächlich nichts, wenn die FPS = Maximale Frequenz des Monitors sind.
     
  17. ActionNews Linux-User

    ActionNews
    Registriert seit:
    14. April 2001
    Beiträge:
    11.727
    Mein RIG:
    CPU:
    AMD Ryzen 9 7950X3D
    Grafikkarte:
    PowerColor Radeon RX 7900XTX Red Devil
    Motherboard:
    ASUS ROG Strix B650E-E Gaming WIFI
    RAM:
    32GB G.Skill 6000MHz CL30-38-38-96
    Laufwerke:
    - 1TB FireCuda 530 M.2-NVMe SSD
    - 2TB FireCuda 530 M.2-NVMe SSD
    - 2 TB Sabrent Rocket Q M.2-NVMe SSD
    - 1 TB Crucial MX500 SATA-SSD
    Gehäuse:
    Fractal Design Meshify S2 Light Tinted Tempered Glass
    Maus und Tastatur:
    Logitech MX Mechanical Tastatur
    Logitech MX Master 3S Maus
    Betriebssystem:
    Windows 11
    Monitor:
    27" IPS 144Hz Aorus AD27QD
    FreeSync bzw G-Sync sorgt nur dafür, dass der Monitor sein Bild aktualisiert wenn ein Frame/Bild auch tatsächlich fertig im Speicher der Grafikkarte liegt. Das geht natürlich nur wenn die Grafikkarte nicht schneller Bilder schickt, als der Monitor sich aktualisieren kann. Bei einem 144Hz Monitor sind das 144 Bilder pro Sekunde. Schneller geht nicht. Liefert die Grafikkarte also mehr als 144 FPS ist das völlig verschwendet, denn wenn die Grafikkarte jetzt schneller oder langsamer Bilder fertig rendert und einfach in den Speicher schreibt, Kann es sein, dass der Monitor refresht während das nächste Bild noch erzeugt wird. Das verursacht das so genannte Tearing wo du im Bild einen Querstrich siehst oberhalb siehst du dann schon das neue Frame/Bild und unterhalb ist noch das alte Frame/Bild zu sehen, weil die Grafikkarte noch nicht fertig war. Das kann man auf zwei Arten vermeiden. A) Du nutzt das oben genannte FreeSync oder G-Sync bei dem die Grafikkarte sagt ok ich bin fertig refresh dich. Das geht aber nicht schneller als die maximale Refreshrate des Monitors. Oder B) du schaltest VSync ein. Da ist es umgekehrt. Der Monitor sagt der Grafikkarte ich refreshe jetzt mein Bild gibt mir das neue. Ist die Grafikkarte schneller bei ihren Berechnungen hast du also eine Totzeit und die Grafikkarte wartet auf den Monitor oder ist die Grafikkarte nicht schnell genug für die maximale Refreshrate wird die oft dann halbiert oder gar geviertelt damit die Grafikkarte innerhalb der Zeit mindestens ein komplettes Bild schicken kann.
     
    nofxman und Tribal Tattoo gefällt das.
  18. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
  19. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.454
  20. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    [​IMG]

    So viel zu AMDs schlechtem Software-Stack und miesen Treibern, wa? Navi 10 ist sehr gut gealtert und liegt heute locker gleichauf mit einer RTX 2070 Super.
     
    ActionNews gefällt das.
  21. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.625
    Die 5700 XT ist inzwischen auch ~ 100€ günstiger. Anders gesagt bekommt man zum Preis einer 2060S die Leistung einer 2070S die sich oftmals etwas besser übertakten lässt. Die Treiberprobleme Anfang des Jahres waren trotzdem nicht in Ordnung und das würde ich deshalb nicht außer Acht lassen. Stabilität ist ein noch wichtigerer Faktor als Leistung und den zu vernachlässigenen kann sich AMD nicht erneut erlauben.
     
  22. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    https://www.computerbase.de/2020-09/geforce-rtx-3080-test/

    Bestimmt weil RDNA2 so stark ist! :yes: :wahn:

     
  23. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    Raff von PCGH hat wie immer eine klare Meinung zur Speicherausstattung:
    https://www.pcgameshardware.de/Gefo...Tests/Test-Review-Founders-Edition-1357408/6/
     
  24. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
  25. -Rake-

    -Rake-
    Registriert seit:
    23. Februar 2009
    Beiträge:
    949
    Na dann hoffen wir mal auf Ryzen 4000 :D

    Ich mein, ist ja eh eher was fürs Ego. Mein Ryzen 5 3600 reicht mir erstmal locker für alles.
     
  26. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    Würde AMD sowas releasen, würden alle rumtröten was das für ein Stromschlucker sei :ugly:

    Ist auch nur in Anno so extrem. Die Engine hat schon immer Intel-CPUs geliebt.
     
    ActionNews gefällt das.
  27. MadCat N7 Moderator

    MadCat
    Registriert seit:
    29. Februar 2000
    Beiträge:
    71.331
    Ort:
    Delta-Quadrant
    Mein RIG:
    CPU:
    AMD Ryzen 7 7800X3D
    Grafikkarte:
    PNY GeForce RTX 4090 XLR8
    Motherboard:
    Asus TUF Gaming X670E-Plus
    RAM:
    64 GB G.Skill Trident Z NEO DDR5-6000 CL30
    Laufwerke:
    Samsung 980 Pro 2 TB
    Samsung 970 Evo Plus 2 TB
    2x WD SN850X 4 TB
    Soundkarte:
    Nubert nuBox A-125, Razer BlackShark V2 Pro
    Gehäuse:
    Fractal Torrent, Corsair AX850
    Maus und Tastatur:
    Keychron Q1 mit Gateron Oil Kings
    Razer Viper V2 Pro
    VKB Gladiator Evo
    Thrustmaster TCA Quadrant Airbus Edition
    Virpil Mongoos T-50CM3
    MFG Crosswind V3
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    Samsung Odyssey Neo G7
    Interessant, dass die 3080 bei 270 W Powerlimit nur vier bis fünf Prozent Leistung verliert (siehe Computerbase). Der Samsung 8 nm-Prozess scheint in der Hinsicht wirklich nicht so toll zu sein, wenn die paar MHz mehr offenbar erheblich mehr Spannung brauchen. Das könnte der große Vorteil von AMD sein, wenn sich Big Navi dank TSMC N7P oder vielleicht ja sogar N7+ deutlich höher takten lässt, ohne so viel Spannung zu fressen.
     
    ActionNews gefällt das.
  28. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    Wieso geht man eigentlich zu Samsung, wenn man TSMC haben kann? :confused: Höhere Marge für nVidia?
     
  29. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    [​IMG]

    :huch:
     
    -Rake- gefällt das.
  30. Hive

    Hive
    Registriert seit:
    21. Mai 2000
    Beiträge:
    47.182
    Mein RIG:
    CPU:
    AMD Ryzen 5 5600G
    Grafikkarte:
    Lenovo OEM RTX 3060
    Motherboard:
    Gigabyte B550M DS3H AC
    RAM:
    SK Hynix DDR4 3200Mhz
    Laufwerke:
    512GB PCI-E 4.0 NVMe SSD
    Soundkarte:
    Realtek ALC897
    Gehäuse:
    Lenovo Legion T5
    Maus und Tastatur:
    Microsoft Sculpt Ergonomic Keyboard
    Logitech MX Master
    Betriebssystem:
    Windows 10
    Monitor:
    2x Dell U2415
    Scheint so. AdoredTV hat im letzten Video das mal veranschaulicht, ab 14:25

    https://www.youtube.com/watch?v=tXb-8feWoOE
     
  31. nofxman

    nofxman
    Registriert seit:
    22. Februar 2011
    Beiträge:
    3.085
    Mein RIG:
    CPU:
    R7 7700X @65W TDP & -30 Curve optimization
    Grafikkarte:
    PALIT RTX 4070
    Motherboard:
    ASrock X670E PG Lightning
    RAM:
    32GB DDR5 6000 Mhz G.Skill
    Laufwerke:
    2 TB Cucial P3 PCIE Gen4 NVME
    2x 1TB Crucial P3 PCIE Gen3 NVME
    1TB Crucial SATA SSD
    4GB HDD
    Soundkarte:
    Ahahahahahaha ahahahahahahaha. Ne.
    Gehäuse:
    BeQuiet SilentBase
    Maus und Tastatur:
    Glorious GMMK 1 + Steelseries Prismcaps
    + Logitech MX Vertical
    Betriebssystem:
    Win 11 (leider! HMPF...)
    Monitor:
    Acer Predator 144Hz WQHD Gsync + LG 4K Freesync/HDR
    Sprich die Effizienz ließe sich mit undervolting und Power Limit senken DRASTISCH steigern?
    Hm dann muss ich doch nochmal überlegen.
    Hab eigentlich kein Bock mehr Strom als mit meiner 2080 zu verbrauchen.
    Das geht 2020 gar nicht.:nixblick:
     
    mad_layne gefällt das.
  32. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.276
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Das trifft doch aber sicherlich nicht auf viele Spiele zu, oder? Oder auf alle, sollte ich mich für 720p entscheiden. :ugly:

    Damals mit der GTX 1070 sagte mir der Gears 5 Benchmark: 95,5% GPU bound. Ich rüstete auf die RTX 2070 Super auf. Das Ergebnis: 95,5% GPU bound. Hab schon überlegt ob ich die CPU einfach weglasse, braucht er ja eh nicht. :nixblick: :hmm: :ugly:²
     
  33. Xizor kann oft nicht so gut mit Bildern

    Xizor
    Registriert seit:
    23. Juli 2007
    Beiträge:
    19.995
    Ort:
    Kiel
    So, jetzt bitte einen ordentlichen Konter von AMD und dann ein Gegenkonter mit einer 3080Ti/Super mit 20GB für ~900€, lieferbar bevor Cyberpunk rauskommt. Dann schlag ich zu. :wahn:
     
  34. -Rake-

    -Rake-
    Registriert seit:
    23. Februar 2009
    Beiträge:
    949
    Heiliges bisschen. Was soll man jetzt davon halten? Reicht dann mehr oder weniger nichtmal ein 750W Netzteil? Oder kann ein Netzteil in der kurzen Zeitspanne 100-200W über seiner eigentlichen Spezifikation betrieben werden?

    Bei irgend ner Custom 3080 (oder wars 3090?) Vorstellung hat der Entwickler was davon gelabert das an einem LCD Display (oder einfach nur lLampen, weiß nicht mehr genau), angezeigt wird wenn das Netzteil in manchen Situationen eigentlich zu wenig Leistung bringt. Also heißt das die taktet einfach runter wenn nicht genug Netzteil Power vorhanden ist?

    Fragen über Fragen :ugly:
     
  35. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    AMD kann passieren, aber vorm Früjahr wirds keine Ti geben
     
  36. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    99.908
    Golem hat mit 220 Watt getestet und dabei ca. 11% verloren:
    https://www.golem.de/news/geforce-r...eistung-zum-gleichen-preis-2009-150508-6.html
     
    nofxman gefällt das.
  37. -Rake-

    -Rake-
    Registriert seit:
    23. Februar 2009
    Beiträge:
    949
    Soviel zu deren Aussage das sie die extra Watt 1:1 in Leistung umsetzen... Crazy.
     
  38. Misie Gaming Blogbuster

    Misie Gaming
    Registriert seit:
    13. September 2018
    Beiträge:
    1.622
    Mein RIG:
    CPU:
    Intel Xeon E3-1231 v3 unter Alpenföhn K2 mit zwei Noiseblocker Multiframe M12
    Grafikkarte:
    Sapphire Radeon RX 570 Nitro+ 4 GB unter Prolimatech MK-26 mit zwei Blue Vortex 14
    Motherboard:
    Gigabyte GA-H97-HD3
    RAM:
    2x 4 GB Crucial Ballistix Sport + 2x 4 GB GeIL EVO Corsa DDR3, 1600 MHz, CL9-9-9-24
    Laufwerke:
    Samsung 840 Evo 120 GB
    OCZ Trion 150 240 GB
    Crucial MX500 500 GB
    Soundkarte:
    AKG K702 an Xonar D1 mit UNi Driver, Equalizer APO und HeSuVi
    Gehäuse:
    Antec Eleven Hundred mit drei Noiseblocker Multiframe M12, einem Corsair ML140 und einem Scythe Slip Stream 120
    Maus und Tastatur:
    Sharkoon Draconia
    SpeedLink Parthica
    PSU: be quiet! Pure Power L8 CM 530 Watt, Lüfter durch Noiseblocker Multiframe M12 ersetzt
    Betriebssystem:
    Windows 10 Pro 64 Bit
    Monitor:
    iiyama G-Master GB3461WQSU-B1 Red Eagle
    Warum nVidia wohl Borderlands 3 und Co. nur in 4K gezeigt hat. x)

    [​IMG]
     
  39. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.306
    Is halt nich die schuld von nvidia. Die Karte hat genug power um oft ins CPU limit zu laufen.Das passiert dir aber auch schon innerhalb der 20xx serie, wo in far cry new dawn die 2070 nur 4 fps unter der 2080Ti is

    Macht für 1080p halt echt nur sinn, wenn man rtx auf max usw nutzen will. Ansonsten hat man quasi keine vorteile zur 2080ti.

    In 1440p wirds dann besser und in 4k lohnt es sich.
     
  40. Immortal technique

    Immortal technique
    Registriert seit:
    28. Oktober 2011
    Beiträge:
    6.737
    Imagine buying a 3080 for 1080p lmao
     
Top