Der Hardware-Laberthread Vol. 2

Dieses Thema im Forum "Hardwareforum" wurde erstellt von hugehand, 6. Juli 2016.

  1. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Sowas wäre vor dem Hintergrund dass nvidia bei den Referenzkarten den neuen 12-pin Anschluss hat natürlich umso kurioser, aber ich würde vermuten dass drei 8-pins in den meisten Fällen ausreichen. Die EVGA 2080 ti Kingpin hat immerhin schon drei 8-pin Anschlüsse und das sind (solange man sich an die Spezifikationen hält) bereits 525 Watt - die sie nicht braucht, aber man wollte keine Limits bei dem Modell. Wenn das für eine custom 3090 nicht reichen sollte werden sowieso die meisten erstmal ein leistungsfähigeres Netzteil anschaffen müssen. :p
     
  2. -Rake-

    -Rake-
    Registriert seit:
    23. Februar 2009
    Beiträge:
    949
    Bei einer 1500-2000€ Karte wird ein neues Netzteil noch das kleinste Problem sein :jumbo:
     
  3. Dragonor

    Dragonor
    Registriert seit:
    20. März 2002
    Beiträge:
    3.425
    Zuletzt bearbeitet: 23. August 2020
    ActionNews gefällt das.
  4. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Ich sehe das nicht als kleinstes, sondern als Teil des Problems an. Wenn ich für eine solche GPU extra ein neues Netzteil brauche ist die Karte effektiv noch teurer.
     
  5. Kami_Syro

    Kami_Syro
    Registriert seit:
    30. Mai 2011
    Beiträge:
    1.129
    Was ich mit am meisten Frage, ist dieser neu 12pol stecker sinnvoll? ein 8pol ist ja für 300Watt gedacht. Das heist ja das 2 davon auch 600Watt schaffen. Jetzt hat Nvidia nen 12pol gemacht der 600Watt kann, dem aber 4 Pole fehlen und der auch noch kleiner ist als die alten Stecker (zumindest sieht es auf den Bildern die Dragonor verlinkt hat so aus).
    Waren die alten einfach überdimensioniert, oder ist der neue komplett auf Kante genäht, oder was dazwischen. Man wählt ja seinen Leiterquerschnitt nicht aus Jux und Dollerei. Werden die neuen Kabel wärmer als die anderen und wenn ja wieviel? Oder macht das garnix.
    Und selbst wenn das alles kein Problem ist und der Stecker gut und sinnvoll ist, warum macht dann NVidia hier wieder so ne Onemanshow?
    Was ist mit AMD oder diesem Verband/Konsorzium das die alten Stecker standardisiert hat?
    Fragen über Fragen und das alles nur wegen nem blöden Stecker. :topmodel:
     
  6. DaHell63

    DaHell63
    Registriert seit:
    3. März 2020
    Beiträge:
    466
    Mein RIG:
    CPU:
    i7 3930K @4.2GHz
    Grafikkarte:
    GTX 980Ti
    Motherboard:
    X79-GA UD3
    RAM:
    4x4GB 2133MHz DDR3 G.Skill
    Laufwerke:
    256GB 850 Pro
    Soundkarte:
    Onboard
    Betriebssystem:
    WIN 10 pro
    Ein 8 Pin Stecker bedeutet 150W.
    Ein 6 Pin 75W.
    Über den PCI-E Slot werden nochmals 75W Verfügung gestellt.
    Laut Spezifikation. Durchjagen und schaffen kann man durchaus mehr.

    Was letztendlich der 12 Pin Stecker bereitstellen kann/wird werden wir wohl erst bei realen Tests sehen.
     
    Zuletzt bearbeitet: 24. August 2020
  7. Kami_Syro

    Kami_Syro
    Registriert seit:
    30. Mai 2011
    Beiträge:
    1.129
    Ok, dann hab ich beim googlen mist gefunden, war mir nämlich nicht mehr sicher wieviel Watt es jewals wahr. Aber das macht es ja nicht besser
     
  8. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    Sind halt die offiziellen specs. Zum overclocken kann man da, zur not mit kleinen hardwaremods, auch mehr drüber ziehen.

    Die neuen 12pin dürften jetzt eher am jeweiligen limit sein.

    Wäre wenn dann aber bitte auch dafür, dass der 12pin dann auch bei custom karten standard wird... Das bringt zwar jetzt kurzfristig nix und man wird adapter hin und her brauchen, aber langfristig könnte sich dann n 12pin an den netzteilen etablieren und man hätte nurnoch 1 kabel...

    e: argh, überlesen, dass er schon schrieb, dass auch mehr geht -.-
     
  9. ancalagon Alarmarzt Meier-Wohlfühl

    ancalagon
    Registriert seit:
    26. September 2001
    Beiträge:
    48.293
    Ort:
    das muss "aus" heíßen nich "von" :p
    Irgendwie machen mir die GraKa Preise echt sorgen.. als ich meine 1080 gekauft habe, war damals Krypto-Hype und alles sau teuer. Aber jetzt? Es wird doch eigentlich gar nicht mehr in Grakas geminert .. ? :confused:
     
  10. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Die Pins fehlen nicht, die 2 Pins die ein 8er mehr hat sind Masse.
     
  11. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.025
    Ampere dürfte für Miner attraktiv werden, das kommt noch dazu.

    Naja ich frage mich aktuell echt ob ich mir für ein paar Jahre erstmal eine PS5 hole oder nochmal Geld in eine GPU stecke. Klar, man bekommt mehr als auf einer Konsole, und ich kann auch am PC ein 30 fps Limit einstellen und fertig. Aber so langsam macht das rein psychologisch echt keinen Spaß mehr. Kann man ja locker mit 700-800 für obere Mittelklasse mit mehr als 8 GB VRAM, die meine jetzige Karte schon hat, rechnen.

    Aber dann wieder nicht weiterverwendbares Konsolenzubehör und digital gekaufte Spiele rumliegen zu haben, weil ich keinen Bock mehr auf Discs habe, ist irgendwie auch doof.
     
  12. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    Ich hatte ja auch vor ne PS5 zu kaufen aber so langsam glaube ich ich verschieb die doch in 2021... Mein Problem ist einfach, dass meine 2070 definitiv für meine Ansprüche (so gut es geht max settings, gerne mit RT (shadow of the tomb raider, metro oder control sind damit einfach sehr sexy...) in 1440p einfach überfordert ist, selbst mit DLSS 2.0... Als ich die gekauft hatte hab ich 1080p gespielt, da war das noch okay, jetzt is sie sehr am limit...

    Meine 144Hz konnte ich abseits von anspruchslosen titel noch 0 ausnutzen, daher muss da eigentlich was neues her....

    Wenn jetzt die Karten doch eher teurer werden als gedacht wird die PS5 wohl verschoben und dann eher mit nem Horizon: FW bundle gekauft oder so... AC: Valhalla, Cyberpunk und Watch Dogs lasten den Herbst vermutlich eh ziemlich gut aus...
     
  13. Kami_Syro

    Kami_Syro
    Registriert seit:
    30. Mai 2011
    Beiträge:
    1.129
    Naja, aber die wurden ja nicht ohne Grund mit eingebaut. Selbst wenn man nicht alle braucht, bin ich mir nicht sicher das einfach ein viertel der Adern weg zu lassen einfach so geht, selbst wenn es nur Masse ist.
     
  14. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Die Masse-Pins dienen nur zum Signalisieren dass man über die restlichen Pins mehr Strom ziehen darf.
     
  15. ancalagon Alarmarzt Meier-Wohlfühl

    ancalagon
    Registriert seit:
    26. September 2001
    Beiträge:
    48.293
    Ort:
    das muss "aus" heíßen nich "von" :p

    Ich. Hasse. Gamepads. So unendlich viel.


    Also, leider keine Alternative :ugly: Finanziell lohnt es sich für mich sowieso schon lange nicht mehr, überhaupt irgendwas zu kaufen. Die Ironie an der Sache ist: ich hab jetzt das Geld.. nur die Zeit ist weg :heul:

    Wenn ich nicht wieder auf dsl16 geknallt wäre, würde ich wohl auf stadia schielen :hmm:
     
    Lurtz gefällt das.
  16. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Das Define R6 Gehäuse ist hier nun im Einsatz, war ein ganz schönes Gefrickel..., hat einen ganzen Abend gedauert. :topmodel:
    Diese fummeligen jumper jedes mal..., habe aber auch zwei (große) linke Hände. :nervoes:

    Hatte noch nen Noctua auch 140er rumliegen, hat den outtake ersetzt, praktisch da die stock Dinger nicht gummiert sind, was seltsam anmutet bei nem Gehäuse mit Fokus eher auf Geräuschreduzierung. :nixblick:

    Die zwei vorderen Lüfter habe ich mit den alten Enermax Gehäuse Festplatten Käfig/Schienensystem Gummi Ringen verbessert angebracht, ebenso meine Hitachi 2.5 Zoll HDD, das hat Fractal da auch nicht vorgesehen für solche Teile.

    Das Fan-Hub vom Gehäuse ist etwas seltsam, habe da alle möglichen Kombinationen durch getestet da kommt kein RPM Sigal/Anzeige von den stock 3-pin Lüftern. :wahn: Die drei Gehäuselüfter sind nun also alle normal am mainboard angeschlossen, die zwei 3-pin stock Lüfter vorne lassen sich so auch regeln via Lüfterkurve im Bios, was sehr praktisch ist, aber sind dann halt natürlich fest im Wert da kein PWM. Im idle drehen beide um die 400 RPM ebenso wie der outtake, den CPU habe ich weiterhin um die 600 im idle, die Kurven sind so eingestellt dass die chassis fans keinen großen Spielraum haben nach oben bei Last, der CPU geht dann bis ca 900 hoch. Alles in allem kann man da doch mehr erwarten, aber ist dann doch besser als so ein billo Gehäuse, aber nicht deutlich, etwas kühler sogar im idle und leiser, weniger tiefer Geräusche und das hochfreq. ist auch angenehmer, bei Last gibt es sich nicht viel ist aber eher normal denke ich bei so gedämmten Systemen, im Vergleich zu semi open Designs.

    Beim nächsten System upgrade könnte ich die zwei vorderen stock durch scythe oder blacknoise ersetzen damits noch besser wird.
     
  17. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Gerade in den ersten Jahren profitiert man von einer Konsole doch meist noch am wenigsten. Anfangs wird die PS5, so gut sie zweifellos ausgestattet ist, kaum mehr als ein PC mit einem Zen 2 Ocatcore und vielleicht sowas wie eine 5700 XT (?) bringen. Erst danach ist es absehbar dass die next gen Konsolen den Hardwaremarkt und die Anforderungen der Spiele (dementsprechend auch an den PC) stark umkrempeln werden. Ich würde daher nicht unmittelbar vor bis nach einem solchen Generationswechsel bereits eine Entscheidung treffen. Die Situation dass Konsolen mit derart potenter Hardware ins Feld ziehen ist bislang so noch nicht da gewesen - aber ich glaube dass es deshalb klug ist sich die nachfolgende Entwicklung diesmal genauer anzuschauen, soweit die vorhandene Hardware das noch zulässt.

    Bei der PS4/X1 war das viel eindeutiger. Ich will Cyberpunk 2077 und Dying Light 2 jedenfalls nicht mit einem Gamepad spielen und auch einige andere Shooter, was auch immer seitens Battlefield/DICE noch zu erwarten ist, sicher nicht. Eher warte ich sonst bis die GPUs wenigstens etwas günstiger sind. Zwar würde ich schon auch gerne mal einige konsolenexklusive Titel nachholen wollen und die PS5 wäre dafür bestens geeignet, aber das ist genau der Knackpunkt: Ich kann mich prinzipiell nicht mit dem Gedanken anfreunden im Endeffekt nur dafür einen separaten PC anschaffen zu müssen, was eine Konsole nunmal ist. Ein PC, der nur weil ein paar Megakonzerne ihre Spiele exklusiv auf diese Weise vermarkten wollen und Lizenzgebühren von den anderen kassieren keine offene Plattform ist.

    Außerdem zahlt man nach wie vor für die online/multiplayer features bei den Konsolen, oder? Sofern das noch so ist summiert sich das natürlich auch Jahr für Jahr.
     
  18. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Für die Ausbeutung der Entwickler (crunch, Bezahlung, teilw. Belästigung) die seelenlosen Müll programmieren müssen zahlt man dann auch noch schön den Bobby Kotick's dieser Welt mehr in die Tasche da die Spiele teurer sind als auf dem PC, diese Schlangen bekommen dafür nichts von mir. ^ ^
     
  19. GODzilla EDMODOSAURUS Moderator

    GODzilla
    Registriert seit:
    2. Juli 2001
    Beiträge:
    67.326
    Ort:
    J.W.D.
    Mein RIG:
    CPU:
    AMD Ryzen 7 7700
    Grafikkarte:
    PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X RGB Triple Fan
    Motherboard:
    ASUS TUF Gaming X670E Plus
    RAM:
    32GB Kingston FURY Beast DDR5-6000 CL36
    Laufwerke:
    M.2 NVME Kingston FURY Renegade 500GB (PCIe 4x4)
    M.2 NVME Patriot Viper VP4300 Lite 2TB (PCIe 4x4)
    SSD Samsung 870 EVO 2TB (SATA-III)
    LG Electronics BH16NS40.AUAU BluRay
    Soundkarte:
    Onboard Realtek ALC1220
    Gehäuse:
    Fractal Design Define 7 / bequiet! Straight Power 11 850W
    Maus und Tastatur:
    Logitech G502 X
    Logitech G815 (Brown Tactile) + Keychron K4 Wireless v2 (Gateron G Pro Brown)
    Betriebssystem:
    Windows 11 Pro 64bit
    Monitor:
    34" (UW) MSI MAG 341CQP QD-OLED + 27" Philips Evnia 3000 27M1N3500LS
    Lieber auf 1000W er aufstocken sollte. :teach: :ugly:
     
  20. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Zweifel er haben sollte. Schwer zu sehen, in ständiger Bewegung die Zukunft ist. :p
     
    ZweiTeiler und GODzilla gefällt das.
  21. Fürst

    Fürst
    Registriert seit:
    3. März 2016
    Beiträge:
    1.142
    Ich hatte auch die Hoffnung, dass sich die Preise nach der 1000er und 2000er Generation wieder auf ein angenehmeres Niveau einpendeln werden. Hab ich wohl falsch gehofft. Und eigentlich möchte ich endlich auf 1440p 144Hz umsteigen. Spätestens da wird meine 2070 in anspruchsvollen Spielen an ihre Grenzen kommen...
     
  22. ancalagon Alarmarzt Meier-Wohlfühl

    ancalagon
    Registriert seit:
    26. September 2001
    Beiträge:
    48.293
    Ort:
    das muss "aus" heíßen nich "von" :p

    Ja, nur: wieso? Weil nvidia es kann und amd immernoch pennt? Nachfrage so hoch? Haben wir uns daran gewöhnt und die Hersteller machen einfach oben weiter?

    und wo ist Intel? Irgendwie alles unbefriedigend :ugly:
     
  23. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Mal sehen ob Intel's GPU's was reißen, gabs da nicht neulich news zu, nächstes Jahr oder so, aber das geht dann sicher nur wenns gut kommt bis mid-range..
     
  24. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    Laut igorslab könnte es auch Richtung high end gehen, da Intel wohl n modulares System baut.

    Aber da müssen natürlich auch Treiber und engine support erstmal zu AMD und nvidia aufholen, selbst wenn die Hardware auf nem guten Level ist
     
  25. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Intel kann dann etwas reißen wenn sie die Ersten sind die bspw. mehrere, sehr effiziente Chiplets auf einer Desktop/Gaming Karte nutzen und sie gute Ideen (demnach auch Treiber) haben wie man ähnliche Nachteile und Probleme wie sie SLI/CF schon hatte, künftig vermeidet. Mir erscheint das als einzige, logische Möglichkeit wie Intel in einen Markt drängen kann in dem sie sonst nicht mithalten könnten. Ob das sonderlich wahrscheinlich ist stellt wieder eine ganz andere Geschichte dar, aber zumindest ist es eine Option.

    Nach dieser GPU Generation bleiben den Herstellern ohnehin nur noch 1-2 Generationen bevor sie einen solchen Übergang schaffen müssen. Da wird vor allem mit Blick auf High End GPUs nicht mehr viel Raum für großartige Leistungs- und Effizienzverbesserungen sein. (wenn doch ist es umso besser) Die übernächste Gen kann das vielleicht noch leisten, aber danach kann man die Softwareentwickler auch nicht vor vollendete Tatsachen stellen, sodass es eine gewisse Vorlaufzeit braucht. Über den Preis allein wird es vermutlich keiner schaffen.
     
  26. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.025
    Ja, aber da ich keine PS4 hatte und die Abwärtskompatibilität bei den bekanntesten Titeln diesmal gegeben sein dürfte, könnte ich noch einige PS4-Titel nachholen. Das allein würde mich bei meiner begrenzten Zeit locker 18-24 Monate beschäftigen.

    Langfristig wird es wohl auf clevere Softwarelösungen wie DLSS hinauslaufen.
     
  27. Hardkorny Mag Pizza Pasta!

    Hardkorny
    Registriert seit:
    30. Mai 2011
    Beiträge:
    8.205
    Zuletzt bearbeitet: 25. August 2020
  28. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Gehört sicherlich genauso dazu. Aber auch solche Softwarelösungen bauen auf der Hardwareleistung auf und obwohl ich DLSS 2.0 bereits sehr beeindruckend finde ist es noch nicht perfekt. Das wird sich verbessern und ich denke DLSS 3.0 sollte das deutlicher zeigen können, soll glaube ich auch ein wenig leichter sein die Spiele darauf anzupassen (?) - trotzdem zögert man mit solchen Möglichkeiten nur das Unvermeidliche hinaus. Und das ist nunmal dass irgendwoher mehr Leistung kommen muss. :nixblick:
     
  29. DKill3r

    DKill3r
    Registriert seit:
    31. August 2004
    Beiträge:
    6.737
    Ort:
    Dort
    Mein RIG:
    CPU:
    Core i7 2600K
    Grafikkarte:
    Gigabyte GTX 970 G1 Gaming
    Motherboard:
    ASRock P67 Pro3 Rev. B
    RAM:
    16GB Noname
    Laufwerke:
    LG CH10LS20
    Soundkarte:
    Creative Sound Blaster ZxR
    Gehäuse:
    Xigmatek Midgard
    Maus und Tastatur:
    Logitech G15
    Roccat Savu
    Betriebssystem:
    Linux Lite 5.2
    Monitor:
    Iiyama ProLite B2409HDS
    Wird dann vermutlich ne PS5 bei mir. Mein System (Signatur) ist nächstes Jahr im großen und ganzen zehn Jahre alt, wäre dann mal Zeit für was neues. Aber ich zahle bestimmt nicht fast soviel für eine Grafikkarte wie ich damals in etwa für ein ganzes Sytem gezahlt habe. Backlog "abspielen" geht zwar im großen und ganzen noch gut, weil das alles Titel sind die mindestens zwei Jahre alt sind, aber neuere Sachen wie z.B. Red Dead Redemption 2, Death Stranding, etc kann ich da vergessen.^^
     
  30. unreal ..hat nun HSDPA :ugly:

    unreal
    Registriert seit:
    6. Mai 2005
    Beiträge:
    25.977
    Warum C19? Vor allem wenns nur 1200 - 1500 Watt sind. :parzival:
     
  31. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    Der Preis is mal sportlich, selbst zur aktuellen dark power pro Serie :O mal eben 130€ mehr für die 1200w Variante

    Nja, ich hoffe einfach erstmal, dass mein 750w straight power 11 für die 30xx reicht.... Klar, nach Gesamtleistung schon (selbst bei 350w blieben immerhin 400 für den Rest) , aber ob das dann über 1 Anschluss am Netzteil geht oder ob ich da irgendwie rumfriemeln muss...
     
    Zuletzt bearbeitet: 26. August 2020
  32. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
  33. Joskam gesperrter Benutzer

    Joskam
    Registriert seit:
    9. Oktober 2007
    Beiträge:
    9.794
    Mein RIG:
    CPU:
    Maybach HL120 TRM V-12 300 PS
    Grafikkarte:
    7.5 cm StuK 40 L/48
    RAM:
    7.92 mm MG34
    Laufwerke:
    torsion bar
    Soundkarte:
    40 km/h
    Gehäuse:
    16–80 mm
    Monitor:
    SE14Z scissors periscope
    Eigentlich bleibt einen nur die RTX3090, wenn man upgraden will. 10 GB VRAM sind einfach nur mickrig.


    [​IMG]
     
  34. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    Das finde bzw fände ich echt doof... Dazwischen was mit 16gb is doch eigentlich echt offensichtlich... Abrt entweder es kommt irgendwann nach, oder das passt nich nur ihrer speicherconfig...

    E: neue benchmark leaks: https://twitter.com/kopite7kimi/status/1298505452888551424?s=19

    Damit wäre die 3080 wohl gut 1/3 schneller als die 2080ti, während die 3090 'nur' nochmal 20% mehr wären... Also etwa 75%, schneller als meine 2070 vs knapp über 100% schneller... Und ich vermute mit rtx wird der Unterschied noch deutlich mehr...

    Bei rumorten 600$ Unterschied is damit eigentlich die 3080 das offensichtliche, aber mich stört der Speicher... Argh, hoffentlich kommen dann schnell Gerüchte wegen ner 3080ti oder super oder whatever mit mindestens 16gb... Es gibt zwar welche, dass es custom 3080 mit 20gb geben soll, fänd ich aber sehr komisch, wenn von nvidia nur 10 kommen. Kann mich nich erinnern, wann und ob es da mal Unterschiede gab

    E:. More Spekulatius: der leaker oben (der wohl auch früh bzgl Speicher und dem 12 pin recht hatte) hat die device id's der 3090 (2204) und 3080 (2206) geleaked. Demnach würde da was fehlen, sofern nvidia durchnummeriert
     
    Zuletzt bearbeitet: 26. August 2020
  35. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Ja ne ist klar....
     
  36. Joskam gesperrter Benutzer

    Joskam
    Registriert seit:
    9. Oktober 2007
    Beiträge:
    9.794
    Mein RIG:
    CPU:
    Maybach HL120 TRM V-12 300 PS
    Grafikkarte:
    7.5 cm StuK 40 L/48
    RAM:
    7.92 mm MG34
    Laufwerke:
    torsion bar
    Soundkarte:
    40 km/h
    Gehäuse:
    16–80 mm
    Monitor:
    SE14Z scissors periscope
    Wir leben nicht mehr im Jahre 2016. Da hatte selbst das Mittelklassenwunder 8GB. Die GTX 1080 Ti, die etwas später kam, hat schon 11 GB.
     
  37. sgtluk3 Give me AMD, or give me Death!

    sgtluk3
    Registriert seit:
    17. März 2008
    Beiträge:
    15.548
    Mein RIG:
    CPU:
    Ryzen 5 3600 @ 4,1Ghz Allcore
    Grafikkarte:
    RTX 2080 Super
    Motherboard:
    Asus Prime X370 Pro
    RAM:
    16GB DDR4 3000 Corsair Vengeance
    Laufwerke:
    Kingston A2000 1TB NVME
    Toshiba TR-150 960GB
    Soundkarte:
    Topping MX3
    Gehäuse:
    LianLi O11D Mini
    Maus und Tastatur:
    KBD75V2 @ Aliaz Silent 70gr Switches
    Zowie FK1
    Betriebssystem:
    Windows 10
    Monitor:
    1.Acer VG270UP + 2. Dell U2414H
    Und was glaubst du wirst du für krasse Einbußen mit 10GB haben?
     
  38. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Jaein. Sportlich sind die Preise ohne Kontext sicher. Aber die Pro 11 Serie ist durchweg Platinum, nicht Titanium wie die Pro 12 Serie - sprich bequiet hatte bislang noch keine 80 Plus Titanium Modelle. Zumindest nicht im Consumerbereich und nicht dass ich wüsste. 80 Plus Titanium PSUs sind aber allgemein recht teuer und ab 1000W wird die Auswahl sowieso dünn, sodass man sich in einem Feld ohne sonderlich viel Konkurrenz bewegt. es stecken auch noch einige andere Verbesserungen mit drin die man - in einem Bereich der lange nicht so viel Nachfrage hat wie der <1000W Bereich - natürlich erstmal wieder refinanziert werden müssen. Außerdem bietet die Pro 12 Serie 10 Jahre Herstellergarantie statt der 5 Jahre wie bei der Pro 11 Serie.

    Das Gesamtpaket ist schon ein Schritt nach vorne.

    Was die 3090 angeht denke ich nicht dass die nur 350W zieht. Das scheint die bisher bekannte TDP zu sein (oder irgendwas um den Bereich herum) und wozu sonst hätten sie den 12pin eingeführt, wenn nicht deshalb weil die 375W durch 2*8pin+PCIe Slot nicht reichen? Hinzu kommen noch die Lastspitzen. Das wird schon seinen Grund haben - bzw. diesen Grund haben. ~750/800W an 12V reichen wahrscheinlich wenn man noch halbwegs effizient unterwegs sein will, aber wie gesagt, die werden schon wissen warum sie den 12pin brauchen. Deshalb denke ich eher dass man mit ~ 400W Stromverbrauch auf jeden Fall rechnen kann und ggf. mehr wenn die Custom Modelle noch was auch immer mit dem Chip anstellen. Besser wäre es natürlich schon wenn es weniger ist, aber das Geheimnis wird ja bald gelüftet.
     
  39. Daepilin

    Daepilin
    Registriert seit:
    25. August 2008
    Beiträge:
    25.370
    In dem Video heute sagen sie, dass sie den Platz brauchen um traces weit genug auseinander legen zu können.

    Wir gucken Mal, wenn die leistungszahlen aus dem leak den ich gepostet habe stimmen kann ich mich eh nich zur 3090 bringen
     
  40. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.629
    Habe ich zwar noch nicht gesehen, aber ich kann mir trotzdem nicht vorstellen dass TDP=Stromverbrauch sein wird. Wenn die 3090 ähnlichen Schwankungen unterliegt wie die 2080 ti kann man schlimmstenfalls irgendwas im Bereich 380-450W annehmen.

    Es gibt doch jetzt schon eine Menge Spiele die (mindestens in 4K) 8GB weit überschreiten können und selbst wenn sie das im Einzelfall noch nicht zwingend brauchen, wird es in Zukunft bestimmt nicht wieder weniger. Für 1080p braucht man so eine GPU generell nicht, aber selbst da sind 8GB imho das Minimum für kommende Spiele. Vielleicht sollte man zudem nicht vergessen dass die PS5 16GB GDDR6 haben wird. Ja, shared, aber es gibt auch eine NVMe SSD die schnell genug ist um einiges auslagern zu können.

    Es wird sich also schon auch in der der PC Welt widerspiegeln was sich bei den Konsolen tut. Und die meisten werden ihre GPUs 2-3 Jahre nutzen wollen, oder länger, daher ist alles unter 16GB echt nicht mehr viel. Zu viel gibt es sowieso nicht. Zu teuer, wenn dann. :p
     
Top