Der Hardware-Laberthread

Dieses Thema im Forum "Hardwareforum" wurde erstellt von DiOxigen, 4. März 2013.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Demnächst erhältlich: GTX 1080 Ti Lederjacken-Edition inkl. Replika des Originals für 2999$.

    Vermutlich geht das via BIOS-Flash. Man kann auch noch etwas via Boost 3.0 nachhelfen, indem man für den Idle-Step die Vcore senkt (undervoltet).

    Meine Info bezieht sich auf die AMP! Extreme.
     
  2. cealpha

    cealpha
    Registriert seit:
    17. Juli 2011
    Beiträge:
    453
    Das mit dem Biosflash versteh ich. Kannst du mir aber auf die Sprünge helfen inwiefern undervolten bei dem Problem Abhilfe schafft? ;)

    Hast du n Link dazu oder weißt noch wo du das gelesen hast? Ich hab bisher nur von überhitzten Zotac 10er Karten gehört^^
     
  3. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    3DCenter mal wieder ganz vorn dabei: https://www.youtube.com/watch?v=yNMJ5U5ZcXk

    Niedrigere Spannung=niedrigere Leistungsaufnahme.

    Die Info kommt von Igor Wallosek (THG): http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11090959#post11090959
     
  4. cealpha

    cealpha
    Registriert seit:
    17. Juli 2011
    Beiträge:
    453
    Alles klar danke, ich hab da heute noch nicht reingelesen. Ich hab selber die Amp! allerdings komm ich bis Ende der Woche nicht zum einbauen, dann kann ichs mir auch mal anschauen und posten, falls das jemand interessiert. Bisher gibt's ja beinahe nur Tests zur extreme. Wäre auf jeden Fall doof wenn sich das über alle Modelle zieht. Die Gamerock scheint ja auch ein ähnliches Problem zu haben.

    Bzgl. undervolten meinst du einfach das der Chip gar nicht mehr in die Temp. Regionen kommt in der der Lüfter am Rad dreht? Ansonsten versteh ich nicht wie undervolten bei der hysterese helfen soll?
     
  5. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Nicht bei der Hysterese, sondern der höheren Idle-Leistungsaufnahme von Cutoms mit Factory-OC. Die Hysterese lässt sich nur mit eigenem Fanprofile umgehen.
     
  6. cealpha

    cealpha
    Registriert seit:
    17. Juli 2011
    Beiträge:
    453
    Ach so, ja das ist klar ich hab mich schon gewundert^^
    Danke dir auf jeden Fall ;)
     
  7. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
  8. The Doctor

    The Doctor
    Registriert seit:
    6. Oktober 2007
    Beiträge:
    36.845
    :teach:

    Bin mal auf die Preise der Volta-Karten gespannt. :ugly:
     
  9. poiu

    poiu
    Registriert seit:
    16. Juni 2011
    Beiträge:
    617
    So zum RX480 Thema nochmal, das war bisher viel Theorie blabla nun hat sich der Andy aus dem 3dcenter Forum das wohl in der Mittagspause angeschaut^^

    https://www.youtube.com/watch?v=yNMJ5U5ZcXk

    ach hat der Captain schon geppostet sehr gut. hätte mal F5 drücken sollen^^
     
  10. Die Frage ist nur wieso bei Tomshardware dann Messungen stattgefunden haben, bei denen bei Überlast der Slot über 60°C warm wurde.
     
  11. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
  12. Eher die Mythbuster. :yes:
     
  13. BattleStarXXX Galactica

    BattleStarXXX
    Registriert seit:
    26. April 2009
    Beiträge:
    20.719
    Weil ich eben die GS-News gesehen habe:

    Gibt es schon Berichte mit dem neuen Treiber, ob sich an der Leistungsaufnahme und der Leistung was geändert hat?
     
  14. POW Leuchtmittel zum Wechseln

    POW
    Registriert seit:
    26. Oktober 2004
    Beiträge:
    3.894
    Ort:
    Leipzig
    Ich habe soeben eine Palit GTX1070Premium für 425€ erstanden... tja was soll man machen :uff::ugly::D
     
  15. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Mit anderen Worten: es scheint vollkommen wurscht zu sein wenn da was außerhalb der Specs läuft und die Specs sind ohnehin niedriger angesetzt als das was die ganze Chose aushalten würde.. verstehe ich das richtig?
     
  16. https://www.youtube.com/watch?v=3mPpGzuBeko

    Vielleicht hole ich mir dann die rX480/4gb. Zumal ich gesehen habe , dass mein alter accelero twin turbo 2 von meiner GTX 660ti passt.
    Vorausgesetzt der neue Treiber regelt das PCI-E Problem. :fs:
     
  17. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
    Warum sollte AMD 8GB Varianten verkaufen, wenn man die 4GB einfach auf 8GB flashen kann?:hmm:
     
  18. Ist halt die Frage, ob das einfach so geht. Ansonsten würde ich sagen, aufgrund der Garantie.
     
  19. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Kommt halt darauf an was du so spielst und wie. Wenn du maximal leistungsintensive Spiele spielst die jedoch üblicherweise unter 4GB brauchen oder eher auf hochwertige Texturen verzichtest kann sich die finanzielle Ersparnis lohnen - ansonsten auf keinen Fall, selbst wenn es derzeit noch weitestgehend unproblematisch ist bei den meisten Spielen. (wobei es hier nat. noch darauf ankommt wie lange du die GPU überhaupt nutzen willst)

    Du musst sehen das die 4GB für die Leistung meiner 960 (und das ist bekanntlich deutlich weniger als die einer 480) eigentlich schon relativ grenzwertig sind in manchen Spielen - und das bei 1080p. Ich hatte zwar noch kein Spiel in dem der Speicher ausging bevor die Leistung ausging, aber zum einen besitze ich nicht alle Spiele und zum anderen fehlt auch nicht so wahnsinnig viel dazu. Daher denke ich das die 480 wenn man sie weit über das laufende Jahr hinaus nutzen will mit 8GB gekauft werden sollte.

    Ist auf jeden Fall ganz nett wie man die Sapphire 480 schon übertakten kann. Will sagen das man demnach von den Modellen mit custom Kühlern auch ein bisschen was erwarten kann im Vergleich zur dagegen eher schäbigen Referenz. :tdv:
     
  20. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
    Merkt doch kein Mensch, wenn ich da was im Bios rumfummel und AMD auch noch das Flashtool zur Verfügung stellt.
     
  21. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Möglicherweise sind die teildefekt, ähnlich wie es mal bei den Phenoms war, als manche Tri-Cores und sogar Dualcores nur teildefekte und teildeaktivierte Quads waren.

    Andernfalls würde das für mich keinen Sinn ergeben, sodass ich das Gerücht für ziemlichen Unsinn erachten würde. So billig ist VRAM nämlich nicht das man auf diese Einnahmen verzichten könnte, zumal das ja ohnehin doppelte Ersparnis für den Kunden wäre. Man würde eine viel günstigere 4GB Karte kaufen und hätte ggf. mit einfachen Mitteln eine 8GB Karte. Das kann ich mir schlichtweg nicht vorstellen - technisch selbstverständlich schon, aber tatsächlich nicht. Das klingt zu gut um wahr zu sein.
     
  22. BattleStarXXX Galactica

    BattleStarXXX
    Registriert seit:
    26. April 2009
    Beiträge:
    20.719
    Wer bestellt die 4GB Variante, versucht sie zu flashen und wenn es doch nicht funktioniert wieder zurückschicken, mit der Begründung hat doch nur 4GB. :wahn:
     
  23. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
  24. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Daran hab ich nicht gedacht, das wirds wohl auch sein. :yes:
     
  25. SickOne

    SickOne
    Registriert seit:
    12. November 2009
    Beiträge:
    1.895
    falscher Thread :ugly:
     
    Zuletzt bearbeitet: 5. Juli 2016
  26. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
  27. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Das ist ein Übersetzungsfehler der deutschen AMD-Pressestelle, im Original wurden lediglich neue Informationen zu dem Thema angekündigt für heute (nach kanadischer Zeit, vermute ich).

    Es gibt zwar noch ein paar Variablen, weshalb man die Ergebnisse aus dem Test nicht 1:1 auf alle anderen Einsatzzwecke übertragen kann, im Groben stimmt das allerdings so.
     
  28. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Interessant. Das die 6/8pins deutlich mehr abkönnen als drauf steht wusste ich, aber dass das auch für PCIe gilt wusste ich bislang nicht.

    So stellt sich natürlich die Frage wie weit man das wirklich treiben könnte bis was schief geht und wie die Langzeitauswirkungen aussehen? Wäre mal spannend zu wissen... das die GPUs die unter 75W laufen ohne Zusatzstecker auskommen ist ja bekannt, aber offenbar könnte man das auch bis ~ 100W locker machen, d.h. eine 950/960 oder 370 hätte da keine Probleme. Komisch nur dass das dann keiner macht weil für HTPCs und ähnliches wäre das ja durchaus ein Segen.
     
  29. poiu

    poiu
    Registriert seit:
    16. Juni 2011
    Beiträge:
    617
    Eindeutig keine trekkies hier

    http://www.imdb.com/title/tt0708764/quotes?item=qt0349438


    Also nichts wird an der Grenze balenziert, sonst würde euch alles um die Ohren fliegen.

    @badtaste21 Bei PCIe ist das sehr leicht, der Kabelquerschnitt ist schon mal eine Grenze. Das kann man einfach berechnen.
     
  30. BLUTSUCHT

    BLUTSUCHT
    Registriert seit:
    9. September 2005
    Beiträge:
    7.676
    Mein RIG:
    CPU:
    Ryzen 7 7700
    Grafikkarte:
    RTX 4070
    Motherboard:
    B650 ITX
    RAM:
    2x 16GB
    Laufwerke:
    WD SN770 1TB
    Intel 660p 2TB
    Soundkarte:
    Logitech G Pro X
    Gehäuse:
    Fractal Design Terra
    Maus und Tastatur:
    Corsair K70, Endgame Gear XM2we
    Betriebssystem:
    Windows 11 Pro
    Monitor:
    LG UltraGear 27GL850-B
    :D :D Star Trek! Weeeeeeee!

    Und wenn alles nichts hilft, müssen wir einfach die PEG-Konstante des Universums ändern!
     
  31. BattleStarXXX Galactica

    BattleStarXXX
    Registriert seit:
    26. April 2009
    Beiträge:
    20.719
    Achso, wieder reinster Qualitatsjournalismus. :ugly:
     
  32. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
    Morgen also die 1060? Na ich bin gespannt. 10% mehr Leistung aber 40% mehr Kosten im Vergleich zur 480?:wahn:
     
  33. BattleStarXXX Galactica

    BattleStarXXX
    Registriert seit:
    26. April 2009
    Beiträge:
    20.719
    Na hoffentlich. :fs: :wahn:
     
  34. PassiMagic

    PassiMagic
    Registriert seit:
    21. Mai 2015
    Beiträge:
    361
  35. 15% mehr Leistung und 30% mehr Kosten, soll mein Tipp sein. :teach:
     
  36. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
    15%?:spinner:
     
  37. Das waren jedenfalls Nividias "offizielle" Angaben.
     
  38. Aspen Call me BAKA

    Aspen
    Registriert seit:
    27. Mai 2007
    Beiträge:
    27.415
  39. 10% wäre jedenfalls schwach und da würde ich dann eh die RX 480 nehmen, selbst bei gleichem Preis, weil 8Gig Vram einfach wichtiger wären.

    Wenn man sie aber noch sehr gut übertakten kann, würde sich das ändern. Doch wird sie eh teurer sein, von daher wayne.
     
  40. badtaste21

    badtaste21
    Registriert seit:
    20. August 2011
    Beiträge:
    18.622
    Ob ihr wirklich richtig steht, seht ihr wenn das Licht angeht...

    Die 1060 wird nach dem was man bislang so weiß immerhin weniger Strom brauchen. Nur diesmal werden es nicht ~ 50-70W sein wie bei der 960 vs. 380, sondern wohl eher deutlich weniger, der VRAM ist nicht gleich und die 1060 wird schätzungsweise deutlich teurer sein. Die Ausgangslage im Vergleich zu vor einem Jahr ist demnach eine völlig andere und ich wage zu bezweifeln das nvidia diese Diskrepanz mit entsprechender Mehrleistung ausgleichen kann.

    Eine andere Variable die Klatsch noch anspricht ist natürlich OC. Da stand die 480 für meine Begriffe nicht schlecht, aber auch nicht herausragend da. Möglich das Pascal da etwas mehr Reserven hat, fraglich wie die sich bei GP106 auswirken (bislang weiß man es ja nur bei GP104, von daher nicht alles, aber manches offen). Man darf also gespannt sein... aber wahrscheinlich gibts keine großen Überraschungen wie immer. Außer negative Überraschungen wie mit dem VRAM bei der 970. :p Ich denke aber nicht das sie es nochmal machen, weil sie ja schon gesehen haben müssten das sie trotz allem mehr Kunden wegen der Sache verloren haben als gewonnen oder gehalten.

    Das sie jetzt trotzdem direkt mit weniger VRAM einsteigen verstehe ich nur bedingt. Klar, wenn es funktioniert spart es Produktionskosten, aber ich glaube nicht das man genug einspart um bei einem höheren Preis nicht doch einige Kunden zu verlieren, sodass sich das letztlich nicht rentiert. Die werden das sicher kalkuliert haben, aber das muss ja auch nicht immer 100% aufgehen. :fs:
     
Status des Themas:
Es sind keine weiteren Antworten möglich.
Top