Nerviges Tearing? Was tun? Neuer Monitor?

Dieses Thema im Forum "Hardwareforum" wurde erstellt von Vader666, 23. März 2017.

  1. Vader666

    Vader666
    Registriert seit:
    13. Juni 2016
    Beiträge:
    32
    Hey liebe Zockerfreunde :groundi:
    ich habe folgendes Problem. Zusammen mit Battlefield 1 habe ich mir die Asus ROG-Strix GTX 1070 gekauft und habe jetzt immer um die 80-100 FPS, manchmal in Extremsituationen auf großen Maps auch drops unter 40 :(. Seit ich die Graka besitze habe ich ein großes Problem mit dem Tearing, bei Bf1 nervt es ziemlich, aber bei Hitman und Resident Evil ist das echt extrem, sodass ich um das Aktivieren von vSync nicht herumkomme. Hier liegt aber auch das Problem: durch vSync entsteht natürlich ein erheblicher Input Lag, was bei Hitman und RE jetzt nicht so gestört hat, aber bei Online Ego Shootern wie Bf1 ist das ein NoGo, ihr versteht mich sicherlich :)
    Ich weiß auch, dass es mit meinem Monitor zusammenhängt --> 60Hz. Aber was kann ich jetzt tun? Schafft ein 144Hz schon Abhilfe oder brauche ich da immer <144 FPS? Müsste eher darunter liegen oder? Ich kenne da auch noch die Gsync Technologie, aber auch hier soll es einen Input Lag geben. Ich liebäugel schon mit einigen der Asus Monitore in 27 Zoll, aber da muss man wiederrum immer mit 2k Auflösung spielen, was meiner Meinung nach zu viel Rechenleistung braucht...Habt ihr eine Idee/Empfhelung für mich? Muss es ein neuer Monitor sein? Wenn ja möglichst günstig natürlich xD und in 27 Zoll mit FullHD...

    Ahja mein Sys natürlich noch:
    i5 3570k (momentan wieder auf Normaltakt -> 3,4Ghz)
    16 GB Arbeitsspeicher
    Asus ROG-Strix GTX 1070
     
  2. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Bei 100+ FPS sollte es kaum noch sichtbares Tearing geben, auch auf einem 60Hz-Monitor. Ein 144Hz-Monitor macht in der Hinsicht keinen Unterschied.

    Gsync fügt keinen Input Lag hinzu, sofern man die FPS auf einen Wert x-1 limitiert, wobei 'x' die maximale Refresh Rate angibt. Limiter, die extern über ein Programm (wie z.B. MSI Afterburner) funktionieren, fügen allerdings ihrerseits wieder Input Lag hinzu. BF1 bietet gleichwohl einen internen Limiter.

    Einen Versuch wäre auch noch die Option "Fast Sync" im NVCP. Der Inputlag ist gg. Nosync etwas höher, aber immer noch deutlich geringer als bei Vsync.
     
  3. Hatte einen 75Hz Monitor und mit Q3 @ 125 fps sehr massives Tearing.

    Konnte man den Vsync Lag nicht mit irgendeiner Option im Nvidia Treiber korrigieren, oder täusche ich mich da?
     
  4. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.025
    Ist halt stark spielabhängig, es gibt auch eine Menge die weit mehr fps als Refreshrate heftig tearen. Dagegen hilft letztlich nur VSync oder Async für minimierten Input Lag.

    Meinst du Prerenderlimit oder adaptives VSync?
     
  5. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Wie erwähnt gibt es auch dafür auch Ausnahmen, id tech 3 gehört dazu. Beim Source-Build von Titanfall 2 z.B. habe ich ab 70 FPS schon faktisch kein Tearing mehr, bei 60 FPS ist es hingegen noch sehr auffällig.

    Den Lag von Vsync zu korrigieren ist aufgrund dessen Funktionsweise technisch unmöglich. Es gibt Optionen wie Adaptive Vsync oder FastSync, Ersteres schaltet Vsync bei FPS<Hz dann kurzerhand ab und Letzteres ist vergleichbar mit triple buffered Vsync.

    Maximum prerendered frames ist unabhängig von Vsync, die Auswirkungen sind dort nur stärker sichtbar.
     
  6. Vader666

    Vader666
    Registriert seit:
    13. Juni 2016
    Beiträge:
    32
    Hey, danke euch für die Rückmeldung. Scheinbar habe ich das Thema falsch verstanden? Ich dachte ich dürfte mit einem 60Hz Monitor nicht mehr haben als 60FPS, weil der Bildschirm dann quasi nicht hinterherkommt...Mit meiner vorherigen x280 hatte ich deutlich weniger FPS und da hatte ich das Tearing nicht. Mit den verschiedenen vSync Arten im Geforce Treiber habe ich auch schon erfolglos rumgespielt. Immer ein Inputlag vorhanden, meiner Meinung nach unspielbar, zumindest online MP. Bei RE hatte ich mich dran gewöhnt...Würde eine neue CPU --> mehr FPS was bringen? Die beste ist es ja nicht mehr, aber eigentlich reicht sie bisher für alles :D
     
  7. Lurtz lost

    Lurtz
    Registriert seit:
    22. Juli 2005
    Beiträge:
    100.025
    Ist mir bekannt, ist aber eine der wenigen Optionen, die mir in dem Zusammenhang mit Input lag einfällt.
     
  8. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Hohe FPS und kein Sync ist die beste Lösung für die Kombination aus geringem/keinem Tearing und geringem Input Lag. Die andere Methode wäre Async bzw. Gsync (für NV). Mich persönlich stört Tearing in Multiplayer-FPS übrigens nicht, aber da geht es anderen evtl. anders. Probier doch mal aus, wie es sich mit Nosync, Maximum prerendered frames=1 und Ingame-Framelimit anfühlt.

    Upgrademöglichkeiten wären ein neuer Prozessor für höhere FPS, ein neuer Monitor für Gsync bzw. generell ein neuer Monitor für 144Hz (extrem niedriger Input Lag). Eventuell lässt sich dein 60Hz-Monitor auch übertakten, das ist auch schon spürbar.
     
  9. Vader666

    Vader666
    Registriert seit:
    13. Juni 2016
    Beiträge:
    32
    Danke Captain ;) werde nochmal etwa experimentieren...Was wäre deiner Meinung nach sinvoller für mich? Beides auf einmal upzugraden (1. CPU, Mainboard, RAM / 2. Monitor) würden meinen finanziellen Rahmen sprengen :/ Wäre dann wohl ein i7 7700k mit einem guten ASUS Mainboard + 16 GB DDR4 = ~700-800€ und ein guter Asus Monitor mit 27", 144 Hz, Gsync auch nochmal min. 700€... (ja...ASUS Fanboy :D)
     
  10. Ich glaub das wars. Mehr als ausprobieren kann man ohnehin nicht machen. Ist auf jeden Fall billiger, als sich irgendeine Hardware anzuschaffen :ugly:
     
  11. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Beim Monitor wäre natürlich wichtig, ob du dich auf NV festlegen möchtest, andernfalls wäre ein Gsync-Monitor keine gute Investition. Für 27" wären außerdem 1440p fällig, was natürlich auch wieder ordentlich Frames kostet. Eventuell wäre ein G-Sync-Monitor mit 1440p und 27" ein guter Kompromiss, damit hat man kein Tearing und sehr geringen Input Lag.
     
  12. Sp00kyF0x

    Sp00kyF0x
    Registriert seit:
    10. August 2010
    Beiträge:
    15.218
    im beitrag von OP wird es nicht ganz ersichtlich, ob er den angeblich "erheblichen input lag" bei BF1 tatsächlich wahrgenommen hat oder nur aufgrund des weit verbreiteten irrglaubens rund um vsync als gegeben vorraussetzt. daher mal eine kurze allgemeine aufklärung zum thema vsync und input-lag.

    normales vsync nutzt double-buffering: primärer + sekundäre bildpuffer. sobald die GPU in den sekundären bildpuffer ein frame fertig gerendert hat, wartet sie (und tut nichts) bis das sync-signal für den bildrefresh eintritt. dann werden die bildpuffer getauscht und während der monitor das neue bild aus dem nun primären bildpuffer darstellt, fängt die GPU an wieder ein neues frame zu berechnen.

    diese wartezeit, also nachdem das frame im sekundären bildpuffer fertig vorliegt und die GPU auf den monitor-sync wartet, ist der zusätzliche inputlag (zu dem, den die spielengine selbst durch ihre interne logik verursacht). im schlimmsten fall, also wenn die GPU das frame sofort ohne zeitverzögerung fertigstellt, ist das bild genau 1 frame lang ungenutzt und wird erst dann dargestellt. d.h. bei 60hz liegt der maximale zusätzliche durch vsync verursache input lag bei 16,6ms. das ist zu wenig damit die menschliche wahrnehmung einen unterschied feststellen kann.

    allerdings wird es öfter in spielen schlecht implementiert, wahrscheinlich mit render-warteschlangen. je länger diese warteschlange, desto höher ist natürlich der input lag. klassisches beispiel ist etwa Dead Space, dessen spieleigene vsync-option eine deutlich spürbare eingabe-verzögerzung verursacht. während durch den treiber forciertes vsync absolut keine probleme macht.

    generell ist es empfehlenswert bei spielen wo man meint, dass das der fall wäre, die spielinterne vsync-option zu deaktivieren und es mit der treiber-eigenen zu testen.

    edit: hab mal ein bisschen rumgesucht und speziell für BF1 wird gerne fast sync empfohlen. probier das doch mal aus, bevor du hier meinst neue hardware müsse her :ugly:

    bei höheren fps entstehen nur mehr bildbrüche, die durch den geringeren zeitlichen abstand zwischen den frames weniger auffallen mögen. aber ein schnelles objekt oder eine schnelle bewegung und schon sieht man es deutlich. tatsächlich hilft ein monitor mit einer höheren frequenzrate, denn während etwa ein bildbruch bei 60hz für 16,6ms zu sehen ist, sind es bei 144hz dann 6,94ms. sprich die anzeigedauer solch eines bildfehlers ist weniger als halb so lang im vergleich (und zwar unabhängig von der tatsächlichen bildrate).

    wobei man dazu anmerken muss, dass dabei die graka stehts am anschlag arbeitet (die renderpipeline ist nicht limitiert, läuft also so schnell die GPU eben kann) und das framepacing unregelmäßig wird, wenn die framerate nicht ein vielfaches der frequenzrate erreicht. ist aber für MP-shooter vlt beides nicht sehr relevant.
     
    Zuletzt bearbeitet: 23. März 2017
  13. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    Ein weiterer Fall von Hyper Thread goodness!
    Würde die min fps sicher ordentlich boosten und die wahrnehmbaren Probleme stark eindämmen. :epona:

    Wie wärs mit nem gebrauchten 2600K (kA wie da die Marktlage ist) oder eben komplett neu aufsetzen, damit die 1070 in den online multi schlachten auch mal gscheit atmen kann.

    flip size/pre render auf 1 ist eig. eh überall pflicht, außer bei iwelchen cineastischen single player seicht gameplay titeln
     
  14. mad_layne

    mad_layne
    Registriert seit:
    20. Juni 2013
    Beiträge:
    2.776
    Ort:
    just outside of plato s cave
    Mein RIG:
    CPU:
    6700 i7 Intel
    Grafikkarte:
    GTX 1080 G1 Gaming Gigabyte
    Motherboard:
    Z170XP-SLI-CF Gigabyte
    RAM:
    2x8 2400@10 Corsair Dominator Platinum
    Laufwerke:
    840 Pro Samsung
    Soundkarte:
    Olympus 2 E10K FiiO (USB)
    Gehäuse:
    Define R6
    Maus und Tastatur:
    Roccat Burst und Logitech Illuminated K740 (1. Gen)
    Betriebssystem:
    W10 Pro
    Monitor:
    Dell S2719DGF (WQHD@155)
    wollt bearbeiten, sehr kagge und unintuitiv das re"design"
     
  15. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Der Lag ist auch im optimalen Fall höher als 16,66 ms @60 Hz, da das Rendern eines neuen Frames immer mit dem Bufferswitch zusammenfällt. Eine Eingabe zwischen Switch 1 und Switch 2 muss dann bis zum Switch 2 warten, um gerendert zu werden, und erst bei Switch 3 wird sie dargestellt. Im schlimmsten Fall sind das ~32ms. Das spürt man definitiv. Tatsächlich spürt man auch 16,66 ms; wenn du mir es nicht glaubst, dann verwende bitte mal eine ältere Zowie-Maus mit einer Logitech G100s z.B.; zwischen beiden liegen ca. 15ms und der Unterschied ist deutlich spürbar. Zudem genügt es, dass die FPS nur für einen Frame unter die Refreshrate fallen, damit sich der Lag nochmals verdoppelt.

    Bei Vsync kommt zudem hinzu, dass nur so viele Frames berechnet werden, wie die Refreshrate hoch ist. Höhere FPS reduzieren allerdings den Input Lag, folglich hat Vsync relativ einen höheren Input Lag gg. Nosync (sofern FPS>Hz). In gewissen Spielen sind Mechaniken auch an FPS gekoppelt, in Q3A z.B. kann man nur mit 125 FPS (bzw. 250 FPS usw.) bestimmte Sprünge schaffen, Vsync @60Hz macht sich da noch mal negativer bemerkbar.

    Und wie du richtig erwähnst, ist die Implementierung in Spielen oftmals schrecklich. Oftmals werden 3-4 Frames vorberechnet, was sich zu ~100ms addiert. Das ist mehr als spürbar. Dass das Vsync über das CP generell schneller wäre, kann ich allerdings nicht sagen. Im Beispiel von SF IV ist das nicht der Fall: https://displaylag.com/reduce-input-lag-in-pc-games-the-definitive-guide/
     
    Zuletzt bearbeitet: 24. März 2017
    Sp00kyF0x gefällt das.
  16. Sp00kyF0x

    Sp00kyF0x
    Registriert seit:
    10. August 2010
    Beiträge:
    15.218
    deswegen sprach ich von dem durch vsync verursachten zusätzlichen input-lag, dieser liegt wohlgemerkt im worst case bei einem frame. dass die engine selbst auch noch einige loops benötigt um eine eingabe zu verarbeiten ist ja klar. das ist aber kein lag den vsync an sich verursacht. richtig ist, wie du weiter unten ausführst, dass vsync die framerate limitiert (mal abgesehen von fast sync). falls game loop und render loop nicht voneinander getrennt sind, ist die input-verarbeitung natürlich auch limitiert.

    genau dasselbe passiert aber auch ohne vsync, wenn du die framerate auf die monitor-frequenz limitierst. in diesem sinne verursacht vsync keinen zusätzlichen input lag (bis auf das warten auf das sync-signal <= 1frame). insofern ist eine höhere framerate natürlich hilfreich um den input lag zu drücken, falls das spiel denn überhaupt mehr als 60fps kann. was bei so manchen konsolen-portierungen oder gewissen genres ja leider nicht immer gegeben ist.

    ich will nicht abstreiten, dass du das spüren kannst. aber standardwerke in der psychologie über die menschliche wahrnehmung widersprechen dem.

    wenn bei double-buffered vsync die framerate auf die hälfte fällt, dann liegt das render-timing ohnehin bei über einem frame (weshalb es zu keinem buffer-swap kommt). der zusätzlich durch vsync verursachte lag liegt dann aber immer noch bei höchstens einem frame, denn auch ohne vsync hätte das bild nicht vor dem zeitpunkt der fertigstellung angezeigt werden können.

    bei Q3A wurde das im übrigen aufgrund dieses vorteils bei besser performance durch ein späteres update unterbunden, indem die physik-berechnung von dem render-loop getrennt wurde. ist eigentlich auch das standardbeispiel dafür, wieso man das gerade bei MP-spielen so handhaben sollte. wenn die spiellogik dedicated abläuft, dann ist die client-performance natürlich ohnehin irrelevant.

    ich glaube du hast dich da verlesen. würde mich auch sonst wundern, denn ansonsten hätte man jahrelang fälschlicherweise bei SF4 davon abgeraten das ingame-vsync zu deaktivieren. ich sehe da bei Vsync (CP) 5,7 frames und bei Vsync (Game) 6,1 frames. kein großer unterschied, aber doch schneller.
     
    Zuletzt bearbeitet: 24. März 2017
  17. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
    Schon richtig, aber bei 30 FPS ist die Frametime mit 33,33 ms eben doppelt so hoch wie bei 59 oder 58 FPS mit Nosync. Effektiv steigt der Input Lag also doch noch mal deutlich gg. Nosync.

    Nur mit max prerendered frames 1. Reguläres CP-Vsync ist 6ms langsamer, erst CP-Vsync mit max prerendered frames 1 ist 8ms schneller als Ingame-Vsync. Beides sind Werte, die auch ich unterhalb der Wahrnehmungsschwelle ansiedeln würde.
     
    Sp00kyF0x gefällt das.
  18. Sp00kyF0x

    Sp00kyF0x
    Registriert seit:
    10. August 2010
    Beiträge:
    15.218
    sry. hatte übersehen, dass dadurch ja ein framerate-drop entsteht. lösung wäre dann in solchen fällen triple buffered vsync oder fast sync zu nutzen. in dem szenario haben beide einen geringeren input lag als double-buffered vsync, da die framerate auf dem niveau der rendergeschwindigkeit bestehen bleiben kann.

    was ja ohnehin empfehlenswert ist das auf 1 zu setzen. wenn man das auf den default-wert lässt, entscheidet die anwendung / der treiber darüber wie hoch der wert ausfällt. nur so kann ich mir auch erklären, wieso sich das ergebnis umdreht wenn man diesen wert nicht setzt. vlt nutzen treiber und game dann unterschiedliche werte, aber wer weiß.

    ----------

    muss natürlich auch sagen, dass meine obigen überlegungen der computergrafik-theorie entsprechen. in der praktischen umsetzung kann das je nach implementierung anders aussehen, wie wir ja festgestellt haben. will nur sagen, dass die aussage "vsync verursacht input lag" leider sehr weit verbreitet ist ohne genau zu erklären was es damit auf sich hat. da nehmen dann viele spieler durch solche ratschläge lieber massives tearing in kauf, weil sie ja sonst input lag hätten, den sie ohne solche ratschläge womöglich gar nicht bemerkt hätten.

    @Vader666
    war jetzt ein bisschen ausschweifend hier, aber vlt war mein disput mit captain_drink ja informativ. würde wie gesagt raten erst mal treiberseitiges vsync auszuprobieren, insbesondere die option fast sync. neue hardware kann dir sicherlich höhere bildraten bescheren, aber das synchonisierungs-problem bei videospielen ist ja ein generelles. da kann dein rechner noch so schnell sein. außer du willst auf free- oder g-sync setzen. allerdings benötigst du dafür auch einen entsprechenden monitor + dazu passender graka.
     
    Zuletzt bearbeitet: 24. März 2017
  19. Vader666

    Vader666
    Registriert seit:
    13. Juni 2016
    Beiträge:
    32
    Uff die Community ist ja mal echt aktiv hier :D danke euch! Sehr informativ, auch wenn ich nicht 100% behalten kann ^^

    @Sp00kyF0x du sagtest oben sei es nicht ersichtlich ob ich wirklich merkliche input lags habe. Ja ich habe sie selbst gemerkt als ich das erste mal bf1 gespielt habe. Es ist so schlimm, dass ich dachte es sei ein Bug und fing an meine andere Treiber zu installieren und zu googeln. Der Maus Lag ist einfach extrem und macht es wirklich unspielbar mit vsync.

    Im Treiber habe ich nach Empfehlungen nur mal das "adaptive Sync" probiert, allerdings nur mit Hitman...ich weiß nicht ob ihr es gespielt habt, aber in der ersten Szene wo der Heli kommt...Katastrophe, sieht aus als wenn die Rotoren in der Mitte geteilt sind durch das Tearing...diese Stelle nehme ich immer zum testen. Mit dem adaptive Sync sah es gut aus, aber ich habe auch einen Input Lag gespürt.Werde nachher mal das fast Sync probieren. Evtl werde ich auch mal meine CPU auf 4.0 Ghz übertakten...lief stabil, aber bei bf1 hatte ich mal Abstürze gehabt und wusste nicht ob es wegen des Spiels selbst oder der CPU war...mittlerweile sind da ja ein paar Patches erschienen.
    Hardware würde ich mir gerne neu kaufen, aber eigentlich reicht mein Rechner momentan völlig aus :D nur dieses unschöne Problem halt...dafür ist mir das Geld irgendwie zu schade.

    @mad_layne was meinst du mit "flip size/pre render auf 1", was bewirkt das und wo kann ich das konfigurieren? config file vom Spiel oder irgendwo im Treiber?

    Man ich bin zwar "vom Fach" aber ihr gebt mit das Gefühl ein Noob zu sein, ist wohl nicht mein Themengebiet ;D
     
  20. Das ist ne Treibereinstellung.
     
  21. Sp00kyF0x

    Sp00kyF0x
    Registriert seit:
    10. August 2010
    Beiträge:
    15.218
    adaptive sync ist auch eigentlich eine behelfslösung. der witz bei adaptivem vsync ist, dass es sich dabei um reguläres (double-buffered) vsync handelt, welches sich aber automatisch abschaltet sobald die framerate unter die bildschirmfrequenz fällt. damit wird verhindert, dass es zu solchen harten framerate-drops kommt (etwa von 60fps auf 30fps), allerdings entsteht durch das abschalten natürlich auch wieder tearing. und falls es aktiviert ist, gibt es keinen unterschied zu normalen vsync.

    ja, probier das mal. Nvidia hat ja fast sync (im treiber "schnell" genannt) genau als diese option angeboten. input lag sollte damit fast genauso niedrig sein wie mit deaktiviertem vsync. musst nur beachten, dass die GPU dabei unter volllast läuft. also wenn du da ein stabilitätsproblem mit der GPU hast, würde sich vlt vorher empfehlen die grafikkarte mal zu reinigen, falls sich staub angelagert haben sollte. mit 100%-iger auslastung sollte aber eine grafikkarte normalerweise zurechtkommen. evtl gibts spulenfiepen (harmlos), was du aber beim spielen aber nicht hören solltest.

    bei AMD und Nvidia heißt das jeweils anders. bei AMD ist es glaube ich "flip queue". bei Nvidia heißt es "Maximale Anzahl der vorgerenderten Einzelbilder" (ganz normal zu finden unter 3D-einstellungen im treiber). um einen zusätzlichen lag zu vermeiden, sollte man es am besten auf das minimum also 1 einstellen.
     
    Zuletzt bearbeitet: 24. März 2017
  22. captain_drink

    captain_drink
    Registriert seit:
    5. Oktober 2004
    Beiträge:
    7.388
Top