Wie viele Bilder pro Sekunde sieht unser Auge?

Kategorien:
  1. Wer sich im Bereich von Gaming und Film etwas umhört, wird schnell auf Aussagen wie diese treffen: »Unser Auge nimmt doch nur 30fps wahr, Kino ist ja auch flüssig!« Leider werden solche Aussagen immer ohne vernünftiges Hintergrundwissen getätigt. Deshalb würde ich gerne Vorurteile beiseite kehren, aufklären, sowie den Unterschied zwischen Spiel und Video erläutern und eine hoffentlich zufriedenstellende Antwort auf die Überschrift geben. Wobei die ersten Absätze über »fps« eher an Neulinge gerichtet sind.

    fps.jpg


    Was ist dieses FPS?

    An aller erster Stelle sollte jedoch einmal der Begriff »frames per second« erläutert werden.

    Ein Videosignal besteht nämlich nur aus einzelnen Bildern (frames), durch das Hintereinanderschalten von ähnlichen Bildern entsteht die Intention einer Bewegung. 25fps bedeuten, dass wir 25 (unterschiedliche) Bilder jede Sekunde geliefert bekommen und ein Bild damit 40ms lang zu sehen ist.

    Kinofilme laufen seit rund einem Jahrhundert mit 24fps (abgesehen von der Hobbit-Reihe) und werden mit 72Hz, bzw. 96Hz wiedergegeben (wobei hier ein Bild je 3, bzw. 4 Mal dargestellt wird). Für das deutsche Fernsehen wird das Videomaterial leicht beschleunigt um 25fps (»PAL«) zu erreichen. Einsteiger-TV-Geräte zeigen die Bilder doppelt an um auf 50Hz zu kommen, High-End-Geräte verwenden Motion Interpolation um extra Frames zwischen den gegebenen Bilder zu »erraten«, sie besitzen dafür ein Panel mit mindestens 100Hz. Spiele (zumindest auf dem PC) können theoretisch mit beliebig vielen Bildern pro Sekunde laufen, der Monitor beschränkt sich jedoch generell auf Frequenzen wie 60Hz oder 144Hz. Womit sich eine weitere Frage stellt…


    Wieso ruckelt mein Spiel/Video, trotz fast 60 fps?

    Schwankende Frametimes und Tearing können den Spielspaß natürlich mindern, wir beschränken uns jedoch lieber auf aktiviertes VSync. Deshalb nehme man einmal folgendes Szenario zur Hand: Unser Monitor läuft mit 60Hz, somit zeigt er im Idealfall 60 aufeinander folgende Bilder pro Sekunde an. Berechnet die Grafikkarte konstant 59fps in einem Spiel, muss je ein Bild einer Sekunde doppelt angezeigt werden (wegen VSync). Somit scheint der Ablauf kurz wie eingefroren, da ein Bild ungefähr 33,3ms lang und die anderen 58 Bilder je fast 16,7ms lang pro Sekunde gezeigt werden. Gleiches würde auch am TV passieren, wenn europäische Sender auf unverändertes 24fps Kinomaterial umstellen. Weitere Fälle und ausführliche Erklärungen finden sich im Artikel über VSync, FreeSync, FastSync, CPU/GPU Sync & mehr.

    Generell kann also auch eine hohe Bildfrequenz von der Grafikeinheit stören, falls der Bildschirm nicht mit derselben oder einer vielfachen Frequenz arbeitet. In den folgenden Abschnitten wird der Verständlichkeit halber immer von einem passenden Monitor/Beamer ausgegangen.


    Wieso ruckelt mein konstant 24fps Spiel mehr als Kinofilme?

    Spielt man auf einem Röhrenmonitor oder übertaktet man sein durchschnittliches TN-Panel, kann man 72Hz einstellen. Da 72 ein vielfaches von 24 ist, wird auch jedes Bild eines PC-Spieles mit konstanten 24fps gleich lange dargestellt. Trotzdem ruckelt ein Real-Film deutlich unauffälliger.

    Das liegt daran, dass für das Spiel jedes dieser 24 Bilder unabhängig voneinander erzeugt wird. Ein Einzelbild (ohne Post-Processing) also wie ein ruhiges Foto aussieht. Eine Kamera hingegen nimmt ihre Einzelbilder über ein paar Millisekunden auf, Bewegungen erhalten dadurch Motion Blur und erscheinen flüssiger. Aber Achtung, Bewegungsunschärfe-Optionen in Spielen tricksen oftmals unschön und sind dann keine echte Konkurrenz. Wobei man sich auch fragen sollte ob man das überhaupt will, es entsteht nämlich sowieso Unschärfe durch die Reaktionszeit des Monitors und durch etwas namens Persistence of Vision (mehr dazu in Teil 3). Je niedriger die Response-Time und diese Persistence, desto mehr Schärfe und das will man doch schließlich.

    haleblur.jpg
    Drummer Arejay Hale: Motion Blur besonders sichtbar an den Sticks


    Ist denn Motion Blur jetzt gut oder schlecht?

    Es gibt kein Gut oder Böse. Den Vorteil bei 24fps haben wir schon geklärt. Nachteil, was uns auch schon der Name spoilert, ist die unschöne Unschärfe. Wollen wir uns in einem Actionfilm auf die schwingenden Fäuste fokussieren, verwischen diese ins Unerkenntliche, sobald sie sich bewegen, da bei 24fps sehr schnell, sehr starke Bewegungsunschärfe auftritt.

    Seufz. Wäre echt cool, wenn man etwas dagegen tun könnte. Ah! Aber na klar, wie wäre es mit einer höheren Bildrate. Zeichnet man etwas mit beispielsweise 48fps auf, erhält man nicht nur ein flüssigeres Bild, sondern es gelingt zusätzlich mehr Bewegungsschärfe. Tada!

    halehigh.jpg
    High-Speed-Kamera: Neben glatteren Bildwechseln gewinnen Bewegungen an schärfe, je mehr Frames aufgezeichnet werden.


    Dann sind 30fps doch nicht genug?

    Genau, entweder ruckelt das Bild zu stark oder Translokationen werden zu stark weichgezeichnet. Des Weiteren verringert sich die Latenz bei Games, umso höher die Bildfrequenz wird. Kann jedes Bild bei 30 fps bis zu 33,¯3 ms alt werden (ohne Beachtung weiterer Latenzen), sind es bei 144 fps auf einem Monitor mit 144 Hz nicht einmal 7 ms. Für CS:GO-Sportler ein durchaus kräftiges Argument.


    Aber wo liegt denn dann die Grenze, wenn nicht bei 30fps?

    Vielleicht sollten wir am unteren Ende beginnen. 24 hintereinander aufgezeichnete Bilder pro Sekunde lassen sich als Zusammenhängend interpretieren. Mehr natürlich auch, aber wo liegt die untere Grenze?

    Wir schalten unseren Monitor eine Stunde lang aus, so haben wir ein 1-fph-Schwarzbild. Nun, dies ist wohl etwas passiv, aber für eine Zeitspanne ohne Bewegung genügen mindestens 0 fps. Logisch. So starten wir lieber das gute alte Snake, pro Zeitspanne bewegt sich hier die Schlange um einen Pixel (Kantenglättung gab es damals noch nicht). Wenn sie sich also in ihrer kurzen Form noch langsam bewegt, sagen wir alle 1 Sekunde, muss auch nur 1 fps geliefert werden um flüssig zu wirken. Bei gefilmten Material (somit inklusive Motion Blur) mit vernünftigen Bewegungen liegt jedoch die Interpretationsschwelle bei ca. 16 bis 18 Bildern die Sekunde.

    Trotzdem, wegen der Unterteilung in Pixel kann eine sehr langsame Bewegung auch noch mit 10 fps flüssig wirken. Doch bringt dies uns letztlich in vielen Spielen recht wenig, da die meisten Genres nur von ihren dauerhaften Kameraschwenks leben, so können hingegen Filme mit oftmals statischen Kameraperspektiven ab und an vollkommen zufriedenstellen. Die Frage nach »Wie viel fps sind flüssig?« liefert also nicht unbedingt eine Antwort auf die Framegrenze des Auges.

    [​IMG]
    Snake: Einer langsamen Schlange genügen weniger Frames als einer schnellen um beide flüssig zu sehen.


    Nicht schlapp machen, wie hoch muss die Bildrate jetzt sein, damit es mit der Frequenz des Auge übereinstimmt?

    Weder 24, 30, 75, noch 144 Hertz.

    Wurde das Browserfenster nicht beleidigt geschlossen, hilft vielleicht ein Experiment beim Messen der »Augenfrequenz«. Schaut man in ein Licht, dass für einen Augenblick aus und wieder angeschaltet wird, erkennt man die Zustandswechsel bei einem Aussetzen des Lichtes ab einer Zehntel Sekunde. Wenn das Licht kürzer aussetzt, würde man es nicht merken. Deshalb läuft ja ein Film im Kino auf einem Projektor mit mindestens 72Hz, da das Bild für einen Sekundenbruchteil Schwarz werden muss, solange der nächste Frame vorbereitet wird.


    Gut, das war's also, unser Auge sieht mit 72 fps, basta.

    Halt! Selbst bei einem Blindtest kann man noch zwischen 72 fps und 144 fps auf einem passenden Panel einen Unterschied ausmachen. Zudem scheint dieser Versuch die Definition von Bewegung zu überstrapazieren. Das Auge, so gut es auch ist, ist einfach zu faul um diese Art der Umgebungsänderung aufzuzeichnen. Das gegenteilige Experiment (also ein Lichtblitz im Dunkeln) zeigt nochmals, dass Bewegung nicht immer gleich Bewegung ist: Leuchtet etwas für 4 oder 5 Millisekunden in der Dunkelheit kann man es noch gerade so mitbekommen. Hier ist das Auge also empfindlicher.

    Neues Minimum für maximale Flüssigkeit ist also ca. 200 fps. Andernfalls könnte unser Spiel mit 60 fps, welches nun mal nur alle 16,¯6 ms ein Bild berechnet, dieses aufblitzen verpassen oder gar einen ganzen Frame lang anzeigen und damit deutlich länger als beabsichtigt.


    Und was macht dann unser Auge, um immer die passende Bildrate zu finden?

    Unser Auge aktualisiert nicht den ganzen Sehbereich mit einer bestimmten Frequenz. Verschiedene Rezeptoren im Auge arbeiten unterschiedlich schnell oder unterschiedlich gründlich, und sind für verschiedene Sichtänderungen konzipiert. So unterscheidet sich neben der Sensitivität auf hell und dunkel auch die Empfindlichkeit für diverse Farben.

    Wenn Rezeptor Fritzchen mit x Hertz ein Signal übermittelt, könnte das Gehirn zusammen mit Zellennachbar Hansi eine Frequenz größer x Hertz erreichen. Darüber hinaus wertet das Gehirn weitere Faktoren hinzu, wie das Räumlichkeitsempfinden durch das anderes Auge, Kopf- und Körperbewegungen mithilfe der Ohren, den Fokus der Linsen, usw.

    Ein simuliertes Kamerawippen in Ego-Perspektive wird immer fremd wirken (außer in der Matrix). Genauso wie einzelne Bilder, die wir uns zu einer übergangslosen Bewegung zusammendenken. Und niemand würde alle paar Sekunden eines Filmes ungefähr 3 Bilder einschwärzen um den Wimpernschlag zu simulieren.

    etv.png

    Theoretisch gibt es trotzdem eine Grenze, ab der eine Translokation von Pixeln bei einer bestimmten Framerate nicht mehr von der Realität unterscheidbar sein könnte. Wenn wir uns nochmals Snake widmen und sagen, bei 60 Hz bewegt sich die Schlange um 60 Pixel pro Sekunde, bei 120 Hz um 120 Pixel, und immer so weiter. Gibt es dann eine Frequenz bei der unser Auge uns vormacht, die Schlange überspringe Pixel? Bei 1000 fps? 60000 fps? Und macht die Größe der Pixel einen Unterschied, würde ein SnakeHD nicht von feineren Pixeln profitieren?

    Gibt es dann vielleicht nicht auch in Zukunft eine bessere Technik um unsere Augen »auszutricksen«? Denn beim Schwenken des Blickes spielt die eigentliche Bewegung kaum eine Rolle, man konzentriert sich nur auf das Ziel am Ende der Regung und nicht auf die Geste an sich.

    https://www.youtube.com/watch?v=KsTBfYWI3t8
    GameStar-News: Auch ohne 60fps unterhaltsam. (Aber in den Kommentaren steht viel Quatsch über fps und das Auge)


    Hätte man das nicht gleich sagen können?

    Hätte, hätte, Fahrradkette, ich hoffe nur, dass sich nicht so viele Leute gegen längst überfällige Änderungen wehren und bei einer Erhöhung der Bildrate nicht schreien: »Man sieht doch eh keine Unterschied, Werbelüge!« oder »Der Filmflair geht verloren, ist ja fast so schlimm wie Farbfernsehen!«. Man sollte allgemein immer Offenheit besitzen wenn es neue Verbesserungen für wenig Mehraufwand gibt, egal bei welchem Thema.

    Kommt man selbst nicht sofort damit zurecht, wird es dagegen für nachfolgende Generationen, die mit 48/60-fps-Filmen oder 288-Hz-Bilschirmen groß werden, merklich angenehmer und natürlicher sein.

    Speziell bei Filmen ist die Eingewöhnungszeit durchschnittlich sehr kurz und man nimmt Videos deutlich bekömmlicher wahr, da einem die Bildsequenz wesentlich flüssiger vorkommt.

    Persönlich bevorzuge ich daher 60+ fps in Spielen, statt Ultra-Einstellungen und Mega-Antialising. Wie auch Motion Interpolation trotz der ab und an sichtbaren Artefakte. Wobei beides letztlich Geschmackssache ist.


    Gibt es eigentlich für den Quatsch der hier erzählt wurde irgendwelche Nachweise?

    Sehr wichtig, durch die zwei Quellen bin ich überhaupt erst zu dem Wissen gekommen:

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. Highlord
    Hmm wie erkläre ich das am besten. Du kannst nicht in einem Schritt nach mehreren Zielfunktionen optimieren. Die Optimierung für "normale" Benutzer erfordert komplett andere Schritte als für Benutzer von High-End-Geräten etc. Wenn man eine gewisse Qualität SICHERSTELLEN will muss man deswegen einzelne nennen wir es mal "Szenarien" definieren und für diese optimieren. Je mehr dieser Szenarien notwendig sind desto höher der Aufwand. Jedes dieser Szenarien sollte auch voll im QA-Bereich ausgetestet werden. Der Aufwand dafür ist NICHT niedrig. Deswegen hat sich ja auch die aktuelle Situation ergeben in denen Hersteller die Funktion des Spiels praktisch nur für bestimmte Szenarien (locked at x fps) garantieren. Wer will kann in der Ini weiteres freischalten aber er tut dies eben auf eigene Verantwortung. Würde der Hersteller einen Betrieb bis z.B. 200 fps ermöglichen müsste eigentlich auch voll dafür getestet und optimiert werden.
    Kleinere Anbieter sperren oft nicht, testen aber auch gar nicht ob ihre Spiele auf solchen Rechnern überhaupt noch einwandfrei laufen. Daneben werden frame locks natürlich auch deswegen gerne verwendet weil Einbrüche von vielen Usern sehr deutlich wahrgenommen werden und es als schlimmer angesehen wird als eine gleichbleibend niedrige Framerate, d.h. es wird im Zweifelsfall lieber gelockt.
    Für Besitzer von High-End-Rechnern ist das natürlich nicht optimal, aber die Entwicklung orientiert sich eben nicht unbedingt mehr an den Extremen,
    vor allem bei Multiplattformentwicklung. Wenn ein Entwickler entscheidet worin das zur Verfügung stehende Budget investiert werden soll haben natürlich Massnahmen von denen die Mehrheit der Benutzer profitiert meist Priorität.
      3 Person(en) gefällt das.
  2. SebastianStange
    Schönes Blog und sehr spannendes Thema. Ich merke bei mir gerade, wie ich langsam umdenke. Einst dachte ich mir: "30 FPS reichen mir!" Und nun bin ich echt von diesen Gaming-Monitoren angetan. So ein Rennspiel mit 100+ FPS hat schon was. Es ist so butterweich! Hmm...
      5 Person(en) gefällt das.
  3. dizzykrissi
    Mein Monitor läuft mit 60Hz und bei aktiviertem Vsync wirkt es für mich flüssig, insofern 60FPS nicht unterschritten werden. Allerdings merke ich den Input-Lag der Maus, wennn ich z.B. Black Ops 2 zocke. Begrenze ich die FPS auf 120 (Ingame sind es komischerweise 125FPS), dann fühlt es sich direkter an, da der Input-Lag halbiert wurde. Für schnelle Shooter wäre es also für mich optimal mit einem 120Hz Monitor auf Vsync zu zocken. Selbst, wenn bei schnellen Kameraschwenks Pixel übersprungen würden, täte ich selbst es wohl kaum wahrnehmen können.
    Danke für den guten Beitrag.
      3 Person(en) gefällt das.
  4. Cd-Labs: Radon Project
    Sollte nicht gerade der Blogeintrag gezeigt haben, dass solch "starre" Limits vollkommen unnötig und bevormundend sind? "macht für mich keinen Unterschied mehr." -> "braucht niemand" ist doch gerade das, was hier zurecht krisiert wird.
    Woher willst du wissen, dass nicht jemand Bock hat in Zukunft mit einem 8K-Beamer@180Hz zu zocken und auch tatsächlich einen Unterschied war nimmt?
    Mir persönlich geben (MOMENTAN, auch Konditionierung sollte man nicht ignorieren!) mehr als 60Hz nur in Randfällen etwas, 2160P@72Hz (ein übertaktes Panel) wären etwas, was ich mir zum Beispiel rundum zusagen würde. Soll ich jetzt fordern, dass bei 2160P@72Hz Schluss ist?! Natürlich nicht!
    Allein dadurch, dass sich verschiedene Genres und Spiele so doll in ihren Anforderungen an CPU und GPU unterscheiden, ist das eh alles Bullshit. Es ist sicher möglich einen stilisierten Racer mit irrsinnigen Geschwindigkeiten rauszuhauen, der vollkommen konstante 1000 FPS raushauen könnte, für sowas könnte man auch mal ein 1000Hz-Display mit ansonsten bescheidenen Stats entwickeln---aber in anderen Genres wie z.B. Massen-Strategie mit ihren 100.000+ Einheiten ist man froh überhaupt 30 FPS zu bekommen, weil alles, von CPU über Ram über SSD über Graka limitiert.


    Das Auflösungsthema ist zwar ein wenig OffTopic, aber egal:
    "Alles darüber ist Verschwendung von Rechenresourcen" Kann man allgemein so nicht unterschreiben. SparseGridSuperSampling (die wohl beste "konventionelle" AA-Methode) bietet die beste Effizienz im zweifachen Modus---eine Vervierfachung der Anzahl Pixel des Ausgabegerät erhöht die resulierende Bildqualität danach bedeutend mehr als der Wechsel auf 8xSGSSAA, ist ergo effizienter. Allein schon wegen so etwas ist es nicht sinnvoll über Auflösungslimits nachzudenken...
      1 Person gefällt das.
  5. Latnaf
    http://30vs60.com/ da sieht man es.
      1 Person gefällt das.
  6. Matt Gore
    Vielen Dank für das gute Feedback.

    Das Thema frame time wollte ich aus Gründen des Umfangs jedoch ausklammern, so hatte ich an einer Stelle vSync erwähnt. vSync sorgt dann dafür, dass ein 60Hz-Monitor alle 16,6ms ein Bild erhält, ist die Graka nicht schnell genug, wird das Bild einfach 33ms angezeigt. Idealerweise kann man dann mit genügend Leistung gleich große frame times erreichen. Ansonsten müsste auch gleich wieder tearing angesprochen werden, was mir den Fokus zu arg vom "Interessanten" genommen hätte. So sollte vereinfacht angenommen werden, dass bei 200fps alle Einzelbilder gleich lange zu sehen sind.

    Edit: Ohne zu arg ins Detail zu gehen habe ich diese Thematik jetzt wenigsten für die Profis unter euch in einem Satz erwähnt ;)
      1 Person gefällt das.
  7. Scr3y
    Sehr schöner Beitrag !
      1 Person gefällt das.
  8. macgeifer
    endlich nimmt mal jmd. diesem thema an.

    in diesem zusammenhang sollte man aber auch die frametime ud die tickrate erwähnen/erklären, weil diese einen wesentlichen einfluss auf das empfinden eines bestimmten fps-wertes haben.
      3 Person(en) gefällt das.
  9. gabrielinc
    Also ich persönliche finde 90 fps @ 90 Hz schon ziemlich flüssig, aber ich kenne trotzdem noch einen kleinen Unterschied zu 120 fps @ 120 Hz. Alles darüber, z.B. 144 fps @ 144 Hz, macht für mich keinen Unterschied mehr.

    PC-Gaming der Zukunft sollte auf 4k @ 120 fps (auf einem 16:9 Single-Monitor-System) limitiert ausgerichtet sind. Alles darüber ist nur Verschwendung von Rechenresourcen.
      2 Person(en) gefällt das.
  10. Dogarr
    Kannst du als Optiker vielleicht auch noch paar interessante Details zu dem Thema beitragen ?

    Würde ich gut finden.
      2 Person(en) gefällt das.
Top