Wie viele Bilder pro Sekunde sieht unser Auge?

Kategorien:
  1. Wer sich im Bereich von Gaming und Film etwas umhört, wird schnell auf Aussagen wie diese treffen: »Unser Auge nimmt doch nur 30fps wahr, Kino ist ja auch flüssig!« Leider werden solche Aussagen immer ohne vernünftiges Hintergrundwissen getätigt. Deshalb würde ich gerne Vorurteile beiseite kehren, aufklären, sowie den Unterschied zwischen Spiel und Video erläutern und eine hoffentlich zufriedenstellende Antwort auf die Überschrift geben. Wobei die ersten Absätze über »fps« eher an Neulinge gerichtet sind.

    fps.jpg


    Was ist dieses FPS?

    An aller erster Stelle sollte jedoch einmal der Begriff »frames per second« erläutert werden.

    Ein Videosignal besteht nämlich nur aus einzelnen Bildern (frames), durch das Hintereinanderschalten von ähnlichen Bildern entsteht die Intention einer Bewegung. 25fps bedeuten, dass wir 25 (unterschiedliche) Bilder jede Sekunde geliefert bekommen und ein Bild damit 40ms lang zu sehen ist.

    Kinofilme laufen seit rund einem Jahrhundert mit 24fps (abgesehen von der Hobbit-Reihe) und werden mit 72Hz, bzw. 96Hz wiedergegeben (wobei hier ein Bild je 3, bzw. 4 Mal dargestellt wird). Für das deutsche Fernsehen wird das Videomaterial leicht beschleunigt um 25fps (»PAL«) zu erreichen. Einsteiger-TV-Geräte zeigen die Bilder doppelt an um auf 50Hz zu kommen, High-End-Geräte verwenden Motion Interpolation um extra Frames zwischen den gegebenen Bilder zu »erraten«, sie besitzen dafür ein Panel mit mindestens 100Hz. Spiele (zumindest auf dem PC) können theoretisch mit beliebig vielen Bildern pro Sekunde laufen, der Monitor beschränkt sich jedoch generell auf Frequenzen wie 60Hz oder 144Hz. Womit sich eine weitere Frage stellt…


    Wieso ruckelt mein Spiel/Video, trotz fast 60 fps?

    Schwankende Frametimes und Tearing können den Spielspaß natürlich mindern, wir beschränken uns jedoch lieber auf aktiviertes VSync. Deshalb nehme man einmal folgendes Szenario zur Hand: Unser Monitor läuft mit 60Hz, somit zeigt er im Idealfall 60 aufeinander folgende Bilder pro Sekunde an. Berechnet die Grafikkarte konstant 59fps in einem Spiel, muss je ein Bild einer Sekunde doppelt angezeigt werden (wegen VSync). Somit scheint der Ablauf kurz wie eingefroren, da ein Bild ungefähr 33,3ms lang und die anderen 58 Bilder je fast 16,7ms lang pro Sekunde gezeigt werden. Gleiches würde auch am TV passieren, wenn europäische Sender auf unverändertes 24fps Kinomaterial umstellen. Weitere Fälle und ausführliche Erklärungen finden sich im Artikel über VSync, FreeSync, FastSync, CPU/GPU Sync & mehr.

    Generell kann also auch eine hohe Bildfrequenz von der Grafikeinheit stören, falls der Bildschirm nicht mit derselben oder einer vielfachen Frequenz arbeitet. In den folgenden Abschnitten wird der Verständlichkeit halber immer von einem passenden Monitor/Beamer ausgegangen.


    Wieso ruckelt mein konstant 24fps Spiel mehr als Kinofilme?

    Spielt man auf einem Röhrenmonitor oder übertaktet man sein durchschnittliches TN-Panel, kann man 72Hz einstellen. Da 72 ein vielfaches von 24 ist, wird auch jedes Bild eines PC-Spieles mit konstanten 24fps gleich lange dargestellt. Trotzdem ruckelt ein Real-Film deutlich unauffälliger.

    Das liegt daran, dass für das Spiel jedes dieser 24 Bilder unabhängig voneinander erzeugt wird. Ein Einzelbild (ohne Post-Processing) also wie ein ruhiges Foto aussieht. Eine Kamera hingegen nimmt ihre Einzelbilder über ein paar Millisekunden auf, Bewegungen erhalten dadurch Motion Blur und erscheinen flüssiger. Aber Achtung, Bewegungsunschärfe-Optionen in Spielen tricksen oftmals unschön und sind dann keine echte Konkurrenz. Wobei man sich auch fragen sollte ob man das überhaupt will, es entsteht nämlich sowieso Unschärfe durch die Reaktionszeit des Monitors und durch etwas namens Persistence of Vision (mehr dazu in Teil 3). Je niedriger die Response-Time und diese Persistence, desto mehr Schärfe und das will man doch schließlich.

    haleblur.jpg
    Drummer Arejay Hale: Motion Blur besonders sichtbar an den Sticks


    Ist denn Motion Blur jetzt gut oder schlecht?

    Es gibt kein Gut oder Böse. Den Vorteil bei 24fps haben wir schon geklärt. Nachteil, was uns auch schon der Name spoilert, ist die unschöne Unschärfe. Wollen wir uns in einem Actionfilm auf die schwingenden Fäuste fokussieren, verwischen diese ins Unerkenntliche, sobald sie sich bewegen, da bei 24fps sehr schnell, sehr starke Bewegungsunschärfe auftritt.

    Seufz. Wäre echt cool, wenn man etwas dagegen tun könnte. Ah! Aber na klar, wie wäre es mit einer höheren Bildrate. Zeichnet man etwas mit beispielsweise 48fps auf, erhält man nicht nur ein flüssigeres Bild, sondern es gelingt zusätzlich mehr Bewegungsschärfe. Tada!

    halehigh.jpg
    High-Speed-Kamera: Neben glatteren Bildwechseln gewinnen Bewegungen an schärfe, je mehr Frames aufgezeichnet werden.


    Dann sind 30fps doch nicht genug?

    Genau, entweder ruckelt das Bild zu stark oder Translokationen werden zu stark weichgezeichnet. Des Weiteren verringert sich die Latenz bei Games, umso höher die Bildfrequenz wird. Kann jedes Bild bei 30 fps bis zu 33,¯3 ms alt werden (ohne Beachtung weiterer Latenzen), sind es bei 144 fps auf einem Monitor mit 144 Hz nicht einmal 7 ms. Für CS:GO-Sportler ein durchaus kräftiges Argument.


    Aber wo liegt denn dann die Grenze, wenn nicht bei 30fps?

    Vielleicht sollten wir am unteren Ende beginnen. 24 hintereinander aufgezeichnete Bilder pro Sekunde lassen sich als Zusammenhängend interpretieren. Mehr natürlich auch, aber wo liegt die untere Grenze?

    Wir schalten unseren Monitor eine Stunde lang aus, so haben wir ein 1-fph-Schwarzbild. Nun, dies ist wohl etwas passiv, aber für eine Zeitspanne ohne Bewegung genügen mindestens 0 fps. Logisch. So starten wir lieber das gute alte Snake, pro Zeitspanne bewegt sich hier die Schlange um einen Pixel (Kantenglättung gab es damals noch nicht). Wenn sie sich also in ihrer kurzen Form noch langsam bewegt, sagen wir alle 1 Sekunde, muss auch nur 1 fps geliefert werden um flüssig zu wirken. Bei gefilmten Material (somit inklusive Motion Blur) mit vernünftigen Bewegungen liegt jedoch die Interpretationsschwelle bei ca. 16 bis 18 Bildern die Sekunde.

    Trotzdem, wegen der Unterteilung in Pixel kann eine sehr langsame Bewegung auch noch mit 10 fps flüssig wirken. Doch bringt dies uns letztlich in vielen Spielen recht wenig, da die meisten Genres nur von ihren dauerhaften Kameraschwenks leben, so können hingegen Filme mit oftmals statischen Kameraperspektiven ab und an vollkommen zufriedenstellen. Die Frage nach »Wie viel fps sind flüssig?« liefert also nicht unbedingt eine Antwort auf die Framegrenze des Auges.

    [​IMG]
    Snake: Einer langsamen Schlange genügen weniger Frames als einer schnellen um beide flüssig zu sehen.


    Nicht schlapp machen, wie hoch muss die Bildrate jetzt sein, damit es mit der Frequenz des Auge übereinstimmt?

    Weder 24, 30, 75, noch 144 Hertz.

    Wurde das Browserfenster nicht beleidigt geschlossen, hilft vielleicht ein Experiment beim Messen der »Augenfrequenz«. Schaut man in ein Licht, dass für einen Augenblick aus und wieder angeschaltet wird, erkennt man die Zustandswechsel bei einem Aussetzen des Lichtes ab einer Zehntel Sekunde. Wenn das Licht kürzer aussetzt, würde man es nicht merken. Deshalb läuft ja ein Film im Kino auf einem Projektor mit mindestens 72Hz, da das Bild für einen Sekundenbruchteil Schwarz werden muss, solange der nächste Frame vorbereitet wird.


    Gut, das war's also, unser Auge sieht mit 72 fps, basta.

    Halt! Selbst bei einem Blindtest kann man noch zwischen 72 fps und 144 fps auf einem passenden Panel einen Unterschied ausmachen. Zudem scheint dieser Versuch die Definition von Bewegung zu überstrapazieren. Das Auge, so gut es auch ist, ist einfach zu faul um diese Art der Umgebungsänderung aufzuzeichnen. Das gegenteilige Experiment (also ein Lichtblitz im Dunkeln) zeigt nochmals, dass Bewegung nicht immer gleich Bewegung ist: Leuchtet etwas für 4 oder 5 Millisekunden in der Dunkelheit kann man es noch gerade so mitbekommen. Hier ist das Auge also empfindlicher.

    Neues Minimum für maximale Flüssigkeit ist also ca. 200 fps. Andernfalls könnte unser Spiel mit 60 fps, welches nun mal nur alle 16,¯6 ms ein Bild berechnet, dieses aufblitzen verpassen oder gar einen ganzen Frame lang anzeigen und damit deutlich länger als beabsichtigt.


    Und was macht dann unser Auge, um immer die passende Bildrate zu finden?

    Unser Auge aktualisiert nicht den ganzen Sehbereich mit einer bestimmten Frequenz. Verschiedene Rezeptoren im Auge arbeiten unterschiedlich schnell oder unterschiedlich gründlich, und sind für verschiedene Sichtänderungen konzipiert. So unterscheidet sich neben der Sensitivität auf hell und dunkel auch die Empfindlichkeit für diverse Farben.

    Wenn Rezeptor Fritzchen mit x Hertz ein Signal übermittelt, könnte das Gehirn zusammen mit Zellennachbar Hansi eine Frequenz größer x Hertz erreichen. Darüber hinaus wertet das Gehirn weitere Faktoren hinzu, wie das Räumlichkeitsempfinden durch das anderes Auge, Kopf- und Körperbewegungen mithilfe der Ohren, den Fokus der Linsen, usw.

    Ein simuliertes Kamerawippen in Ego-Perspektive wird immer fremd wirken (außer in der Matrix). Genauso wie einzelne Bilder, die wir uns zu einer übergangslosen Bewegung zusammendenken. Und niemand würde alle paar Sekunden eines Filmes ungefähr 3 Bilder einschwärzen um den Wimpernschlag zu simulieren.

    etv.png

    Theoretisch gibt es trotzdem eine Grenze, ab der eine Translokation von Pixeln bei einer bestimmten Framerate nicht mehr von der Realität unterscheidbar sein könnte. Wenn wir uns nochmals Snake widmen und sagen, bei 60 Hz bewegt sich die Schlange um 60 Pixel pro Sekunde, bei 120 Hz um 120 Pixel, und immer so weiter. Gibt es dann eine Frequenz bei der unser Auge uns vormacht, die Schlange überspringe Pixel? Bei 1000 fps? 60000 fps? Und macht die Größe der Pixel einen Unterschied, würde ein SnakeHD nicht von feineren Pixeln profitieren?

    Gibt es dann vielleicht nicht auch in Zukunft eine bessere Technik um unsere Augen »auszutricksen«? Denn beim Schwenken des Blickes spielt die eigentliche Bewegung kaum eine Rolle, man konzentriert sich nur auf das Ziel am Ende der Regung und nicht auf die Geste an sich.

    https://www.youtube.com/watch?v=KsTBfYWI3t8
    GameStar-News: Auch ohne 60fps unterhaltsam. (Aber in den Kommentaren steht viel Quatsch über fps und das Auge)


    Hätte man das nicht gleich sagen können?

    Hätte, hätte, Fahrradkette, ich hoffe nur, dass sich nicht so viele Leute gegen längst überfällige Änderungen wehren und bei einer Erhöhung der Bildrate nicht schreien: »Man sieht doch eh keine Unterschied, Werbelüge!« oder »Der Filmflair geht verloren, ist ja fast so schlimm wie Farbfernsehen!«. Man sollte allgemein immer Offenheit besitzen wenn es neue Verbesserungen für wenig Mehraufwand gibt, egal bei welchem Thema.

    Kommt man selbst nicht sofort damit zurecht, wird es dagegen für nachfolgende Generationen, die mit 48/60-fps-Filmen oder 288-Hz-Bilschirmen groß werden, merklich angenehmer und natürlicher sein.

    Speziell bei Filmen ist die Eingewöhnungszeit durchschnittlich sehr kurz und man nimmt Videos deutlich bekömmlicher wahr, da einem die Bildsequenz wesentlich flüssiger vorkommt.

    Persönlich bevorzuge ich daher 60+ fps in Spielen, statt Ultra-Einstellungen und Mega-Antialising. Wie auch Motion Interpolation trotz der ab und an sichtbaren Artefakte. Wobei beides letztlich Geschmackssache ist.


    Gibt es eigentlich für den Quatsch der hier erzählt wurde irgendwelche Nachweise?

    Sehr wichtig, durch die zwei Quellen bin ich überhaupt erst zu dem Wissen gekommen:

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. Crickethill
    Ein recht physiklastiger Blogeintrag. Schön geschrieben und auf die technische Komponente bezogen recht informativ.
    Der biologische Aspekt, nämlich das Auflösungsvermögen des Auges, schwankt allerdings zwischen "teilweise richtig" und "falsch". Es stimmt, dass wir verschiedene Photorezeptoren im Auge haben, trotzdem ist unsere Netzhaut viel komplexer als hier dargestellt. Wir sehen nur mit einem kleinen Teil unseres Auges Farben und nur ein kleiner Teil wird wirklich wahrgenommen, da ein großer Anteil am "sehen" von unserem Gehirn übernommen wird. Und genau dieser riesigen und wichtigen Anteil des Gehirns wurde leider übersehen.

    "Unser Auge aktualisiert nicht den ganzen Sehbereich mit einer bestimmten Frequenz. Verschiedene Rezeptoren im Auge arbeiten unterschiedlich schnell oder unterschiedlich gründlich, und sind für verschiedene Sichtänderung konzipiert. So unterscheidet sich neben der Sensitivität auf hell und dunkel auch die Empfindlichkeit für diverse Farben." ist dahingehend also falsch. Die Rezeptoren sind nur das Ende einer dreigliedrigen Kette, die ins Gehirn führt, und Stäbchen und Zapfen sind der erste Anteil dieser Kette, die beim Sehen "aktiviert" wird. Allerdings arbeiten diese Rezeptoren nicht schneller oder langsamer, sondern unterscheiden sich in der Größe des Reizes. Ein stärkerer Lichtimpuls führt zu einem stärkeren Reiz am Rezeptor, der somit auch anders im Gehirn "verrechnet" wird. Tatsächlich beschränkt auch die Leitgeschwindigkeit unserer Nerven die Sehfähigkeit, bzw. die "Ausfallssicherung" der Rezeptoren. Hier in die Tiefe zu gehen würde zu weit führen, gesagt sei aber, dass unsere Nervenfasern im ZNS nur eine gewisse Geschwindigkeit erreichen können und Aktionspotentiale nur in gewissen zeitlichen Abständen ausgelöst werden können (weil die spannungsabhängigen Ionenkanäle eine "Zeitverzögerung" besitzen). Daher kann nur eine gewisse Menge Information in einer gewissen Zeit das Gehirn erreichen und beschränkt deshalb was wir sehen.

    Das heißt, dass die theoretisch mögliche Frequenz, der Frequenz entspricht in der ein Aktionspotential ausgelöst werden kann. Natürlich limitieren noch andere Faktoren diese Zahl, aber der grundsätzlich limitierende Faktor sind Aktionspotentiale, Nervenleitgeschwindigkeit und die Verrechung im Gehirn. Denn die "sehenden Bereiche" bzw. "Konzipierung für Sichtänderung" erledigt unser Gehirn, nicht das Auge. Auf das Auge treffen nur Signale in Form von Impulsen (wie helles Licht), die dann im Gehirn verrechnet und in ein Bild verarbeitet werden.
      2 Person(en) gefällt das.
  2. Highlord
    Das ist eine interessante Forderung, und ich wünsche dir viel Erfolg damit. Mit recht viel praktischer Erfahrung aus der Spieleenticklung würde ich das ganze aber eher als idealistisch bezeichnen. Mehraufwand für Features die keine direkten Mehreinnahmen bringen und nur bei zukünftigen Systemen nutzen dürfte einem Hersteller eher schwer zu vermitteln sein.

    Zudem habe ich das Gefühl dass du Optimierungen unterschätzt. Das sind z.T. extrem tiefgreifende und komplexe Änderungen, und nicht irgendwelche Änderungen in Ini-Files oder mit Schiebereglern. Und du kannst das eben nicht so einfach für jede Ziel-Framerate machen, da die Zielsetzungen weit über die Framerate hinausgehen. Wie gesagt, die Zielfunktion für die Optimierung auf High-End-Maschinen ist meist nicht die selbe wie für Durchschnittsmaschinen.

    Daneben ist Softwareentwicklung und Software allgemein viel chaotischer als sie eigentlich sein sollte. Und das "zeigen das eine Funktionsweise keine Probleme verursachen kann" *hust* das "alle an die Framerate gekoppelten Werte werden über Funktionen mit verschoben werden "*doppelhust*
    Was du sagst hört sich natürlich prima an, wie aus dem Lehrbuch, und wird meist auch angestrebt, aber das Resultat in der Praxis ist oft recht weit von dem angestrebten entfernt, um es mal nett auszudrücken. Und je größer der Zeitdruck desto größer ist im allgemeinen die Distanz ;-). In der Praxis hatte ich bei Änderungen an Software öfter das Gefühl Jenga zu spielen. Man versucht etwas zu verschieben, einzufügen oder zu entfernen ohne dass der ganze Turm zusammenbricht. Undokumentierte oder schlecht dokumentierte Funktionen. Teile die aneinander vorbeiprogrammiert und dann irgendwie zurechtgebogen wurden. Veralteter Code der nicht sauber entfernt wurde etc. Bei kleinen Projekten kann man das alles noch gut managen, aber bei den heutigen Projektgrößen und der Komplexität. Seufz.


    Edit:
    Ach ja zu den Thema mit Auflösungen. Man muss eigentlich alle Auflösungen durchtesten die zur Auswahl angeboten werden weil man gerade eben NICHT sicher sein kann dass alles sauber programmiert ist. Wie es intern programmiert ist spielt keine Rolle (natürlich würde man das nicht hardcoden), aber für Optimierungen und Tests werden natürlich feste vorgegebene Einstellungen verwendet. Deswegen bekommt der User ja bei allen Spielen in den Grafikoptionen eine Auswahlliste und kein freies Feld zur Auflösung.
      1 Person gefällt das.
  3. DasGebuesch
    Vieles ist und bleibt einfach Gewohnheit. Habe mich Anfang des Jahres mal zu einem 144hz Monitor durchgerungen und als ich ihn das erste mal in Betrieb hatte war zwar ein Unterschied zu merken aber es hat mich nicht vom Hocker gehauen. Bis ich dann 2 Wochen später nochmal an meinem alten Monitor saß und mich gefragt habe wie ich jemals so spielen konnte. Eines ist nach meiner bescheidenen Meinung mal sicher. Wer sich einmal an 120hz+x gewohnt hat - für den gibt es kein zurück mehr.
      3 Person(en) gefällt das.
  4. Dogarr
    Ich denke, genau das ist der Punkt. Insbesondere die eigene Wahrnehmung ist bei diesem Thema das entscheidende, fern ab wie gut oder schlecht du/ ihr es vermittelt, wie gut jeder einzelne es wahr nimmt.

    Nirgends kann man das Argument besser bringen als in diesem Blog!

    „zwischen den Zeilen lesen“.

    Vom Daumenkino zum Brennpunkt der FPS Debatte :)

    Mehr davon!
      2 Person(en) gefällt das.
  5. Matt Gore
    Tut mir Leid, dass ich nur eine Person bin. Aber ich meine, gesunde Augen werden sich zwischen den Menschen nicht zu stark unterscheiden. Es ist mehr eine Akzeptanz wie bei jedem Thema. Manche können es sich nicht vorstellen ohne Handy zu leben, während sich andere glücklich schätzen für einen Tag lang etwas Essen zu haben.
      1 Person gefällt das.
  6. Quiesel0
    Der Blog hat das schon recht gut beschrieben und auch einige Beispiele genannt. Der Blog hat kein Problem.

    Und wie gesagt, 30 fps könnten ausreichen, aber tuns heutzutage nicht mehr.
    Zum Warum habe ich schon genug geschrieben.
      2 Person(en) gefällt das.
  7. Cd-Labs: Radon Project
    Deine Erklärungen sind gut und richtig, gehen aber vollkommen an dem vorbei, wovon ich spreche:
    Ich habe nichts gegen Framelocks, mir ist auch der QA-Part vollkommen bewusst. Ich fordere auch nicht eine Orientierung an heutigen High-End-Usern, sondern eine Orientierung an JEDEM und zwar besonders an zukünftigen Nutzern.

    Wovon ich rede, ist, dass man eine Funktion für BELIEBIGE Framelocks (alle an die Framerate gekoppelten Werte werden über Funktionen mit verschoben) schaffen kann, diese voll optimiert (die QA spielt mit den Werten rum und nickt es ab) und sich dann ein paar Presets ausdenkt. Das schöne ist, dass man bei vollvariablen Optionen nicht alles durchtesten muss, sobald gezeigt worden ist, dass die Funktionsweise keine Probleme verursachen kann, ist man fertig. Es muss ja auch niemand 0,001%-Stufen bei irgendeinem Regler durchtesten, um die Funktionsweise des ganzen Reglers sicherstellen zu können.

    Im Menu sieht man dann bei der Einstellung "Framelock" die Optionen 30,40,60, 120, Custom; im Endeffekt verbirgt sich aber hinter jeder Einstellung das gleiche: Die Custom-Option, nur halt bei den ersten vier direkt schon mit eingegeben Wert. So macht man es JEDEM leicht und keiner muss Fehler erwarten.


    Es ist im Endeffekt genau das gleiche wie bei den Auflösungen: Dort kannst du auch sagen "Naaah, wir bieten nur 1280x720, 1366x768 und 1920x1080 an", dann wird das alles durchgetestet und die Werte gesetzt. Oder aber, du sagst dir "Wieso nicht auch andere Seitenverhältnisse?", man kann ja nicht wissen, was in der Zukunft kommt und sagst: Okay, FieldOfView vom Seitenverhältnis abhängig machen, ab jetzt werden auch Ax720, Ax768 und Ax1080 unterstützt und automatisch gesetzt. Dann kannst du dich aber auch gleich fragen: Wieso überhaupt? Wieso nicht einfach AxB unterstützen? Errechnest dir aus A und B die notwendigen Daten für die Subauflösungen von Texturen, Effekten, PostProcessing usw. und dann hat sich das.
    Niemand mit ein wenig Weitsicht würde heutzutage noch sagen "Auflösungen hardcoden, das ist was gutes"...
      1 Person gefällt das.
  8. Quiesel0
    Fps ist erstmal kein Begriff, der präzise definiert ist. Man kann sogar die Frequenz des Monitors als fps bezeichnen.

    Allerdings wenn man von fps im Zusammenhang mit Computern und Computerspielen spricht, dann ist das Signal das von der Grafikkarte ausgegeben wird oder auch das was der fps counter in Fraps anzeigt, also gemessene Bildrate.

    Hz ist auch wieder kein festgelegter Begriff, steht halt für "pro Sekunde" als Maß der Frequenz und kann auch wieder für das eine oder das andere genommen werden. Wird aber grundsätzlich eher für die Wiederholrate des Monitors/Fernsehers verwendet.

    Hertz ist also kein Maß für ein flüssiges oder ruckelndes Bild bei Computerspielen.
    Fps dagegen ist ein Teil des Maßes zusammen mit dem Zeitabstand der einzelnen Bilder.
    Eigentlich nicht allzu kompliziert. Man könnte das ganze auch noch vertiefen und Reaktionszeit und Input-Lag mit in die Betrachtung nehmen, aber darum gehts hier und heute nicht.
      1 Person gefällt das.
  9. Capone2412
    Ich habe den Artikel vollständig gelesen.

    Die "Bildverbesserer" habe ich an meinem Plasma selbstverständlich alle ausgestellt und die 24p-Ausgabe aktiviert. Auch Freunde, die teils monatelang mit aktiviertem "Motion Plus" und ähnlichem Schrott im GZSZ-Look fernschauen mussten, waren dankbar, dass nun Filme endlich wieder wie Filme aussehen und nicht wie mit der Amateur-Kamera gefilmt. Soviel zum Thema "Man gewöhnt sich schnell dran". Ich kann an 24fps-Filmwiedergabe auch nichts Unangenehmes erkennen. Der Look hat eben etwas Besonderes, Unnatürliches und ich werde auch dabei bleiben.
      1 Person gefällt das.
  10. psyclops
    Sehr unterhaltsamer Artikel, nur leider nicht ganz Pointiert.
    Die Herzzahl des Monitors _war_ mal ein maß dafür, wie Flimmerfrei das Bild dargestellt wird.
    Ein Bild Bleibt bei 30 fps nicht 33ms stehen, sondern wird mehrfach "abgedunkelt" oder neu gezeichnet, um den Eindruck der Flimmerfreiheit zu erzeugen. Mit Ruckeln hat das wenig zu tun. Zumindest bei Röhrenmonitoren. Heutige LCDs oder OLEDs sind keine Röhrenmonitore mehr und die Technik wird auf den Kopf gestellt. Das sind sogenannte Hold-Type Displays, die jedes Pixel so lange behalten, bis es sich ändert. Diese Monitore sind von Haus aus flimmerfrei.

    http://www.inside-digital.de/magazin/
    artikel111_100-hertz-technik-neu-
    entdeckt_4.html

    Das Gehirn interpretiert allerdings alles ab 30 fps als flüssige, kontinuierliche Bewegung. Wie gesagt, hat das mit Flimmern gar nichts zu tun. Im Kino wird bei 24 fps durch den Shutter ein Bild mehrfach abgedunkelt um eben Flimmerfreiheit zu erreichen, aber sichtbar ruckeln tut das Bild, weil es mit unter 30 fps läuft.

    Es handelt sich bei PCs dabei auch um ein Zusammenspiel unterschiedlicher Komponenten. Die Grafikkarte hat eine andere Aufgabe als der Monitor. Die GraKa berechnet das Bild, der Monitor stellt es nur dar. Man muss auch zwischen Eingangs- und Ausgangssignal jeweils von GraKa, Monitor oder Filmmaterial unterscheiden.

    Ein Hold-Type Display kann zum Bsp. 30-fps-Filme flimmer- und ruckelfrei anbieten. Ich habe noch nicht gehört, dass jemand einen echten 30 fps Film als ruckelig wahrgenommen hätte, was nicht an anderen Parametern gelegen hätte.

    Was die Ruckler bei Grafikkarten bei 30 fps anbelangt, so bin ich mir sicher, dass das viel eher mit der Bildberechnung zusammenhängt, als mit der tumben Bilddarstellung eines Monitors.

    Ein Hold-Type Display hat ganz andere Probleme als ein Röhrenmonitor. Hier gibt es Ghosting, schlieren und dergleichen, was eben daran liegt, das Pixel so lange stehen gelassen werden, bis sie sich ändern.
      3 Person(en) gefällt das.
Top