Wie viele Pixel sieht unser Auge?

Von Misie Gaming · 19. Oktober 2015 ·
Kategorien:
  1. Vor einer Weile war man cool, wenn man ein FullHD-Display besaß. Mittlerweile wird schon 4K oder gar 8K gefordert, doch würde es dem menschlichen Auge genügen – wo ist die Grenze?

    Aus verschiedenen Blickwinkeln möchte ich mich daher dem Auge nähern und über den idealen Bildschirm fantasieren – auch in Bezug auf die Framerate, diesmal inklusive konkreter Zahlen. Deshalb empfiehlt sich das Wissen aus meinem ersten Serienteil, ebenso ist der Anfang wieder mehr an Neulinge gerichtet.

    eye_res.jpg


    Was sind Pixel?

    Beginnen wir mit der Grundeinheit der digitalen Darstellung: dem Pixel.

    Diese Worte hier werden beispielsweise durch ein paar Pixel angezeigt, davon besitzen 1920×1080-Bildschirme rund 2 Millionen Stück. Je nach Monitor-Typ werden die Pixel unterschiedlich erzeugt, meistens besteht jedoch einer wiederum aus mindestens 3 Subpixeln der Farben Rot, Grün und Blau.

    Free-TV und Film-DVDs sind überwiegend 480, HD 720 Bildpunkte hoch. Full HD (FHD) ist aktuell noch angesagter, besonders bei der Auflösung von Monitoren, manche werden aber schon bei WQHD (2560 x 1440), UHD (3840 x 2160) oder irgend etwas dazwischen angekommen sein, alle anderen Träumen davon. Dabei wird noch vergleichsweise wenig Bildmaterial in digitalem 4K veröffentlicht (»K« für hier ca. Tausend Pixel in der Breite), schärferes Material ist in Arbeit und rohe Fotos werden schon längst nochmals deutlich hochauflösender geschossen.

    [​IMG]
    LCD von nahem: ganz schön unschön.


    Wie viele Pixel sind jetzt genug?

    Steht man auf einfarbige Quadrate, wird das Erhöhen der Bildpunkte keine weitere Befriedigung bringen, da theoretisch ein perfekter Pixel genügen würde. Weil in der Welt aber nichts genau einfarbig und exakt eckig ist, räumen wir diese Idee lieber unverzüglich vom Tisch.

    Es bleibt trotzdem möglich, dass eine handvoll Pixel genügen. Wie auch Zeit ist die Displayschärfe relativ für den Betrachter. Wippt man mit Blick zum Monitor vor und zurück, schaut man nicht nur bescheuert aus, sondern merkt darüber hinaus, wie sich erst die Pixel einzeln vor einem auftürmen und danach selbst in Grüppchen unkenntlich werden. Aus dem gleichen Grund wirken auch die ersten Generationon der VR-Headsets so pixelig; setzt man sich so nahe vor ein HD-Panel, dass ein großer Teil unseres Sichtfeldes eingenommen wird, sind 2 MP (Megapixel) eben nicht ausreichend (wobei der Abstand zwischen den Pixeln nochmals den negativen Eindruck verstärken kann).

    [​IMG]
    Ein guter Kompromiss und eine hilfreiche Orientieren: Welche Bilddiagonale sollte das Display etwa haben, wenn man x Meter entfernt sitzt.


    Auf welche Entfernung einigen wir uns dann?

    Entscheidend bleibt die Größe, die der Monitor in unserem Sichtbereich einnimmt. Deshalb sollten wir uns auf »Pixel pro Grad« fokussieren. Nimmt ein Bild in Full HD beispielhaft 40° unseres Blickfeldes ein, ist es ungefähr genauso akkurat, wie UHD 4K und 80° (sofern die Monitore passend gekrümmt sind).

    Nun denn, damit können wir die Bildpunkte für ein ganzes Grad anhand der Pixeldichte des Auges berechnen. Einfach kurz nach Fovea Centralis suchen und man findet heraus, solche Zellen für einen Pixel haben in unserem Sehorgan Dimensionen von 31,46 Winkelsekunden (ein Grad besteht aus 60 * 60 Winkelsekunden, somit ein Pixel alle 0,00873888…°).


    Wie viel Grad sieht ein Auge?

    Praxisnäher wäre die Suchen nach dem sogenannten »Field of View« beider Augen kombiniert oder gar dem Bereich zweier schwenkender Augäpfel, da sich die beiden ständig bewegen und alles abscannen. Hierbei gibt es Unterschiede von Mensch zu Mensch – dass genau Du besonders bist und weitaus Größeres als der Durchschnitt erblicken kannst, überlasse ich hier mal den Werbeleuten der Zukunft. Werte zu letzterem liegen jedoch bei mindestens 270° horizontal und 135° vertikal. Daraus ergeben sich also 270 / (31,46 / 60 / 60) Pixel in der Breite und 135 / 0,00873888 für die Höhe. Dies wäre eine Auflösung von 30K15K (30896 x 15448 um genau zu sein) und damit fast ein halbes Gigapixel an dauerhaften Informationen!

    Bitte nimm das jetzt nicht gleich als gültig an und ließ noch etwas weiter, du schaffst das.


    Okay, bloß wie soll uns das denn auf eine endliche Bildrate für den Traummonitor bringen?

    Wir sollten uns zuerst etwas warmmachen, motivieren. Dazu packt man mit der Hand nach seinem kleinen Freund und holt ihn heraus. Darauf konzentrieren und kräftig schütteln. Solange ihr ordentlich wedelt, sollte die Anzeige des Smartphones nun verwaschen. Ist das Hintergrundbild noch deutlich zu sehen, muss stärker geschüttelt werden… aber das ist ja dann Motion Blur!? Und dies direkt vom Auge?

    Gehen wir einen Schritt zurück und erinnern uns, dass das menschliche Auge nicht auf einzelne Bilder beschränkt ist und einen (meist) kontinuierlichen Eindruck der Umgebung einfängt, daher kein »FPS-Cap« besitzt. Das wird erreicht, indem sich die zwei Augen auf einen Punkt fixieren, bewegt sich dieser nun, müssen im die beiden folgen um ihn klar zu erkennen. Will man nun aber auf etwas Neues blicken, machen die Augen einen schnellen, scheinbar sofortigen Sprung (Sakkade genannt).

    Bitte nochmals mitmachen: Schaut links neben euren Monitor und schwenkt direkt rechts neben ihn. Erledigt? Und, was genau war auf dem Monitor zu sehen? … Wie bitte? Ihr habt es nicht erkannt? Dann blickt ein weiteres Mal zügig hin und her, irgendwas ist ja immer direkt mittig in der Linse, das kann man doch nicht einfach verpassen! Oder vielleicht doch… ist der Sehapparat eben lediglich zu faul oder überfordert und uns entgehen wertvolle Augenblicke unseres Lebens?

    Die traurige Wahrheit lautet: ja. Alles zwischen dem Start- und Endpunkt jener dieser Blickzielbewegung sollte normal unwichtig sein und ist bei solch rasanter Fahrt zu viel Information auf einmal, als dass wir eine scharfe Bewegung stemmen könnten. Doch ein kurzer »Blackscreen« währe noch unsinniger, so wird der Zielpunkt unserer Bewegung im Hirn länger angezeigt. Dies ist jedoch so gut wie unmöglich zu erkennen, außer es hängt eine Analoguhr an der Wand. Schaut man im richtigen Moment auf die Uhr (der Sekundenzeiger hatte gerade gestoppt), kommt einem die erste Sekunde leicht länger vor als eine echte Sekunde, denn der erste Zustand des Zeigers wird einem eben direkt nach dem Abwenden von der vorherigen Szene angezeigt.


    Moment, unsere Augen sehen in die Zukunft?

    Schön wär’s, leider gerade umgekehrt. Nicht, dass der Monitor lange genug verzögert, das Licht davon ewig zu unserer Netzhaut benötigt, nein, jetzt trödelt noch das Gehirn. Hin oder her, dass es diese Sakkaden gibt genügt uns vorerst für unsere Bildschirmwahl. Okay, wenn es euch doch interessiert und ihr euch fragt, wieso gerade der visuelle Eindruck so »laggt«, sei hiermit gesagt, dass auch eure Kopf-, bzw. Augenschwenks sich früher ereignen als ihr unwillkürlich merkt. Dadurch werden beide Signale synchronisiert. Gleiches passiert auch, wenn man mit seinem geliebten großen (spielt nicht gleich wieder mit der Hose und lest zunächst weiter!) Zeh die Stirn berührt. Die Nerven an der Stirn senden durch örtliche Nähe schnell ihre Signale ans Hirn, etwas verzögert kommt die Nachricht der Fußspitze an und erst dann bearbeitet das Gehirn beides weiter, um aus den Reizen eine Information für unsere Wahrnehmung zu machen. Deshalb dieser Lag. So können wir uns also nicht selbst durch eine Berührung erschrecken. Ob dies jedoch auch für den Schwanz (hihi, jetzt hat er endlich »Schwanz« geschrieben) einer Katze gilt, wage ich zu bezweifeln.

    Nun denn, Smooth Pursuit nennt sich das geschmeidige Verfolgen eines Objektes, welches man scharf sieht. Bewegt es sich zu schnell, muss das Auge nun über kurze Distanzen flink zucken, um noch Details zu erkennen, hier hat man dann kleinere Sakkaden nacheinander. Bei noch rascherem Vorbeihuschen oder generell starken Beschleunigungen wie in unserem ersten Experiment mit Handy (oder was auch immer ihr gerade zur Hand hattet), kommen selbst die schnellen Augenbewegungen an ihre Grenze und reichen nicht mehr aus, worauf nun ein unscharfes Bild entsteht.


    Aha, kennen wir die Geschwindigkeit dazu, dann reicht eine bestimmte Hertz-Zahl?

    Korrekt, wer sich noch an Snake aus dem vorherigen Blog erinnert (nicht der aus Metal Gear) wird wissen, dass sich der winzige Wurm definitionsgemäß in Ein-Pixel-Schritten bewegt. Auf unserem 30K-Monster wäre die kleinste erkennbare Regung damit 31,46 Winkelsekunden eines Bildpunktes. Ein entsprechendes Display dieser Dimension müsste zusätzlich wie eine Kugel gekrümmt sein, also senkrecht und waagerecht »curved«, damit jeder Bewegungsschritt auch fast gleich groß für uns erscheint. Die Ecken eine glatten Monitors sind nämlich weiter von unserem Kopf entfernt als die Mitte, je mehr das Bild unsere Sicht ausfüllt, desto eher entstehen Verzerrungen.

    Wird Snake klassischerweise mit zunehmendem Schwierigkeitsgrad immer zügiger, kann er stetig mehr Pixel pro Sekunde zurücklegen und profitiert folglich von mehr Frames, um Standortsänderungen komplett flüssig zu sehen. Hat unser Auge nun solch ein Speedlimit für akkurates Sehen, könnte man sich mit einem technisch möglichen Display zufriedenstellen.

    Wenn wir jetzt noch wüssten, dass Smooth Pursuit – einem gut sichtbaren, horizontal fliegenden Ding folgend (was der Idealfall wäre), und ohne unterstützendem Drehen des Kopfes – maximal bei 100 Grad pro Sekunde liegt, könnte uns das helfen. Denn auf 100° liegen rund 11444 Pixel, 11444 Hz dürften damit genügen (ein Einzelbild geht je leicht über 87µs). Bei noch eiligere Schwenks à la Michael Bay lässt sie unser Schädel sowieso verwaschen. So gäbe es endlich konkrete Werte, die man sich auf den Wunschzettel schreiben könnte.


    Das kann doch unmöglich ohne Haken auskommen?

    Meh, widmen wir uns vorerst den 30K. Selbst wenn überall in unserem Auge diese »Pixelzellen« 0,0087° belegen, heißt es nicht, dass man beim Rotieren jenes nicht noch feiere Details erkennen kann, besonders beim Zusammenspiel beider Äpfel. Andererseits erreichen nur sehr wenige Menschen diesen hohen Wert. Realistischer ist da der rund doppelte Wert von 60 Winkelsekunden pro Grad, auf den auch beim Sehtest abgeziehlt wird. Außerdem könne man bei Bewegungen weniger Kleinigkeiten feststellen, da unser Sehorgan – wie schon so oft gesagt – keine ganzen Bilder schießt, sondern eher benachbarte Zellen nacheinander verwendet, vergleichbar mit manchen Highspeed-Kameras. Außerdem behauptete ich einfach, die hohe Auflösung der Fovea centralis herrsche überall auf der Netzhaut, diese Sehgrube macht aber nur rund 5 Grad aus, je weiter man sich davon entfernt, desto gröber wird die Wahrnehmung. Erst erkennt man nur vage Formen, später fehlen noch Farbinformationen. Übrigens ist das Sichtfeld rundlich, die Ränder des Mega-Monitors wären somit bei starrem Hals nicht möglich zu Gesicht zu bekommen. Hier benötigt unser Monstrum also keinerlei Pixel. Apropos keinerlei Pixel, streckt einen Arm und erhebt den Daumen vor euch. Das Auge gegenüber der gehobenen Hand wird geschlossen, das offene fokussiert sich zunächst auf etwas direkt neben und leicht unter eurem Nagel. Fährt man mit der Hand nun bei starrem Blick nach außen, und wurde alles richtig beachtet, verschwindet plötzlich die Fingerspitze. Hier liegt der Blinde Fleck.

    Somit könnten wir unsere Anzeige etwas demontieren; Ränder abrunden, Kanten nur mit Schwarz-Weiß-Pixeln füllen und generell gröbere Pixel in Richtung der Ecken verwenden. Mit Eye-Tracking kann der Bereich der maximalen Detailschärfe nochmals zusätzlich begrenzt werden und gleichzeitig der Blinde Fleck jedes Auges für die Bilddarstellung ausgeklammert werden. Bei guter Implementierung würde das die Grafikkarte deutlich entlasten, aber bis dahin läuft hoffentlich eh alles in absolutem Fotorealismus.

    Bezüglich der Displayfrequenz sollte man erwähnen, dass Snake wohl doch keinen einwandfreien Benchmark für unseren Wunschbildschirm hergibt. Würden wir Supersampling oder ähnliche Kantenglättungsmethoden verwenden, könnte man Snakes Positionsänderungen nochmals verfeinern, da der vorerst schwarze Pixels vor seinem Kopf zum Beispiel erst 50 Shades of gray anzeigt, bevor er von pitch black zu blank weiß wird. Gleiches gelte für Realfilme, falls die Anspielungen darauf nicht deutlich genug waren.

    Fraglich bleibt hingegen, ob der Unterschied an so mickrigen Bildpunkten wahrnehmbar bleibt, besonders bei hohem Tempo und Verschiebungen für die perfekte Illusion wirklich Pixel um Pixel erfolgen müssen. Ebenso nutzt das Gehirn eine Art Motion Interpolation und »rät« nächste Bewegungen, gut erkennbar am Flash-Lag Effekt.


    Bedeutet das denn jetzt Gutes oder Schlechtes?

    Es gibt kein… den blöden Spruch kann ich nicht schon wieder bringen. Jedenfalls, mit meiner letzten Schätzung liege ich in der Refreshrate über 64 Mal höher als beim aktuell kaufbaren Limit (240Hz) und bei der Auflösung pro Grad im aktuell machbaren und teils verwendeten (8K auf 50° des Sichtfeldes), einzig in diesen Ausmaßen ungewöhnlich. Trotz den Einschränkungen unseres Sehsinns muss danach noch nicht Schluss sein, die Bildrate hängt aktuell bloß merklich hinterher. Die milde Schärfe aktueller Virtual Reality Peripherie sticht uns nur so ins Auge, da wir mehr Pixel pro Grad gewohnt sind, warum sollte das nicht zudem für höhere Hertz-Werte gelten? Zudem lohnt sich das reine erhöhen der Auflösung nicht immer, ein Mad Max: Fury Road in 4K bekommt bei lediglich 24 Bildern pro Sekunde nahezu durchgehend Bewegungsunschärfe, da hier selbst eine an den Autos befestigte Kamera leicht wackelt. Mehr fps würden in diesen Fällen die hohe Auflösung nochmals merklich schärfer als Full HD machen. Anders als bei vorgefertigtem Filmmaterial, kann man bei Computerspielen immerhin zwischen 720p und 60fps oder 1080p und 30fps wählen und hat keine Probleme mit Blur… quatsch, das ist ein PC der kann 16K @240fps (wo wir wieder beim Träumen wären).

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. Matt Gore
    np, einen direkten Unterschied spürst du aber nicht (liegt am Gehirn). Ich bilde mir aber beispielsweise auch ein in Super Hexagon besser gewesen zu sein, nachdem ich vSync ausgeschaltet hatte :P

    wollte ich dir auch nicht unterstellen^^
  2. Matt Gore
    fand sie bis auf diesen Aspekt gut, weshalb ich die Grafik einfach verlinkt hatte, anstatt eine eigene zu machen

    Danke, mache aber nichts in die Richtung und habe wohl noch nie so einen langen zusammenhängenden Text freiwillig geschrieben. Meine ehemaligen Lehrerinnen fanden meine Aufsätze aber auch immer furchtbar (vllt liegt es auch an meinem Schreibstil, dass du 2 Mal lesen musstest :)), jedenfalls finde ich das seltene Schreiben als nette Abwechslung und das Thema auch als recht interessant. Das Technische bekommt man einfach mit, wenn man sich nach Monitoren umschaut; das Biologische hab ich von früheren Klassenkameraden, die 4-stündig Bio hatten; der Quatsch zwischendrin fällt mir einfach ein; der Rest wird gegoogelt.
  3. Matt Gore
    @spacenet, Enrico1989 und alle Interssenten, der Abschnitt "Moment, unsere Augen sehen in die Zukunft?" ist jetzt absolut over the top:

    "[...] Hin oder her, dass es diese Sakkaden gibt genügt uns vorerst für unsere Bildschirmwahl. Okay, wenn es euch doch interessiert und ihr euch fragt, wieso gerade der visuelle Eindruck so »laggt«, sei hiermit gesagt, dass auch eure Kopf-, bzw. Augenschwenks sich früher ereignen als ihr unwillkürlich merkt. Dadurch werden beide Signale synchronisiert. Gleiches passiert auch, wenn man mit seinem geliebten großen (spielt nicht gleich wieder mit der Hose und lest zunächst weiter!) Zeh die Stirn berührt. Die Nerven an der Stirn senden durch örtliche Nähe schnell ihre Signale ans Hirn, etwas verzögert kommt die Nachricht der Fußspitze an und erst dann bearbeitet das Gehirn beides weiter um aus den Reizen eine Information für unsere Wahrnehmung zu machen. Deshalb dieser Lag. Ohne ihn würde die Strin schreien: "Ahh, Hilfe! Irgendwas ekeliges berührt mich.", und darauf verspätet der Zeh: "He, ich bin's doch nur. Und in diesem Moment erst gekommen."

    Nun denn, Smooth pursuit nennt sich das geschmeidige Verfolgen eines Objektes, welches man scharf sieht. Bewegt es sich zu schnell, muss das Auge nun über kurze Distanzen flink zucken um noch Details zu erkennen, hier hat man dann kleinere Sakkaden nacheinander. Bei noch rascherem Vorbeihuschen oder generell starken Beschleunigungen wie in unserem ersten Experiment mit Handy (oder was auch immer ihr gerade zur Hand hattet), kommen selbst [...]."


    @Pos, Kehool: "worth it" ganz oben der jeweiligen Farbe gelesen bedeutet leicht "worth it".
    "worth it" ganz unten an der Linie gelesen bedeutet angenehm "worth it".
    Je nach eurem Budget könnt ihr das "worth it" aber unterschiedlich interpretieren.
      1 Person gefällt das.
  4. Matt Gore
    OK, sry, hätte mich da nochmal reinlesen sollen. Mein letzter Biounterricht ist schon etwas her^^ Liegt natürlich am Augen-Motion-Blur, verbesser ich gleich.

    Edit: "Alles zwischen dem Start- und Endpunkt jener Blickzielbewegung sollte normal unwichtig sein und ist bei solch rasanter Fahrt zu viel Information auf einmal für die Zellen, als dass unsere Augen eine scharfe Bewegung stemmen könnten. Die verschwommenen Wahrnehmungen auf den Retinae kann das Gehirn gerade in die Tonne treten und ein kurzer »Blackscreen« währe noch unsinniger, so wird der Zielpunkt unserer Bewegung im Hirn länger angezeigt."
    Korrekt genug?
  5. spacenet
    Wir sollten uns zuerst etwas warmmachen, motivieren. Dazu packt man mit der Hand nach seinem kleinen Freund und holt ihn heraus.


    ok .... mein kleiner Freund ist bereit
      1 Person gefällt das.
  6. Matt Gore
    4xOGSSAA nimmt 4 Pixel und zeigt diese als ein Bildpunkt an. Man erhällt doppelte Pixel in der Breite (2x) und doppelte in der Höhe (2x) und 2*2=4 --> 4xOGSSAA
    Dies entspricht einem Resolutionscale von 200% (wobei sich die Prozentzahl auf die Pixelbreite/-höhe bezieht, nicht die gesamte Pixelanzanl)
    Edit: 150% wären damit 9 berechnete Pixel für 4 Monitorpixel. 2x bei Supersampling bezieht sich auf die gesamte Pixelanzanl, wenn man richtig rechnet wären es dann 8 berechnete Pixel für 4 Monitorpixel (Danke Kehool; OGSSAA find ich einfach besser als SG).
      1 Person gefällt das.
  7. Matt Gore
    @Flipp147: Angebrachte Frage, hätte noch etwas ergänzen sollen: Das Gehirn verzögert dir denn nicht nur die Wahrnehmung des Bildes, sondern auch deinen Kopf-, bzw. Augenschwenk. Damit werden beide Signale synchronisiert. Gleiches passiert auch, wenn du mit deinem Finger die Stirn berührst. Die Nerven an der Stirn senden Signale schnell ans Hirn, etwas verzögert kommt das Signal der Fingerkuppe an und erst dann bearbeitet es das Gehirn weiter um aus den Reizen eine Information für deine Wahrnehmung zu machen. Deshalb dieser Lag, ohne ihn würde die Strin schreien, "Ah, ich werde berührt!" und darauf verspäter der Finger "ich hab dich erst jetzt angefasst".
      1 Person gefällt das.
  8. Flipp147
    Sehr interessanter Blog, vielen Dank. Hätte da aber mal eine Frage zu den Sakkaden:

    Bei einem schnellen Blick von A nach B nehme ich also nicht wahr (bzw. sehe nicht) was zwischen den beiden Blickpunkten ist. Nun habe ich das so verstanden, dass mein Gehirn mir das Zielbild eine Idee länger "anzeigt" um quasi einen "innerlichen Blackscreen" zu vermeiden (also quasi als Lückenfüller für den visuellen Ausfall den ich durch das schnelle Schauen von A nach B erlebe).

    Bei dem Beispiel mit der Analoguhr würde mein Hirn also den Ausfall mit einem Standbild der Uhr "auffüllen", was dann den Eindruck erwecken würde, die Sekunde würde eine Idee länger dauern.

    Was ich nicht verstehe ist, der "visuelle Ausfall" findet ja während der Augenbewegung statt, das heißt zu dem Zeitpunkt der Augenbewegung habe ich das Zielbild ja noch gar nicht vor Augen.
    Wie kann mein Gehirn mir dann diesen visuellen Ausfall mit dem Zielbild auffüllen?
    Oder ist die Antwort da im folgenden Absatz zu finden wo du sagst dass unser Gehirn trödelt? Weil das würde ja bedeuten, dass die Augenbewegung bereits abgeschlossen ist und das Gehirn mir erst danach die Infos anzeigt (dann wäre es natürlich möglich den Blackscreen mit dem Zielbild aufzufüllen). Aber irgendwie fällt es mir schwer zu glauben, das die Verarbeitung der visuellen Reize langsamer ist als die tatsächliche Bewegung der Augen... aber ich lasse mich hier gerne eines Besseren belehren! :-)
      1 Person gefällt das.
  9. Matt Gore
    Danke, deckt sich in vielem mit meinem ersten Blog.
    Das ab 12min halte ich aber für sehr übertrieben und verschwendete Rechenpower :D Ob du 2 oder 3 Frames für V-Sync bufferst, merkst du z.B. auch nicht, besonders bei 120Hz+. Ansonsten würde ich dies verwenden: http://blog.metaclassofnil.com/?p=715
  10. derHotze
    Ich dachte immer das hinge nur von Auflösungsvermögen der Augen ab.
    Bei einem Bildschirm mit 518,4mm Panelbreite und 1920pix liegt kann der normal sehende bei 1160mm Abstand einen Punkt nur noch als fleck sehen.
    (grobe Rechnung)

    Man sollte besser sagen zwei Punkte kann das Auge trennen, wenn sie bei einem Abstand von 25cm 0,04mm auseinander liegen...
    Bei 50cm dann 0,08mm usw.
    Also ganz rund 50"(Bogensekunden)

    Liegen die Pixel Dichter zusammen sehen die schonmal aus wie eines.
    Sehen kann man allerdings auch trainieren, ich kann das "Gitter" am Monitor noch aus 60cm sehen (s24b420).
    Beim einzelnen Pixel (hoher Kontrast =schwarz auf weiß) komme ich auf 1,6m.
    Noch besser kann der Augenarzt die Auflösung feststellen. Mit dem sog Landoltringen.
    "Sagen Sie mir wo die Öffnung hin zeigt" ist ein beliebter Spruch.

    Es kommt also nicht auf die Pixelanzahl an, sondern auf den Abstand zum Bildschirm.
    Nach diesen Rechnungen ist auch das Diagramm im Beitrag endstanden.

    Schaut euch mal ein zwei Euro Stück aus 100m an das kommt fast hin.

    Wenn man also die Winkelauflösung verstanden hat muss man seinen 18" VGA nur zwei bis drei Meter weiter weg stellen und schon ist das Ding knackscharf!

    notJoeDavis666 hat das schon grob angerissen (:
      3 Person(en) gefällt das.
Top