HDR ist bei Fernsehern, Monitoren und Handys mittlerweile gang und gäbe. Es sorgt dafür, dass Bilder kontrastreicher dargestellt werden und so realistischer wirken.
In diesem Artikel erklären wir, was HDR genau macht und was die verschiedenen Versionen wie HDR10, HDR10+ und Dolby Vision bewirken.
Was ist HDR?
HDR steht für »High Dynamic Range« oder hoher Kontrastumfang. Wenn ein Fernseher, Monitor oder Handy diese Technologie nutzt, dann ist der Kontrast zwischen dem hellsten Bildanteil und dem dunkelsten höher als ohne HDR.
So entstehen HDR-Inhalte: Der Kontrast von Content mit HDR wird erhöht, indem mehrere unterschiedlich belichtete Bilder übereinandergelegt werden: überbelichtet, unterbelichtet und normal belichtet.
Das sorgt für einen größeren Kontrast, da dunkle Teile dunkler wirken und helle Teile heller.
Nits spielen ebenfalls eine Rolle. Je höher die mögliche Spitzenhelligkeit, desto kontrastreicher das Ergebnis.
Farben werden außerdem mit mindestens 10 Bit aufgenommen und dargestellt, wodurch sie intensiver wirken.
Im linken Bild wirken die Wolken dramatischer; rechts sind die Farben wärmer und uniformer, wodurch der Kontrast flacher wird.
Spielt die Auflösung eine Rolle? Ja, HDR-Inhalte auf 4K- oder 8K-Fernsehern werden besser aussehen, als auf Full-HD-TV. Das liegt an der höheren Scharfe und feineren Detailauflösung.
Da die meisten Fernseher jedoch 4K-Auflösung besitzen, braucht ihr euch darüber keine Gedanken zu machen.
1:16
Was ist 4K und braucht ihr 8K?
HDR bei Fernsehern
Im Falle von Filmen und Serien bezieht sich HDR auf Bewegtbild, was die Sache verkompliziert. Da es unterschiedliche Möglichkeiten gibt, wie ein TV das Bild auswerten und ausgeben soll, gibt es mehrere HDR-Standards.
HDR10
HDR10 ist der gängigste Standard, der von nahezu allen TVs verwendet wird. Die Bildinformationen für einen Film oder eine Serie sind statisch und so bekommen sie durch Tone-Mapping einen einheitlichen Wert zugewiesen. HDR und HDR10 werden mittlerweile synonym verwendet.
Was ist Tone Mapping
?
Tone Mapping ist ein Prozess in der Bildverarbeitung, der den Dynamikumfang eines Bildes an die Anzeigefähigkeiten eines Geräts anpasst, um Details in hohen und niedrigen Lichtbereichen sichtbar zu machen.
Vorteil: Es ist HDR, wodurch Inhalte besser und intensiver wirken als bei SDR (Standard Dynamic Range)
Nachteil: Durch eine Vereinheitlichung der Kontrasterweiterung, wird ein Mittelwert für den gesamten Inhalt verwendet, anstatt für jede Szene oder jedes Bild einzeln. Dadurch geht Qualität verloren.
Merkmale
- Farbtiefe: 10 Bit
- Leuchtdichte: bis 1.000 Nits
- Benötigter Anschluss: HDMI 2.0
HDR10+
HDR10+ ist die verbesserte Version von HDR10. Hier wird nicht ein Mittelwert als Standard für einen Film oder eine Serie verwendet, sondern jede Szene aufgrund dynamischer Metadaten möglichst optimal angepasst.
Vorteil: Die Bildqualität profitiert von den dynamischen Metadaten, da die Kontraste granularer angepasst werden. Außerdem ermöglicht die höhere Leuchtdichte ein detailreicheres Bild.
Nachteil: Es ist ein HDMI 2.1-Anschluss vonnöten.
Merkmale
- Farbtiefe: 10 Bit
- Leuchtdichte: bis 4.000 Nits
- Benötigter Anschluss: HDMI 2.1
Dolby Vision
Ganz wie HDR10+ nutzt Dolby Vision dynamische Metadaten, allerdings nicht nur für jede Szene, sondern für jedes Bild einzeln. Hinzu kommen eine extrem hohe Leuchtdichte und eine Farbtiefe von 12 Bit.
Vorteil: Dolby Vision bietet den bisher besten HDR-Modus am Fernseher, der auf der kleinsten Ebene das Bild verbessert.
Nachteile: Dolby Vision ist bei Filmen bisher kaum verbreitet. Das liegt zum einen an den Lizenzgebühren von Dolby, zum anderen am freien HDR10+-Standard.
Merkmale
- Farbtiefe: 12 Bit
- Leuchtdichte: bis 10.000 Nits
- Benötigter Anschluss: HDMI 2.1
Ob euer Fernseher 10.000 Nits Spitzenhelligkeit benötigt, lest ihr in folgendem Artikel:
In aller Kürze: HLG, HDR10+ Adaptive und Dolby Vision IQ
Im Rahmen von HDR lest ihr ab und an die oben genannten Standards. Sie spielen allerdings keine allzu große Rolle.
HLG
Die Abkürzung steht für »Hybrid Log Gamma« und ist ein Standard für den TV-Empfangsbereich, also das Signal, das über Satellit oder Kabel euren Fernseher erreicht.
Die empfangenen Inhalte können dadurch auch in HDR wiedergegeben, der Kontrast wird dann allerdings durch einen Algorithmus im TV berechnet.
HDR10+ Adaptive
Bei dem erweiterten HDR10+ werden nicht nur die Metadaten verwendet, um das Bild kontrastreicher zu machen, sondern auch das Umgebungslicht des Zimmers, in dem der TV steht.
Sprich: Schaut ihr tagsüber bei Sonnenschein, berechnet die KI das Bild automatisch heller unter Berücksichtigung der eingespeisten Metadaten (ein Helligkeitssensor am TV vorausgesetzt).
Dolby Vision IQ
Dieser Standard macht dasselbe wie HDR10+ Adaptive und besitzt lediglich den Dolby-Namen und die Lizenz.
Amazon sorgte neulich für Unmut, als es Dolby Vision und Dolby Atmos heimlich hinter eine Paywall steckte.
HDR besitzen mittlerweile ausnahmslos fast alle Fernseher und auch Inhalte werden mit der Kontrasterweiterung produziert. Was haltet ihr von HDR? Kanntet ihr es vorher aus der Fotografie? Ist euch Dolby Vision am Fernseher wichtig? Oder wartet ihr ab, welcher Standard sich durchsetzen wird? Sagt es gerne in den Kommentaren.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.