Seite 3: Crytek erklärt Stereoskopie - Der S3D-Modus der CryEngine 3

GameStar Plus Logo
Weiter mit GameStar Plus

Wenn dir gute Spiele wichtig sind.

Besondere Reportagen, Analysen und Hintergründe für Rollenspiel-Helden, Hobbygeneräle und Singleplayer-Fans – von Experten, die wissen, was gespielt wird. Deine Vorteile:

Alle Artikel, Videos & Podcasts von GameStar
Frei von Banner- und Video-Werbung
Einfach online kündbar

Die verbreiteten Bildformate

Mit Interlaced bezeichnet man ein 3D-Bildformat, das beide Bilder entweder horizontal oder vertikal in einzelne Linien verpackt. Dabei ist jede Linie abwechselnd für das linke und das rechte Auge bestimmt. Die Wurzeln dieses Verfahrens liegen in der klassischen Fernsehsendetechnik, bei der zum Beispiel im PAL-System ein vollständiges Bild aus zwei Halbbildern aufgebaut wird. Diese bestehen wiederum aus der Hälfte der Zeilen, die normalerweise ein vollständiges Bild ausmachen.

Das »Side-by-Side«-Verfahren erinnert an die ersten Tage der Stereoskopie, weil beide Bilder nebeneinander dargestellt werden. Weil man virtusich nach der Auflösung und dem Seitenverhältnis eines einzelnen Bildes richtet, ist das 3D-Bild meist verzerrt, es wird horizontal gestaucht und damit in der Auflösung für ein Auge halbiert. Dieser Kompromiss wird eingegangen, um das zu übertragende Bild über alle Geräte, die das Bild zurücklegt, intakt zu halten. So kann etwa im HD-Format ein Bild in der Auflösung 1920x1080 Pixel @60Hertz übertragen werden. Dabei ist die linke Hälfte des Bildes (960x1080 Pixel) für das linke Auge und die rechte Hälfte für das rechte Auge bestimmt. Eine nicht ganz so verbreitete Form ist die Übertragung als vertikal gesplittetes Bild. Das technische Prinzip ist zwar dasselbe wie beim horizontalen Splitting, allerdings wird bei diesem Vorgang die vertikale Auflösung halbiert.

Alternate Frame Packing Bei 3D-Blu-rays oder Nvidias 3D Vision werden einzelnen Bilder für beide Augen abwechselnd nacheinander übertragen.

 Side by Side Bei anderen Verfahren wie Side-by-Side steht nicht die volle Auflösung für ein einzelnes Bild zur Verfügung.

Wie der Name Checkerboard – das Schachbrett – verdeutlicht, werden hier beide Einzelbilder blockweise verschachtelt. Grundsätzlich ist dieses Verfahren dem Side-by-Side ähnlich, lediglich der Bildaufbau ist unterschiedlich. Ein Vorteil des Checkerboard-Layouts ist die bessere Lesbarkeit von Text. Dieses Verfahren wird aber selten benutzt und ist bei Programmierern – vorsichtig ausgedrückt – nicht sonderlich beliebt. Ein Nachteil ist die zwingende Notwendigkeit, die exakte Auflösung zu liefern, die das Display nativ unterstützt, weil sonst der interne Upscaler die kodierten Einzelbilder korrumpiert.

Unter den Begriff »Alternierend« fallen alle Verfahren, die die Bilder der einzelnen Augen in voller Auflösung, aber hintereinander übertragen. Wenn die Bildrate nicht erhöht wird, erkauft man die höhere Auflösung allerdings mit einer halbierten Bildrate. Speziell bei Systemen, die eine Bildrate von 100/120 Hertz erlauben, ist dieses Verfahren beliebt, weil das Fernsehgerät dann keine teuren Anpassungen benötigt. Da es (fast) noch keinen etablierten Standard im TV-Bereich gibt, der die unterschiedlichen Formate vereinheitlicht, können wir erwarten, dass es vielleicht noch mehr werden. Eine große Chance wird dem Anfang 2010 veröffentlichten neuen Standard HDMI 1.4a eingeräumt, der mittlerweile eine breite Palette an 3D-Übertragungsstandards definiert. Unter anderem auch solche, die es erlauben, beide Einzelbilder in voller Auflösung zu übertragen. Dies garantiert die maximale Qualität, benötigt aber auch Geräte, die die neuen Spezifikationen verstehen.

3D in Software

Neben den Formaten von Hardware und Standards spielt auch die Aufbereitung des 3D-Bildmaterials eine entscheidende Rolle. Ausgehend vom Film-Bereich gibt es die zwei folgenden gebräuchlichen Kameraverfahren, um Bewegtbilder in 3D zu erfassen. Mit parallelen Kameras ist das Ergebnis zwar 3D, doch leider nicht in allen Bereichen. Es ergeben sich am Bildrand vertikale Streifen, die nur von einer Kamera erfasst werden und damit letzten Endes nur »2D« sind. Zwar sind auch die menschlichen Augen ähnlich angeordnet, wir können unsere Augen aber konvergieren lassen, sprich beide Augen können einen gemeinsamen Punkt fokussieren, was bei diesem Kameraset nicht vorgesehen ist.

Beim zweiten Verfahren, im Englischen »Toe-in« genannt, wird das Verhalten des menschlichen Auges nachgeahmt, einen einzelnen Punkt zu fokussieren. Das Resultat ist zwar, dass der 3D-Bereich größer ist, dafür wird das Bild zum Rand hin stärker verzerrt. Je nach Brennweite ist die Verzerrung so groß, dass die Bilder nachbearbeitet werden müssen, damit auch wirklich beide Augen die korrekten Flächen als ein Objekt interpretieren. Ohne nachträgliche Korrekturen lassen sich echte Szenen in 3D also nur eingeschränkt filmen. Zum Glück entstehen unsere Bilder virtuEinstelell im Rechner. Spieleentwickler können daher ein bisschen einfacher tricksen, als dies bei anderen Verfahren möglich ist.

Starre Kameras Zwei starre Kameras blicken in dieselbe Richtung, erzeugen aber nur im Zentrum 3D.

Angewinkelte Kameras Zwei Kameras sind angewinkelt ausgerichtet, sodass sie einen gemeinsamen Fokus haben.

Parallele Kameras Zwei parallele Kameras berechnen ein jeweils »verzerrtes« Einzelbild mit gemeinsamer Fokusebene.

Mit dem »Frustum Shift«-Verfahren lassen sich die Vorteile beider oben erwähnten Systeme vereinen. In der CryEngine 3 haben wir ein Verfahren eingesetzt, das Kameras ebenfalls parallel zueinander aufstellt, damit die Abbildungsebenen beider Kameras auf der gesamten Fläche liegen. Gleichzeitig wird aber der Frustum verschoben. Einfach erklärt, wird das Zentrum eines Bildes vom Zentrum der optischen Achse verschoben. Beide Kameras stehen nicht im optischen Zentrum stehen, teilen aber sehr wohl ein gemeinsames Bildzentrum. Dadurch, dass die nicht vermeidbare Verzerrung bei der Generierung der Bilder kompensiert wird, bilden beide Bilder exakt den gleichen Bereich ab. Dieses Verfahren ist prädestiniert für eine Implementierung im Games-Bereich oder auch für CGI. Eine Umsetzung für ein Kamerasystem zum Filmen realer Szenen ist mir nicht bekannt (in der Theorie aber durchaus denkbar).

3 von 6

nächste Seite


zu den Kommentaren (24)

Kommentare(24)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.