Kopfhörer-Surround-Sound!? Was höre ich da?

Von Misie Gaming · 26. März 2016 ·
Kategorien:
  1. kh_ss.jpg

    Vor kurzem erschien eine Newsmeldung zu Overwatch, in der über räumlichen Kinosound dank Dolby Atmos berichtet wurde, und das auch… mit was? … mit Kopfhörern??? Und was für spezielle Headsets braucht man denn dafür? So oder so ähnlich klangen einige positiv bewertete Kommentare unter dem Bericht. Um diese häufig gestellten Fragen zu beantworten und um generell etwas über Tonortung und Sound in Spielen zu informieren, dienen die folgenden Absätze, die wohl schnell beginnen sollten, bevor es in den Kommentaren Clickbaitingvorwürfe wegen Fragezeichen in der Überschrift gibt.


    Wofür braucht man überhaupt Ton?

    Viele Mobiletitel kann man getrost ohne Soundausgabe spielen und das R2D2-Gepiepe aus Steinzeit-Computerspielen ist auch nicht viel mehr als zweckmäßig. Trotzdem wird wohl kein Triple-A-Titel mehr ohne Audiowiedergabe veröffentlicht werden, denn die Synchronisation, der Soundtrack, aber auch satte Motorengeräusche und nostalgisches Lichtschwertsummen tragen alle samt zur Atmosphäre und Immersion eines Spieles bei.

    Aber druckvolle Explosionen und hollywoodreifes Knarren-Bang-Bang reichen nicht aus, falls der Ton nicht überzeugend wiedergegeben wird. (Und damit meine ich nicht schlechte Audioqualität durch die eigene Hardware). Doch dazu gleich mehr.

    [​IMG]
    Overwatch: Das erste Spiel mit richtigem Sound, zum Anfassen real???


    Wie soll denn der Ton beim Gehör ankommen?

    Hat man einen einzelnen Lautsprecher, bzw. einen halben Kopfhörer und nur ein Ohr, so wird bei der Wiedergabe eines Monosignal (also einem Audiokanal) diese Körperöffnung vollkommen glücklich damit. Das einzig wahrnehmbare sind nun Lautstärke- und Frequenzunterschiede. Nicht schlecht, aber Dolby-Dingsbums und mehrere Speaker bringen jetzt keinen Mehrwert und können einem am Ohrläppchen lecken.

    Erst mit einem zweiten Lauscher wird die Ohrform und Signalverarbeitung des Gehirns interessant. Da beide Ohren eines Menschen koordiniert zueinanderstehen, können die unterschiedlichen Ankunftszeiten, Lautstärken und Frequenzen eines bestimmten Geräusches an den Ohren erkannt, und Information wie weit rechts, links oder vorne, hinten dieser Laut stattfand, gewonnen werden. Zusätzlich dient die Form der Ohrmuschel zur Kanalisierung von Ton der von oben oder unten kommt, um daraufhin insgesamt fast perfekte 3D-Positionsinformationen zu ergattern.

    Noch mehr ins Detail möchte ich hier aber nicht gehen, nur so viel: Für höhere und niedrigere Schallfrequenzen gibt es nochmals verschiedene Herangehensweisen und sehr kurze oder extrem große Wellenlängen machen den Sound nicht mehr ortbar – deshalb besteht auch kaum ein Unterschied darin, wo man einen Subwoofer platziert.

    Zu guter Letzt kann man hören (ebenso in Overwatch), »ob sich ein Gegner direkt in der Nähe befindet«. Natürlich verrät die Lautstärke die grobe Distanz, aber ein Feind kann ja auch unterschiedlich laut brüllen. So werden zusätzlich weit entfernte Klänge im hochfrequenten Bereich etwas gedämpft und Schallreflexionen, inklusive weiterer Effekte, geben Auskunft über die Entfernung.

    Damit ist man in der Lage sich auf ein bestimmtes Geräusch zu konzentrieren, auch wenn anderer Lärm in der Umgebung herrscht. Besonders bei Musikstücken ist die wahrnehmbare örtliche Differenzierung einzelner Klänge erwünscht, was neben der reinen Audio-Hardware für einen intensiven Klanggenuss sorgen kann.


    Wie viele (Vollspektrum-)Lautsprecher benötigt man denn für den perfekten Sound?

    An feste Positionen ist das Gehör nicht festgelegt, verschiebt man die Position einer Box um Zentimeter werden auch dessen Sounds leicht anders verarbeitet (ob man den Unterschied bewusst merkt ist jedoch eine andere Frage). Nichtsdestotrotz bieten mehr Speaker ein kompletteres Surround-Erlebnis, andererseits sollte man nicht übertreiben, denn die eigenen Wohnzimmerwände und das Mobiliar, sowie das Platzieren der Boxen werden den Ton eher beeinflussen als ein dreißigster Lautsprecher.

    Generell sollte man nach einem Kinofilm in sauber abgemischtem 7.1 plus ein paar zusätzlichen Decken- und Bodenboxen alles gehört haben und eben in Kombination mit guter Audioqualität eine beeindruckende Immersion erhalten haben. Denn selbst das Schätzen der Entfernung bleibt möglich, da die oben genannten Effekte größtenteils beim Aufnehmen des Tons erhalten bleiben oder wenigstens dementsprechend klanglich bearbeitet wurden. Kinofilm Dolby Atmos ist allgemein mit Zusatzbearbeitungsaufwand verbunden, aber da Spielesound ebenfalls verarbeitet werden muss (oder zumindest sollte), werde ich dann dort mehr dazu erzählen. Geduld. Wichtig ist jetzt erstmal, dass keine extra Lautsprecher, die noch näher und ferner platziert werden müssen, benötigt werden.

    [​IMG]
    Atmos in Overwatch: »Seht ihr meine Haare? Endlich wird meine wummige Anlage ausgereizt!«


    Aber wenn das so ist, kann man sich dann nicht auch durch einen Trick ein paar Boxen sparen? Und sollte nicht mal was zu Kopfhörern kommen?

    Keine Eile und bitte nur eine Frage auf einmal, aber gutes Stichwort. Besonders im Fernseherbereich können zwei Speaker verwendet werden, um ein Surround-Set zu virtualisieren. Indem entsprechende Klänge an den Wänden reflektieren, entsteht die Illusion als ständen dort weitere Boxen. Natürlich müssen diese zuerst für eine passende Raumgröße konfiguriert werden, meist werden dafür soger extra Mikrofone zur Messung nötig. Zudem sollte der Hörer hier einen dicken Geldbeutel besitzen, ganz im Gegensatz zu verhältnismäßig preiswerten Kopfhörermodellen.

    Es ist wohl nun an der Zeit etwas über binaurale Aufnahmen zu erzählen. Hierbei wird ein Kunstkopf mit Ohren verwendet (oder auch nur Ohren im Kopfabstand). In dem Gehörgang befindet sich dann jeweils ein Mikrofon, deren aufzeichnende Geräusche durch die Gummilauscher gefiltert werden. (Alternativ platziert man zwei kleine Mikrofonen in den Lauschern eines menschlichen Schädels.) Damit kann man nun Geräusche an einem beliebigen Ort aufnehmen, so wie es zwei Ohren dort hören würden.

    Am bekanntesten ist diese Technik vermutlich in Verwendung von sogenannten ASMR-Videos, ein Trend von vor ein paar Jahren bei dem man in diese beiden Mikros flüstert oder irgendwelche labbrigen Dinge sanft aneinander reibt. (Ich verarsche euch hier nicht, das gibt es wirklich und es soll für Entspannung sorgen!)

    Wohl sehr verbreitet sind ebenfalls sogenannte binaurale Beats, welche keinen Plastikschädel verwenden, sondern durch leicht unterschiedliche Frequenzen zwischen den Ohren für eine akustische Täuschung sorgen. Dieser Hokuspokus soll wieder für Erholung sorgen, darüber hinaus gibt es verschiedene »Stücke«, die zusätzlich besseren Schlaf, erweiterte Sinneswahrnehmung und sexuelle Stimulierung (Ohr-gasmus) versprechen.

    Für all dies benötigt man jetzt nur noch zwei Lautsprecher, je einer sollte ein Ohr alleinig erreichen und möglichst nahe am Ohr liegen. Die bequemste Lösung wäre dann wohl ein Kopfhörer. Dadurch gelangt der Ton im Optimalfall ohne hinzukommende Positionseindrücke direkt weiter ins Innere des Hörorgans und wird dort zu einem räumlichen Geräusch interpretiert und es hört sich an, als wäre man am Ort der Aufzeichnung.


    Das hört sich zu gut an, da muss doch ein Haken dabei sein?

    Da sich Ohrformen und Kopfproportionen von Mensch zu Mensch unterscheiden, beziehungsweise die Maße des Mannequinkopfes stark von denen des eigenen abweichen, können die Aufnahmen in bestimmten Situationen leicht unnatürlich und nicht immer exakt lokalisierbar klingen. Um mehrere Personengruppen anzusprechen müsste man also theoretisch die gleiche Szene nochmals für verschiedene Ohren erfassen. Als wäre eine Aufnahme nicht schon problematisch genug…

    mutant_kopf.jpg
    Als Mutant mit stark abweichenden Proportionen wird man so seine Probleme haben.

    Eine binaural Aufzeichnung ist nämlich in einem Film sehr nutzlos, falls man keinen übertriebenen Bearbeitungsaufwand verkraften kann. Alle Töne müssten direkt am Set entstehen um den korrekten Hall zu erreichen und eine Änderung der Sprache wäre nicht mehr machbar. Noch dazu erreicht man damit auf einem 5.1/7.1-Set keinen vernünftigen Surround-Sound mehr.

    Idealerweise sollte also Sound für möglichst viele Ausgabekanäle optimiert sein, sich andererseits vielleicht auch irgendwie auf Kopfhörern simulieren lassen, so als würde er aus unterschiedlichen Richtungen kommen … aber ist so etwas überhaupt möglich?


    Gibt es denn nicht extra Surround-Kopfhörer?

    Das Problem mit Kopfhörern, die zwei Schallwandler besitzen, ist, dass normales Stereoaudio sehr künstlich klingt. Ein Ton, egal wie laut, der beispielshalber von rechts kommt wird nur in der rechten Muschel wiedergegeben. Oftmals findet man hier die Bezeichnung Super-Stereo. Diese komplette Trennung wird sich im ersten Moment nämlich auch interessant anhören, nach der Zeit jedoch schnell ermüdend und nervig klingen. Ganz anders mit Stereo-Lautsprechern, hier ergibt sich ein natürlicheres Bild, da wie schon erwähnt ein leicht verzögerter und abgeschwächter Laut am linken Ohr ankommt. Viele portable Player und Musikprogramme bieten daher einen Effekt namens Crossfeed, welcher versucht dieses Phänomen zu reproduzieren, indem Klänge des jeweils anderen Kanals leicht mit eingeblendet werden.

    Des Weiteren wirkt Gesprochenes, was generell mittig stattfindet und dadurch aus beiden Seiten gleichmäßig laut ertönt, als würden die Stimmen im Kopfinneren entstehen. Damit die Leute nicht in die Klapsmühle rennen, haben sich Headsethersteller etwas Cleveres einfallen lassen: Surround-Headsets. Bevor ihr zum nächsten Elektrowarengeschäft stürmt, sollte man wissen, dass es zwei Sorten gibt. Erstere unterscheiden sich vom Aufbau im Vergleich zu normalen Headsets nicht, müssen aber zwingend über den USB-Anschluss verbunden werden. Darin befindet sich, wie bei vielen anderen Modellen üblich, eine eigene Soundkarte. Diese kann in dem Fall nun einen Raumklang erzeugen, indem bis zu acht vom Betriebssystem gesendete Tonkanäle so simuliert werden, als würden diese von echten Lautsprechern stammen (die Verarbeitungsarbeit muss übrigens trotzdem noch die CPU erledigen). Jenen Effekt erreicht man auch mit klinkensteckergebundenen Kopfhörern, da dies viele PC-Soundkarten beherrschen; Dolby Headphone bei Asus-Karten, SBX Pro Studio bei Creative-Modellen, 7.1-Mode bei Sennheisers GSX-Serie und unbekanntere Technologien von diversen anderen Herstellern, und das selbst bei manch Onboardchips neuerer Mainboards. Doch verzweifelt nicht, solltet ihr keine dieser Karten besitzen hiermit kann man jeden Kopfhörer-Surround auf allen Soundkarten erreichen!


    Etwas seltener (und übertrieben gesagt umso bekloppter) ist die Herangehensweise mehrere Wandler pro Muschel zu verbauen, um damit »echten« 5.1/7.1-Sound zu erreichen, doch das ist nur Werbe-Wischiwaschi. Einerseits ist der Abstand der Membrane zu gering zum Ohr, als dass dieses vernünftig zwischen vorne und hinten differenzieren könnte. Andererseits erreicht ein Ton aus den rechten Speakern ohne weitere Trickserei wieder nicht das linke Ohr und umgekehrt, weshalb diese Modelle eben auch keinen »echten« 5.1/7.1-Surround liefern. Wenn man ohnehin also virtualisieren muss, warum dann nicht gleich nur zwei vernünftige Wandler verwenden? Denn am vernichtesten ist das Argument der schwachen dynamischen Treiber – da dort die vier-, bzw. fünffache Menge Lautsprecher verbaut werden, sollte man sich über deren mangelnde Qualität nicht wundern. Glücklicherweise sind sie praktisch ausgestorben.

    Wenigstens die oberste Methode sorgt nun dafür, dass Surround-Filme und -Spiele auch auf Kopfhörern wirken, ohne dass extra Aufnahmen benötigt werden, nur Höheninformationen beherrscht diese Technik nicht. Auf der anderen Seite sind fast alle Spiele auf 8 Ausgabekanäle beschränkt, meistens sogar noch auf 5 oder 6.


    Wie genau funktioniert denn virtueller Kopfhörer-Surround?

    Anstatt wie bei binauralen Aufnahmen direkt das Material zu erfassen, will man lieber nur den Response der Ohren auf verschieden platzierte Impulse haben. Den Impuls nennt man Dirac Delta Funktion, in der digitalen Welt ist das eine Audiodatei mit einer einzelnen »1« neben sonst nur »0«en. Spielt man diese nun an einer bestimmten Position im Raum zu unserem »Kopf mit Mikrofonen«, so erhält man die gewünschte Head-Related Impulse Response (HRIR). Eine Audiodatei kann man nun damit falten und es entsteht der Eindruck, als würde dieser Sound aus der Richtung unseres ursprünglichen Impulses kommen. Mehrere HRIRs können schließlich für jede Position aufgenommen werden, an der unsere virtuellen Lautsprecher stehen sollen. Dies ist im Prinzip ein akkuraterer Crossfeed, den man auch noch mit mehr als Zweikanaleingaben verwenden kann.

    Der einzige Unterschied zu dem Kopfhörer-Surround vieler Soundkarten ist, dass höchstwahrscheinlich keine Faltung verwendet wird. Stattdessen werden Funktionen verwendet, die solche Impulsantworten imitieren und zu den Durchschnittsohren passen, sowie ergänzende Umgebungseffekte simulieren. Nichtsdestotrotz können die Virtualisierungen wie Boxen behandelt werden, die um Ohren gestellt wurden. Spielt man Impulse durch sie, entstehen Antworten dieser Surround-Methoden, welche man dann beispielsweise mit dem Falter des Equalizer APO verwenden kann und Windows Audio somit klingt, als würde es mit einem dieser Kopfhörer-Surround-Virtualisierungen verarbeitet werden. Mein kleines Programm namens HeSuVi bietet HRIRs von vielen bekannten Technologien und kontrolliert Equalizer APO über seine grafische Benutzeroberfläche, während Equalizer APO die eigentliche Verarbeitung einleitet.


    Toll, doch wie entsteht eigentlich der Sound in einem Spiel?

    Bei einem so interaktiven Medium ist klar, dass keine große Audiodatei einfach über die Dauer des gesamten Spieles wiedergegeben werden kann, alleine schon da ein und dasselbe Game verschieden lange gespielt werden kann. Dennoch können der Soundtrack und Hintergrundgeräusche einer bestimmten Umgebung ohne zusätzliche Ortszuweisung wiedergegeben werden. Besonders in Point’n’Click-Adventures ist es egal, wo eine Spielfigur steht, der Ton wird und kann einfach unverarbeitet mittig ausgegeben werden und es stört niemanden, da die Charaktere sowieso nacheinander reden werden. (Nichtsdestotrotz, The Whispered World liebe ich unter anderem wegen der korrekten Positionierung bei richtig konfiguriertem OpenAL.)

    Spätestens bei aktuellen 3D-Spielen genügt diese statische Soundkulisse alleine jedoch nicht. Einem bestimmten Objekt im Raum (welches seine Position natürlich auch ändern kann) wird ein Audioclip zugewiesen, dieser kann für eine einfache Wiedergabe, einen Loop oder eine Mischung aus beidem dienen. Jener Clip ist dann über einen definierten Radius zu hören, wobei er langsam abschwächt, je weiter man sich vom Quellobjekt entfernt. Zusammen mit den restlichen Geräuschen wird von der Spiele-Engine nun alles den passenden Audiokanälen zugeordnet. Durch das zuordnen eines Kanals wird der Ton in gewisser Weiße auch wieder beschnitten, aber nun hat man schon den kompletten Ton eines aktuellen Titels. Vor nicht allzu langer Zeit war das noch anders, komplexer, … besser.

    Doch alleine durch Software entsteht noch kein Geräusch, folglich benötigt man noch eine Soundkarte, diese kann die digitalen Signale nochmals nachbearbeiten (Tonhöhenänderung, Equalization, Stimmunterdrückung oder eben Raumklangsimulation; wie schon erwähnt aber meist trotzdem in Software über sogenannte Audio Precessing Objects) bevor schließlich vom DAC die finale, analoge Übertragung zu den einzelnen Lautsprechern erfolgt. Dies ist wichtig, da Schall in Form von Druckunterschieden in der Luft das Gehör (machmal auch den Magen) in Schwingung versetzt. Deshalb durchlaufen die elektrischen Signale im Schallwandler eine entsprechende mechanische Schwingung des Lautsprechermembrans (wobei ordentliche Vollspektrumboxen dieses Signal meist nochmals in differenzierte Frequenzbereiche filtern, um verschieden große Membrane anzutreiben.)

    [​IMG]
    Crysis 2: Starker Sound neben netter Optik?


    Moment, hat sich Gaming-Audio verschlechtert?

    Zu Zeiten von Windows XP waren Soundkarten noch etwas wichtiger als heute, sie boten mit Creatives EAX oder dem anfangs sogar noch deutlich besseren Aureal A3D in Zusammenarbeit mit DirectSound3D zusätzlich hardwaremäßige Unterstützung für PC-Spiele. Damit wurde der CPU Arbeit abgenommen und diese Funktionen ermöglichen weitere Tondetails direkt in der Engine des Videogames. Audioberechnung in Spielen – wie oben beschrieben – ist lange nicht vollständig, um möglichst glaubhaft zu klingen müssen Geräusche noch von Objekten beeinflusst werden, jene verändern, also dämpfen und reflektieren. Ob eine Wand zwischen Tonquelle und Spieler liegt, sollte also klanglich hörbar sein. So boten viele damalige Titel Optionen für Hall und weitere Effekte um die Umgebung richtig zu spüren. In heutigen Einstellungsmenüs, die meist nur noch aus Gesamtlautstärke und Musikregler bestehen, sucht man nach solchen Optionen vergeblich.

    Doch warum so etwas liegen lassen? Ertönt eine erneute Frage, wobei die Antwort in einem Wort steckt: Vista. Und die Fackeln und Heugabeln gegen Microsoft werden erneut mit Gebrüll erhoben.

    Damals wurde die Implementierung der Tonhandhabung des OS im Gegensatz zu XP verändert, da der Treiber früher sehr tief ins System eingegriffen hat und leicht einen BSOD verursachen konnte (außerdem hatte der Audio-Stack weitere Probleme, dass eine fast komplette Überarbeitung sinvoll war). Selbst wenn es später noch manchmal möglich war mit ALchemy jene EAX-Funktionen laufen zu lassen, haben sich die Spieleentwickler davon abgewendet. Microsoft hat zwar hardwarebeschleunigtes Audio zurückgebracht, dies jedoch nur als Stromsparfeature für UWP-Apps. Hasta la Vista, realistischer Klang.

    Eine langjährige Spielereihe, wie zum Beispiel Bioshock, bietet sich gut für einen Vergleich mit damals an (hier EAX 3.0). Nimmt man das erste Bioshock, so findet man oben genannte Effekte im Optionsmenü, sowie die Möglichkeit sein Speaker-Setup festzulegen. Aus diesem Grung ergibt sich im Spiel selbst ein beeindruckendes Klangbild; der entfernte Hall eines wütenden Big Daddys aus einem der engen Gänge; Lecks in der Decke aus denen Wasser neben uns auf den harten Boden plätschert; sowie das dumpfe Lachen eines Splicers, der hinter der nächsten Tür lauert.

    Im Vergleich mit Bioshock Infinite lassen sich auch hier Musik, Stimmen und Umgebungsgeräusche einzeln regulieren, andererseits Fehlen weitere Effekte. Ebenso legt das Betriebssystem die Anzahl Lautsprecher fest, maximal ist hier aber gerade einmal 5.0 möglich und komischerweise werden ein paar Geräusche aus dem mittleren Kanal gefiltert. Im laufenden Spiel macht sich dann geräuschliche Ernüchterung breit, besonders beim Schleichen in der zweiten Burial at Sea-Episode werden Macken schnell hörbar. Läuft diesmal ein Splicer ein ganzes Stockwerk über Elizabeth, hört man das so klar als gäbe es keine Decke und mit den ohnehin fehlenden Höheninformationen dreht man sich unnötigerweise verwirrt umher, in der Angst entdeckt zu werden. Generell betrifft dies alle Wände und sonstigen Objekte… schade.

    Es ist aber nicht so, als würde ohne Hardwarebeschleunigung einfach der Prozessor abrauchen. Eine Soundkarte wie die Sound Blaster Live! von 1998 hatte 2 Millionen Transistoren, für einen Pentium II mit 7,5 Millionen machte die Unterstützung daher schon Sinn. Ein Ryzen 7 aus 2017 hat jedoch 4,8 Milliarden Transistoren und trotzdem nutzen die meisten Games die Power nur für Grafikblender. Selbst wenn viele moderne Spiele darunter leiden, gibt es einige Ausnahmen. Allen Voran Crysis 2 und 3 bestechen optisch, keine Frage, darüber hinaus imponiert jedoch auch ihre atmosphärische Geräuschkulisse. Nicht nur rattert das Gewehr zufriedenstellend mächtig beim Feuern, sondern auch nach dem erledigen der Gegner kann man genießen, wie die letzten Patronenhülsen klirrend zu Boden fallen und das Ende des Schusslärms noch einen kurzen Augenblick von den riesigen Häuserfassaden wiederhallt.


    Zeigt denn Overwatch, dass Ton wieder wichtiger wird?

    Es ist sehr toll, dass es eine neue Technik in den Gamingbereich verschlägt. Um Dolby Atmos nun endlich zu erklären sei gesagt, dass neben der 7.1-Tonbasis weitere bewegliche Tonspuren verfügbar werden. Für Filme im eigenen Heimkino (und Star Wars: Battlefront) bedeutet das, dass diese Spuren nun mit Bewegungsmustern verseht werden und der Audio-Receiver (die Soundkarte für TV-Boxen) diesen Ton nun dynamisch an die im eigenen Setup verfügbaren Lautsprecher verteilt und verschiebt.

    Also wird im Grunde ähnliches erledigt wie bei Spielen, wenn den bewegenden Objekten ihre Lautsprecher zuweisen werden. Das Problem mit der Kopfhörerwiedergabe war nur, dass Spiele zuerst maximal 7.1-Sound ausgeben und anhand dessen kann daraufhin erst die Soundkarte den Raumklang simulieren. Wenn aber Overwatch mit Dolby Atmos viele individuelle Tonquellen erlaubt, können diese dann im Game selbst auf eine Kopfhörerausgabe optimiert abgemischt werden. Damit wird wie bei echten binauralen Aufnahmen ermöglicht, dass man horizontale Unterschiede hört und Abstände schätzbar werden (den Aufwand machen sich Spieleentwickler nämlich nicht). So sollte es auch problemlos möglich sein, mit einer Option für diverse HRTF-Profile verschiedene Ohrtypen abzudecken.


    Naja, wen interessiert’s?

    Man könnte denken dies sei der erste Schritt in diese Richtung, aber an einem ähnlichen Punkt waren wir (erneut) schon einmal, damals hatte es nur niemanden interessiert!

    [​IMG]
    Erstes DirectX-11-Game (Doppelklick für DX9-Vergleichsbild): Aber hat es nicht noch etwas beeindruckenderes zu bieten?

    Wir schreiben das Jahr 2009, Codemasters‘ Rallyraser Colin McRae DiRT 2 – das erste Spiel mit DirectX 11 – wird gespannt erwartet, wobei die Verbesserungen durch die neue Schnittstelle echt winzig waren. (Um den nicht vorhandenen Unterschied zu sehen einfach doppelt auf das Bild oben klicken und getrollt werden:). Gleichzeitig ist es nämlich das erste Spiel mit Rapture3D, dies basiert auf OpenAL und ermöglicht unteranderem Geräusche per Kopfhörer räumlich exakt zu platzieren, ohne vorher auf die üblichen 7 Positionen beschränkt zu sein. Obwohl in Daniels Test auf GameStar.de der gute Motorensound gelobt wird, bleibt der binaurale Kopfhörerklang Matsch egal. Kein Wunder, eine entsprechende Menüeinstellung ist nicht vorhanden, stattdessen hilft ein Blick in die ReadMe-Datei der DVD. Nur hier wird auf das mitinstallierte Tool »Rapture3D Speaker Layout« hingewiesen, worin man schließlich Surround für Kopfhörer und gar zwischen ein paar HRTF-Profile wählen kann.

    Das Ergebnis rechtfertigt aber den Aufwand, besonders in der Cockpitperspektive hört man jeden noch so kleinen Stein einzeln an räumlich unterschiedlich Stellen gegen die raue Karosserie prasseln, Pützen spritzen hart gegen den nun feuchten Unterboden und gegnerische Fahrzeuge sind unmissverständlich zu lokalisieren. Weitere Teile der Reihe wurden damit auch ausgestattet, aber nie großartig beworben. Seit DiRT Rally wurde aber auch dies plötzlich wieder aufgegeben. Man!

    Für Minecraft, Unreal Tournament 3 und ein paar weitere Spiele gibt es Tweaks zum binauralen Klang, sowie ein – in beschränkterem Umfang – beachtlich intensives Umgebungsgefühl im kleinen 2D-Indiehorror Neverending Nightmares. Große Blockbusterproduktionen blieben jedoch aus. Und das obwohl AMD seit 2013 in entsprechenden Karten Co-Prozessoren für »TrueAudio« verbaut (mittlerweise sogar den »Next«-Nachfolger) und selbst nVidia hat inzwischen nachgelegt (nur eben nicht OpenSource). Darüber ist, wie mit Soundkarten, eine hardwaremäßige Bechleunigung des Spielesounds möglich. Selbst Microsoft hat in Windows 10 mit Spatial Sound endlich wieder HRTF, es wird aber meines Wissens nur in diesem ominösen Playerunknown's Battlegrounds verwendet.

    Beachtlicher Weise unterstützen manche Voice-Chat-Programme eine binaurale Positionierung der Gesprächspartner und in wenigen Multiplayertiteln wie Counter-Strike: Source können sich die Sprecher sogar mit ihren Avataren zusammen bewegen.


    Das war es also?

    Auch wenn der große Ansturm auf Overwatchs Dolby Atmos ausblieb gibt ein aktueller Trend neue Hoffnung. Um in ein Spiel richtig einzutauchen, ist Virtual Reality gerade ein beachtliches Thema und für das einschneidende Feeling ist auch guter virtueller Klang nötig. Viele VR-Gameplayvideos lassen hören, dass die Existenz von Kopfhörerbesitzer endlich akzeptiert und die Wichtigkeit des Tons neben Soundtrack und Synchronisation erkannt wurde.

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. Steve4gamez
    Früher habe ich Kopfhörer von Sennheiser HD595 genutzt. Aber seit Jahren nutze ich ein paar aktive Lautsprecher von Nubert nuPro A-200 und der Klang ist direkt und traumhaft! Für spielen ist der auch super. Einfach perfekt für mich.
      1 Person gefällt das.
  2. Matt Gore
    @CryPosthuman: Danke für so viel Fachwissen!

    Hat es auch einen guten Grund, warum denn Spiele keine binaurale Option anbieten, trotz Implementierung in der Soundengine oder Wwise in Infinte auf 5.0 begrenzt ist?

    Mit dem "Wiedergabe eines Monosignal (also einem Audiokanal)"-Stücks nahm ich an, dass man selbst weiß, dass ein Kanal automatisch auf allen Lautsprechern wiedergegeben wird (außer man fügt natürlich weitere stille Spuren hinzu). Es bot sich einfach an, bei einem Lautsprecher auch nur auf Mono zu setzen.
      1 Person gefällt das.
  3. Adecius
    Auch meine Wenigkeit nutzt weiterhin die Alchemy Software von Creative, so kann ich wenigstens in den älteren Spielen die noch EAX 1-3 unterstützen, jenes auch nutzen :/ Das gute alte Neverwinter Nights 1&2 zb, Vampire: Redemption, Diablo 2 LoD und andere.
    Wie der Autor erwähnt, seit Win Vista kann man kein EAX mehr aktivieren in Spielen. Da muss ich fast dieses kleine Programm nutzen. Das Creative das nie stärker angeprangert hat, verstehe ich nicht. Vielleicht hab ich das auch nur nicht mitbekommen.
      3 Person(en) gefällt das.
  4. CryPosthuman
    Tja, irgendwie muss man ja die Ausgabe einheitlich machen um den Ausgabeformaten gerecht zu werden. (gab halt bisher nichts anderes)

    Mehr Ausgabe-Positionen würde auch kein Sinn ergeben, wenn man kein Wiedergabe Formant hat, was damit arbeiten kann. (Die Dolby Surroundmatrix ist quasie überall, wo es um Surround geht zu finden)

    Dolby Atmos hat sich jetzt gerade mal im Kino relativ etabliert entsprechend sind Lizenzen recht teuer.
    Deshalb ist das bis jetzt eben nur bei EA und Blizzard zu finden.
    Ein großer Unterschied zwischen dem klassischen Surround und DA ist wohl folgender:
    Surround (egal welcher Setup jetzt), hat für jeden Kanal eine dedizierte Spur abgespeichert oder wird aus einer Stereo L/R Spur matriziert.
    DA hat zwei Datenpackete: Audio-Daten und eine Vektoren-Datenbank, wo alles drin gespeichert ist, was wann mit dem Audio passiert.
    Sowas wie Panorama ergibt sich ja beim normalen Surround aus der Wiedergabe aller Spuren gleichzeitig automatisch. (wie es halt in den Spuren gespeichert ist). Im DA-Format wird das wärend der Wiedergabe berechnet!
      3 Person(en) gefällt das.
  5. CryPosthuman
    Wahrgenommen wird es definitiv anderst, ob das jetzt soweit geht, dass es einem bewusst wird ist die andere Sache. Darauf wollte er, denke ich, hinaus.
      1 Person gefällt das.
  6. CryPosthuman
    Von Surround-Headsets hab ich noch nie viel gehalten. "Etwas seltener (darum umso bekloppter) ist die Herangehensweise mehrere Wandler pro Muschel zu verbauen, um damit »echten« 7.1-Sound zu erreichen, doch das ist nur Werbe-Wischiwaschi." Ja, einerseits das, aber auch die anderen Matrizierten Headsets machen da (genau wie Matriziertes Surround generell) oft Fehler!
    Wen es interessiert soll mal "Dolby surround matrix" Googlen. Wer Audio-Technisch etwas bewandert ist und etwas von Summentrennung versteht wird merken wieso die Systeme ihre Macken haben.
    Getrennt wird das Audio ganz Simple in Mono-Mitte und Surround. Dadurch wird alles, was nicht in der direkten Umgebung im Spiel ist (also Mono hörbar ist), dem Surroundkanal zugewiesen.
    Dem muss ich noch etwas hinzufügen. Mono wird im Artikel nicht korrekt erklärt! Mono heißt nicht "ein Lautsprecher", Mono bedeutet "eine Soundquelle", die kann auch über 100 Speaker ausgegeben werden, deshalb bleibt es dennoch Mono. Alle Speaker bekommen das selbe Signal. Zwei oder mehr Signale ist Stereo.
    Zurück zum "7.1-Headset": Was letztlich eine Folge daraus ist hab ich schon selbst bei anderen Leuten (in LPs auf YT) erlebt. Soundobjekte (z.B. Gegner) die weit weg sind, also nicht direkt hörbar sind und nur über den Hallraum hörbar sind (also das maximum an Surround) immer als "Hinten" wahrgenommen werden und nicht "weit vorraus".

    Hast du schonmal Beyerdynamics "Headzone" verwendet? Das ist nicht direkt "Surround". Es geht vielmehr darum über Kopfhörer ein Surround-Speaker-Setup zu simulieren.
    Ist eben dafür gedacht einem Produzenten "Sein Studio" mobil zu machen. Du kannst quasie dein DAW Setup I/O usw. schon soweit vorkonfigurieren, dass du gleich mit arbeiten beginnen kannst, wenn du dann im tatsächlichen Surround-Setup bist. Oder du kannst (Studio-HPs vorrausgesetzt, Stereo) einen dedizierte Surroundmischung machen. (zumindste mal ein Rough-Mix, Pan und Vol.)

    Noch ein Fun-Fakt. "Surround" ist ein reiner Marketing-Ausdruck. Im Pro-Bereich gibt es kein Surround als Format. Dort heißt es "Stereo 3-3-2" (was 5.1 entspricht) 3 Fullrange (L/R/C) 3 Effekte(Sub) (Sub-L/Sub-R/FX-Sub) und 2 "Surrounds".
    Wenn ihr mal Filme aus den frühen 90er schaut, steht oft noch am Ende des Abspanns "Dolby Stereo", was dann später im Surround umgetauft wurde, weils der Konsument den Unterschied zwischen Stereo (2 Speaker) und Dolby Stereo ("Surround") verstanden hat. Dannach sind die Einnahmen für Dolby gerade zu explodiert.

    So, ich hoffe, dass ich mich nicht irgendwo verzettelt habe. 1000 Ideen, was ich schreiben wollte, aber keine 1000 Tastaturen... ;)
      9 Person(en) gefällt das.
  7. CryPosthuman
    Sehr interessanter Artikel, kein Neuland für mich, da ich in der Branche hauptberuflich zugange bin.
    Game-Audio ist mein Spezialgebiet, was meine Arbeit angeht.

    Btw. ich hab bei Tom Johnson viel gelernt. Das ist oder besser war der Lead Sounddsigner bei Crytek.
    Als Soundengine wurde dort das alte FMOD Ex-Designer verwendet. (also eigentich eine sehr simple Sache... könnte man meinen.
    FMOD ist genau wie Wwise auch in der lage den das zu tun, was AMDs "TrueAudio" tun sollte. Binaural Audio inklusive!
    Letztlich war das der Grund, wieso AMD damit kein Erfolg hatte. Sie haben im Prinzip ein neues System gemacht, was unausgereift war und das konnte, was etablierte Systeme (middlewares) schon konnten.
    Klar, die Hardware-Beschleunigung ist ne nett gemeinte Sache, aber bei der heutigen Rechenpower völlig irrelevant.

    Schau euch mal "Hellblade: Senua's Sacrifice" an und HÖRT es euch an. Das Spiel wurde mit der UE4 und soweit ich weiß mit FMOD Proudziert und verwendet für das komplette In-Game-Audio binaural Audio. (Musik nicht!) Schon im neuesten Trailer hab ihr da ein beeindruckendes Hör-Beispiel.

    Für mich ist die Entwicklung von Dolby Atmos und alternativen Rund um binaural Audio deutlich interessanter als VR. Ganz ehrlich!
    Wobei die Kombination aus binaural Audio und VR wohl das Optimum wäre. Aber allein schon ein gutes Audio macht 80% der Immersion aus.
    Audio wird im Gehirn bis zu 300 mal schneller verarbeitet als optische Sinneseindrücke und sind so wesentlich direkter in der emotionalen Wahrnehmung verankert. (fortgesetzt im nächsten Kommentar)
      7 Person(en) gefällt das.
  8. Matt Gore
    Natürlich! Auch ich war einst auf der Suche nach einem Headset/Köpfhörer als Ersatz für mein damaliges Flohmark-5.1-Set (Angenehm Laut konnte ich selten hören und eine perfekte Platzierung war sowieso nicht möglich). Also hab ich mich überall im Internet umgehört, dort das mit den 7.1-Headsets gelesen und wurde generell vor überteuerten Headsets gewarnt. So stößt man eben auf binaurale Aufnahmen und ließt in Foren über EAX (wobei man es ja auch wirklich in Spielen hört).
    Das einzig neue, was ich hierfür suchen musste, war Atmos und dessen objektbasierte Audiohandhabung. (Eigentlich nur ein wichtiger Absatz: http://www.audiomediainternational.com/recording/game-audio-the-sound-of-star-wars-battlefront/05092)
    Letztendlich entschied ich mich dann für einen normalen Kopfhörer und Surround von der Soundkarte.
    Und nein, komme nicht aus der Audio-Branche.
      4 Person(en) gefällt das.
  9. Messuri
    Das beste Headset ist und bleibt einfach das Beyerdynamics MMX 300. Das übertrifft einfach alles was ich vorher so hatte.

    Klarer Sound und was man damit alles hört was man vorher nicht wahrgenommen hat wahnsinn.

    Es kostet zwar 300 euro wenn man es nicht in deren Faktur noch persönlich anpasst. Denn dann werden es schnell mal 380+

    Aber das war es mir definitiv wert.
      5 Person(en) gefällt das.
  10. Mish
    Ich benutze CMSS-3D und kann mit meinen Stereokopfhörern alles sehr gut orten. In CS GO ist das unendlich nützlich.

    Das Video von 3941 bescheibt in den ersten 7 Minuten die Unterschiede sehr eindrucksvoll.

      3 Person(en) gefällt das.
Top