Raytracing für die Ohren: YouTuber entwickelt Game-Engine, die so viel mehr als nur den Klang verbessert

Ein Entwickler arbeitet an einem Plug-in, das Audio-Raytracing in Spielen ermöglichen soll. Was steckt dahinter?

Besseres Echo in Spielen soll nicht der einzige Vorteil von Vercidiums Audio-Raytracing sein. (Bildquelle: Vercidium via YouTube) Besseres Echo in Spielen soll nicht der einzige Vorteil von Vercidiums Audio-Raytracing sein. (Bildquelle: Vercidium via YouTube)

Bisher ist Raytracing wohl in den meisten Köpfen als reines Grafikverfahren verankert. Einfach formuliert: Lichtstrahlen werden simuliert, um realistische Beleuchtung, Reflexionen und Schatten darzustellen.

Der Entwickler Vercidium hat auf YouTube das Konzept nun auf die Klangumgebung in Spielen umgemünzt und arbeitet daran, es in seine hauseigene Engine einzubauen. Das Ergebnis nennt dieser schlicht »Audio-Raytracing«.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Von der Grafik zum Sound: Was ist Audio-Raytracing?

Beim Raytracing in der Computergrafik werden virtuelle Lichtstrahlen verfolgt, die von einer (gedachten) Kamera ausgehen und mit Objekten interagieren, um eine möglichst fotorealistische Darstellung zu ermöglichen.

Anders als bei herkömmlichen Audiosystemen, die oft mit vordefinierten Raumtypen arbeiten, berücksichtigt Audio-Raytracing die tatsächliche Geometrie der Spielumgebung und die physikalischen Eigenschaften verschiedener Materialien.

  • Einige Spiele haben bereits frühe Formen dieser Technologie implementiert. Laut einem Reddit-Beitrag des Entwicklers James Boer wurde eine ähnliche Technik in »Guild Wars 2« verwendet, um Nachhall und Echo in Echtzeit zu berechnen.
  • Auch die aktuelle Konsolengeneration hat sich Audio-Raytracing auf die Fahnen geschrieben. Microsoft nannte das Feature etwa explizit zur Xbox Series X:

Bei Vercidiums Audio-Raytracing ist das Grundprinzip ähnlich: Anstelle von Lichtstrahlen werden virtuelle Schallwellen simuliert und verfolgt, wie sich diese in der Umgebung ausbreiten, reflektiert werden und beim Hörer ankommen. Vercidium nennt im YouTube-Video folgende Schritte:

  • Strahlenaussendung: Von der Position des Spielers werden zahlreiche Strahlen in alle Richtungen ausgesendet.
  • Strahlenverfolgung: Diese Strahlen breiten sich in der virtuellen Umgebung aus und prallen von Oberflächen ab.
  • Datensammlung: Bei jeder Reflexion werden Informationen über Distanzen, Materialien und Hindernisse gesammelt.
  • Audioberechnung: Basierend auf diesen Daten werden Audioeffekte wie Echo, Nachhall und Klangfilterung berechnet.

Gaming-PC aufrüsten 2025: So klappt es richtig Video starten 35:29 Gaming-PC aufrüsten 2025: So klappt es richtig

Mehr Realismus – und mehr Barrierefreiheit

Von diesem Audio-Raytracing verspricht sich Vercidium ein immersives Klangerlebnis, das etwa durch die realistische Simulation von Echo erfolgen soll. Anders als bei herkömmlichen Audiosystemen basiert das Echo nicht nur auf der Raumgröße, sondern auch auf der Raumbelegung.

Vercidium erklärt diesen Effekt anhand eines Beispiels: In einer leeren Garage ist das Echo stärker als in einer voll gestellten, obwohl die Raumgröße identisch ist.

Zudem werden die unterschiedlichen Materialeigenschaften von Wänden und Hindernissen berücksichtigt. Wenn etwa ein Klang durch eine Wand dringen muss, wird er entsprechend gedämpft. Die Stärke der Dämpfung hängt wiederum von der Wanddicke und dem Material ab.

Auch Wettereffekte sollen noch besser zur Geltung kommen. Bei einem Gewitter berechnet das Audio-Raytracing etwa auf Basis von offenen Fenstern, aus welcher Richtung der Regen zu hören sein sollte.

Auch für gehörlose Spieler soll Vercidiums Implementierung von Audio-Raytracing Vorteile bieten, indem die Schallwellen auf Wunsch als visuelle Indikatoren dargestellt werden.

  • Durch die Umkehrung des Verfahrens – Strahlen werden von Klangquellen wie etwa einem schießenden Gegner ausgesendet – können Schallwellen als visuelle Indikatoren dargestellt werden.
  • Wenn diese Strahlen auf Oberflächen treffen, erscheinen kleine Punkte, die sich in Echtzeit aktualisieren. Die Größe der Punkte kann die Lautstärke des Geräusches darstellen, während unterschiedliche Farben verschiedene Klangtypen kennzeichnen können (etwa rot für Schüsse, grün für Schritte).

Keine Raytracing-GPU erforderlich

Die Berechnung vom Audio-Raytracing läuft indes nicht auf der GPU, sondern auf der CPU.

Eine spezielle Raytracing-fähige Grafikkarte ist damit nicht erforderlich, sodass das System auf einer breiten Palette von Hardware funktionieren kann – »von alten Laptops bis zu den neuesten Raumstationen«, wie Vercidium es ausdrückt.

Um diese möglichst geringe Belastung der Rechenpower zu ermöglichen, nennt der Entwickler folgende Schritte für das Audio-Raytracing:

  • Voxelbasierte Berechnung: Anstatt mit komplexen 3D-Modellen zu arbeiten, verwendet das System ein vereinfachtes Voxel-Gitter, das viel schneller zu verarbeiten ist.
  • Hintergrund-Threading: Die Raytracing-Berechnungen werden auf separaten CPU-Threads ausgeführt, sodass das Hauptspiel (nach Möglichkeit) nicht beeinträchtigt wird.
  • Progressive Aktualisierung: Nach der ersten vollständigen Berechnung werden nur noch 32 Strahlen pro Frame neu verfolgt, um Änderungen in der Umgebung zu erfassen.

Vercidiums Version des Audio-Raytracings soll als Plugin für die Unreal Engine 5 und Godot zur Verfügung gestellt werden. Noch befindet sich dieses in einem sehr frühen Alpha-Stadium, ein Zeitplan zur Veröffentlichung steht bisher nicht fest.

zu den Kommentaren (11)

Kommentare(11)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.