»Das ist ein großer Fortschritt für Videospiele«: Einer der größten Schwächen in Spielen soll jetzt Dank neuer Technik auf breiter Front der Kampf angesagt werden

Nvidia veröffentlicht die hauseigene Audio2Face-Technik jetzt als frei zugängliche Version für Entwickler.

Bei der Bewegung von Gesichtern in Videospielen gibt es noch viel Luft nach oben. Daran will Nvidia etwas ändern, und wer hätte es gedacht: das soll mit Hilfe von KI geschehen. (Bildquelle: Nvidia) Bei der Bewegung von Gesichtern in Videospielen gibt es noch viel Luft nach oben. Daran will Nvidia etwas ändern, und wer hätte es gedacht: das soll mit Hilfe von KI geschehen. (Bildquelle: Nvidia)

In Spielen gibt es mittlerweile immer bessere Beleuchtung dank Raytracing, immer höher aufgelöste Texturen dank mehr und mehr Videospeicher, aber in einer Disziplin lassen sie oft noch zu wünschen übrig: Gesichtsanimationen von Charakteren.

  • Kaum etwas stellt Spiele vor eine so große Herausforderung wie die möglichst realistische Darstellung von Menschen, insbesondere oberhalb des Halses.
  • Kein Wunder, wenn man bedenkt, wie viele Gesichtsmuskeln wir einerseits haben und wie schnell es andererseits auffällt, wenn die Lippen einer Spielfigur sich nicht passend zu dem bewegen, was wir da hören.
  • Geht es nach Nvidia, schafft die hauseigene Audio2Face-Technik hier durch KI Abhilfe. Genau diese Technik wurde jetzt per Open-Source-Zugang Entwicklern auf breiter Front zugänglich gemacht, wie Nvidia im passenden Blog-Eintrag verkündet.

Video starten 1:11 Nvidia ACE in The Oversight Bureau: Demo auf der IFA 2025


Audio2Face ist kein Unbekannter

Erstmals vorgestellt wurde die Technik bereits vor vier Jahren. Damit sie in Videospielen umfassend zum Einsatz kommen und weiter verbessert werden kann, steht sie ab sofort als Open Source Entwicklern zur Verfügung.

Die Funktionsweise der Technik beschreibt Nvidia selbst folgendermaßen:

Audio2Face nutzt KI, um aus Audioeingaben realistische Gesichtsanimationen zu generieren. Dabei werden akustische Merkmale wie Phoneme und Intonation analysiert, um einen Strom von Animationsdaten zu erstellen, der dann den Gesichtsausdrücken einer Figur zugeordnet wird. Diese Daten können für vorab geskriptete Inhalte offline gerendert oder für dynamische, KI-gesteuerte Figuren in Echtzeit gestreamt werden, wodurch eine präzise Lippensynchronisation und emotionale Ausdrucksformen gewährleistet sind.

Gegenüber Jeuxvideo sagte Nvidia dazu in Person von Stéphane Quentin, Pressesprecher des Unternehmens in Frankreich und Belgien: Das ist ein großer Fortschritt für Videospiele..

Die Technik im Praxiseinsatz

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Das obige Video zeigt beispielhaft, wie mit Audio2Face animierte Charaktere in einem Spiel aussehen können.

Es handelt sich um das MMO World of Jade Dynasty von Perfect World Games, das auf der Unreal Engine 5 basiert. In China und Südostasien wurde es bereits veröffentlicht, eine weltweite Veröffentlichung könnte laut Gerüchten Ende 2025 oder Anfang 2026 erfolgen.

Weitere Videos dazu finden sich auf Nvidias YouTube-Kanal für Game Developer, darunter auch ein Beispiel aus dem VR-Titel Alien: Rogue Incursion.

Man darf gespannt sein, ob die Open-Source-Veröffentlichung dafür sorgt, dass Audio2Face in Zukunft in mehr Titeln zum Einsatz kommt und weiter verbessert wird. Den Gesichtsanimationen von Charakteren in Videospielen könnte das unserer Ansicht nach jedenfalls durchaus guttun.

zu den Kommentaren (39)

Kommentare(39)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.