In Spielen gibt es mittlerweile immer bessere Beleuchtung dank Raytracing, immer höher aufgelöste Texturen dank mehr und mehr Videospeicher, aber in einer Disziplin lassen sie oft noch zu wünschen übrig: Gesichtsanimationen von Charakteren.
- Kaum etwas stellt Spiele vor eine so große Herausforderung wie die möglichst realistische Darstellung von Menschen, insbesondere oberhalb des Halses.
- Kein Wunder, wenn man bedenkt, wie viele Gesichtsmuskeln wir einerseits haben und wie schnell es andererseits auffällt, wenn die Lippen einer Spielfigur sich nicht passend zu dem bewegen, was wir da hören.
- Geht es nach Nvidia, schafft die hauseigene Audio2Face-Technik hier durch KI Abhilfe. Genau diese Technik wurde jetzt per Open-Source-Zugang Entwicklern auf breiter Front zugänglich gemacht, wie Nvidia im passenden Blog-Eintrag verkündet.
1:11
Nvidia ACE in The Oversight Bureau: Demo auf der IFA 2025
Audio2Face ist kein Unbekannter
Erstmals vorgestellt wurde die Technik bereits vor vier Jahren. Damit sie in Videospielen umfassend zum Einsatz kommen und weiter verbessert werden kann, steht sie ab sofort als Open Source Entwicklern zur Verfügung.
Die Funktionsweise der Technik beschreibt Nvidia selbst folgendermaßen:
Audio2Face nutzt KI, um aus Audioeingaben realistische Gesichtsanimationen zu generieren. Dabei werden akustische Merkmale wie Phoneme und Intonation analysiert, um einen Strom von Animationsdaten zu erstellen, der dann den Gesichtsausdrücken einer Figur zugeordnet wird. Diese Daten können für vorab geskriptete Inhalte offline gerendert oder für dynamische, KI-gesteuerte Figuren in Echtzeit gestreamt werden, wodurch eine präzise Lippensynchronisation und emotionale Ausdrucksformen gewährleistet sind.
Gegenüber Jeuxvideo sagte Nvidia dazu in Person von Stéphane Quentin, Pressesprecher des Unternehmens in Frankreich und Belgien: Das ist ein großer Fortschritt für Videospiele.
.
Die Technik im Praxiseinsatz
Link zum YouTube-Inhalt
Das obige Video zeigt beispielhaft, wie mit Audio2Face animierte Charaktere in einem Spiel aussehen können.
Es handelt sich um das MMO World of Jade Dynasty von Perfect World Games, das auf der Unreal Engine 5 basiert. In China und Südostasien wurde es bereits veröffentlicht, eine weltweite Veröffentlichung könnte laut Gerüchten Ende 2025 oder Anfang 2026 erfolgen.
Weitere Videos dazu finden sich auf Nvidias YouTube-Kanal für Game Developer, darunter auch ein Beispiel aus dem VR-Titel Alien: Rogue Incursion.
Man darf gespannt sein, ob die Open-Source-Veröffentlichung dafür sorgt, dass Audio2Face in Zukunft in mehr Titeln zum Einsatz kommt und weiter verbessert wird. Den Gesichtsanimationen von Charakteren in Videospielen könnte das unserer Ansicht nach jedenfalls durchaus guttun.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.