Nvidias KI-Service ACE, der unter anderem echte Unterhaltungen mit NPCs ermöglichen soll, soll jetzt noch realistischer und zugänglicher sein.
Nvidia hat ACE zum ersten Mal auf der Computex 2023 vorgestellt und wurde von der amerikanischen Firma selbst als »Zukunft der Videospiele« bezeichnet. GameStar Tech Autor Jan Stahnke war damals ziemlich begeistert:
»Zukunft des Gaming« - Nvidia will das ihr euch wirklich mit NPCs unterhaltet
Echte Unterhaltungen, ausgeschmückte Hintergrundgeschichten und mehr
Was ist Nvidia ACE? Es handelt sich um einen KI-Service, der das Ziel hat, Entwicklern dabei zu helfen, einzigartige Sprach-, Gesprächs- und Bewegungs-KI-Modelle in Spielfiguren zu integrieren.
Was ist neu im Update? Nvidia spricht von mehr Realismus und besserer Zugänglichkeit.
Das neue ACE-Modell soll Entwicklern die Nutzung verschiedener Cloud-APIs ermöglichen. Dazu zählen, die folgenden Services, zu denen wir eine kurze Erklärung beisteuern:
- Automatische Spracherkennung (ASR): Ein System, das gesprochene Sprache aufnimmt und in Text umwandelt.
- Text-To-Speech (TTS): Ein System, das Texteingaben in natürliche menschliche Sprache umwandelt
- Neuronale maschinelle Übersetzung (NMT): Sprache wird automatisch und simultan übersetzt.
- Audio2Face (A2F): Gesichtsanimation und Lippensynchronisation werden nur durch eine Audioquelle erzeugt.
Alle diese Tools sind im Early-Access-Programm auf der Nvidia Homepage verfügbar und können mit Rendering-Tools wie der Unreal Engine 5 genutzt werden.
Link zum YouTube-Inhalt
Was bringt mir Nvidia ACE? Ganz ehrlich? Vorerst nicht sehr viel. Doch in Zukunft könnt ihr euch wahrscheinlich wirklich mit Charakteren unterhalten und verschiedene Fragen stellen, die dann zum Charakter und seiner Persönlichkeit passen.
Doch das mit den Dialogen könnte noch eine Weile dauern. In näherer Zukunft dürft ihr euch dann über realistischere Animationen und Mimiken, gestützt durch KI, freuen.
Wann wird Nvidia ACE zum Einsatz kommen? Im Nvidia Newsroom ist die Rede davon, dass das Entwicklerstudio GSC Game World Nvidia Ace in ihrem kommenden Spiel Stalker 2 nutzen wird. Genauer gesagt Audio2Face, welches für realistische Mundbewegungen eingesetzt wird, die zu den ausgesprochenen Sätzen passen.
Freut ihr euch auf das Sprechen mit realistisch anmutenden Charakteren? Was denkt ihr, welche Auswirkungen diese Technologie auf die Spielebranche haben wird, wenn sie einmal breiter eingesetzt wird? Denkt ihr, es wird einen großen Wandel im Gaming geben, oder wird das eher in Richtung VR gehen? Also nicht die Revolution, die viele erwartet haben, aber eine sinnvolle Erweiterung für bestimmte Spiele? Eure Meinung ab in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.