Wenn diese Prognose stimmt, werden wir Spiele bald vielleicht nicht mehr wiedererkennen: Die »unvermeidbare Zukunft« der Spielegrafik laut AMD

In einem Interview geht ein AMD-Entwickler tiefer auf die Fortschritte ein, die künftig die Entwicklung beeindruckender Grafik vereinfachen sollen.

Wie sieht AMD die Zukunft der Spieleentwicklung? (Bildquelle: AMD) Wie sieht AMD die Zukunft der Spieleentwicklung? (Bildquelle: AMD)

In den vergangenen Wochen und Monaten bestimmte bei frisch angekündigten Features insbesondere ein Thema die Schlagzeilen: Künstliche Intelligenz, die in zahlreichen Software- und Hardwarelösungen prominent vertreten ist.

Auch AMD macht hier keine Ausnahme, etwa im Zuge der jüngst angekündigten Ryzen-9000-Reihe. Zu den neuen Prozessoren veranstaltete der Hersteller in der vergangenen Woche einen »Tech Day« und ging näher auf die neuen CPUs ein.

Ein Nebensatz führt zu AMDs Zukunftsvision

Wie Digital Trends berichtet, ließ Sebastien Nussbaum (AMDs Ressortleiter im »Computing und Graphics«-Bereich) hier einen Nebensatz fallen, der hellhörig machte.

Grund genug für das Portal, diesen Satz näher unter die Lupe zu nehmen. Zu diesem Zweck wurde ein Interview mit Chris Hall geführt, der als leitender Angestellter in AMDs Softwareentwicklung arbeitet.

Demzufolge werde Künstliche Intelligenz künftig in der Lage sein, »die Beleuchtung in Videospielen zu erträumen«.

Die daraus resultierende, entscheidende Frage: Wie soll das gelingen? Nicht zuletzt Nvidia sah Künstliche Intelligenz als ein naheliegendes Puzzleteil, doch das Ausmaß und der schon jetzt erreichte Fortschritt in AMDs Vision dürfte überraschen.

OpenAI Sora als Vorbild: »Vollkommen neue Denkweise«

Als Beispiel dafür, wie die AMDs Vision verwirklicht werden kann, zieht Hall einen Quervergleich zu einem anderen KI-Tool: OpenAI Sora. Dieses sei ursprünglich gar nicht dafür gemacht gewesen, über 3D nachzudenken – und dennoch hat es ein Modell entwickelt, wie eine 3D-Welt aussehen könnte.

Daraus folgt für den AMD-Entwickler, dass »ein Videospiel sicherlich ähnlich aussehen werde«. Allerdings schränkt dieser auch zeitgleich ein, dass die Industrie noch lange nicht so weit ist; derzeit befinde man sich nur im Anfangsstadium dieser Entwicklungen.

Immerhin erfordern diese »eine vollkommen neue Denkweise«. AMD sei bereits mittendrin in der Forschungsphase, einige der heute verfügbaren Techniken sind schon kompatibel. Als spezifisches Beispiel nennt Hall Technologien ähnlich zu Stable Diffusion, das im Kern nichts weiter als »zielgerichtetes Denoising« sei.

Erste KI-Features für Spiele sind schon jetzt in Arbeit

Erste Einblicke in die Welt von integrierter Künstlicher Intelligenz gibt es schon jetzt, wenngleich nicht von AMD. GPU-Konkurrent Nvidia hat erst im vergangenen Monat das »Project G-Assist« vorgestellt, das ihr im unteren Video sehen könnt.

Vereinfacht formuliert handelt es sich hierbei um eine Chatbot, die unter anderem automatisch die passenden Grafikeinstellungen vornimmt oder wertvolle Tipps im laufenden Spiel geben kann.

Video starten 3:11 Nvidias Project G-Assist soll Spiele revolutionieren

In den Augen von Hall sind solche Projekte Teil der aufsehenerregenden Schlagzeilen, die Künstliche Intelligenz derzeit schreibt, doch viel wichtiger für die Entwicklungen seien wesentlich »banalere« Neuerungen.

Als Beispiel führt der AMD-Entwickler die »Neural Network Engine« an, die Epic Games im Zuge von Unreal Engine 5.4 als Betaversion veröffentlicht hat. Diese soll ein Interface für Spieleentwickler bereitstellen, mit der ein neurales Netzwerk in verschiedenen Aspekten der Entwicklung genutzt werden kann.

Hiervon und weiteren Ideen verspricht sich Hall, dass die Entwicklung selbst effizienter werden kann. Maschinelles Lernen könne dabei helfen, die Rechenlast der Grafikkarten zu reduzieren und für etwas herzugeben, »das für Videospielunternehmen wirklich wichtig ist – beeindruckende Grafiken«.

Auch hier gibt es bereits erste Beispiele für interessante Implementierungen. Alan Wake 2 etwa setzt auf »Ray Reconstruction«, das im Grunde nichts weiter als eine KI-getriebene Variante des oben erwähnten Denoisings ist. Wie das zusammen mit der jüngsten Nvidia DLSS-Version 3.5 in Aktion aussieht, seht ihr hier:

Video starten 1:48 NVIDIA zeigt, wie Alan Wake 2 von DLSS 3.5 und Raytracing profitiert

Die Hardware-Seite der Medaille

Als noch zu lösendes Problem gilt allerdings die Rechenleistung, die in diesem Ausmaß in adäquate Grafikkarten gepackt werden muss. So hat AMD seine KI-Beschleuniger, Nvidia die Tensor-Kerne, auch Intel hat vom Start weg die XMX-Kerne für zugehörige Berechnungen gepackt. Doch hier liegt auch ein Haken, der ein wenig an das Henne-Ei-Problem erinnert, wie Hall meint:

Wenn ich diese KI-Funktion einfüge, blockiere ich dann eine ganze Reihe von Hardware-Generationen, die diese Funktion nicht unterstützen können? Und wie kann ich auf diese zurückgreifen? Dies sind Dinge, die die Integrationsprozess von maschinellem Lernen scheinbar verlangsamen.

Chris Hall via Digital Trends

Auch das Moore'sche Gesetz kommt hier in Spiel – oder besser gesagt, dessen Ablauf, wie ihn Hall sieht. »Jeder Quadratmillimeter an Silizium ist extrem teuer, das Verdoppeln [wie es das Moore'sche Gesetz vorsieht] können wir uns nicht mehr leisten«, lautet die nüchterne Analyse.

Maschinelles Lernen soll jedoch viel mehr als eine bloße Stütze werden; stattdessen »bricht« die KI mit typischen Kosten-Nutzen-Verhältnissen. Die Ergebnisse, die hiermit möglich werden, würden Hall zufolge unter dem Moore'schen Gesetz das Vier- oder Fünffache an Rechenleistung benötigen.

Von »tiefen Taschen und mutigen Seelen«

Gewissermaßen befinden wir uns in einem Übergang von der Zeit vor Ankunft der Künstlichen Intelligenz und nach ihrer Akzeptanz im Mainstream. Hall zieht hier einen Vergleich zu den Tagen, als 3D-Spielgrafik noch in den Kinderschuhen steckte.

Dieser Prozess klingt für Hall nicht nur spannend, sondern wird auch äußerst viel Zeit und Geld verschlingen. Immerhin ist insbesondere die Entwicklung von AAA-Spielen ein äußerst zeitintensiver Prozess, weshalb ihr mit einer baldigen Ankunft KI-gestützter NPCs nicht rechnen solltet, wie sie etwa Nvidia oder Ubisoft derzeit testen.

Überhaupt seien solche Features in den Augen von Hall nicht ausschlaggebend für den Verkaufserfolg von Spielen. Die angesprochenen technologischen Fortschritte seien hier wesentlich interessanter. Hier liegt die Krux für Spieleentwickler und -publisher, denn um diese auch zu erzielen, werden »tiefe Taschen bei Publishern und mutige Seelen benötigt, um diesen Sprung zu wagen“-

Eines Tages werde genau dieser Sprung aber vollzogen, befindet Hall: »Diese Technologie ist unausweichlich«.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.