Nahezu jedes teurer entwickelte Spiel besitzt mehrere Grafikoptionen, die euer Spiel beeinflussen – von Upscaling-Optionen bis hin zu Frame-Generation habt ihr die Qual der Wahl, doch alle drei haben aufgrund ihrer Natur auch Auswirkungen auf die Bildqualität.
Diese Konsequenzen lassen sich bisher nur subjektiv bewerten. An dieser Stelle möchten Intel-Forscher mit dem »Computer Graphics Video Quality Metric« (CGVQM) genannten Tool eingreifen und eine objektive Messung dieser Auswirkungen ermöglichen.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Ein »smarter Weg, die Zukunft der Grafik zu bewerten«
Herkömmliche Bildqualitätsmessungen wie PSNR (Peak Signal-to-Noise Ratio) sind für moderne Rendering-Techniken ungeeignet. Während PSNR ursprünglich für die Bewertung von Kompressionsartefakten entwickelt wurde, entstehen bei Gaming-Anwendungen völlig andere Störungen wie Ghosting oder Flickering.
Forscher von Intel Labs haben hierfür nun einen zweistufigen Ansatz entwickelt, den sie als »smartesten Ansatz für eine objektive Bewertung der Grafikqualität« anpreisen. Auf der »High Performance Graphics 2025«-Konferenz stellten die Forscher die CGVQM genauer vor:
Link zum YouTube-Inhalt
Zunächst erstellten sie den Computer Graphics Visual Quality Dataset (CGVQD), der gezielt Bildqualitätsprobleme verschiedener Rendering-Techniken erfasst. Berücksichtigt wurden Störungen durch Path Tracing, neurales Denoising, Supersampling-Verfahren wie FSR, XeSS und DLSS sowie Gaussian Splatting und Frame-Interpolation.
Anschließend trainierten die Entwickler ein neuronales Netzwerk zur automatischen Bewertung dieser Störungen. Das System basiert auf einer »3D-Convolutional Neural Network«-Architektur mit ResNet-18 als Grundlage.
Ein Convolutional Neural Network (CNN) ist ein spezielles künstliches neuronales Netzwerk, das dem menschlichen Sehsystem nachempfunden ist.
- CNN durchläuft mehrere Schichten, wobei jede Schicht unterschiedliche Merkmale aus den Eingabedaten extrahiert.
- Die ersten Schichten erkennen einfache Muster wie Helligkeit und Kanten, während tiefere Schichten komplexere Strukturen und schließlich das gewünschte Objekt identifizieren.
ResNet-18 ist eine bewährte Netzwerkarchitektur mit 18 Schichten, die 2015 entwickelt wurde und auf sogenannte Sprungverbindungen (»Skip Connections«) setzt.
- Bei sehr tiefen neuronalen Netzen tritt ein Problem auf, das als »Vanishing Gradient« bekannt ist: Wichtige Lernsignale werden mit jeder Schicht schwächer und verschwinden schließlich, wodurch das Training ineffizient wird.
- Die Sprungverbindungen von ResNet lösen dieses Problem, indem bestimmte Schichten übersprungen werden und so direkt zu den späteren Schichten kommen.
Um sicherzustellen, dass die KI-Bewertungen mit menschlicher Wahrnehmung übereinstimmen, führten die Forscher eine zusätzliche Nutzerstudie durch.
Zwanzig Probanden bewerteten verschiedene Bildstörungen auf einer Skala von »kaum wahrnehmbar« bis »sehr störend«. Diese Daten dienten als Referenz für das Training des neuronalen Netzwerks.
Das Ergebnis übertrifft den Angaben der Intel-Forscher zufolge andere Bildqualitätsmessverfahren deutlich. Besonders die intensive CGVQM-5-Variante kommt der Genauigkeit menschlicher Bewertungen nahe, während die effizientere CGVQM-2-Version den dritten Platz unter allen getesteten Systemen belegt.
Quelloffen und mit Zukunftsambitionen
Das CGVQM-Tool steht als Open-Source-Projekt auf GitHub zur Verfügung und ist als PyTorch-Anwendung implementiert. Entwickler können es direkt in ihre Arbeitsabläufe integrieren und sowohl auf CPU als auch GPU ausführen. Die Anwendung ist für CUDA-GPUs optimiert, unterstützt aber auch andere Plattformen.
Noch kann CGVQM allerdings keine Echtzeit-Grafik bewerten. Bisher ist das Tool nämlich noch darauf angewiesen, »vollen Zugriff auf das Referenzvideo« zu besitzen. Eine solche pixel-perfekte Referenz ist aber in einer laufenden Spielsitzung nicht möglich.
- Die nächsten Schritte lauten für die Forscher deshalb, diese Notwendigkeit zu drosseln oder gar ganz zu eliminieren, damit sich CGVQM auch für den Einsatz in Echtzeit eignet.
- Zudem sollen Variablen wie die Stetigkeit von Bewegungen in die Bewertungsgrundlage einfließen.
Hinzu kommen weitere Faktoren wie die unterschiedliche Gewichtung bestimmter Bereiche auf dem Bildschirm oder die Bedeutung von flüssigen Bewegungsabläufen, die unter Umständen höher als »Genauigkeit pro Frame« sein kann.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.