Wie wirken sich Upscaling, Frame Generation & Co. auf die Bildqualität aus? Eine einzige Metrik soll künftig zur Bewertung ausreichen

Intel CGVQM ist ein KI-gestütztes Tool zur Messung der Bildqualität in Spielen in Echtzeit. Die PyTorch-Anwendung will die Auswirkung von Upscaling-Technologien und Frame-Generation objektiv bewerten.

Durch Upscaler entstehende Ghosting-Effekte lassen sich bislang nur schwer objektiv quantifizieren – ein KI-Tool will das mit einer Metrik ändern. (Bildquelle: Intel Labs) Durch Upscaler entstehende Ghosting-Effekte lassen sich bislang nur schwer objektiv quantifizieren – ein KI-Tool will das mit einer Metrik ändern. (Bildquelle: Intel Labs)

Nahezu jedes teurer entwickelte Spiel besitzt mehrere Grafikoptionen, die euer Spiel beeinflussen – von Upscaling-Optionen bis hin zu Frame-Generation habt ihr die Qual der Wahl, doch alle drei haben aufgrund ihrer Natur auch Auswirkungen auf die Bildqualität.

Diese Konsequenzen lassen sich bisher nur subjektiv bewerten. An dieser Stelle möchten Intel-Forscher mit dem »Computer Graphics Video Quality Metric« (CGVQM) genannten Tool eingreifen und eine objektive Messung dieser Auswirkungen ermöglichen.

Video starten 44:19 »Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI

Ein »smarter Weg, die Zukunft der Grafik zu bewerten«

Herkömmliche Bildqualitätsmessungen wie PSNR (Peak Signal-to-Noise Ratio) sind für moderne Rendering-Techniken ungeeignet. Während PSNR ursprünglich für die Bewertung von Kompressionsartefakten entwickelt wurde, entstehen bei Gaming-Anwendungen völlig andere Störungen wie Ghosting oder Flickering.

Forscher von Intel Labs haben hierfür nun einen zweistufigen Ansatz entwickelt, den sie als »smartesten Ansatz für eine objektive Bewertung der Grafikqualität« anpreisen. Auf der »High Performance Graphics 2025«-Konferenz stellten die Forscher die CGVQM genauer vor:

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Zunächst erstellten sie den Computer Graphics Visual Quality Dataset (CGVQD), der gezielt Bildqualitätsprobleme verschiedener Rendering-Techniken erfasst. Berücksichtigt wurden Störungen durch Path Tracing, neurales Denoising, Supersampling-Verfahren wie FSR, XeSS und DLSS sowie Gaussian Splatting und Frame-Interpolation.

Anschließend trainierten die Entwickler ein neuronales Netzwerk zur automatischen Bewertung dieser Störungen. Das System basiert auf einer »3D-Convolutional Neural Network«-Architektur mit ResNet-18 als Grundlage.

Ein Convolutional Neural Network (CNN) ist ein spezielles künstliches neuronales Netzwerk, das dem menschlichen Sehsystem nachempfunden ist.

  • CNN durchläuft mehrere Schichten, wobei jede Schicht unterschiedliche Merkmale aus den Eingabedaten extrahiert.
  • Die ersten Schichten erkennen einfache Muster wie Helligkeit und Kanten, während tiefere Schichten komplexere Strukturen und schließlich das gewünschte Objekt identifizieren.

ResNet-18 ist eine bewährte Netzwerkarchitektur mit 18 Schichten, die 2015 entwickelt wurde und auf sogenannte Sprungverbindungen (»Skip Connections«) setzt.

  • Bei sehr tiefen neuronalen Netzen tritt ein Problem auf, das als »Vanishing Gradient« bekannt ist: Wichtige Lernsignale werden mit jeder Schicht schwächer und verschwinden schließlich, wodurch das Training ineffizient wird.
  • Die Sprungverbindungen von ResNet lösen dieses Problem, indem bestimmte Schichten übersprungen werden und so direkt zu den späteren Schichten kommen.

Um sicherzustellen, dass die KI-Bewertungen mit menschlicher Wahrnehmung übereinstimmen, führten die Forscher eine zusätzliche Nutzerstudie durch.

Zwanzig Probanden bewerteten verschiedene Bildstörungen auf einer Skala von »kaum wahrnehmbar« bis »sehr störend«. Diese Daten dienten als Referenz für das Training des neuronalen Netzwerks.

Das Ergebnis übertrifft den Angaben der Intel-Forscher zufolge andere Bildqualitätsmessverfahren deutlich. Besonders die intensive CGVQM-5-Variante kommt der Genauigkeit menschlicher Bewertungen nahe, während die effizientere CGVQM-2-Version den dritten Platz unter allen getesteten Systemen belegt.

Quelloffen und mit Zukunftsambitionen

Das CGVQM-Tool steht als Open-Source-Projekt auf GitHub zur Verfügung und ist als PyTorch-Anwendung implementiert. Entwickler können es direkt in ihre Arbeitsabläufe integrieren und sowohl auf CPU als auch GPU ausführen. Die Anwendung ist für CUDA-GPUs optimiert, unterstützt aber auch andere Plattformen.

Noch kann CGVQM allerdings keine Echtzeit-Grafik bewerten. Bisher ist das Tool nämlich noch darauf angewiesen, »vollen Zugriff auf das Referenzvideo« zu besitzen. Eine solche pixel-perfekte Referenz ist aber in einer laufenden Spielsitzung nicht möglich.

  • Die nächsten Schritte lauten für die Forscher deshalb, diese Notwendigkeit zu drosseln oder gar ganz zu eliminieren, damit sich CGVQM auch für den Einsatz in Echtzeit eignet.
  • Zudem sollen Variablen wie die Stetigkeit von Bewegungen in die Bewertungsgrundlage einfließen.

Hinzu kommen weitere Faktoren wie die unterschiedliche Gewichtung bestimmter Bereiche auf dem Bildschirm oder die Bedeutung von flüssigen Bewegungsabläufen, die unter Umständen höher als »Genauigkeit pro Frame« sein kann.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.