Half-Life: KI-Projekt soll zeigen, wie der Shooter »fotorealistisch« aussehen kann

Sieht so die Zukunft der Spielgrafik aus?

Half-Life mit »fotorealistischer Grafik« klingt nach einem fernen Szenario, doch eine Neuinterpretation durch KI zeigt es dennoch. (Bild: Valve) Half-Life mit »fotorealistischer Grafik« klingt nach einem fernen Szenario, doch eine Neuinterpretation durch KI zeigt es dennoch. (Bild: Valve)

Der legendäre Shooter Half-Life hat inzwischen etwas mehr als 25 Jahre auf dem Buckel. Angesichts des revolutionären Status, den der Debüttitel des damals noch bescheidenen Entwicklerstudios Valve innehat, werden regelmäßig Fanprojekte ins Leben gerufen.

Beliebte Modifikationen kümmern sich meist um eine Verbesserung der Grafik, die Half-Life etwa mithilfe von Raytracing-Effekten zu neuem Glanz verhelfen sollen. Auf TikTok sorgt derzeit ein Clip für Furore, bei dem mithilfe von Künstlicher Intelligenz noch eins draufgepackt und Half-Life als »fotorealistisches« Abenteuer zeigen soll – aber seht am besten selbst:

Link zum TikTok-Inhalt

Hierfür wurde das »Gen-3 Alpha« genannte KI-Modell von Runway ML genutzt, das hier als Video-zu-Video-Modell fungiert. Wie das Unternehmen bereits zur Vorstellung der KI erklärte, soll Gen-3 Alpha als »bedeutender Schritt auf dem Weg zum Aufbau von General-World-Models« dienen; gemeint sind KI-Modelle, die möglichst umfassende Situationen und Interaktionen darstellen können.

Mit einem eigens auf Half-Life zugeschnittenen Prompt hat der Nutzer »Soundtrick« so das unten stehende Video generieren können. Hierbei wird allerdings nicht die tatsächliche Geometrie des Spiels (oder anderweitig genaue Datenpunkte) genutzt. Stattdessen »basiert alles auf dem finalen Frame, welches das Spiel wiedergibt«, wie Soundtrick ausführt.

Wie realistisch ist das Video tatsächlich? So schön eine fotorealistische Neuauflage von Half-Life auch klingt, gibt es noch einige Hürden zu bewältigen. Auf dem YouTube-Kanal von Soundtrick sind innerhalb der drei Minuten des Clips zahlreiche Animationen zu sehen, die hölzern oder hakelig sind.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von YouTube, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von YouTube angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum YouTube-Inhalt

Insbesondere bei Mimik und Händen scheinen für das KI-Modell noch zu anspruchsvoll für eine dauerhaft gut aussehende Lösung zu sein. Auffällig ist zudem, dass im gesamten Clip nur »reale« oder der Realität nachempfundenen Elemente zu sehen sind; die Kopfkrabben aus Half-Life sucht ihr hier vergebens – auch wenn wir uns nicht sicher sind, ob wir uns die parasitären Viecher wirklich fotorealistisch vorstellen wollen.

Natürlich ist auch die Verarbeitungsdauer ein Problem. Zur Vorstellung von Gen-3 Alpha nannte Runway ML eine Prozessdauer von rund 45 Sekunden, um einen fünfsekündigen Clip zu generieren. Eine Echtzeitberechnung, wie sie unter anderem GPU-Hersteller Nvidia in ferner Zukunft erhofft, findet also nicht statt.

Bis zu einem fotorealistischen Half-Life ist es also noch ein sehr langer Weg - aber würdet ihr eine solche Neuauflage überhaupt begrüßen? Welche Klassiker könnten noch von einer grafischen Aufwertung profitieren? Lasst es uns in den Kommentaren wissen!

zu den Kommentaren (19)

Kommentare(19)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.