Wird RTX das nächste PhysX?

Von Misie Gaming · 15. Oktober 2019 · ·
Kategorien:
  1. Lesedauer: 10 min       Alternativ: misie.ga/wird-rtx-das-nächste-physx
    physx.jpg

    Erinnert ihr euch noch an NVIDIAs PhysX-Software?

    Deren Entwicklung und momentaner Standpunkt könnten uns eine mögliche Zukunftsvision der aktuellen RTX-Technologie prophezeien, da sich beide in gewissen Punkten stark ähneln. Dies verleitet mich zur These: »PhysX ist tot, es lebe RTX – zumindest so lang bis es was Neues gibt.« Wie diese Aussage gemeint ist, genauere Hintergrundinformationen, Problemkind NVIDIA und was RTX diesmal retten könnte wollen wir in diesem Artikel betrachten. Abschließend werden verschiedene mögliche Szenarien für das Jahr 2020 evaluiert, welche von existentieller Bedeutung sein werden. Doch präzisieren wir zunächst dieses »PhysX«.


    Was hat PhysX damit zu tun?

    Falls ihr bisher bloß Bahnhof verstanden habt, hier eine kurze Zusammenfassung von PhysX und was genau es in unserer These bedeuten soll. PhysX nennt sich eine Physik-Engine, die 2008 von NVIDIA erworben und seither weiterentwickelt wurde. Ziel war es, den PhysX-Code auf der eigenen »Compute Unified Device Architecture« (CUDA) lauffähig zu machen. Das heißt konkret, dass die Physik-Engine auf allen damals aktuellen und zukünftigen Grafikkarten von NVIDIA lauffähig ist.

    In ersten Spielen wie Cryostasis und Mirror's Edge sorgte dies dann für physikalisch inspirierte Flüssigkeits- und Stoffsimulation, sowie interaktiven Rauch, zerbrechende Glasscheiben und Trümmer-Effekte. Man benötigte dafür nicht unbedingt GeForce-Hardware, da PhysX auch auf der CPU ausgeführt werden kann – allerdings wurden Spiele dadurch zur Diashow. Von der Konkurrenz gab es damals die Kritik, die Softwareimplementierung sei absichtlich ineffizient umgesetzt und so wurden später durch eine ausführliche Analyse von Real World Technologies mehrere Performance-Probleme aufgedeckt. Diese sind mittlerweile in neueren Versionen der Engine behoben.

    tw3.jpg
    Des HeXers flatternder Mantel läuft unter PhysX immer restlos auf der CPU.

    Es läuft sogar so gut auf der CPU, dass Spiele seit ein paar Jahren für die PhysX-Simulationen ausschließlich auf den Prozessor setzen und gar keine Hardwarebeschleunigung mehr erlauben. Dies dürfte zum Teil daran liegen, dass nur der Quellcode für CPU-basiertes PhysX freigegeben wurde und so findet man es in dieser Form auch in der Unity und Unreal Engine. Es mag die Technologie daher weiterhin geben, mit der »PhysX ist tot«-Aussage beziehe ich mich explizit auf das Aussterben der CUDA-Implementierung.


    RTX ≣ PhysX – Pro & Contra

    Mit dem Wissen können wir einen vergleichenden Blick auf RTX und PhysX werfen:

    1. Performance

    Nach Lesen des vorangegangenen Abschnittes könnte man sich wundern, warum so ein großes Drama um den vermeintlichen Tot von PhysX gemacht wird, wenn es doch lediglich von der GPU auf die CPU gewandert ist. Die Krux bei der Sache ist jedoch, dass beim Wechsel die verwendete Effektkomplexität drastisch verringert wurde. Borderlands 2 hatte die wohl beste Nutzung von PhysX. In früheren und späteren Titeln sahen viele der Spielereien oftmals zu aufgesetzt aus, in Borderlands passte es währenddessen perfekt zum Comic-Stil und der abgedrehten Waffen-Action.

    Schaut man sich hingegen den neusten Teil an, wird man das meiste vermissen. Da die Unreal Engine 4 genutzt wird, dürfte PhysX auf dem Prozessor weiterhin in Verwendung sein, zumal man im Grafikvideo von Candyland einige im Wind wehende Stoffe und interaktive Explosionspartikel erkennt – trotzdem ein Witz gegenüber vorher. Das Schicksal von Borderlands 3 ist wie schon erwähnt mittlerweile kein Resultat mangelnder CPU-Optimierung mehr, die Technologie wird nun lediglich vernünftiger – sprich für weniger aufwendige Effekte – eingesetzt.

    [​IMG]
    Nachwirkungen eintreffender Kugeln, hier ebenfalls aus dem Candyland-Video.

    Es ist ja nicht so, als wären damalige Titel trotz CUDA-Hardware flüssig gelaufen. Im schon erwähnten Cryostasis hatten sich die minimalen fps mit PhysX gedrittelt, in Batman: Arkham Asylum sank die durchschnittliche Bildrate schon bei PhysX auf Mittel um die Hälfte – das erinnert doch stark an RTX. Die jeweiligen Grafikeffekte sind einfach nicht den Leistungsaufwand wert, für das was sie optisch liefern. Man schaue sich das diesjährige Metro Exodus an; während im Vorgänger Last Light Partikel aus Einschusslöchern flogen, an Objekten abprallten und umher rollten, verschwinden sie sechs Jahre später einfach im Boden. Ein Gitter zur Kollisionserkennung ist schon vorhanden, »it just works« wäre also für PhysX drin gewesen. Doch man verzichtet ganz einfach zugunsten der Performance darauf – trotz hier sogar »echtem« CUDA-PhysX. Ähnliches gilt für Textilien (2013 vs 2019).

    Übrigens, wäre Exodus nicht erschienen, dann wären die »aktuellsten« Spiele welche PhysX per GPU unterstützten das Anfang 2016 erschienene, gefloppte Bombshell, sowie das über vier Jahre alte Batman: Arkham Knight – auch wenn die katastrophale Performance natürlich nicht nur an der Mitarbeit von NVIDIA lag.

    Ansonsten wurde PhysX in Spielen aber auch nie für einstürzende Häuser oder wirklich auffällige Zerstörungseffekte eingesetzt, wie man sie aus Battlefield 3 oder Red Faction: Guerrilla kennt, sondern sorgte stattdessen meist nur für kleinere Partikeleffekte. Sobald für NVIDIA kein Interesse mehr darin bestand PhysX als Werbeplattform einzusetzen, wurde die Technologie bloß noch in einem so eingeschränkten Rahmen eingesetzt, welcher bei Beachtung der Leistung Sinn macht. Da RTX gerne als großer Kaufgrund gesehen wird erscheint es logisch, dass dieses Schicksal ebenfalls RTX treffen könnte, zumal man wieder sieht, dass die Leistung nicht ansatzweise ausreicht, um in einem größeren Rahmen eingesetzt zu werden – zumindest nicht mit aktuellen Karten.

    [​IMG]
    Havok Physics im Einsatz bei Red Faction: Guerrilla von 2009.

    2. Einschränkendes Marketinginstrument

    Die Wichtigkeit der Vermarktung ist tatsächlich ein größerer Punkt als man denkt. Markenbindung ist sehr wichtig für ein Unternehmen und NVIDIA bemüht sich mit allen Mitteln darum. Das GeForce-Partner-Programm (GPP), G-Sync-Module oder »The Way It's Meant to be Played« und GameWorks hätten es ansonsten nicht gegeben. Außerdem merkt man schnell, dass es sich bei etwas um ein Werbe-Gimmick handelt, wenn bei der Demonstration mit unsauberen Vergleichen gearbeitet wird. In Arkham Asylum verschwinden so beispielsweise komplette Flaggen, wenn PhysX nicht auf Anschlag steht, anstatt diese einfach durch statische Modelle auszutauschen. Ähnliches gilt für RTX, welches in Battlefield V als »Heilmittel« gegen Screenspace-Reflections vorgestellt wurde, bloß wären Planar-Reflections oder dynamische Cube-Maps performanter und sähen dabei sogar alles in allem schicker aus als RTX.

    Im Nachhinein scheint es fast so, als wären die Grafikeffekte lediglich auffällig in Szene gesetzt worden, wenn sie groß beworben werden sollten. Zu Metro: Last Light gab es direkt von NVIDIA ein Vergleichsvideo über PhysX. Irgendwann scheint dies jedoch die Leute nicht mehr so begeistert zu haben oder sie benötigten einen Konter auf AMDs TressFX-Haarsimulation. Auf jeden Fall wurde in The Witcher 3 alleinig von GameWorks gesprochen und obwohl PhysX zumindest CPU-basiert in Verwendung blieb, wurde es im offiziellen Demonstrationsclip gar nicht mehr namentlich erwähnt. Zum Witz-PhysX, aber auch zu HairWorks in Metro Exodus gab es dann keinerlei Video mehr.

    Aber warum auch, nach Hardwareumfragen hat eh so ziemlich jeder eine GeForce im Einsatz, da bewirbt man lieber das neue RTX in Videos, dies sorgt wenigstens als Kaufanreiz. Einer gewinnorientierten Firma sei solch Vorgehen meinetwegen erlaubt, allerdings besitzen Battlefield 5 und Control neben RTX keine GameWorks-Effekte und Shadow of the Tomb Raider nutzt sogar Pure Hair, die Weiterentwicklung TressFXs durch Eidos Montreal, anstatt HairWorks. Von PhysX fangen wir hier gar nicht erst an, aber soll dies dann bedeuten, dass RTX ebenfalls verschwindet sobald es alle Karten unterstützten?

    rottr.jpg
    In der Reboot-Trilogie ist Lara mit moderner Haarpracht unterwegs.

    Die schlechte Performance mit dem augenscheinlichen Zwang die Technologien prominent und als fast reines Werbetool einzusetzen, sorgt selbstverständlich dafür, dass kein vernünftiger Entwickler so etwas freiwillig in sein Spiel, beziehungsweise seine Grafik-Engine einbauen würde. Stattdessen muss eigentlich immer zuerst NVIDIA als Sponsor auf einen potentiellen Partner zugehen. Da solch eine Partnerschaft Kosten verursacht, resultierte dies über die Jahre in vergleichsweise wenigen Titeln mit PhysX. RTX scheint nach aktueller Entwicklung keine Ausnahme zu werden, obwohl es über Microsofts »DirectX Raytracing« (DXR) läuft und für Entwickler damit im Gegensatz zu GPU-PhysX keine besonderen Lizenzabkommen benötigt.

    Hier sei noch die Hoffnung ausgesprochen, dass Raytracing vielleicht bald einen Schub bekommen könnte. Hardwarebeschleunigtes PhysX blieb GeForce-Karten exklusiv vorbehalten, da NVIDIA ihre eingekaufte Technologie nicht teilen wollte. Dank DXR als Teil von DirectX 12 ist es hingegen auch möglich, dass allen voran AMD ein RTX-Pendant samt GPU bringen könnte. Dies würde natürlich helfen, dass Raytracing in dieser Form nicht zum Nischenprodukt wie PhysX verkommt.


    3. CUDA vs Tensor + RT

    Ein klarer Unterschied beider Technologien besteht darin, dass für RTX spezialisierte Recheneinheiten verbaut seien sollten, während wie oben erwähnt PhysX direkt auf die CUDA Cores abgestimmt ist, welche bei gewöhnlichen Spielen ebenfalls für die Grafikberechnung zum Einsatz kommen. PhysX ist in dieser Hinsicht flexibler, da bei Spielen ohne PhysX kein verschwendetes Silicon übrig bleibt. Die RT Cores entlasten hingegen die restlichen Einheiten, der Leistungsverlust bezüglich der Bildwiederholrate ist dennoch immens.

    Gleichzeitig besteht die Möglichkeit, dass Raytracing wie schon PhysX vielleicht doch wieder auf die CUDA Cores wandert, beziehungsweise diesmal auch auf die Stream Processors, dem AMD-Äquivalent. Wir haben Crytek gesehen, wie sie Echtzeit-Raytracing auf einer Vega 56 präsentieren. Da keine ausführbare Anwendung der Demo angeboten wird, bleibe ich eher skeptisch, jedoch läuft auch die PTGI-Shader-Mod für Minecraft trotz Alphastatus erstaunlich gut ohne RT Cores, wenn man dies einmal mit der RTX-Version von Quake II vergleicht. Zudem ist seit etwa einem halben Jahr auch (noch schlechter laufendes) Raytracing auf ausgewählten GTX-Karten verfügbar. NVIDIA betont hier zwar immer sehr stark, dass gewöhnliche GPUs dafür überhaupt nicht gut geeignet sind, ähnliche und letztlich falsche Behauptungen hatten wir allerdings schon bei PhysX auf der CPU.

    valley.jpg
    Raytracing-Reflexion als Softwarelösung im Fotomodus von TrackMania².

    Über AMD wissen wir derweil, dass mit der nächsten RDNA-Architektur, welche für 2020 geplant ist, definitiv Raytracing per Hardware ansteht. Genaueres lässt sich nur spekulieren, jedoch machte eines ihrer Patente die Runde, welches eine Texture Processor Based Ray Tracing Acceleration Method vorstellt. Hier handelt es sich um einen hybriden Ansatz, welcher hardwarebasierte Fixed-Funktion-Beschleunigung in Form von Textur-Prozessoren für die anspruchsvollen Hüllkörper-Schnitttests und -Traversierungen des Raytracings verwendet. Jene bekommen entsprechende Instruktionen von den »gewöhnlichen« (sprich auch für in klassischen Spielen einsetzbaren) Shadereinheiten und das berechnete Ergebnis wird an diese zurückgeben. Gegenüber komplett hardwareseitigen Lösungen wie bei RT Cores hat dies den Vorteil, Cache und Puffer effizienter einzusetzen, Scheduling einfach softwareseitig abzuarbeiten, es nimmt weniger Ressourcen auf dem Chip ein und behält die Flexibilität die Berechnungen softwareseitig zu steuern, während der Performancevorteil bestehen bleibt.

    Was sich daraus in der Praxis ergibt und welcher Weg sich schlussendlich am meisten lohnt muss sich allerdings erst zeigen. Da selbst Intel im nächsten Jahr mit einer dedizierten GPU samt Raytracing-Accelerator am Rennen teilnimmt, dürften sich zukünftige RTX-Versionen im Vergleich zu PhysX drastischer und auch schneller entwickeln. Die Hardware von heute könnte somit schon in einem Jahr nutzlos werden.


    4. Leadplattform

    Den Knackpunkt und vielleicht auch einen Dämpfer werden – wie immer – die Konsolen bilden. Bei Konsolentiteln wird auf eine möglichst hohe Grafikqualität pro Performance (gpp – nicht GPP) abgezielt und aktiviertes RTX sorgt bisher leider auch für eine sehr schlechte gpp. Und selbst wenn es gewünscht wäre, die nächste PlayStation- und XBox-Generation werden auf AMD-Hardware setzten. Ebenso gab es auf den aktuellen Modellen keine aufwendigen PhysX-Effekte. Als prächtiger PC-Gamer mag man vielleicht stolz sagen wollen, dass es einen nicht interessiert, mit welchen Komponenten die »dreckigen« Konsolen ausgestattet sind, jedoch verkauft sich die Mehrheit der Blockbuster-Spiele nun einmal auf ihnen. Als Leadplattform bei der Entwicklung entscheiden sie damit auch maßgeblich über die Grafikpracht. Über Partnerschaften sind wie gesagt exklusive PC-Features möglich, die Anzahl jener Titel hält sich dennoch in Grenzen.

    dxmd.jpg
    Bei Deus Ex: Mankind Divided schaffte es Pure Hair auch in die Fassungen für Konsolen. Konkurrenzprodukt HairWorks gab es darauf hingegen nie.

    Über die genauen Next-Gen-Spezifikationen gibt es relativ wenige Informationen. Im April wurde mit Sony über Raytracing gesprochen, leider ohne ansatzweise ins Detail zu gehen. Stattdessen ging es sogar mehr über den potentiellen Einsatz der Technik für dreidimensionale Audiosimulation als für Grafik. Dies lies stark zweifeln, ob man wirklich halbwegs vernünftiges Raytracing auf der neuen PlayStation zu Gesicht bekommen wird, zumal die letzten Konsolen beim Erscheinen die Grafikleistung einer damals maximal 250€-teuren GPU entsprachen und davon bekommt man momentan kein RTX. Während dem Verfassen des Artikels den ihr gerade lest, gab es indessen neue Informationen. So wurde tatsächlich bestätigt, dass es »ray-tracing acceleration in the GPU hardware« gibt. Bedeutet dies vielleicht, dass Raytracing bald endlich ohne Artefakte und in einem anständigen Umfang zu vertretbaren Preisen erhältlich sein wird? Könnte AMD im Geheimen daran gearbeitet haben (ihr Patent wurde ja schon vor etwa zwei Jahren eingereicht) und wollte bloß nicht wie NVIDIA verfrüht eine halbgare Technologie auf den Markt werfen? (A)

    Dies wäre vermutlich das Wunschszenario jedes Konsolen-Bauern und PC-Heinis, der 2020 aufrüsten will. Ich halte dessen eintreten allerdings für eher unwahrscheinlich. In einem halben Jahr kann sich viel ändern und ich könnte mir gut vorstellen, dass man sich bei Sony im April einfach noch nicht sicher war, ob man wirklich in Raytracing-Hardware investieren möchte. Etwas moderater wäre daher anzunehmen, dass AMD im nächsten Jahr für die Konsolen vielleicht so weit ist, um Strahlen etwa so schnell wie eine RTX 2060 BENZIN berechnen zu können, dabei aber weniger Chipfläche benötigt und dies deutlich zurückhaltender und zum Beispiel ausschließlich für kameranahe Schattenwürfe oder ausgewählte Spiegel einsetzt. Im High-End-Bereich wäre man damit zumindest aktueller NVIDIA-Hardware ebenbürtig. (B)

    Andererseits scheint der Trubel um RTX deutlich größere Wellen zu schlagen, als es noch bei PhysX der Fall war. Bei jedem Spiel oder jeder Hardware wird gefragt, ob es Raytracing unterstützt. Engine-Demos, Spiele-Modifikationen oder Postprocessing-Injektionen kommen mit verschiedenen Arten der Strahlenverfolgung daher. Und selbst ein 2010 erschienenes Spiel erhält noch einen Patch für ein mickriges Stück Raytracing per Software. Bei letzterem meine ich natürlich den Kleinkram aus World of Tanks basierend auf Intels oneAPI. Was wäre also, wenn die Vorteile der hybriden Berechnung nur marginal ausfallen oder gar richtige Probleme bereiten und man die Beliebtheit dieses einen Zauberwortes dennoch ohne große Hardwarekosten ausnutzen will? Genau – beispielsweise in Third-Person-Spielen winzige Detailschatten für den Hauptcharakter oder das Gefährt einsetzten, wie es in WoT der Fall ist. Dank entsprechender Hardware spart man sich die sonst nötigen, paar Prozent Leistung (*hust* – jaja, ganz wenig Einbusen), viel wichtiger ist aber, dass man bei Next-Gen-Screenshots potentielle Käufer mit dem magischen Wort verzaubern kann. Die Grafik dürfte ja ohnehin besser werden und dem Durchschnitts-Noob wird egal sein, wie viele Strahlen wirklich dahinterstecken.

    pcars.jpg
    Ratet mal mit wem Entwickler Slightly Mad Studios zusammengearbeitet hat.

    Diese düstere Zukunft würde gleichzeitig für den PC bedeuten, dass NVIDIAs RT Cores einen (deutlichen) Vorsprung behalten. Es könnte damit ähnlich wie mit GameWorks, beziehungsweise Tesselation ausgehen. The Witcher 3 oder auch Project CARS performten sehr schlecht auf AMD-Karten. Beim Rennspiel vermuteten Reddit-User PhysX als Übeltäter, dies lief aber wieder für alle Karten einzig auf der CPU. Bei Geralt und seinem behaarten kleinen Freund (ich glaube er nannte ihn Plötze) fand man indes heraus, dass unnötig extreme Tesselierungslevel für Hair- und FurWorks eingesetzt wurden. Dies kostete auf NVIDIAs eigenen Modellen ordentlich an Leistung, die Grafikkarten der Konkurrenz litten nochmals deutlich stärker darunter. Zusätzlich liefen die Kepler-Chips in beiden Titeln gegenüber der damals aktuellen Generation relativ schlecht und so schlug anfangs beispielsweise eine GTX 960 das ansonsten eindeutig überlegenere GTX-780-Vorgänger-»Flaggschiff« (in Gänsefüßchen, da damals ja der Ti-Wahnsinn losging). Der Sinn dahinter ist in Benchmarks überlegen auszusehen, da viele Redaktionen die Grafikdetails auf das Maximum drehen. (C)

    Was hält sie in jener möglichen Zeitlinie davon ab, mit der anstehenden Ampere-Architektur nicht etwas ähnliches zu verfolgen? Einfach mehr RT Cores verbauen und Spieleentwickler »überzeugen« lediglich noch eine binäre Raytracing-Option anzubieten (komplett an oder gar nichts) – oh, und natürlich nicht vergessen den Preis wieder hochzusetzen. Die 2000-Reihe könnte man dann schön überfordern und die nächste Generation als lohnendes Upgrade loben.

    Puh, jetzt hab ich mich wohl etwas gehen lassen, Zukunft C halte ich trotzdem nicht für total unrealistisch. Es dürfte letztlich eine Mischung aus Optionen B und C ergeben, hoffentlich näher an ersterer. Das Patent hat mich doch etwas positiv überrascht und den Punkt mit der gpp halte ich für sehr stark. Darüber hinaus bleibt noch abzuwarten, wie neutral DXR in Spielen abgestimmt ist und ob jeder Hersteller hier einzeln die Raytracing-Parameter regulieren kann oder es nur gut bei dem läuft, der den Entwickler unter Vertrag hat.


    Den Kommentarbereich aufrufen: Reddit | GameStar-Blog | Twitter
    Abonnieren und nichts verpassen: Reddit | GameStar-Blog | Twitter
    Kurz-Link zum Auswendiglernen: misie.ga/physx

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. hallebadkappe
    Ist ja auch offensichtlich, aufgrund der recht kleinen Sprünge beim grafischen Fortschritt. So zaubert man dann eben andere Dinge aus dem Hut wie PhysX, 4k, HDR, RTX usw. und dazu kommen dann noch Dinge wie 144hz, die ja nun nichts mit NV zu tun haben. Könnt ihr euch vorstellen, wie lange ein Spieler noch warten müßte, bis er aktuelle Spiele spielen wird können in 4k + RTX + HDR? Und von mir aus in Kombi mit möglichst 144fps? Eeeeewig. Und das wissen wir und das wissen "die". Aber man muß alle drei Jahre was neues aus dem Hut zaubern, mit +15% reine Grafikleistung drückt keiner auf den Bestell-Button.

    Thema Plattform. Die Leute spielen vermehrt auch andere Dinge wie "echte" Spiele am PC. Zudem daddelt eine nicht kleine Gruppe diesen ganzen Ranz, der die ersten 10 Plätze auf Steam einnimmt. Dort ist TollHD™ die am weitesten verbreitete Auflösung, wofür ne 2070 schon dicker overkill ist. Das, liebe Freunde, sind keine potentiellen Käufer für eure RTX-Teile. Und dann gibt es nach einem Jahr ganze 3 Spiele, die überhaupt RTX-Unterstützung bieten (auf welchem Niveau kann sich jeder selbst ein Bild von machen, siehe TombRaider), sodaß es NV selbst schon ein bischen peinlich ist und dann kommen die mit Q2 RTX um die Ecke... lol. Ein zwanzig Jahre altes Spiel, was auch nach der Aufhübschung noch so scheiße aussieht, wie es eben vor zwanzig Jahren state-of-the-art war und die Karten quälen sich trotzdem einen ab.. ojejejejejeh. Ich behaupte, schon die Umsetzung eines NFS MW FullRTX aus 2005 hätte zu weltweitem Gelächter geführt. Naja.

    Ich will nicht meckern, jeder Einstieg ist erstmal schwer, aber ich bin mir ziemlich sicher, auch für NV war das bisher erstmal ein Nullsummenspiel, wenn man mal übliche Entwicklungskosten im Milliarden-Bereich annimmt. Kann mir jedenfalls nicht vorstellen, daß die neuen Dinger bei diesen wahnwitzigen Preisen millionenfach verkauft wurden (siehe Zielgruppe). Handy für 800€ scheint ok, Grafikkarte für den gleichen Preis mit Sicherheit nicht.
Top