Wird RTX das nächste PhysX?

Von Misie Gaming · 15. Oktober 2019 · ·
Kategorien:
  1. Lesedauer: 10 min       Alternativ: misie.ga/wird-rtx-das-nächste-physx
    physx.jpg

    Erinnert ihr euch noch an NVIDIAs PhysX-Software?

    Deren Entwicklung und momentaner Standpunkt könnten uns eine mögliche Zukunftsvision der aktuellen RTX-Technologie prophezeien, da sich beide in gewissen Punkten stark ähneln. Dies verleitet mich zur These: »PhysX ist tot, es lebe RTX – zumindest so lang bis es was Neues gibt.« Wie diese Aussage gemeint ist, genauere Hintergrundinformationen, Problemkind NVIDIA und was RTX diesmal retten könnte wollen wir in diesem Artikel betrachten. Abschließend werden verschiedene mögliche Szenarien für das Jahr 2020 evaluiert, welche von existentieller Bedeutung sein werden. Doch präzisieren wir zunächst dieses »PhysX«.


    Was hat PhysX damit zu tun?

    Falls ihr bisher bloß Bahnhof verstanden habt, hier eine kurze Zusammenfassung von PhysX und was genau es in unserer These bedeuten soll. PhysX nennt sich eine Physik-Engine, die 2008 von NVIDIA erworben und seither weiterentwickelt wurde. Ziel war es, den PhysX-Code auf der eigenen »Compute Unified Device Architecture« (CUDA) lauffähig zu machen. Das heißt konkret, dass die Physik-Engine auf allen damals aktuellen und zukünftigen Grafikkarten von NVIDIA lauffähig ist.

    In ersten Spielen wie Cryostasis und Mirror's Edge sorgte dies dann für physikalisch inspirierte Flüssigkeits- und Stoffsimulation, sowie interaktiven Rauch, zerbrechende Glasscheiben und Trümmer-Effekte. Man benötigte dafür nicht unbedingt GeForce-Hardware, da PhysX auch auf der CPU ausgeführt werden kann – allerdings wurden Spiele dadurch zur Diashow. Von der Konkurrenz gab es damals die Kritik, die Softwareimplementierung sei absichtlich ineffizient umgesetzt und so wurden später durch eine ausführliche Analyse von Real World Technologies mehrere Performance-Probleme aufgedeckt. Diese sind mittlerweile in neueren Versionen der Engine behoben.

    tw3.jpg
    Des HeXers flatternder Mantel läuft unter PhysX immer restlos auf der CPU.

    Es läuft sogar so gut auf der CPU, dass Spiele seit ein paar Jahren für die PhysX-Simulationen ausschließlich auf den Prozessor setzen und gar keine Hardwarebeschleunigung mehr erlauben. Dies dürfte zum Teil daran liegen, dass nur der Quellcode für CPU-basiertes PhysX freigegeben wurde und so findet man es in dieser Form auch in der Unity und Unreal Engine. Es mag die Technologie daher weiterhin geben, mit der »PhysX ist tot«-Aussage beziehe ich mich explizit auf das Aussterben der CUDA-Implementierung.


    RTX ≣ PhysX – Pro & Contra

    Mit dem Wissen können wir einen vergleichenden Blick auf RTX und PhysX werfen:

    1. Performance

    Nach Lesen des vorangegangenen Abschnittes könnte man sich wundern, warum so ein großes Drama um den vermeintlichen Tot von PhysX gemacht wird, wenn es doch lediglich von der GPU auf die CPU gewandert ist. Die Krux bei der Sache ist jedoch, dass beim Wechsel die verwendete Effektkomplexität drastisch verringert wurde. Borderlands 2 hatte die wohl beste Nutzung von PhysX. In früheren und späteren Titeln sahen viele der Spielereien oftmals zu aufgesetzt aus, in Borderlands passte es währenddessen perfekt zum Comic-Stil und der abgedrehten Waffen-Action.

    Schaut man sich hingegen den neusten Teil an, wird man das meiste vermissen. Da die Unreal Engine 4 genutzt wird, dürfte PhysX auf dem Prozessor weiterhin in Verwendung sein, zumal man im Grafikvideo von Candyland einige im Wind wehende Stoffe und interaktive Explosionspartikel erkennt – trotzdem ein Witz gegenüber vorher. Das Schicksal von Borderlands 3 ist wie schon erwähnt mittlerweile kein Resultat mangelnder CPU-Optimierung mehr, die Technologie wird nun lediglich vernünftiger – sprich für weniger aufwendige Effekte – eingesetzt.

    [​IMG]
    Nachwirkungen eintreffender Kugeln, hier ebenfalls aus dem Candyland-Video.

    Es ist ja nicht so, als wären damalige Titel trotz CUDA-Hardware flüssig gelaufen. Im schon erwähnten Cryostasis hatten sich die minimalen fps mit PhysX gedrittelt, in Batman: Arkham Asylum sank die durchschnittliche Bildrate schon bei PhysX auf Mittel um die Hälfte – das erinnert doch stark an RTX. Die jeweiligen Grafikeffekte sind einfach nicht den Leistungsaufwand wert, für das was sie optisch liefern. Man schaue sich das diesjährige Metro Exodus an; während im Vorgänger Last Light Partikel aus Einschusslöchern flogen, an Objekten abprallten und umher rollten, verschwinden sie sechs Jahre später einfach im Boden. Ein Gitter zur Kollisionserkennung ist schon vorhanden, »it just works« wäre also für PhysX drin gewesen. Doch man verzichtet ganz einfach zugunsten der Performance darauf – trotz hier sogar »echtem« CUDA-PhysX. Ähnliches gilt für Textilien (2013 vs 2019).

    Übrigens, wäre Exodus nicht erschienen, dann wären die »aktuellsten« Spiele welche PhysX per GPU unterstützten das Anfang 2016 erschienene, gefloppte Bombshell, sowie das über vier Jahre alte Batman: Arkham Knight – auch wenn die katastrophale Performance natürlich nicht nur an der Mitarbeit von NVIDIA lag.

    Ansonsten wurde PhysX in Spielen aber auch nie für einstürzende Häuser oder wirklich auffällige Zerstörungseffekte eingesetzt, wie man sie aus Battlefield 3 oder Red Faction: Guerrilla kennt, sondern sorgte stattdessen meist nur für kleinere Partikeleffekte. Sobald für NVIDIA kein Interesse mehr darin bestand PhysX als Werbeplattform einzusetzen, wurde die Technologie bloß noch in einem so eingeschränkten Rahmen eingesetzt, welcher bei Beachtung der Leistung Sinn macht. Da RTX gerne als großer Kaufgrund gesehen wird erscheint es logisch, dass dieses Schicksal ebenfalls RTX treffen könnte, zumal man wieder sieht, dass die Leistung nicht ansatzweise ausreicht, um in einem größeren Rahmen eingesetzt zu werden – zumindest nicht mit aktuellen Karten.

    [​IMG]
    Havok Physics im Einsatz bei Red Faction: Guerrilla von 2009.

    2. Einschränkendes Marketinginstrument

    Die Wichtigkeit der Vermarktung ist tatsächlich ein größerer Punkt als man denkt. Markenbindung ist sehr wichtig für ein Unternehmen und NVIDIA bemüht sich mit allen Mitteln darum. Das GeForce-Partner-Programm (GPP), G-Sync-Module oder »The Way It's Meant to be Played« und GameWorks hätten es ansonsten nicht gegeben. Außerdem merkt man schnell, dass es sich bei etwas um ein Werbe-Gimmick handelt, wenn bei der Demonstration mit unsauberen Vergleichen gearbeitet wird. In Arkham Asylum verschwinden so beispielsweise komplette Flaggen, wenn PhysX nicht auf Anschlag steht, anstatt diese einfach durch statische Modelle auszutauschen. Ähnliches gilt für RTX, welches in Battlefield V als »Heilmittel« gegen Screenspace-Reflections vorgestellt wurde, bloß wären Planar-Reflections oder dynamische Cube-Maps performanter und sähen dabei sogar alles in allem schicker aus als RTX.

    Im Nachhinein scheint es fast so, als wären die Grafikeffekte lediglich auffällig in Szene gesetzt worden, wenn sie groß beworben werden sollten. Zu Metro: Last Light gab es direkt von NVIDIA ein Vergleichsvideo über PhysX. Irgendwann scheint dies jedoch die Leute nicht mehr so begeistert zu haben oder sie benötigten einen Konter auf AMDs TressFX-Haarsimulation. Auf jeden Fall wurde in The Witcher 3 alleinig von GameWorks gesprochen und obwohl PhysX zumindest CPU-basiert in Verwendung blieb, wurde es im offiziellen Demonstrationsclip gar nicht mehr namentlich erwähnt. Zum Witz-PhysX, aber auch zu HairWorks in Metro Exodus gab es dann keinerlei Video mehr.

    Aber warum auch, nach Hardwareumfragen hat eh so ziemlich jeder eine GeForce im Einsatz, da bewirbt man lieber das neue RTX in Videos, dies sorgt wenigstens als Kaufanreiz. Einer gewinnorientierten Firma sei solch Vorgehen meinetwegen erlaubt, allerdings besitzen Battlefield 5 und Control neben RTX keine GameWorks-Effekte und Shadow of the Tomb Raider nutzt sogar Pure Hair, die Weiterentwicklung TressFXs durch Eidos Montreal, anstatt HairWorks. Von PhysX fangen wir hier gar nicht erst an, aber soll dies dann bedeuten, dass RTX ebenfalls verschwindet sobald es alle Karten unterstützten?

    rottr.jpg
    In der Reboot-Trilogie ist Lara mit moderner Haarpracht unterwegs.

    Die schlechte Performance mit dem augenscheinlichen Zwang die Technologien prominent und als fast reines Werbetool einzusetzen, sorgt selbstverständlich dafür, dass kein vernünftiger Entwickler so etwas freiwillig in sein Spiel, beziehungsweise seine Grafik-Engine einbauen würde. Stattdessen muss eigentlich immer zuerst NVIDIA als Sponsor auf einen potentiellen Partner zugehen. Da solch eine Partnerschaft Kosten verursacht, resultierte dies über die Jahre in vergleichsweise wenigen Titeln mit PhysX. RTX scheint nach aktueller Entwicklung keine Ausnahme zu werden, obwohl es über Microsofts »DirectX Raytracing« (DXR) läuft und für Entwickler damit im Gegensatz zu GPU-PhysX keine besonderen Lizenzabkommen benötigt.

    Hier sei noch die Hoffnung ausgesprochen, dass Raytracing vielleicht bald einen Schub bekommen könnte. Hardwarebeschleunigtes PhysX blieb GeForce-Karten exklusiv vorbehalten, da NVIDIA ihre eingekaufte Technologie nicht teilen wollte. Dank DXR als Teil von DirectX 12 ist es hingegen auch möglich, dass allen voran AMD ein RTX-Pendant samt GPU bringen könnte. Dies würde natürlich helfen, dass Raytracing in dieser Form nicht zum Nischenprodukt wie PhysX verkommt.


    3. CUDA vs Tensor + RT

    Ein klarer Unterschied beider Technologien besteht darin, dass für RTX spezialisierte Recheneinheiten verbaut seien sollten, während wie oben erwähnt PhysX direkt auf die CUDA Cores abgestimmt ist, welche bei gewöhnlichen Spielen ebenfalls für die Grafikberechnung zum Einsatz kommen. PhysX ist in dieser Hinsicht flexibler, da bei Spielen ohne PhysX kein verschwendetes Silicon übrig bleibt. Die RT Cores entlasten hingegen die restlichen Einheiten, der Leistungsverlust bezüglich der Bildwiederholrate ist dennoch immens.

    Gleichzeitig besteht die Möglichkeit, dass Raytracing wie schon PhysX vielleicht doch wieder auf die CUDA Cores wandert, beziehungsweise diesmal auch auf die Stream Processors, dem AMD-Äquivalent. Wir haben Crytek gesehen, wie sie Echtzeit-Raytracing auf einer Vega 56 präsentieren. Da keine ausführbare Anwendung der Demo angeboten wird, bleibe ich eher skeptisch, jedoch läuft auch die PTGI-Shader-Mod für Minecraft trotz Alphastatus erstaunlich gut ohne RT Cores, wenn man dies einmal mit der RTX-Version von Quake II vergleicht. Zudem ist seit etwa einem halben Jahr auch (noch schlechter laufendes) Raytracing auf ausgewählten GTX-Karten verfügbar. NVIDIA betont hier zwar immer sehr stark, dass gewöhnliche GPUs dafür überhaupt nicht gut geeignet sind, ähnliche und letztlich falsche Behauptungen hatten wir allerdings schon bei PhysX auf der CPU.

    valley.jpg
    Raytracing-Reflexion als Softwarelösung im Fotomodus von TrackMania².

    Über AMD wissen wir derweil, dass mit der nächsten RDNA-Architektur, welche für 2020 geplant ist, definitiv Raytracing per Hardware ansteht. Genaueres lässt sich nur spekulieren, jedoch machte eines ihrer Patente die Runde, welches eine Texture Processor Based Ray Tracing Acceleration Method vorstellt. Hier handelt es sich um einen hybriden Ansatz, welcher hardwarebasierte Fixed-Funktion-Beschleunigung in Form von Textur-Prozessoren für die anspruchsvollen Hüllkörper-Schnitttests und -Traversierungen des Raytracings verwendet. Jene bekommen entsprechende Instruktionen von den »gewöhnlichen« (sprich auch für in klassischen Spielen einsetzbaren) Shadereinheiten und das berechnete Ergebnis wird an diese zurückgeben. Gegenüber komplett hardwareseitigen Lösungen wie bei RT Cores hat dies den Vorteil, Cache und Puffer effizienter einzusetzen, Scheduling einfach softwareseitig abzuarbeiten, es nimmt weniger Ressourcen auf dem Chip ein und behält die Flexibilität die Berechnungen softwareseitig zu steuern, während der Performancevorteil bestehen bleibt.

    Was sich daraus in der Praxis ergibt und welcher Weg sich schlussendlich am meisten lohnt muss sich allerdings erst zeigen. Da selbst Intel im nächsten Jahr mit einer dedizierten GPU samt Raytracing-Accelerator am Rennen teilnimmt, dürften sich zukünftige RTX-Versionen im Vergleich zu PhysX drastischer und auch schneller entwickeln. Die Hardware von heute könnte somit schon in einem Jahr nutzlos werden.


    4. Leadplattform

    Den Knackpunkt und vielleicht auch einen Dämpfer werden – wie immer – die Konsolen bilden. Bei Konsolentiteln wird auf eine möglichst hohe Grafikqualität pro Performance (gpp – nicht GPP) abgezielt und aktiviertes RTX sorgt bisher leider auch für eine sehr schlechte gpp. Und selbst wenn es gewünscht wäre, die nächste PlayStation- und XBox-Generation werden auf AMD-Hardware setzten. Ebenso gab es auf den aktuellen Modellen keine aufwendigen PhysX-Effekte. Als prächtiger PC-Gamer mag man vielleicht stolz sagen wollen, dass es einen nicht interessiert, mit welchen Komponenten die »dreckigen« Konsolen ausgestattet sind, jedoch verkauft sich die Mehrheit der Blockbuster-Spiele nun einmal auf ihnen. Als Leadplattform bei der Entwicklung entscheiden sie damit auch maßgeblich über die Grafikpracht. Über Partnerschaften sind wie gesagt exklusive PC-Features möglich, die Anzahl jener Titel hält sich dennoch in Grenzen.

    dxmd.jpg
    Bei Deus Ex: Mankind Divided schaffte es Pure Hair auch in die Fassungen für Konsolen. Konkurrenzprodukt HairWorks gab es darauf hingegen nie.

    Über die genauen Next-Gen-Spezifikationen gibt es relativ wenige Informationen. Im April wurde mit Sony über Raytracing gesprochen, leider ohne ansatzweise ins Detail zu gehen. Stattdessen ging es sogar mehr über den potentiellen Einsatz der Technik für dreidimensionale Audiosimulation als für Grafik. Dies lies stark zweifeln, ob man wirklich halbwegs vernünftiges Raytracing auf der neuen PlayStation zu Gesicht bekommen wird, zumal die letzten Konsolen beim Erscheinen die Grafikleistung einer damals maximal 250€-teuren GPU entsprachen und davon bekommt man momentan kein RTX. Während dem Verfassen des Artikels den ihr gerade lest, gab es indessen neue Informationen. So wurde tatsächlich bestätigt, dass es »ray-tracing acceleration in the GPU hardware« gibt. Bedeutet dies vielleicht, dass Raytracing bald endlich ohne Artefakte und in einem anständigen Umfang zu vertretbaren Preisen erhältlich sein wird? Könnte AMD im Geheimen daran gearbeitet haben (ihr Patent wurde ja schon vor etwa zwei Jahren eingereicht) und wollte bloß nicht wie NVIDIA verfrüht eine halbgare Technologie auf den Markt werfen? (A)

    Dies wäre vermutlich das Wunschszenario jedes Konsolen-Bauern und PC-Heinis, der 2020 aufrüsten will. Ich halte dessen eintreten allerdings für eher unwahrscheinlich. In einem halben Jahr kann sich viel ändern und ich könnte mir gut vorstellen, dass man sich bei Sony im April einfach noch nicht sicher war, ob man wirklich in Raytracing-Hardware investieren möchte. Etwas moderater wäre daher anzunehmen, dass AMD im nächsten Jahr für die Konsolen vielleicht so weit ist, um Strahlen etwa so schnell wie eine RTX 2060 BENZIN berechnen zu können, dabei aber weniger Chipfläche benötigt und dies deutlich zurückhaltender und zum Beispiel ausschließlich für kameranahe Schattenwürfe oder ausgewählte Spiegel einsetzt. Im High-End-Bereich wäre man damit zumindest aktueller NVIDIA-Hardware ebenbürtig. (B)

    Andererseits scheint der Trubel um RTX deutlich größere Wellen zu schlagen, als es noch bei PhysX der Fall war. Bei jedem Spiel oder jeder Hardware wird gefragt, ob es Raytracing unterstützt. Engine-Demos, Spiele-Modifikationen oder Postprocessing-Injektionen kommen mit verschiedenen Arten der Strahlenverfolgung daher. Und selbst ein 2010 erschienenes Spiel erhält noch einen Patch für ein mickriges Stück Raytracing per Software. Bei letzterem meine ich natürlich den Kleinkram aus World of Tanks basierend auf Intels oneAPI. Was wäre also, wenn die Vorteile der hybriden Berechnung nur marginal ausfallen oder gar richtige Probleme bereiten und man die Beliebtheit dieses einen Zauberwortes dennoch ohne große Hardwarekosten ausnutzen will? Genau – beispielsweise in Third-Person-Spielen winzige Detailschatten für den Hauptcharakter oder das Gefährt einsetzten, wie es in WoT der Fall ist. Dank entsprechender Hardware spart man sich die sonst nötigen, paar Prozent Leistung (*hust* – jaja, ganz wenig Einbusen), viel wichtiger ist aber, dass man bei Next-Gen-Screenshots potentielle Käufer mit dem magischen Wort verzaubern kann. Die Grafik dürfte ja ohnehin besser werden und dem Durchschnitts-Noob wird egal sein, wie viele Strahlen wirklich dahinterstecken.

    pcars.jpg
    Ratet mal mit wem Entwickler Slightly Mad Studios zusammengearbeitet hat.

    Diese düstere Zukunft würde gleichzeitig für den PC bedeuten, dass NVIDIAs RT Cores einen (deutlichen) Vorsprung behalten. Es könnte damit ähnlich wie mit GameWorks, beziehungsweise Tesselation ausgehen. The Witcher 3 oder auch Project CARS performten sehr schlecht auf AMD-Karten. Beim Rennspiel vermuteten Reddit-User PhysX als Übeltäter, dies lief aber wieder für alle Karten einzig auf der CPU. Bei Geralt und seinem behaarten kleinen Freund (ich glaube er nannte ihn Plötze) fand man indes heraus, dass unnötig extreme Tesselierungslevel für Hair- und FurWorks eingesetzt wurden. Dies kostete auf NVIDIAs eigenen Modellen ordentlich an Leistung, die Grafikkarten der Konkurrenz litten nochmals deutlich stärker darunter. Zusätzlich liefen die Kepler-Chips in beiden Titeln gegenüber der damals aktuellen Generation relativ schlecht und so schlug anfangs beispielsweise eine GTX 960 das ansonsten eindeutig überlegenere GTX-780-Vorgänger-»Flaggschiff« (in Gänsefüßchen, da damals ja der Ti-Wahnsinn losging). Der Sinn dahinter ist in Benchmarks überlegen auszusehen, da viele Redaktionen die Grafikdetails auf das Maximum drehen. (C)

    Was hält sie in jener möglichen Zeitlinie davon ab, mit der anstehenden Ampere-Architektur nicht etwas ähnliches zu verfolgen? Einfach mehr RT Cores verbauen und Spieleentwickler »überzeugen« lediglich noch eine binäre Raytracing-Option anzubieten (komplett an oder gar nichts) – oh, und natürlich nicht vergessen den Preis wieder hochzusetzen. Die 2000-Reihe könnte man dann schön überfordern und die nächste Generation als lohnendes Upgrade loben.

    Puh, jetzt hab ich mich wohl etwas gehen lassen, Zukunft C halte ich trotzdem nicht für total unrealistisch. Es dürfte letztlich eine Mischung aus Optionen B und C ergeben, hoffentlich näher an ersterer. Das Patent hat mich doch etwas positiv überrascht und den Punkt mit der gpp halte ich für sehr stark. Darüber hinaus bleibt noch abzuwarten, wie neutral DXR in Spielen abgestimmt ist und ob jeder Hersteller hier einzeln die Raytracing-Parameter regulieren kann oder es nur gut bei dem läuft, der den Entwickler unter Vertrag hat.


    Den Kommentarbereich aufrufen: Reddit | GameStar-Blog | Twitter
    Abonnieren und nichts verpassen: Reddit | GameStar-Blog | Twitter
    Kurz-Link zum Auswendiglernen: misie.ga/physx

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. MannidonnaXT
    RTX wird keine Todgeburt, denn AMD wird auch dedizierte Raytracing Units verbauen, RTX ist nur sehr früh dran und die nächste Generation wird deutlich mehr Power und weniger FPS Verlust haben. AMD zieht mit. Nur die Frage bleibt, wird es DXR Titel geben die auf diese Hardware zurückgreifen können. Das wird beide, AMD und Nvidia, bzw. alle 3, Intel (Deren GPU´s werden auch Harwarebeschleunigung für Raytracing bieten) beschäftigen und zeigen...
    1. Misie Gaming
      Hast du eigentlich den Artikel gelesen? ^^
  2. Redgirlfan
    Der fall liegt hier Denke ich doch etwas anders

    Physix war von anfang eine Tod Geburt, bevor es auf Geforce Ging gab es dafür teure extra Steckkarten von einer Firma namens Ageia

    ich denke mal da konnten nicht soviele was mit anfangen zumal die Dinger damals nicht mal Vorteile brachten in gegenteil (es ist lediglich mehr durch die Luft geflogen wenn was geknallt hat)

    Und spiele wie Half Life 2 haben schon damals gezeigt man braucht keine Extra beschleunigung für Physik


    Raytracing mit seinen Tollen Licht Effekten dürfte durch aus zukunft haben, nur sollte Nvidia es lassen Karten rauszu geben wie 1600er Serie wo das Neue tolle Feature weg kastriert wurde
    1. Misie Gaming
      Ich glaub nVidia wird Ageia kaum aufgekauft haben, wenn sie deren Technik für eine "Todgeburt" gehalten hätten. :groundi:

      Aber klar, es kommt etwas komisch, wenn man sagt Leute wäre "crazy" Karten ohne Raytracing zu holen, wärend man selbst die 1600er-Reihe ohne RT Cores anbietet.
  3. jan_w
    @Anberlin Du musst einen anderen Artikel als ich gelesen haben. Ich frage mich, was Du genau "negativ" findest. Imho hat Misie Gaming ziemlich gut erklärt, woher die begründeten Zweifel an der Zukunftsfähigkeit von NVIDIAs derzeitigen Raytracing Implementation kommen.

    Die Vergangenheit hat gezeigt, dass sich eben nicht NVIDIAs zu Marketingzwecken gepushte "Insellösungen" durchgesetzt haben am Markt. Warum auch? Wenn Du Entwickler eines Spiels oder einer Engine bist, willst Du idR Lösungen, die sich einfach auf möglichst viele Systeme portieren lassen. Das ist doch nur natürlich und nicht an sich "gegen NVIDIA" oder irgendwie "negativ".

    Am Ende setzen sich offene Standards immer eher durch als geschlossene. Ich nutze auch seit Ewigkeiten NVIDIA Karten, aber deswegen werden doch HairWorks, PhysX und RTX nicht weniger Marketingbullshit. Und natürlich wird das mit der CPU erledigt sobald das irgendwie Effizient möglich ist. Wenn man die Möglichkeit hat "one-fits-all" Code zu schreiben, den man später nur noch auf die GraKa schmeißt, dann wird das schon aus Gründen der Wirtschaftlichkeit immer der bevorzugte Weg sein.

    Klar wird das jetzt nicht von heute auf morgen passieren und vermutlich wird jetzt erstmal AMD nachziehen und entweder (wie manchmal in der Vergangenheit) 'nen offenen Standard pushen oder auch ihr eigenes Ding machen. Falls NVIDIA und AMD beide ihr eigenes Ding machen, wird imho das ganze Raytracing Thema rumdümpeln bis es per CPU erledigt werden kann, wenn AMD mit was offenem um die Ecke kommen, werden NVIDIA nachziehen wie auch schon bei FreeSync.

    Wie gesagt: sehe da nix "negativ" dran. Ich würde das "realistisch" nennen :-)
      Wisdoom und Misie Gaming gefällt das.
  4. Misie Gaming
    @Anberlin [Teil 1]

    Ich hatte einfach angenommen, dass man es aus dem Zusammenhang versteht und das nicht immer explizit erwähnen muss, aber so sag ich es hier: <b>Wenn ich von RTX rede, dann spreche ich von der Raytracing-Technologie und deren momentaner Leistung auf RT Cores, nicht aber von den gleichnamigen Karten.</b> Für den Vergleich mit PhysX ist es daher uninteressant, wie viel Marketshare nVidia hat, oder dass die Karten der Konkurrenz langsamer sind.

    Ich hab auch nirgends erwähnt, dass es "Raytracing als Verkaufsargument gebraucht" hätte, nur angemerkt, dass es groß beworben wurde und als Kaufanreiz dient. Und natürlich dient Werbung einem erhöhten Absatz und so wird es auch noch immer getan, ich sag nur: "to buy a new graphics card [...] and to not have ray tracing is just crazy." – Jensen Huang

    Ich hab außerdem nicht behauptet, "dass sich Nutzer von der Raytracing-Technologie hätten blenden lassen", deine Unterstellungen basieren auf Aussagen die ich nirgends im Artikel getätigt habe.

    Ich weiß, dass ich gegen Ende etwas faul mit den Quellenangaben wurde, also hier für dich: https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-nvidia-partnership-ray-tracing/
    Es dürfte aber klar sein, dass genauere Details solcher Partnerschaft nicht herausgegeben werden, erstens werden bestimmt nicht einfach so die Werbeplakate von nVidia in Project CARS gewandert sein, zweitens findet man oft auch bei Präsentationen entsprechender Spiele Mitarbeiter von nVidia und dies sind auch "Kosten".
  5. Misie Gaming
    @Anberlin [Teil 2]

    "Über Raytracing in der aktuellen Generation kann man streiten." Aber genau darüber rede ich ja auch. Über die Zukunft kann man nur spekulieren und entsprechend hab ich 3 Varianten vorgestellt.
    "Selbst wenn man irgendwann auf ein standardisiertes Raytracing mit HW-Beschleunigung setzt, bedeutet das ja nicht, dass Nvidia nicht trotzdem auch weiter auf spezielle Technologien oder Kerne setzen kann, um dieses zu beschleunigen." Wenn man (nur theoretisch) sehen würde, dass AMDs hybrider Ansatz besser funktioniert, kann nVidia ruhig stur ihr eigenes Ding weiterhin machen, es wäre aber unsinnig das so zu tun, wenn es anders besser und mit weniger Kosten geht. Bezüglich Adaptive Sync ist nVidia ja mittlerweile auch einsichtig geworden.

    "Nvidia betreibt aktuell Grundlagenarbeit und sammelt Informationen." Das kann man aber auch tun, ohne den Kunden als Versuchskaninchen zu verwenden.

    Sorry, wenn dir der Artikel zu negativ ist, aber wenn du positive Aspekte zum Einsatz der <b>Technologie</b> hast, hättest du die gerne anbringen können.
  6. Malte
    Achja, Red Faction: Guerilla, das war absolut genial, was die Physik anbelangt. Aber sicher, dass es sich um die Havok-Engine handelt?
      Misie Gaming gefällt das.
    1. Misie Gaming
      Ich glaube wenn das Logo beim Start immer auftaucht, wird es wohl auch drin sein. :D
      Wisdoom gefällt das.
  7. jan_w
    Schöner ausführlicher Artikel, der angenehm in die Tiefe und Analyse geht. Mehr als verdient auf der Hauptseite gefeatured zu werden.
      Wisdoom und Misie Gaming gefällt das.
  8. Anberlin
    [Teil 2]
    Hier wird geradezu so getan, als hätten sich die Nvidia-Karten nur deswegen verkauft, weil sie Raytracing als Argument ins Feld geführt hätten. Das halte ich für ausgemachten Unsinn. Die Karten haben auch darüber hinaus gut performt und sind in den jeweiligen Super-Varianten auch jetzt noch vor den neuen AMD-Karten, mindestens aber gleich auf. Dafür waren sie aber auch um einiges eher am Markt. Die 2080TI ist bisweilen unerreicht und man darf abwarten, ob AMD diese mit der nächsten Generation wird stellen können.

    Ich will hier gar nicht Werbung für Nvidia machen. Die 5700(xt) sind tolle Karten. Aber zu behaupten, Nvidia hätte Raytracing als Verkaufsargument gebraucht, und nur so Absatz generieren können, halte ich doch für sehr gewagt. Nvidias Marktanteil bewegt sich seit über 10 Jahren bei um die 80% gegenüber AMD. Die Leute scheinen die Karten also auch so zu kaufen. Mal davon ab, dass die Unterstellung, dass sich Nutzer von der Raytracing-Technologie hätten blenden lassen, und dass sie in Teilen auch deswegen zu den Nvidia-Karten gegriffen hätten, schon sehr konstruiert ist. Das spricht dem Gros der Käufer einfach mal pauschal die eigene Mündigkeit ab.

    Dabei dürfte sich das Gros der Käufer, vor allem aber Gamer, die wohl auch als einzige wirklich etwas mit Raytracing anfangen können, sich im Vorfeld ausreichend informiert haben. Viel mehr hat wohl auch der Mangel an konkurrenzfähigen Produkten zum vermehrten Kauf geführt. Bis die 5700er von AMD kamen, gab es eben nur die Nvidia-Generation mit der Performance.

    Der Artikel an sich ist durchaus informativ, aber die teils bewusst einseitige Betrachtung macht dann Vieles zunichte. Nicht falsch verstehen - Es darf freilich jeder schreiben wie er oder sie will. Wir sind ein freies Land. Aber dann muss man eben auch damit leben, dass da nicht jeder mit einher geht.
  9. Anberlin
    [Teil 1]
    Der Artikel kommt mir insgesamt sehr negativ daher. Ohne dem Autor etwas unterstellen zu wollen, aber mit Blick auf die übrigen Beiträge, scheint es hier eher weniger auf eine faire und sachliche Betrachtung anzukommen. Mir fehlen vor allem zu diversen Behauptungen belastbare Zahlen oder auch Quellen. Beispiel?

    "Stattdessen muss eigentlich immer zuerst NVIDIA als Sponsor auf einen potentiellen Partner zugehen." Worauf basiert diese Behauptung? Lässt sich das auch belegen oder ist es dann doch eher eine Mutmaßung? Wenn man in solchen Artikeln zum großen einseitigen Rundumschlag ausholt, dann sollte man das zumindest durch Quellenverweise belegen. Ansonsten hat das alles maximal ein ordentliches Geschmäckle.

    Über Raytracing in der aktuellen Generation kann man streiten. Einfach zu behaupten, dass es sich um ein reines Marketing-Instrument handelt, halte ich dennoch für falsch und zu kurz gedacht. Selbst wenn man irgendwann auf ein standardisiertes Raytracing mit HW-Beschleunigung setzt, bedeutet das ja nicht, dass Nvidia nicht trotzdem auch weiter auf spezielle Technologien oder Kerne setzen kann, um dieses zu beschleunigen.

    Daher kommt mir hier vor allem der Gewinn von Erfahrung und Wissen viel zu kurz. Nvidia betreibt aktuell Grundlagenarbeit und sammelt Informationen. Wissen ist in so einer Branche meist deutlich mehr wert als Geld. Irgendwo muss man ansetzen und während AMD abwartet, hat man sich bei Nvidia dazu entschlossen proaktiv zu agieren und sich für den breiteren Einsatz von Raytracing vorzubereiten. Denn anders als der Autor halte ich "Raytracing nicht für bescheuert" und sehe auch nicht, wie man es mit PhysX vergleichen könnte. Raytracing ist, anders als PhysX, der nächste große Schritt und wird seit vielen, vielen Jahren angestrebt.
      quecksilber457 und i.z. gefällt das.
    1. i.z.
      Mir kommt vor allem der Vergleich auf technischer Ebene zu kurz. Es scheint fast so, als würde aus der Tatsache, dass PhysX auch auf CPU läuft, geschlussfolgert, dass das auch für Raytracing gelten müsste.
    2. Misie Gaming
      @i.z.
      Groß Informationen über genaue technische Details gibt es nicht, aber für den Vergleich war ohnehin wichtiger, wie es letztlich performt (und die anderen Aspekte). Außerdem, Raytracing existiert auf CPUs und das sogar schon länger, als es nVidia-GPUs gibt ;)
      ninja85 und Wisdoom gefällt das.
  10. Blumenkohl
    Naja, das Problem ist ja nicht die neue Technik, bzw. die Implementierung derer, hier eben ein anderer Ansatz bei der Beleuchtung, Schatten, Spiegelung usw., sondern wie das von Nvidia aufgezogen wurde.

    Als das neue Ding, ohne das geht es nicht mehr! Jetzt haben wir auch ganz tolle magische RT Kerne, und das ist die Zukunft, ach ja, wie treiben leider dazu die Grakapreise immer weiter hoch, obwohl das in keiner Relation zu Produktions.- und Entwicklungskosten steht, aber mit euch Deppen kann man es halt machen. :D So geht Parasit!

    Vor allem weil man den Unterschied oft gar nicht sieht, zwischen RT und nicht RT. Man muß gerade das "RT on" ordentlich hinbiegen und im Gegenzug das "RT off" noch ein bißerl schlecht machen, daß man dann was vorzuweisen hat. Das ist schwach! Und das Frechste? RT geht auch ohne magische RT Kerne, in denen kleine Feen aus dem Auenland ihr Wunder tun! Es ist sage und schreibe nur eine "Softwaresache", die eben Hardwareleistung braucht um umgesetz zu werden. Das geht auch ohne RT Kerne, wie schon öfters zu Gesicht bekommen.
Top