Let's play NICHT mit RTX: Warum Raytracing bescheuert ist!

Von Misie Gaming · 6. Oktober 2018 · ·
Kategorien:
  1. rtx.jpg

    Die neuen GeForce-RTX-Karten sind da. Jippie, spielen wir doch gleich einmal die ganzen Titel mit Raytracing-Support... ähm, wie bitte!? Es gibt noch keine Games mit RTX? Egal, dann muss man sich halt noch kurz gedulden, dafür hat man dann später eine unvorstellbar schickere Grafik als man sie sich momentan je erträumen könnte! – Oder eben nicht...
    Stopp, nicht wegrennen. Lasst mich dies genauer erklären und euch verraten, welche und wie bisher schicke Grafik ohne neue Spezialhardware möglich ist, denn nVidia hat einen etwas unfairen Vergleich betrieben. Die bisherige Tricks der Rasterisation sind nämlich noch gut!

    Warnung: Der nun folgende Beitrag könnte zu einem schweren Trauma führen, falls Sie der Gattung der nVidia-Fanboys angehören. Scrollen Sie in diesem Fall bitte direkt zu den Kommentaren und posten Sie eine Beleidigung an den Autor.

    Da sich vielleicht ein paar von euch noch nie wirklich mit dem Unterschied der beiden auseinandergesetzt haben – die neuen RTX-Karten habt ihr euch nur zum Spaß gekauft – gehe ich ganz kurz darauf ein. Raytracing ist ein schon sehr altes und simples Verfahren, es wurde aber über die Jahrzehnte stark erweitert. Wenn man heutzutage darüber spricht, meint man eigentlich »Path-Tracing« oder nachfolgende Verfahren und so werden wir einfachheitshalber auch mit dem Begriff umgehen. Im Prinzip ist Path-Tracing die Herangehensweise, die mehr der Realität nachempfunden ist und simulieren möchte, wie Licht auf unser Auge trifft. Aus Performance-Gründen beginnt man jedoch nicht bei den Lichtquellen, sondern am virtuellen Auge. Im ersten Schritt werden Strahlen (»Rays«) jeweils vom Auge durch die Pixel der ebenfalls virtuellen Bildschirmleinwand erzeugt, um die Suche für eben jene Pixelfarbe zu finden. Als nächstes ist man am Schnitt des Strahls mit dem ersten Objekt der Szene interessiert. Das hört sich jetzt trivial an, jedoch müsste man für jedes einzelne Objekt prüfen, ob ein Schnitt möglich wäre. In der Praxis wird für eine deutlich bessere Performance stattdessen der Raum unterteilt und mehrere Objekte stufenweise zusammengefasst. Hat man dann den Schnittpunkt gefunden, interessiert man sich nun für den Farbeindruck an dieser Stelle. Zum einen hat man hier die Eigenfarbe durch die Textur, allerdings hat in der echten Welt die Umgebung einen großen Einfluss auf das finale Ergebnis. Je nach Material könnte Licht aus verschiedenen Richtungen eintreffen und gespiegelt oder abgelenkt werden, die Farbe ändern, in den Körper eindringen oder sich absorbieren lassen. Es benötigt also eine mathematische Gleichung, die diese Effekte für die Umwelt berücksichtigt, idealerweise mit einem realistischen Maß jeder Werte. Für das Lösen der Gleichung wird dann ein erneuter Strahl in eine zufällige, mit der Formel gewichtete Richtung ausgesendet und für ihn beginnt diese Prozedur erneut bis man eine Lichtquelle gefunden hat oder man bricht nach einer gewissen Tiefe einfach ab. Für ein möglichst akkurates Ergebnis sollten und müssen viele Samples pro Pixel verwendet werden.

    Rasterisierung beginnt hingegen bei den Objekten, ohne überhaupt erst die Beleuchtung oder ähnliches zu beachten. Objekte selbst bestehen aus »Polygonen« (Vielecke), an der GPU kommen diese letztlich immer als Dreiecke an. Zuallererst wird jeder ihrer Eckpunkte in das gewünschte Koordinatensystem gebracht, zu entsprechenden, neuen Dreiecken zusammengesetzt, danach jeweils auf ihre entsprechenden Pixel der zweidimensionalen Leinwand abgebildet und die dazwischenliegenden Pixel eingefärbt. Für die Farbe sind ebenfalls Beleuchtungsberechnungen möglich, diesmal allerdings deutlich simpler als bei Raytracing. So gibt es zusätzliche Techniken für globale Effekte wie Schatten, Spiegelungen und Umgebungsverdeckung, und weitere (hässliche) Postprocessing-Effekte wie Bloom oder Blur. Durch den Fokus auf den Echtzeitbetrieb jedoch meist bloß mit den Objekten die sich aktuell im Bild befinden und oft nur mit deutlich vereinfachten und daher ungenaueren Techniken. Grafikkarten sind für diese Schritte ausgelegt und besitzen hierzu Streamprozessoren im Tausenderbereich, die die jeweilige, gleiche Instruktion auf alle Pixel anwenden. Eine CPU ist dagegen mit ihren Kernen besser für Raytracing geeignet, da die Strahlen zweier Pixel sehr verschieden ablaufen könnten und somit unterschiedliche Verarbeitungen angewandt werden müssen. Allerdings ist letzteres auch nicht mehr ganz aktuell, schon seit den Fermi-Karten (GTX 400/500) ist Realtime-Raytracing dank nVidias OptiX auf GPUs performant möglich.

    RTX (ich werde das ab jetzt einfach synonym als »nVidia-Raytracing« verwenden, auch wenn ich weiß, dass es nicht nur dafür steht – *würg* DLSS *würg*) wird nun zusätzlich bei der Rasterization verwendet, indem die bisher verwendeten Tricks für Beleuchtung oder Spiegelung durch Raytracing ersetzt werden. Zum neuen Metro mit RTX für Globale Beleuchtung wurde verraten, dass die Karten wohl für drei Rays je Pixel reichen, das Spiel allerdings zusätzlich über drei Frames akkumuliert. Das ergibt somit noch nicht das akkurateste Bild, selbst mit Entfernen des Rauschens, deshalb wird es auch nur für diesen speziellen Effekt verwendet. Ähnlich ist es mit dem neuen Battlefield, welches wohl lediglich perfekte Spiegelungen per Raytracing bieten wird und bei rauen Oberflächen Unschärfe anwendet, anstatt extra Strahlen zu verschießen – eben weil es ansonsten zu aufwendig wäre. AMD bietet übrigens mit Radeon Rays im ProRenderer eine ähnliche Technologie, welche momentan hingegen mehr für Anwendungen wie Blender oder Cinema 4D geeignet ist und ohne extra Hardwarekomponenten läuft.

    Ein Vergleichsbild von nVidia zu Battlefield V zeigt unter anderem die tollen neuen Reflexionen an einem Auto, jedoch verwendet es bei reiner Rasterisation nicht die dort schickste verfügbare Methode. Was ich damit meine wird klarer, wenn man sich für einen besseren Vergleich im Replay-Editor des schon 2011 erschienen TrackMania² umschaut. Dort lassen sich die Wagenspiegelungen mit einer Stufe des Raytracings berechnen, etwas ähnlich (Strahlen werden hier vom Wagen aus erzeugt) wie es beim neuen Battlefield der Fall sein könnte. Schauen wir uns daraus also einmal einen gerenderten Screenshot eines selbstverständlich geplanten (!) Abflugs mit jenen Reflexionen an:

    [​IMG]

    Ohhh, na also das sieht doch ordentlich aus. Wir erkennen Gras, Felsen, Bäume und Wolken in den Reflexionen, und dies sind alles Gegenstände die dem Kameraauge abgewandt sind und man ansonsten nicht sehen würde. Es gibt nur ein Problem, ich hab euch angelogen! Das Bild oben setzt bloß auf gewönliche Rasterisierungs-Tricks, Raytracing findet ihr stattdessen hier:

    [​IMG]

    Auf den ersten Blick sieht es nach einem Finde-X-Fehler-Suchbild für Fortgeschrittene aus, da man keinen großen Unterschied erkennt (das hab ich ja schon angedeutet). Zieht daher am besten die beiden Bilder in je einen neuen Tab für größere Versionen und wechselt hin und her – so behumpse ich auch immer mit der digitalen Heftversion bei Schwerdtels Vorletzer (hab bisher auch immer gewonnen). Einzige im direkten Vergleich wirklich augenscheinliche Differenz wäre eine etwas andere Positionierung am Heck, es sieht jedoch nicht unbedingt besser aus als beim anderen. Aber wie ist so etwas denn auch ohne RTX möglich!? Gut, ganz sicher weiß ich es nicht, aber es wird höchstwahrscheinlich ein kugelförmiger Rundumblick aus Sicht der Fahrzeugmitte erzeugt und dieser dann als »Reflection/Environment Map« mit entsprechender Transparenz an die »passenden« Stellen über das Fahrzeug geleget. Das ist dann fast so gut wie die Strahlenverfolgung, aber eben nicht ganz so exakt. Hier nochmal eine andere Szene: (Depth of Field, Motion Blur und Kantenglättung verwenden übrigens Verfahren, die sonst auch nur für solches Pre-Rendering reserviert sind)

    [​IMG]
    normale Wagenspiegelung |  Raytracing-Reflexion ⮟ 
    [​IMG]

    Man erkennt nun ein wenig deutlicher, dass die Spiegelung bei der Standard-Methode nicht ganz stimmt. Einerseits ist die Frontschürze zu hell beleuchtet, da die Nase in den dunklen Schatten des düsteren Waldabschnitts ragt (*gruselig*), die Fahrzeugmitte jedoch nicht. Andereseits erkennt man am linken Seitenschweller (an alle Frühbremser: das ist das Teil unter der Tür;) recht verwaschene und verzerrte Reflexionen, beim Raytracing-Ergebnis ist die Bodentextur stattdessen scharf abgebildet und es lassen sich sogar die einzelnen, herabgefallenen Blätter erkennen. Jedoch ist selbst dieses Ergebnis nicht perfekt. Schaut man sich die Felgen an, erkennt man dort die Umgebung hinter dem GT-R, anstatt der Reflexion des Radkastens. Das wäre eigentlich möglich, jedoch muss man beachten, dass das erneute Schneiden einer spiegelnden Fläche einen weiteren kostbaren Strahlen benötigen würde. Die Rasterisierungs-Methode erlaubt dies generell nicht, da die Karosserie selbstverständlich von der Kamera im Inneren ignorierten werden muss.

    Die Boliden der Gegner sind übrigens bei beiden sichtbar (Beweisfoto). Jedoch bekommen Ghosts und andere Spielerautos – oder Gurken-PCs (meiner eingeschlossen) die nur die niedrigen Settings packen – keine so aufwendigen Techniken spendiert und sehen deutlich erkennbar schlechter aus:

    TM²_0_small_no.jpg

    Hier wird die Environment Map nicht dynamisch für jeden Frame erzeugt, sondern wurde schon im Voraus berechnet, was um Welten performanter ist. So gibt es sie auch beim Raytracing als Hilfsmittel, allerdings sollten diese nur für weit entfernte Umgebungseindrücke verwendet werden, da sie unabhängig von der Position des Objekts (also unserem Nissan) aufgetragen werden. Da sich der Sportwagen nun aber bewegt und theoretisch alles mögliche spiegeln kann, gibt es hier nur solch eine generische und damit ungenaue Map mit leerer Wiese und statischem Himmel. Die nVidia Demo verwendete ebenfalls nur eine vorgefertigte Map für die schwarz Limousine, wenn RTX deaktiviert wurde. Kein Wunder also, dass der Unterschied so groß ausfällt.

    »Aber Moment!«, werden jetzt einige sagen. »Bei den Vorgängern und auch in der Beta wurden trotz höchsten Settings nie die aufwendigen Wagenspiegelungen aus TrackMania verwendet.« (Die Behauptung ist ausgedacht, dürfte aber hundertprozentig stimmen.) Und warum ist das so? Zwei Worte: Performance und unnötig. Es hat schon seinen Grund, dass dies in TM² nur auf ein Fahrzeug limitiert ist, denn es ist einfach eine teure Rasterisierungs-Operation, für jedes Bild die Reflection Map zu erneuern. In der ersten Bildszene mit Abflug habe ich die Renderzeit mit je 400-fachem Supersampling gemessen. Mit billiger Reflexion dauerte es rund vier Sekunden (also wären vielleicht 100 fps ohne Antialiasing möglich), bei normaler Qualität hingegen ganze 12 Sekunden (circa 33 fps). Gut, hier handelt es sich auch um einen Extremfall, trotzdem ist es nichts außergewöhnliches und im Testvideo zum neuen Forza erkennt man die schicken Spiegelungen ebenfalls. Demungeachtet würde man es so eben nicht für ein unbewegliches Dekoobjekt wie in Battlefield verwenden wollen, zumal man bei statischen Objekten schon vorher eine gut passende Umgebungs-Map erstellen kann. Meist wird jedoch auch nur eine einzige für beispielsweise die komplette Straße verwendet, da sich die Häuserwände ohnehin nicht stark unterscheiden.

    Battlefield verwendet sogar zusätzlich noch »Screen Space Reflections«. Wenn auch noch immer etwas aufwendig, ist dies eine billigere Alternative zu den anderen Optionen. Wie der Name hingegen schon verrät, arbeitet der Post-Processing-Effekt nur mit den Pixeln der schon berechneten Frames. Dank dem Tiefenpuffer behält das Bild eine Dreidimensionalität und mit den Oberflächennormalen (der Orientierung aller Pixel) kann die Position der sich im Lack spiegelnden Pixel gefunden werden. Aber Achtung, um dies durchführen zu können, werden Rays verschossen.

    Hellblade147.jpg
    Screen-Space-Spiegelungen im Wasser von ihrer besten Seite.

    Beim Spielen von Hellblade habe ich (leider) darauf geachtet, dass die Artefakte nicht auffallen, würde man in obiger Szene jedoch die Kamera weiter nach unten bewegen, so würden die Reflexionen stückweise verschwinden, weil die zu spiegelden Objekte außerhalb der Bildfläche liegen. Darüber hinaus kann man hiermit nie die Rückseite von Objekten die vor einem Spiegel stehen betrachen, stattdessen müssten einfach die verfügbaren, frontal aufgenommenen Pixel verwendet werden. Solche Kleinigkeiten fallen jedoch im normalen Spieltempo überhaupt niemandem wirklich auf und man sollte die gesparte Leistung lieber in andere Dinge investieren. Aber nVidia will selbst RTX-Spiegelungen für die Augäpfel verwenden, warum?! Wie oft habt ihr in einem Multiplayershooter schon Leuten ins Sehorgan geschaut und kommentiert: »Oh, sehr schade, dass hier kein Raytracing angewandt wird, so ein Fauxpas springt mir sofort ins Auge.« Genau, das werdet ihr vermutlich nie gesagt haben, welcher normale Mensch verwendet denn schon ein Wort wie »Fauxpas«.

    Übrigens dauerte das Rendern des Bildes mit TrackMania-Raytracing ganze 24 Sekunden, also sechs, beziehungsweise zwei Mal so lang wie bei den anderen beiden. Und trotz speziellen RT- und Tensor-Kernen dürfte man angesichts der aktuellen Informationen auch bei RTX keine berauschende Performance erreichen. Die Star-Wars-Demo mit RTX erreicht im GameStar-Test der 2080 Ti lausige 57 fps in WQHD, während die Karte auf ComputerBase bei gleicher Auflösung in Battlefront II mehr als 160 fps packt! Es erscheint mir also total unsinnig, hier direkt so stark auf Raytracing zu setzten, wenn einem doch die fast gleichwertig schicken Rasterisierungstricks vorher schon zu teuer waren!

    Phew, den Puls sich wieder kurz beruhigen lassen. Vielleicht entspannt uns ein Blick aufs Meer. Im RTX-Battlefield-Trailer sieht man nämlich niedrig fliegende Flugzeuge im Wasser spiegeln. Wenn man nun nicht alle paar Meter eine eigene Reflection Map verwenden möchte, ist die Methode hier unbrauchbar. »Also lohnt sich jetzt doch endlich Raytracing!?« – Nein, es gibt da ja noch »Planar Reflections«. Hierbei wird einfach die Umgebung noch einmal aus Sicht unseres bösen Doppelgängers aus der Spiegelwelt gerendert und dann spiegelverkehrt über den See oder eben einen Spiegel gelegt. Oder so ähnlich. Wie uns der Name erneut verrät, ist dies nur für flache oder relativ ebene Flächen gedacht. Hier wieder ein Beispiel aus TrackMania:

    TM²_2_small.jpg
    Das blaue ist das Wasser, und ja, wir fahren senkrecht an einer Wand herab. Ist nicht so leicht wie es aussieht.

    Wenn man ganz genau hinsieht, erkennt man auch den grünen Flitzer im Wasser glitzern. Im Spiel wurde jedoch so optimiert, dass nicht bei jedem neuen Frame auch nochmals die Reflexion neu berechnet wird, die dynamischen Gegenstände in der Spiegelwelt ruckeln also (fällt aber wieder einmal nicht auf). Bei den mittleren Settings finden sich hingegen so oder so nur statische Objekte.

    Bevor sich jetzt aber jemand erhofft, dass doch bei den anderen RTX-Anwendungsfällen noch eine große Revolution dabei gewesen sein muss, den werde ich enttäuschen müssen. Globale Beleuchtung mit indirekter Beleuchtung, Umgebungsverdeckung und weiche Schatten gibt es schon heute, sogar ebenfalls mit Varianten des Raytracings und auch von nVidia! Global Illumination basierend auf Voxeln (hierfür sieht die Umgebung aus wie in Minecraft-Grafik) gibt es unter anderem in der CryEngine (SVOGI) und Unreal Engine (VXGI), und nVidia hat hierüber sogar Vorträge 2012 und 2014 gehalten. In Rise of the Tomb Raider (das ist nicht das neuste) gab es von nVidia auch schon Voxel Ambient Occlusion (VXAO; irgendwie muss bei denen immer ein X rein, damit es krass klingt) als Nachfolger zu HBAO+ (beziehungsweise HDAO bei AMD), in The Division hatte man Hybrid Frustum Traced Shadows (HFTS) als Erweiterung zu Percentage Closer Soft Shadows (PCSS) [Contact Hardening Shadows bei AMD] und alles schon mit Hilfe von Operationen die durch Strahlenverfolgung getätigt wurden.

    sd.jpg
    Weicher werdende Schatten, je weiter sie sich von der schattenwerfenden Fahrzeugkante entfernen. Hier sogar noch unter DirectX 9.

    Aber Achtung, ich will jetzt nicht sagen, dass ich gegen Fortschritt bin (nur weil ich eine sechs Jahre alte, rote GPU verbaut habe), meine Kritik ist eher so laut, da ja RTX-Karten scheinbar überhaupt nicht stark genug für die beworbenen Raytracing-Effekte sind, trotzdem verlangt nVidia einen ordentlichen Preisaufschlag für die verbauten RT Cores. Nach aktuellen Informationen scheint es zum einen nämlich so, dass man durch eine einzige Option vielleicht gerade noch ein Viertel der vorherigen Performance erreicht, wärend ehemalige GameWorks-Effekte (zumindest auf der jeweils neusten GeForce-Generation) »nur« schätzungsweise 20 bis 30 Prozent Leistung ausgemacht hatten. Die bisher gezeigten Spiele laufen in FullHD auf einer 2080 Ti meist bloß mit rund 45 fps. Andererseits scheint der größere Fokus auf Raytracing – besonders da wohl nur ein Strahlensample pro Pixel (1 spp) genutzt wird – zu unschönem Rauschen zu führen, welches trotz Denoising auffällig bleibt. In Metro: Exodus oder gar eigenen Demo-Videos, besonders jedoch in Remedys Northlight-Engine, welche bei Control zum Einsatz kommt, sieht es unsauber aus. Außerdem, da Strahlen über mehrere Frames zusammengefasst werden, könnte ein schnellerer Kameraschwenk zum unschönen Aufploppen der RTX-Effekte führen.

    »Doch was ist mit DLSS? Das hört sich ja toll an, so wie es beworben wurde!« Nun, Deep Learning Super Sampling sollte eher in FUSS umbenannt werden, welches dann für Fancy Up-Sampling Scrap steht, denn es ist genau das. Bei der Vorstellung wurde so viel von maschinellem Lernen, neuronalen Netzen und anderen Trigger-Words gesprochen, dass man sich diese Technik schön träumt. In Wirklichkeit ist es aber lediglich ein Hochskalieren auf 4K, mit ein wenig, postprocessingartigem Antialiasing. Zuerst machen sich PC-Gamer über Konsolen-Wichte lustig: »Pfui, ist doch gar kein echtes 4K, nur hochgesampled mit Checkerboard.« Und jetzt wird das einfach (fälschlicherweise) mit Supersampling betitelt und alle brechen in Jubel aus. Das einzige was DLSS indessen allen zeigt, die es bisher nicht gemerkt hatten, ist, dass TAA das Bild total unscharf macht und man eigentlich nicht wirklich 4K braucht, denn um die 1600p bis 1800p plus SMAA dürften bei normalen Bildschirmgrößen schon reichen. So sieht dann eben auch DLSS aus, nur benötigt man dafür halt eine besondere GPU und extra Unterstützung vom Spiel – *slow clap*.

    Bevor ihr euch jetzt beschwert, dass ich hier zu kritisch bin und heulend zu Onkel Leatherjacket rennt, um ihm diesen gemeinen Text von einer künstlichen AI ins Englische übersetzten zu lassen, sei nur gesagt, dass ihr erst einmal nVidia nicht verteidigen müsst und zweitens, sie einfach mit RTX-Spielen gleich hätten launchen sollen, wenn sie nicht kritisiert hätten werden wollen. Zumindest Raytracing ist natürlich schon ein Schritt in die richtige Richtung für die Zukunft, besonders wegen den (aktuellen) Nachteilen ist es allerdings meines Erachtens nach noch ein gutes Stück zu früh hierfür und nicht wirklich lohnend. In ein paar Generationen kann und wird sich das jedoch hoffentlich in einer ausgereifteren Form ändern! Aktuell dürfte es sich so eher in einem Fotomodus gut machen... das wäre aber schon alles was mir dafür einfällt. Beim Spielen kann ich nämlich auf RTX getrost verzichten!
    OscarMayer2, Tomsn, Jasper und 20 anderen gefällt das.

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. Macro82
    Den einzigen grund den Nvidia derzeit hat das so PR technisch anzupreisen ist da sie sonst nicht die maßlos übertrieben überteuerten karten loswerden können.

    Die RTX Karten sind ATM die schechtesten Karten für die Leistung Pro €
    nebenbei das nvidia schon damit anfängt und hardware mäßig sperren gegen das übertakten einbaut.


    manche tun auch so als wäre Raytracing jetzt auch die erfindung Von Nvidia und des jahrunderts.
    das der schuh schon sehr alt ist wissen leider auch nicht viele.

    Ganz herrlich hier . den wievielen fällt den die spiegelung bei schnellen actionszenen den auf ? wenns irgendwo gerade mal im Prozent bereich liegt ist das schon gut.
    1. Misie Gaming
      Bei PR ist nVida immer gut dabei ^^

      Das mit dem Übertakten war glaub aber eher eine Einschränkung an die Custom-Modelle, wenn man einen billigeren/schlechteren Chip will. Das Binning und Übertakten der FE mit neuem Kühler machen sie wohl eher, damit sie wenigstens etwas mehr Leistung in nicht RTX-Titeln erreichen, als bei den Pascal-Karten. Sie mussten ja schon direkt die Ti-Variante zum Launch anbieten, weil die 2080 manche Custom 1080 Tis nicht schlagen kann.
    2. Dozer1
      "Ganz herrlich hier . den wievielen fällt den die spiegelung bei schnellen actionszenen den auf ? "

      Genau!

      Wem fällt die Spiegelung schon beim zocken auf? oder Kantenglättung? oder 4k? oder Bump Mapping? oder weicher Schatten? oder...

      Es sind die kleinen Verbesserungen die die Grafik von DOOM 1993 zu der von Battlefield 5 gemacht haben.
      cris10 gefällt das.
    3. Misie Gaming
      @Dozer1: Die Spiegelungen fallen ja nicht komplett weg, aber die neuen RTX-Reflexionen überzeugen eben nicht im Vergleich zu den im Artikel genannten Alternativen. Genauso wird man im normalen Spiel keinen Unterschied zwischen 4x und 8x MSAA sehen oder 2160p- und 1800p-Displays (sofern man in angenehmer Entfernung sitzt). Natürlich wurde beispielsweise Bump Mapping irgendwann Standard, RTX in der aktuellen Form ist aber noch nicht wirklich überzeugend und lohnend.
      MechUnit gefällt das.
  2. Voigt
    Hach ich weiß als ich und andere im Nvidia Releasestream zu RTX auf dem GameStar Kanal als Trolle und Schwarzseher betitel wurden, nur weil man gerade "die Revoultion in der Grafikdarstellgung" nicht wahrhaben wollte.
    Ja technisch ist es interessant, aber es gibt schon soviele gute Tricks dass es einfach optisch keinen großen Unterschied macht.

    Das einzig sinnvolle für RTX ist keine Grafikverbesserung durch RTX (das ist netter Nebeneffekt) sondern Vereinfachung in den Grafikerstellung. Einfach dass die ganzen Programmier nicht diese Tricks alle lernen müssen, Indieentwickler und Single A Programmier nicht ausgeschlossen sind. Dass stattdessen RTX das alles mit einem Schlag übernehmen würde.
    Wenn wirklich man nur mit dem Feature RTX gute Schatten und Lichteffekte hat, ohne großen extra Programmieraufwand.

    Das geht aber nur wenn RTX günstig (alle neuen Karten müssten es haben für Verbreitung), schnell (Performance Gewinn am besten, durch dedizierte Cores nur für Schatten und Licht, sodass Ressourcen frei werden) und keine schlechtere Qualität (kein verrauschen) als die normalen Tricks hat.
    Als 200€ Extra Feauture oben drauf, funktioniert es einfach nicht gut.
      gesuntight, kraenk, MechUnit und 2 anderen gefällt das.
    1. Misie Gaming
      Ja, so sind leider die Anhänger. :)

      Das mit dem Vorteil für Programmierer hab ich auch schon gehört, allerdings will man ja trotzdem auch Techniken für nicht RTX-Karten anbieten oder diese einfach für niedrigere Presets verwenden, also müsste man noch eine ganze Weile auf beides setzten.

      (Musste auf zwei Kommentare aufteilen, weil es sonst wohl zu lang war)
      Voigt gefällt das.
    2. Misie Gaming
      Ob es auch wirklich so einfach zu implementiere ist, wundere ich mich langsam. Im neuen TR gab es auf der Gamescom eine Demo, die aber bei Sandro abgestürzt ist und bis jetzt gab es noch keinen Patch, der RTX-Schatten aktiviert hat. Es wird vielleicht das Einfügen ins Spiel einfach sein, andere Punkte wie die Performance, Stabilität und das Rauschen dürften aber wohl Probleme bereiten. Ansonsten wüsste ich nicht, warum man "It just works" noch in keinem Spiel sieht.
      Voigt gefällt das.
  3. Plutonium Virus
    Misie Gaming, du bist echt voll daneben und dein Halbwissen einfach nur erbärmlich. Deine provokative Art ist nicht nur unnötig, sondern im Kontext des Inhalts deiner *Lesermeinung* auch noch auf Kindergartenvieau.

    @Gamestar: Eurer Ernst, dass sowas auf die Hauptseite und in die News kommt!?!?!?

    Zum Thema... wobei ich mir da grad nicht sicher bin, ob das Thema nun *Nvidia hate* oder tatsächlich *Raytracing* ist... ich bezieh mich mal auf das raytracing. Raytracing macht nicht einfach nur schönere/korrektere Reflexionen, sondern ermöglicht in erster Linie das korrekte Ausleuchten von Spielewelten in Echtzeit (inklusive den Reflexionen). Dass dabei die Framerate (ich möchte dazu nicht Leistung sagen, das wäre nicht ganz korrekt) ein gutes Stück im vergleich zu Rasterisierungen einbricht, ist durchaus zu verschmerzen, bzw. ein Tausch für eine andere Technik mit anderen Möglichkeiten. Realtime Global illumination hat z.B. massive Einschränkungen und mit Echtzeit nur bedingt etwas zu tun. Dafür sollte man wissen, dass eine zum großen Teil statische Spielwelt für Zeitaufwenige Vorberechungen beim Entwickler stattfinden, damit dann möglichst realistisch beleuchtete *Dynamische Objeke* sich im Kontext der statischen Spielwelt in Echtzeit begwen können. Bei Raytracing fällt diese unterscheidung zumindest im Rahmen der grafischen Darstellung und insbesondere der Beleuchtung weg. Dort können sich dann ganze Städte alá Inception verwinden und verbiegen, die Tageszeiten sich ändern und die beleuchtung trotzdem korrekt dargestellt werden... das ist mit Rasterisierung für die Spielentwickler nicht nur beträchtlich aufwendiger zu realisieren, sondern geht auch mit massiven Einschränkungen und beachtlichen Tricksereien einher, die physikalisch alles andere als korrekt sind.
      kraenk, Lennon624 und Thendon gefällt das.
    1. View previous replies...
    2. SpeedKill08
      @Plutonium Virus - Unterlass in Zukunft unnötige Provokationen (erster Absatz)!
      Mr. B gefällt das.
    3. Shadowman
      Ob etwas physikalisch korrekt ist oder nicht, kann dem Spieler doch erst einmal egal sein. Entscheidend ist nur, was er sieht und was nicht. Welche Berechnung am Ende dahinter steht, spielt keine Rolle. Und die bisherigen Techniken schlagen sich ganz gut (optisch). In Sachen FPS sind sie zudem bisher RT weit voraus ;)
      Misie Gaming gefällt das.
    4. treiberthedriver
      Es ist nicht korrekt nur davon auszugehen, das RT alles einfacher für Entwickler macht. Im Gegenteil, es müssen die nächsten ~10 Jahre noch weiterhin alle "alten" Technologien benutzt werden, da lediglich 1% (Stand jetzt) der Kunden RTX Karten haben.

      Weiterhin bedeutet RT ein Abändern der Texturen. Um RT richtig gut darzustellen, müssen teilweise Texturen heller/dunkler exklusiv für RT(X) gemacht werden (siehe neues Metro).

      Der Weg ist richtig, nur wird sich RT durchsetzen, nicht aber RTX.
      Misie Gaming gefällt das.
  4. Dozer1
    Parteiischer aber sehr unterhaltsamer Text. Aber was RT und DLSS am Ende wirklich bringen werden wir wahrscheinlich erst in Monaten sehen. Ich zumindest bin guter Hoffnung :)
      Misie Gaming gefällt das.
    1. Misie Gaming
      Ich würde mich auch sehr freuen, wenn RTX doch flüssig laufen sollte und kein Rauschen und Co auftritt. Aber man darf ja etwas kritisch sein, wenn nVidia bisher nur PR betrieben hat und kein spielbares Material vorliegt ;)
      Dozer1 gefällt das.
    2. Rollora
      Bis RT sich druchsetzt werden viele Jahre vergehen. Aber es besteht kein Zweifel, dass es für die Zukunft eine NÖTIGE Technologie ist, falls wir irgendwann einmal Fotorealismus haben wollen. Und das denke ich, sollte das Ziel sein sonst brauchen wir auch keine bessere Grafik mehr.
      Misie Gaming gefällt das.
  5. treiberthedriver
    DLSS ist wahrlich Kindergarten.

    Man nimmt ein 4k Bild, skaliert es runter auf unter 2k, und preist es dann als "schau mal wie schnell 4k auf Nvidia-RTX läuft!" an.

    Will man nun einen Perfomance-Vergleich zu einer GTX 1080Ti ziehen, müsste man das gleiche Spiel eben auch nur in 2k auf dieser Karte testen. Ja aber 2k auf einer 1080Ti sehen ja nicht so gut aus wie 2k + DLSS auf einer RTX 2080Ti? Richtig! Aber 2k + DLSS sind eben keine 4K!!!111elf

    Und 4k auf einer GTX 1080Ti sehen eben teilweise DOCH besser aus, gerade hinsichtlich der Texturen! DLSS = Nummernschild vom Auto ist matschig und man kann es nicht mehr richtig lesen, bei echten 4k ist alles tiptop - siehe FF Demo: https://www.techspot.com/articles-info/1712/images/F-1.jpg

    Und deswegen lässt sich DLSS auch nur auf 4k Monitoren einschalten, weil auf einem 1080p Monitor, käme dann eben ein 460p Bild raus und was das hinsichtlich der Texturen Schärfe bedeutet, kann man sich wohl denken.

    Laut Steam haben aber 98,68% der Gamer KEINEN 4k Monitor.
    https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

    Also das Argument, sich eine RTX zu holen, weil sie habe ja RT ist wie oben aufgezeigt eigentlich daneben. Erstens läuft es dann mit RT ON nicht performant, und all jene ohne RTX Karte haben halt die "alten" Effekte und fahren damit eigentlich auch ganz gut?! Und selbst für DLSS bräuchte man erst mal einen 4k Monitor. Und wenn ich einen 4k Monitor habe, will ich dann in 4k spielen oder in 2k + Magie?

    Aber das nörgeln nützt nix, wir werden eh alle RTX Karten kaufen müssen, es sei denn man überspringt diese Generation. Aber eine 1000er Karte ist, wie viele meinen, schon keine Option mehr. Such mal eine "günstige" "gebrauchte" 1080Ti. Oder besser noch, versuch mal eine neue zu kaufen :)

    Du hast die Wahl zwischen "ausverkauft" oder "überteuert" - egal ob gebraucht oder neu.
      MechUnit und Misie Gaming gefällt das.
    1. View previous replies...
    2. Misie Gaming
      @Dozer1: Es dürfte wohl verschiedenes möglich sein und auf das Spiel ankommen. Jedoch wir entweder ein Bild, z.B. 4K berechnet, indem das Spiel mit vielleicht 1600p oder 1800p läuft und dann auf 2160p hochskaliert und geglättet wird. Nach echtem 4K wird es aber letztlich nie aussehen, da immer Pixel geraten werden müssen. Alternativ wird 4K vom Spiel geliefert und dann nur DLSS2X (die Zahl hier ist von nVidia willkürlich gewählt;) für die Kantenglättung verwendet.
    3. Dozer1
      @Misie Gaming Naja nach echtem 4 wird´s wahrscheinlich nicht aussehen aber dem doch schon nahe kommen. Ich hab vor Jahren mal BF4 mit 200% Supersampling hochskaliert. (glaub mit ner 780gtx) und auf meiner damaligen FullHD LG Gurke sah das echt gut aus. In meinen Augen um Welten besser als FullHD. Großer Nachteil: Eine Ruckelorgie vom feinsten. Wenn nun DLSS mir so ein Bild auf den Monitor zaubert, es aber trotzdem keine fps Einbußen mit sich bringt wäre das doch sensationell?!
    4. Misie Gaming
      @Dozer1: Nur gibt es zu DLSS2X nicht einmal eine Demo (die bisherigen verwenden alle nur die andere Variante), weshalb ich den Champagner mal noch nicht öffnen würde. ^^
  6. FaChDa
    Es geht bei den neuen Grafikkarten und dem Raytracing nicht nur darum wie geil das dann in Spielen aussehen kann. Fakt ist, dass NVIDIA mit den Karten einen deutlichen Sprung in der physikalischen Brechnung von 3D Grafiken macht.

    Ich arbeite als 3D Grafiker und dementsprechend mit Software die sehr von dieser Technik profitiert. Das NVIDIA die Sache auch im Gaming Bereich vermarkten will ist nur verständlich. Auch wenn sie es da gerade nicht wirklich hinbekommen durch mangelnden Support.

    Ansonsten gebe ich dir recht das die „Fake“ Belichtung und Spiegelungen in Spielen immer noch sehr gut sind und der Unterschied oft nicht so klar ist.
      gesuntight, kraenk, Rollora und 2 anderen gefällt das.
    1. Misie Gaming
      Aus Gamersicht fand ich die Sache uninteressant (auch wenn ich euch Grafiker natürlich verstehe) und hab da auch nicht viel mitbekommen. Weißt du gerade, ob es da immerhin Software gibt, die das schon jetzt unterstützt und wie der Vergleich mit CPU-RT ausfällt oder muss man auch dort erst noch auf Updates warten?
    2. FaChDa
      Ich arbeite mit der Software Cinema 4D. Dort gibt es verschiedene Renderer. Der Octane Render ist ein GPU Render der 7 bis 10 mal schnellere Ergebnisse mit der 2080 TI im Vergleich zur 1080 TI erzielt.
      Zugegeben das Update steht noch aus und ist derzeit noch im Betastatus aber auch ohne dem Update sind die Unterschiede schon sehr vielversprechend.
      Dozer1, Schmalzbrot, kraenk und 2 anderen gefällt das.
  7. SpeedKill08
      kraenk und Misie Gaming gefällt das.
    1. Misie Gaming
  8. D2Blue
    nice, ty!
      kraenk und Misie Gaming gefällt das.
  9. feng
    Hab nach dem ersten Absatz aufgehört zu lesen. Provokativ und herablassend. Dazu nicht mal Informationen über den Autor, ob jener überhaupt entsprechende Kompetenzen hat. Ich frage mich, wieso so etwas auf der Hauptseite beworben wird?
    1. Shadowman
      Es wird beworben weil der Artikel sehr interessant ist. Und du kannst ihn nicht mal bewerten, da du ihn - wie du selbst sagst - nur bis zum Ende des ersten Absatzes gelesen hast.

      Würdest du mal weiter lesen, würdest du einen wesentlich besseren Eindruck von der Kompetenz des Autors bekommen ;)

      Vielen Dank für den informativen Artikel, einiges davon wusste ich ebenfalls noch nicht :)
    2. Immortal technique
      Wie sagt man so schön. Getroffene Hunde bellen.
      Misie Gaming gefällt das.
  10. RavenAge
    Ein aufwendiger sch* :o
    Vielen Dank für diesen Beitrag!
Top