Let's play NICHT mit RTX: Warum Raytracing bescheuert ist!

Von Misie Gaming · 6. Oktober 2018 · ·
Kategorien:
  1. rtx.jpg

    Die neuen GeForce-RTX-Karten sind da. Jippie, spielen wir doch gleich einmal die ganzen Titel mit Raytracing-Support... ähm, wie bitte!? Es gibt noch keine Games mit RTX? Egal, dann muss man sich halt noch kurz gedulden, dafür hat man dann später eine unvorstellbar schickere Grafik als man sie sich momentan je erträumen könnte! – Oder eben nicht...
    Stopp, nicht wegrennen. Lasst mich dies genauer erklären und euch verraten, welche und wie bisher schicke Grafik ohne neue Spezialhardware möglich ist, denn nVidia hat einen etwas unfairen Vergleich betrieben. Die bisherige Tricks der Rasterisation sind nämlich noch gut!

    Warnung: Der nun folgende Beitrag könnte zu einem schweren Trauma führen, falls Sie der Gattung der nVidia-Fanboys angehören. Scrollen Sie in diesem Fall bitte direkt zu den Kommentaren und posten Sie eine Beleidigung an den Autor.

    Da sich vielleicht ein paar von euch noch nie wirklich mit dem Unterschied der beiden auseinandergesetzt haben – die neuen RTX-Karten habt ihr euch nur zum Spaß gekauft – gehe ich ganz kurz darauf ein. Raytracing ist ein schon sehr altes und simples Verfahren, es wurde aber über die Jahrzehnte stark erweitert. Wenn man heutzutage darüber spricht, meint man eigentlich »Path-Tracing« oder nachfolgende Verfahren und so werden wir einfachheitshalber auch mit dem Begriff umgehen. Im Prinzip ist Path-Tracing die Herangehensweise, die mehr der Realität nachempfunden ist und simulieren möchte, wie Licht auf unser Auge trifft. Aus Performance-Gründen beginnt man jedoch nicht bei den Lichtquellen, sondern am virtuellen Auge. Im ersten Schritt werden Strahlen (»Rays«) jeweils vom Auge durch die Pixel der ebenfalls virtuellen Bildschirmleinwand erzeugt, um die Suche für eben jene Pixelfarbe zu finden. Als nächstes ist man am Schnitt des Strahls mit dem ersten Objekt der Szene interessiert. Das hört sich jetzt trivial an, jedoch müsste man für jedes einzelne Objekt prüfen, ob ein Schnitt möglich wäre. In der Praxis wird für eine deutlich bessere Performance stattdessen der Raum unterteilt und mehrere Objekte stufenweise zusammengefasst. Hat man dann den Schnittpunkt gefunden, interessiert man sich nun für den Farbeindruck an dieser Stelle. Zum einen hat man hier die Eigenfarbe durch die Textur, allerdings hat in der echten Welt die Umgebung einen großen Einfluss auf das finale Ergebnis. Je nach Material könnte Licht aus verschiedenen Richtungen eintreffen und gespiegelt oder abgelenkt werden, die Farbe ändern, in den Körper eindringen oder sich absorbieren lassen. Es benötigt also eine mathematische Gleichung, die diese Effekte für die Umwelt berücksichtigt, idealerweise mit einem realistischen Maß jeder Werte. Für das Lösen der Gleichung wird dann ein erneuter Strahl in eine zufällige, mit der Formel gewichtete Richtung ausgesendet und für ihn beginnt diese Prozedur erneut bis man eine Lichtquelle gefunden hat oder man bricht nach einer gewissen Tiefe einfach ab. Für ein möglichst akkurates Ergebnis sollten und müssen viele Samples pro Pixel verwendet werden.

    Rasterisierung beginnt hingegen bei den Objekten, ohne überhaupt erst die Beleuchtung oder ähnliches zu beachten. Objekte selbst bestehen aus »Polygonen« (Vielecke), an der GPU kommen diese letztlich immer als Dreiecke an. Zuallererst wird jeder ihrer Eckpunkte in das gewünschte Koordinatensystem gebracht, zu entsprechenden, neuen Dreiecken zusammengesetzt, danach jeweils auf ihre entsprechenden Pixel der zweidimensionalen Leinwand abgebildet und die dazwischenliegenden Pixel eingefärbt. Für die Farbe sind ebenfalls Beleuchtungsberechnungen möglich, diesmal allerdings deutlich simpler als bei Raytracing. So gibt es zusätzliche Techniken für globale Effekte wie Schatten, Spiegelungen und Umgebungsverdeckung, und weitere (hässliche) Postprocessing-Effekte wie Bloom oder Blur. Durch den Fokus auf den Echtzeitbetrieb jedoch meist bloß mit den Objekten die sich aktuell im Bild befinden und oft nur mit deutlich vereinfachten und daher ungenaueren Techniken. Grafikkarten sind für diese Schritte ausgelegt und besitzen hierzu Streamprozessoren im Tausenderbereich, die die jeweilige, gleiche Instruktion auf alle Pixel anwenden. Eine CPU ist dagegen mit ihren Kernen besser für Raytracing geeignet, da die Strahlen zweier Pixel sehr verschieden ablaufen könnten und somit unterschiedliche Verarbeitungen angewandt werden müssen. Allerdings ist letzteres auch nicht mehr ganz aktuell, schon seit den Fermi-Karten (GTX 400/500) ist Realtime-Raytracing dank nVidias OptiX auf GPUs performant möglich.

    RTX (ich werde das ab jetzt einfach synonym als »nVidia-Raytracing« verwenden, auch wenn ich weiß, dass es nicht nur dafür steht – *würg* DLSS *würg*) wird nun zusätzlich bei der Rasterization verwendet, indem die bisher verwendeten Tricks für Beleuchtung oder Spiegelung durch Raytracing ersetzt werden. Zum neuen Metro mit RTX für Globale Beleuchtung wurde verraten, dass die Karten wohl für drei Rays je Pixel reichen, das Spiel allerdings zusätzlich über drei Frames akkumuliert. Das ergibt somit noch nicht das akkurateste Bild, selbst mit Entfernen des Rauschens, deshalb wird es auch nur für diesen speziellen Effekt verwendet. Ähnlich ist es mit dem neuen Battlefield, welches wohl lediglich perfekte Spiegelungen per Raytracing bieten wird und bei rauen Oberflächen Unschärfe anwendet, anstatt extra Strahlen zu verschießen – eben weil es ansonsten zu aufwendig wäre. AMD bietet übrigens mit Radeon Rays im ProRenderer eine ähnliche Technologie, welche momentan hingegen mehr für Anwendungen wie Blender oder Cinema 4D geeignet ist und ohne extra Hardwarekomponenten läuft.

    Ein Vergleichsbild von nVidia zu Battlefield V zeigt unter anderem die tollen neuen Reflexionen an einem Auto, jedoch verwendet es bei reiner Rasterisation nicht die dort schickste verfügbare Methode. Was ich damit meine wird klarer, wenn man sich für einen besseren Vergleich im Replay-Editor des schon 2011 erschienen TrackMania² umschaut. Dort lassen sich die Wagenspiegelungen mit einer Stufe des Raytracings berechnen, etwas ähnlich (Strahlen werden hier vom Wagen aus erzeugt) wie es beim neuen Battlefield der Fall sein könnte. Schauen wir uns daraus also einmal einen gerenderten Screenshot eines selbstverständlich geplanten (!) Abflugs mit jenen Reflexionen an:

    [​IMG]

    Ohhh, na also das sieht doch ordentlich aus. Wir erkennen Gras, Felsen, Bäume und Wolken in den Reflexionen, und dies sind alles Gegenstände die dem Kameraauge abgewandt sind und man ansonsten nicht sehen würde. Es gibt nur ein Problem, ich hab euch angelogen! Das Bild oben setzt bloß auf gewönliche Rasterisierungs-Tricks, Raytracing findet ihr stattdessen hier:

    [​IMG]

    Auf den ersten Blick sieht es nach einem Finde-X-Fehler-Suchbild für Fortgeschrittene aus, da man keinen großen Unterschied erkennt (das hab ich ja schon angedeutet). Zieht daher am besten die beiden Bilder in je einen neuen Tab für größere Versionen und wechselt hin und her – so behumpse ich auch immer mit der digitalen Heftversion bei Schwerdtels Vorletzer (hab bisher auch immer gewonnen). Einzige im direkten Vergleich wirklich augenscheinliche Differenz wäre eine etwas andere Positionierung am Heck, es sieht jedoch nicht unbedingt besser aus als beim anderen. Aber wie ist so etwas denn auch ohne RTX möglich!? Gut, ganz sicher weiß ich es nicht, aber es wird höchstwahrscheinlich ein kugelförmiger Rundumblick aus Sicht der Fahrzeugmitte erzeugt und dieser dann als »Reflection/Environment Map« mit entsprechender Transparenz an die »passenden« Stellen über das Fahrzeug geleget. Das ist dann fast so gut wie die Strahlenverfolgung, aber eben nicht ganz so exakt. Hier nochmal eine andere Szene: (Depth of Field, Motion Blur und Kantenglättung verwenden übrigens Verfahren, die sonst auch nur für solches Pre-Rendering reserviert sind)

    [​IMG]
    normale Wagenspiegelung |  Raytracing-Reflexion ⮟ 
    [​IMG]

    Man erkennt nun ein wenig deutlicher, dass die Spiegelung bei der Standard-Methode nicht ganz stimmt. Einerseits ist die Frontschürze zu hell beleuchtet, da die Nase in den dunklen Schatten des düsteren Waldabschnitts ragt (*gruselig*), die Fahrzeugmitte jedoch nicht. Andereseits erkennt man am linken Seitenschweller (an alle Frühbremser: das ist das Teil unter der Tür;) recht verwaschene und verzerrte Reflexionen, beim Raytracing-Ergebnis ist die Bodentextur stattdessen scharf abgebildet und es lassen sich sogar die einzelnen, herabgefallenen Blätter erkennen. Jedoch ist selbst dieses Ergebnis nicht perfekt. Schaut man sich die Felgen an, erkennt man dort die Umgebung hinter dem GT-R, anstatt der Reflexion des Radkastens. Das wäre eigentlich möglich, jedoch muss man beachten, dass das erneute Schneiden einer spiegelnden Fläche einen weiteren kostbaren Strahlen benötigen würde. Die Rasterisierungs-Methode erlaubt dies generell nicht, da die Karosserie selbstverständlich von der Kamera im Inneren ignorierten werden muss.

    Die Boliden der Gegner sind übrigens bei beiden sichtbar (Beweisfoto). Jedoch bekommen Ghosts und andere Spielerautos – oder Gurken-PCs (meiner eingeschlossen) die nur die niedrigen Settings packen – keine so aufwendigen Techniken spendiert und sehen deutlich erkennbar schlechter aus:

    TM²_0_small_no.jpg

    Hier wird die Environment Map nicht dynamisch für jeden Frame erzeugt, sondern wurde schon im Voraus berechnet, was um Welten performanter ist. So gibt es sie auch beim Raytracing als Hilfsmittel, allerdings sollten diese nur für weit entfernte Umgebungseindrücke verwendet werden, da sie unabhängig von der Position des Objekts (also unserem Nissan) aufgetragen werden. Da sich der Sportwagen nun aber bewegt und theoretisch alles mögliche spiegeln kann, gibt es hier nur solch eine generische und damit ungenaue Map mit leerer Wiese und statischem Himmel. Die nVidia Demo verwendete ebenfalls nur eine vorgefertigte Map für die schwarz Limousine, wenn RTX deaktiviert wurde. Kein Wunder also, dass der Unterschied so groß ausfällt.

    »Aber Moment!«, werden jetzt einige sagen. »Bei den Vorgängern und auch in der Beta wurden trotz höchsten Settings nie die aufwendigen Wagenspiegelungen aus TrackMania verwendet.« (Die Behauptung ist ausgedacht, dürfte aber hundertprozentig stimmen.) Und warum ist das so? Zwei Worte: Performance und unnötig. Es hat schon seinen Grund, dass dies in TM² nur auf ein Fahrzeug limitiert ist, denn es ist einfach eine teure Rasterisierungs-Operation, für jedes Bild die Reflection Map zu erneuern. In der ersten Bildszene mit Abflug habe ich die Renderzeit mit je 400-fachem Supersampling gemessen. Mit billiger Reflexion dauerte es rund vier Sekunden (also wären vielleicht 100 fps ohne Antialiasing möglich), bei normaler Qualität hingegen ganze 12 Sekunden (circa 33 fps). Gut, hier handelt es sich auch um einen Extremfall, trotzdem ist es nichts außergewöhnliches und im Testvideo zum neuen Forza erkennt man die schicken Spiegelungen ebenfalls. Demungeachtet würde man es so eben nicht für ein unbewegliches Dekoobjekt wie in Battlefield verwenden wollen, zumal man bei statischen Objekten schon vorher eine gut passende Umgebungs-Map erstellen kann. Meist wird jedoch auch nur eine einzige für beispielsweise die komplette Straße verwendet, da sich die Häuserwände ohnehin nicht stark unterscheiden.

    Battlefield verwendet sogar zusätzlich noch »Screen Space Reflections«. Wenn auch noch immer etwas aufwendig, ist dies eine billigere Alternative zu den anderen Optionen. Wie der Name hingegen schon verrät, arbeitet der Post-Processing-Effekt nur mit den Pixeln der schon berechneten Frames. Dank dem Tiefenpuffer behält das Bild eine Dreidimensionalität und mit den Oberflächennormalen (der Orientierung aller Pixel) kann die Position der sich im Lack spiegelnden Pixel gefunden werden. Aber Achtung, um dies durchführen zu können, werden Rays verschossen.

    Hellblade147.jpg
    Screen-Space-Spiegelungen im Wasser von ihrer besten Seite.

    Beim Spielen von Hellblade habe ich (leider) darauf geachtet, dass die Artefakte nicht auffallen, würde man in obiger Szene jedoch die Kamera weiter nach unten bewegen, so würden die Reflexionen stückweise verschwinden, weil die zu spiegelden Objekte außerhalb der Bildfläche liegen. Darüber hinaus kann man hiermit nie die Rückseite von Objekten die vor einem Spiegel stehen betrachen, stattdessen müssten einfach die verfügbaren, frontal aufgenommenen Pixel verwendet werden. Solche Kleinigkeiten fallen jedoch im normalen Spieltempo überhaupt niemandem wirklich auf und man sollte die gesparte Leistung lieber in andere Dinge investieren. Aber nVidia will selbst RTX-Spiegelungen für die Augäpfel verwenden, warum?! Wie oft habt ihr in einem Multiplayershooter schon Leuten ins Sehorgan geschaut und kommentiert: »Oh, sehr schade, dass hier kein Raytracing angewandt wird, so ein Fauxpas springt mir sofort ins Auge.« Genau, das werdet ihr vermutlich nie gesagt haben, welcher normale Mensch verwendet denn schon ein Wort wie »Fauxpas«.

    Übrigens dauerte das Rendern des Bildes mit TrackMania-Raytracing ganze 24 Sekunden, also sechs, beziehungsweise zwei Mal so lang wie bei den anderen beiden. Und trotz speziellen RT- und Tensor-Kernen dürfte man angesichts der aktuellen Informationen auch bei RTX keine berauschende Performance erreichen. Die Star-Wars-Demo mit RTX erreicht im GameStar-Test der 2080 Ti lausige 57 fps in WQHD, während die Karte auf ComputerBase bei gleicher Auflösung in Battlefront II mehr als 160 fps packt! Es erscheint mir also total unsinnig, hier direkt so stark auf Raytracing zu setzten, wenn einem doch die fast gleichwertig schicken Rasterisierungstricks vorher schon zu teuer waren!

    Phew, den Puls sich wieder kurz beruhigen lassen. Vielleicht entspannt uns ein Blick aufs Meer. Im RTX-Battlefield-Trailer sieht man nämlich niedrig fliegende Flugzeuge im Wasser spiegeln. Wenn man nun nicht alle paar Meter eine eigene Reflection Map verwenden möchte, ist die Methode hier unbrauchbar. »Also lohnt sich jetzt doch endlich Raytracing!?« – Nein, es gibt da ja noch »Planar Reflections«. Hierbei wird einfach die Umgebung noch einmal aus Sicht unseres bösen Doppelgängers aus der Spiegelwelt gerendert und dann spiegelverkehrt über den See oder eben einen Spiegel gelegt. Oder so ähnlich. Wie uns der Name erneut verrät, ist dies nur für flache oder relativ ebene Flächen gedacht. Hier wieder ein Beispiel aus TrackMania:

    TM²_2_small.jpg
    Das blaue ist das Wasser, und ja, wir fahren senkrecht an einer Wand herab. Ist nicht so leicht wie es aussieht.

    Wenn man ganz genau hinsieht, erkennt man auch den grünen Flitzer im Wasser glitzern. Im Spiel wurde jedoch so optimiert, dass nicht bei jedem neuen Frame auch nochmals die Reflexion neu berechnet wird, die dynamischen Gegenstände in der Spiegelwelt ruckeln also (fällt aber wieder einmal nicht auf). Bei den mittleren Settings finden sich hingegen so oder so nur statische Objekte.

    Bevor sich jetzt aber jemand erhofft, dass doch bei den anderen RTX-Anwendungsfällen noch eine große Revolution dabei gewesen sein muss, den werde ich enttäuschen müssen. Globale Beleuchtung mit indirekter Beleuchtung, Umgebungsverdeckung und weiche Schatten gibt es schon heute, sogar ebenfalls mit Varianten des Raytracings und auch von nVidia! Global Illumination basierend auf Voxeln (hierfür sieht die Umgebung aus wie in Minecraft-Grafik) gibt es unter anderem in der CryEngine (SVOGI) und Unreal Engine (VXGI), und nVidia hat hierüber sogar Vorträge 2012 und 2014 gehalten. In Rise of the Tomb Raider (das ist nicht das neuste) gab es von nVidia auch schon Voxel Ambient Occlusion (VXAO; irgendwie muss bei denen immer ein X rein, damit es krass klingt) als Nachfolger zu HBAO+ (beziehungsweise HDAO bei AMD), in The Division hatte man Hybrid Frustum Traced Shadows (HFTS) als Erweiterung zu Percentage Closer Soft Shadows (PCSS) [Contact Hardening Shadows bei AMD] und alles schon mit Hilfe von Operationen die durch Strahlenverfolgung getätigt wurden.

    sd.jpg
    Weicher werdende Schatten, je weiter sie sich von der schattenwerfenden Fahrzeugkante entfernen. Hier sogar noch unter DirectX 9.

    Aber Achtung, ich will jetzt nicht sagen, dass ich gegen Fortschritt bin (nur weil ich eine sechs Jahre alte, rote GPU verbaut habe), meine Kritik ist eher so laut, da ja RTX-Karten scheinbar überhaupt nicht stark genug für die beworbenen Raytracing-Effekte sind, trotzdem verlangt nVidia einen ordentlichen Preisaufschlag für die verbauten RT Cores. Nach aktuellen Informationen scheint es zum einen nämlich so, dass man durch eine einzige Option vielleicht gerade noch ein Viertel der vorherigen Performance erreicht, wärend ehemalige GameWorks-Effekte (zumindest auf der jeweils neusten GeForce-Generation) »nur« schätzungsweise 20 bis 30 Prozent Leistung ausgemacht hatten. Die bisher gezeigten Spiele laufen in FullHD auf einer 2080 Ti meist bloß mit rund 45 fps. Andererseits scheint der größere Fokus auf Raytracing – besonders da wohl nur ein Strahlensample pro Pixel (1 spp) genutzt wird – zu unschönem Rauschen zu führen, welches trotz Denoising auffällig bleibt. In Metro: Exodus oder gar eigenen Demo-Videos, besonders jedoch in Remedys Northlight-Engine, welche bei Control zum Einsatz kommt, sieht es unsauber aus. Außerdem, da Strahlen über mehrere Frames zusammengefasst werden, könnte ein schnellerer Kameraschwenk zum unschönen Aufploppen der RTX-Effekte führen.

    »Doch was ist mit DLSS? Das hört sich ja toll an, so wie es beworben wurde!« Nun, Deep Learning Super Sampling sollte eher in FUSS umbenannt werden, welches dann für Fancy Up-Sampling Scrap steht, denn es ist genau das. Bei der Vorstellung wurde so viel von maschinellem Lernen, neuronalen Netzen und anderen Trigger-Words gesprochen, dass man sich diese Technik schön träumt. In Wirklichkeit ist es aber lediglich ein Hochskalieren auf 4K, mit ein wenig, postprocessingartigem Antialiasing. Zuerst machen sich PC-Gamer über Konsolen-Wichte lustig: »Pfui, ist doch gar kein echtes 4K, nur hochgesampled mit Checkerboard.« Und jetzt wird das einfach (fälschlicherweise) mit Supersampling betitelt und alle brechen in Jubel aus. Das einzige was DLSS indessen allen zeigt, die es bisher nicht gemerkt hatten, ist, dass TAA das Bild total unscharf macht und man eigentlich nicht wirklich 4K braucht, denn um die 1600p bis 1800p plus SMAA dürften bei normalen Bildschirmgrößen schon reichen. So sieht dann eben auch DLSS aus, nur benötigt man dafür halt eine besondere GPU und extra Unterstützung vom Spiel – *slow clap*.

    Bevor ihr euch jetzt beschwert, dass ich hier zu kritisch bin und heulend zu Onkel Leatherjacket rennt, um ihm diesen gemeinen Text von einer künstlichen AI ins Englische übersetzten zu lassen, sei nur gesagt, dass ihr erst einmal nVidia nicht verteidigen müsst und zweitens, sie einfach mit RTX-Spielen gleich hätten launchen sollen, wenn sie nicht kritisiert hätten werden wollen. Zumindest Raytracing ist natürlich schon ein Schritt in die richtige Richtung für die Zukunft, besonders wegen den (aktuellen) Nachteilen ist es allerdings meines Erachtens nach noch ein gutes Stück zu früh hierfür und nicht wirklich lohnend. In ein paar Generationen kann und wird sich das jedoch hoffentlich in einer ausgereifteren Form ändern! Aktuell dürfte es sich so eher in einem Fotomodus gut machen... das wäre aber schon alles was mir dafür einfällt. Beim Spielen kann ich nämlich auf RTX getrost verzichten!
    OscarMayer2, Tomsn, Jasper und 20 anderen gefällt das.

Kommentare

Um einen Kommentar zu schreiben, melde dich einfach an und werde Mitglied!
  1. FortuneHunter
    Schöner Artikel. Noch ein sehr gutes Beispiel für Planar Reflexions ist Hitman 2:
    20181109183356_1.jpg
    Hier ist es auch sehr gut gelungen.

    Raytracing hat einen Vorteil für die Entwickler. Dies setzt allerdings vorraus, dass sich Raytracing an breiter Front durchgesetzt hat und für alle Verfügbar ist.

    Sobald es einmal etabliert ist, ist der Aufwand für die Gestalltung einer Szene wesentlich geringer. Das Berechnen der Beleuchtung, Spiegelung etc überlässt man die GPU und kann die Zeit die man bisher in die "Fake-Methoden" gesteckt hat für das Leveldesign an sich verwenden oder eben Zeit und damit Geld sparen.

    Daher denke ich wird sich Raytracing über kurz oder lang durchsetzen. Performante und vor allem bezahlbare Hardware vorrausgesetzt.

    Was aktuell an Hardware auf dem Markt ist kann das ganze nicht stemmen und wird es auch die nächsten 2-3 Generationen lang nicht. Zur Zeit gibt es nur einen Mix aus Raytracing und den üblichen Methoden. Und selbst das läuft wenig performant.

    Ich habe zwar auch eine NVIDIA-Karte verbaut (GTX1080) aber den Aufpreis für Raytracing bin ich noch lange nicht bereit zu bezahlen.
      Misie Gaming gefällt das.
  2. Roadwarrior
    Hm ähnliche Artikel gab es auch über ROM-Laufwerke und Festplatten in GB-Größe. Ich denke, dass man bei RTX nur eine Tür aufgetreten hat, die irgendwann wirklich einen Nutzen haben mag.
    Geschrieben ist das Ganze gut, mir aber ein wenig zu einseitig geraten. Denn abseits von "Gurken-PCs" kannst Du durchaus eine Verbesserung erzielen, wie in BFV zu erkennen ist.

    Dennoch, ich hab's mit Vergnügen gelesen. Carry on
      Misie Gaming gefällt das.
    1. Misie Gaming
      Einseitig geschrieben habe ich es nur, weil zumindest im deutschen Umfeld die Presse eigentlich nur nVidias Werbeaussagen nachgesprochen hatte ;) Der Leser kann sich dann selbst einen Mittelweg dazwischen aussuchen und meine persönliche Einstellung ist auch nicht so schwarz/weiß. Aber letztlich kann natürlich jeder selbst entscheiden, ob einem eine Grafikoption nur noch halb so viele fps wert sind. (Zumal man ja noch einen ordentlichen Aufpreis für eine entsprechende GPU zahlt.)
    2. Misie Gaming
      Mit ROM-Laufwerken würde ich es aber nicht vergleichen, das wäre dann nämlich so, als gäbe es erst keine Filme auf DVD und später nur sehr wenige, welche dann sogar bloß noch mit 10 fps laufen.
  3. OscarMayer2
    Interessanter Artikel :) auch wenn ich viele technische Details nicht verstanden habe :D
      Misie Gaming gefällt das.
  4. Tomsn
    Klasse Artikel! Bei "Frühbremser" musste ich auflachen und hatte Angst dass der Chef reinkommt ;)
      Misie Gaming gefällt das.
  5. Misie Gaming
  6. Brainshack
    Ziemlich reißerischer Titel. Solltest News für die Gamestar schreiben :)
      Misie Gaming gefällt das.
    1. Misie Gaming
      Sollte ursprünglich "Warum RTX kacke ist" heißen, als Anlehnung an das Format Kackspiele von DeChangeman. Fand dann aber das Wort "bescheuert" etwas kinderfreundlicher und auch passender. Genauso ist Let's Play NICHT..." von Gameomat gestohlen.
  7. yrrax
    Ziemlich polemisch und wirr geschrieben. Das Eingangsstatement "Warnung:[...] " sowie der erste Satz im letzten Abschnitt hätte der Autor sich auch schenken können. Alles in allem einer der schlechteren Leser- Artikel.
    1. Misie Gaming
      Danke, dein Kommentar zeigt gerade, dass ich die beiden Sätze eben nicht hätte auslassen können. ^^
  8. SolemnStatement
    Über Jahre gereifte Alternativen mit der ersten Raytracing Karte zu vergleichen, finde ich nicht fair. Das eine hat zahllose Iteration durchlaufen und ist dementsprechend optimiert. Das andere wurde noch nirgends im Massenmarkt verwendet und ist de facto noch im beta Stadium. Da ist doch klar, wer die Nase vorn hat.

    Das ändert allerdings wenig daran, dass Raytracing die konzeptionell bessere und saubere Technologie ist, während die Alternativen immer irgendwie geartete Krücken darstellen. Die ersten 3d Titel waren auch nicht schöner als lange gereifte 2d Spiele. Die ersten VR Titel nicht immersiver als lange gereifte 3d Titel, usw.. So ist es auch bei Raytracing. Gebt dem ganzen einmal 5 bis 10 Jahre und ich bin überzeugt, dass das Urteil anders ausfallen wird.
      Misie Gaming gefällt das.
    1. Misie Gaming
      Aber sich so wie nVidia zu verhalten und so zu tun, als gäbe es diese Alternativen nicht, finde ich hier noch unfairer.
      [​IMG]

      (Sorry, ich muss wegen der Länge wieder mehrere Kommentare draus machen)
    2. Misie Gaming
      "Die ersten 3d Titel waren auch nicht schöner als lange gereifte 2d Spiele."
      Stimmt, das hätte ich sogar mal in den Artikel packen wollen (es aber irgendwie vergessen), denn genau über diese ersten 3D-Titel sagt man ja, dass man erst die neueren 3D- oder eben die vorherigen 2D-Spiele lieber sieht.
    3. Misie Gaming
      "Gebt dem ganzen einmal 5 bis 10 Jahre und ich bin überzeugt, dass das Urteil anders ausfallen wird."
      Ganz deiner Meinung, genau deshalb bin ich hier so kritisch, weil niemand jetzt eine Turing-Karten für in 5 Jahren kaufen sollte (wobei es dann für RTX v2 oder v3 ohnehin wieder stärkere GPUs braucht).
  9. andi5lebt
    Solang das nur einer der beiden großen GrakaAnbieter unterstützt, wird es sich nicht durchsetzen, selbst wenn es besser und alternativlos wäre. Weil sich der Aufwand zur Unterstützung nicht lohnt. Außer Nvidia bezahlt dafür. Das ist die ganz simple, unwiderlegbare Wahrheit.
    So wie alles, was Nvidia sich über die Jahre "exklusiv" ausgedacht hat.

    Die gameworks Effekte sind ein schönes Beispiel. Nie benutzt, nie relevant und quasi immer empfohlen zur Abschaltung weil Performance Katastrophen. Schade um Laras und Geralts Haar...
      Misie Gaming gefällt das.
  10. Suzi Q.
    Ein Laie schimpft über Raytracing und Gamestar packt das auf die Frontpage. Worst timeline ever. Du sprichst die Nachteile von screenspace reflections ja sogar selbst an, und mir fällt das sehr wohl ständig auf. Hier ein Video was RTX wirklich bringen kann, ruhig mal 15min Zeit nehmen. Ich bin seitdem recht gehypt und hoffe next gen Konsolen haben auch ein paar RT-Kerne an Bord.

    https://www.youtube.com/watch?v=8kQ3l6wN6ns
    1. Misie Gaming
      Ehm, ja, SSR hat seine Probleme, wenn du aber richtig lesen könntest, hättest du auch mitbekommen, dass es eben noch Planar Reflections und dynamisch erzeugte Reflection Maps gibt, die eine ähnliche Qualität wie RTX erreichen. Aber schön, wenn du dich nach schauen eines Videos zum selbsternanten Experten kürst ;)
      andi5lebt und MechUnit gefällt das.
Top