Mit DLSS hat nVidia der Turing-Generation [1] ein Feature mitgegeben, welches zuerst eher nur zur Unterstützung von RayTracing [2] bzw. dessen hohen Performance-Anforderungen gedacht war: Ein Beschleuniger, welcher mit einer intern niedrigeren Renderer-Auflösung und dann mittels KI-Training wieder hochgerechneter Bildqualität arbeitet. Normalerweise sind solcherart Konzepte im qualitätsverliebten Grafikkarten-Geschäft eher verpönt, in diesem Fall ist das Verhältnis zwischen Bildqualitätsverlust und Performancegewinn jedoch auffallend günstig. Gerade mit DLSS 2.0 (siehe kürzliche Meldungen No.1 [3] & No.2 [4]) scheint das Feature nunmehr "erwachsen" zu werden, wurden Bildqualitäts-Verluste minimiert, ergibt sich aber weiterhin ein erheblicher Performancegewinn im Rahmen von +50-80%. Jenen kann man bei schwächeren Grafikkarten immer gebrauchen, man kann jenen aber auch für den Sprung zu einer höheren Auflösung (ohne Performanceverlust) verwenden oder dann eben bei der Nutzung von RayTracing-Grafik einschalten, um deren Performancebedarf Rechnung zu tragen.
Diese Umfrage will herausfinden, wie das Feature "DLSS" derzeit gesehen wird – selbst wenn es natürlich aktuell nur von wenigen Spielen und nur unter nVidias GeForce RTX Karten benutzbar ist. Aber dies muß natürlich nicht so bleiben: nVidias Ampere-Generation tritt womöglich durchgehend unter dem RTX-Siegel [5] an – und auch AMD könnte eines Tages etwas ähnliches anbieten.
PS: Diskussion zur Umfrage und zum Umfrageergebnis in unserem Forum. [6]
Verweise:
[1] http://www.3dcenter.org/news/nvidia-turing
[2] http://www.3dcenter.org/newskategorie/raytracing
[3] http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-maerz-2020
[4] http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-27-maerz-2020
[5] http://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle
[6] https://www.forum-3dcenter.org/vbulletin/showthread.php?t=599662