Special - NVIDIA DLSS - Deep Learning Super Sampling : Bessere Framerate dank KI
Als NVIDIA zusammen mit den GeForce-RTX-20-Grafikkarten erstmals DLSS vorstellte, war die Skepsis groß und so ganz rund lief das auch noch nicht in der ersten Version. Mittlerweile hat sich aber enorm viel getan und DLSS ist das vielleicht wichtigste Feature moderner NVIDIA-Grafikkarten. Vor allem für höhere Auflösungen, bessere Framerates und eine bessere Nutzung von Raytracing-Effekten ist das Feature ein echter Hauptgewinn.
DLSS (Deep Learning Super Sampling) ist, kurz zusammengefasst, eine KI-Rendering-Technologie mit dedizierten Tensor Core-KI-Prozessoren auf GeForce RTX-Grafikkarten. EINGEFÜHRT wurde DLSS in der Version 1.0 mit den RTX-20-Grafikkarten, die als erste über besagte Tensor Cores verfügten. Die Grundfunktion von DLSS besteht darin, Spiele mit einer niedrigeren Auflösung zu rendern als der angezeigten, den dadurch bedingten Qualitätsverlust aber parallel durch einen KI-gesteuerten Optimierungsprozess auszugleichen. Das Ergebnis: eine deutlich verbesserte Framerate (Bilder pro Sekunde) bei annähernd gleicher Bildqualität.
Dass ein Spiel weniger Leistung frisst, wenn es zwar in 3.840 x 2.160 oder 2.560 x 1.440 angezeigt, aber nur in mit 1.920 x 1.080 gerendert wird, dürfte ziemlich selbstredend sein. Immerhin müssen deutlich weniger Pixel berechnet werden, was die GPU natürlich massiv entlastet und damit eine höhere Bildwiederholrate ermöglicht. Das ist natürlich kein linearer Prozess, ihr bekommt nicht gleich die vierfache Framerate. Letztendlich macht die Auflösung nur einen Bruchteil der GPU-Arbeit aus, immerhin müssen auch noch Effekte, Lighting, Schatten etc. berechnet werden.
GAMESWELT UND NVIDIA VERLOSEN EINE
ASUS TUF GEFORCE RTX 3080 TI OC 12G
AB ZUM GEWINNSPIEL!
Das Problem ist natürlich, dass bei einer niedrigeren Auflösung natürlich auch die Bildqualität leidet. DLSS ist dazu gedacht, genau das zu vermeiden. Prinzipiell funktioniert das in der Form, dass auf Super-Computern von NVIDIA ein neuronales Netzwerk für Deep Learning arbeitet. Eine Datenbank wird quasi mit Szenen in niedriger und in hoher Auflösung, sogar bis hin zu 16K gefüttert. Ebenfalls ausgewertet werden Bewegungs-Vektoren. Das KI-Netzwerk stürzt sich auf die Szenen mit den verschiedenen Auflösungen und wertet die Unterschiede aus.
Aus diesen Vergleichen erstellt das System nun Algorithmen für die Skalierung und Bildoptimierung mit dem Ziel, das niedriger aufgelösten Bild so dicht wie möglich an Qualität des höher aufgelösten Bildes heranzubringen. Anhand von aufeinander folgenden Szenen und Vektoren erlernt die KI sogar, folgende Bilder quasi zu erraten. Die Datenbank wächst stetig, wodurch die Ergebnisse mit der Zeit immer besser und akkurater werden. Die Algorithmen wiederum werden in die Game-READY-Treiber von NVIDIA eingespielt und können dann von eurer GeForce-RTX-Grafikkarte lokal auf eurem Rechner in Spielen, in die DLSS integriert ist, genutzt werden. Und zwar in Echtzeit, die Tensor Cores stemmen bis zu 110 Tflops.
Der Optimierungsprozess hat seit der Einführung enorme Fortschritte gemacht. Anfangs standen noch vergleichsweise wenige Daten zur Verfügung und jedes Spiel musste von der KI neu „erlernt“ werden. Mittlerweile wurden die Prozesse allerdings massiv optimiert und arbeiten mit allgemeineren und einfacheren Parametern. Seit DLSS 2.0 bewegt sich die Qualität dieser Bildoptimierung auf einem enorm hohen Niveau.
Zwischen der hoch aufgelösten Variante und der mit DLSS optimierten, niedriger aufgelösten Variante sind mittlerweile kaum noch Unterschiede zu erkennen. Wenn überhaupt, kann es zu minimalen Bildfehlern aufgrund „erratener“ Bildbestandteile oder zu leichten Unschärfen kommen, die sich aber kaum noch im wahrnehmbaren Bereich bewegen. Mitunter ist es SOGAR möglich, dass die Darstellung mit DLSS besser ist als das „Original“, nämlich dann, wenn noch höher aufgelöste Bilder mit 8K- oder 16K-Auflösung als Berechnungsbasis für die Algorithmen vorliegen.
DLSS wird mit der Zeit quasi immer besser, zum einen, weil sich die Datenbank weiter und weiter füllt, zum anderen natürlich, weil die Prozesse immer weiter optimiert werden. Waren es bei DLSS 2.0 noch die einfacheren und allgemeineren Parameter, sind es bei DLSS 2.2 zum Beispiel weitere Optimierungen, die speziell bei Bewegung weniger Fehler aufweisen sollen.
Ein Ende ist da nicht in Sicht und auch die Implementierung von DLSS wird für die Entwickler immer EINFACHER. Mittlerweile werden sogar Unreal Engine 4 und 5 sowie Unity 2021.2 unterstützt, zwei der am meisten genutzten Spiele-Engines, was die Verbreitung von DLSS natürlich fördern wird, sowohl bei neuen Spielen oder auch nachträglich bei älteren Titeln, wie unlängst bei Red Dead Redemption 2 geschehen. Auch Linux wird mittlerweile nativ unterstützt, was vorher nur via Proton möglich war. Und das SDK zu DLSS ist mittlerweile frei verfügbar, was die Implementierung natürlich ebenfalls erleichtert und für Jedermann zugänglich macht.
In Summe gesagt wird also die GPU durch die niedrigere Auflösung massiv entlastet, während die Bildoptimierung dediziert auf den Tensor Cores geschieht, und damit diesen Leistungsgewinn nicht schmälert. Die Auswirkung ist gewaltig, wenn auch natürlich erst bei Auflösungen oberhalb 1080p wirklich in Form von mehr Frames per Second spürbar. Je nach Spiel gibt es sogar mehrere Optionen für DLSS, je NACHDEM wie euer Wunsch nach Bildwiederholrate und Qualität aussieht.
Zumeist werden ein Leistungsmodus, ein Qualitätsmodus und ein ausgewogener Modus angeboten. Im Leistungsmodus wird beispielsweise eine bis zu vierfache KI-Superauflösung angeboten, sprich, das die RENDERING-Auflösung beträgt 1080p, die Ausgabeauflösung aber 2160p. Im Qualitätsmodus kann die Rendering-Auflösung hingegen auf 1440p angesetzt werden, ebenfalls bei Ausgabeauflösung 2160p, um eine noch bessere Bildqualität zu gewährleisten. Mittlerweile gibt es sogar einen Ultra-Leistungsmodus für Spiele in 8K-Ausgabeauflösung. So könnt ihr ziemlich genau und passend zu eurer verwendeten Grafikkarte steuern, welche Qualität und Bildwiederholrate ihr haben möchtet.
Kommentarezum Artikel