Anzeige
Skip to content

KI: Nvidia verspricht DLSS-Verbesserungen für niedrige Auflösungen

Image description

Künstliche Intelligenz kann digitale Welten verschönern bei einem geringeren Rechenaufwand im Vergleich zu herkömmlichen Renderverfahren. Voraussetzung: Die KI hat ausreichend Trainingsmaterial.

Bei Nvidias DLSS lernt eine KI anhand von Spielebildern mit niedrig aufgelöster, kantiger Grafik und deren bereinigter Idealversion den Unterschied kennen zwischen für Menschen hässlichen und schönen Pixelmustern. Dann trainiert die KI, zusätzliche Pixel so ins Bild einzublenden, dass unschöne Kanten und Treppchenffekte (Aliasing) verschwinden.

Trainiert wird das KI-Modell auf einem Supercomputer. Den Trainingsvorgang muss Nvidia spezifisch pro Spiel durchlaufen. Anschließend kann das Modell mit einem Bruchteil des Rechenaufwands lokal auf einer RTX-Grafikkarte ausgeführt werden.

Mit einem ähnlichen KI-Verfahren generierte Nvidia eine HD-Version des Spieleklassikers Zelda mit deutlich aufgewerteten Texturen.

Anzeige
DEC_D_Incontent-1

Der Supercomputer schläft nie

So gut das KI-Rendering in der Theorie klingt, in der Praxis ist es noch nicht da, wo Spieler und Nvidia es gerne hätten.

Bei den wenigen unterstützten Spielen gibt es gerade bei niedrigeren Auflösungen in 1080p und 1440p Beschwerden, dass die von Künstlicher Intelligenz berechneten Bilder weniger scharf sind als die herkömmlich gerenderte Grafik.

Im Unternehmensblog verspricht Andrew Edelsten, Director of Deep Learning bei Nvidia, Verbesserungen bei der von DLSS erzeugten Bildqualität: Derzeit variiere sie, da jedes Spiel unterschiedliche Charakteristiken habe, basierend auf der Engine, der Komplexität der Szene und der Trainingsdauer der KI.

"Unser Supercomputer schläft nie und wir trainieren und verbessern unser neuronales Netzwerk weiter, nachdem ein Spiel schon erhältlich ist", schreibt Edelsten. Ausgeliefert werden diese Verbesserungen durch neue Treiber.

Anzeige
DEC_D_Incontent-2

Trainiert für 4K

Dass sich viele Spieler über matschige KI-Grafik beschweren, liege daran, dass das aktuelle Modell hauptsächlich für eine 4K-Auflösung trainiert sei.

Bei niedriger aufgelöster Spielegrafik muss die KI beim Training mit deutlich weniger Pixeln auskommen. Weniger Trainingsdaten resultieren in ungenaueren Vorhersagen über zusätzliche Pixel - und somit in Unschärfe.

"Wir haben die Screenshots gesehen, hören uns das Feedback der Community zu DLSS in niedrigeren Auflösungen an und priorisieren die Entwicklung entsprechend", verspricht Edelsten. Die Bildqualität soll mit mehr Trainingsdaten und "einigen neuen Techniken" gesteigert werden.

DLSS ist laut Nvidia nur ein Beispiel für durch KI beschleunigte Grafikberechnung. Das Unternehmen zeigte Ende 2018 erstmals eine Computerstadt, deren Straßenzüge anhand von Videos realer Straßenzüge von einer KI erstellt wurden.

Speziell für VR sollen genaueres Körper- sowie Augentracking oder glaubwürdigere Animationen von digitalen Charakteren möglich sein.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren