• vorgestern
Transkript
00:00AI verändert alles, wie wir arbeiten und spielen, und die Computergrafik ist keine Exzeption.
00:08Wir haben die Computergrafik mit artificialer Intelligenz seit dem Launch von RTX in 2018 wiederentwickelt.
00:15DLSS lernt immer. Um die AI mit DLSS zu verbessern, analysieren wir die Bildqualität
00:21und verkleinern unsere Trainingsdaten und Algorithmen. Dann trainieren wir das Modell wieder,
00:26um die Computergrafik schneller, schneller und einfacher zu integrieren. DLSS ist der beste Weg, um zu spielen.
00:32Heute präsentieren wir die größten Verbesserungen zu DLSS seit 2020,
00:36zum Beispiel eine neue Multi-Frame-Generation für RTX 50-Serie-GPUs,
00:41eine erhöhte Frame-Generation für RTX 40- und 50-Serie-User mit schnellerer Leistung und niedrigerer Memory-Ausgabe
00:48und ein neues Modell, das Ray-Reconstruction, Super-Resolution und Deep-Learning-Anti-Aliasing ermöglicht,
00:54um die Bildqualität und Stabilität für alle GeForce RTX-User zu verbessern.
01:03Im Zusammenhang mit der RTX 40-Serie im Jahr 2022 haben wir die Frame-Generation eröffnet,
01:07in der eine AI-Netzwerke ein Optikalflussfeld mit Bewegungsvektoren aus Spiel-Geometrie benutzt hat,
01:12um einen einzigen Frame zwischen jedem Paar traditioneller renderter Frames zu generieren.
01:17Die Blackwell-Architektur ist für Neural-Rendering gebaut,
01:20und das eröffnet neue AI-Fähigkeiten für DLSS.
01:24Wir können nun mehrere Frames pro traditioneller renderter Frame generieren.
01:28Um dies möglich zu machen, hat unser Forschungsteam ein neues AI-Modell entwickelt,
01:31das den Optikalflussfeld effizienter und präziser generiert, um mehrere Frames zu generieren.
01:37Multi-Frame-Generation benötigt konsistente und präzise Frame-Pacing.
01:40DLSS3-Frame-Pacing hatte Variabilität,
01:43weil verschiedene Spiele-Motoren Werkflöten zwischen CPU und GPU unterscheiden.
01:48Mit der Blackwell-Architektur wurde der Display-Motor verbessert,
01:51um Flip-Metering zu nutzen, wenn man mehrere Frames generiert.
01:54Dies ermöglicht, dass das GPU konsistente und optimale Frame-Pacing ermöglicht.
01:58Zusätzlich haben die 5. Generation Tensor-Cores auf RTX-50-Serie-GPUs
02:03die komputationelle Leistung, die notwendig ist,
02:05um schnell die Serie von AI-Modellen zu exekutieren.
02:08Diese Software- und Hardware-Innovationen ermöglichen DLSS4 auf RTX-50-Serie-GPUs,
02:13um bis zu 3 zusätzliche Frames zwischen traditionell gerenderten Frames zu generieren.
02:17Dies bringt revolutionäre Leistung gegen traditionelle native Renderung.
02:25Die meisten Frame-Generation-Spiele, die heute erhältlich sind,
02:28können mit der NVIDIA-App mit Multi-Frame-Generation verwendet werden.
02:32In der NVIDIA-App-Driver-Settings-Menü
02:34öffnen Sie den DLSS-Override
02:36und wählen Ihren gewünschten Ausgangsmodus im Frame-Generation-Dropdown-Menü.
02:40Wenn RTX-50-Serie-Grafikkarten auf den Läden der Läden
02:43werden Multi-Frame-Generation in mehr als 75 Spielen und Apps unterstützt.
02:47In Verbindung mit Multi-Frame-Generation
02:49hat unser Team auch hart gearbeitet,
02:51um grundlegende Verbesserungen für unsere existen DLSS-Technologien zu entwickeln.
03:00Heute präsentieren wir ein erhöhtes Single-Frame-Generation-Modell
03:03für RTX-40- und 50-Serie-GPUs,
03:05das, wie die Multi-Frame-Generation-Technik für Blackwell,
03:08zwei AI-Modelle benötigt,
03:10eine für Optical Flow und eine für Frame-Generation.
03:13Das Ergebnis ist erhöhte Leistung und niedriger VRAM-Ausgabe,
03:17wie Sie hier sehen.
03:23DLSS4 präsentiert auch ein stärkeres Transformer-basiertes Modell
03:27für Super-Resolution, Ray-Reconstruction und DLAA,
03:30mit 4X mehr Tensor-Core-Processing-Fähigkeit,
03:32um Bilder zu rekonstruieren
03:34und eine noch bessere Bildqualität für alle RTX-Eigentümer.
03:37Vorher benutzten all diese Technologien
03:39das konvolutionelle Neuronetwork-Modell,
03:41auch CNN genannt.
03:43CNNs waren die dominante Architektur
03:45für bildungsrelevante Anwendungen
03:46während der frühen Jahre des Deep Learning-Entwicklungs.
03:48Ein CNN processiert Pixelinformationen
03:50durch lokale Operationen,
03:52spatial um ein kleines Anzahl von nahegelegten Pixeln
03:55und temporär über mehrere Framen.
03:57Jetzt präsentieren wir eine neue Transformer-basierte Architektur
04:00für das erste Mal.
04:02Die Transformer-Architektur
04:03bewegt die Schwingungen der artificiellen Intelligenz
04:06und ist das, was die aktuellen
04:09AI-Applikationen ermöglicht.
04:10Verglichen mit den CNN-Modellen
04:12nutzen Transformer Selbstaufmerksamkeit
04:14und können viel leichter die längeren Rangpatternen
04:17über eine viel größere Pixel-Wände identifizieren.
04:19Transformer skalieren viel effektiver als CNNs.
04:22Unsere Transformer-Modelle
04:24ingestieren über zweimal mehr Parameter
04:26und brauchen viermal mehr Computer
04:28während der Infernz.
04:30In der Tat ist DLSS4 auf RTX-GPUs
04:33das erste Mal, dass Transformer-Modelle
04:35Sequenzbilder auf einem hohen real-time-Frame-Rate generieren.
04:39Blackwells Tensor-Kurs
04:40bietet zusätzliche Hardware-Akzelerationen,
04:42die den Infernz-Speed dieser Transformer-Modelle
04:44noch stärker erhöhen.
04:47Wenn man DLSS-Super-Resolution benutzt,
04:49ist das Endprodukt der Transformer-Modelle
04:51temporär stabiler,
04:52mit mehr Bilddetail in Bewegung.
04:54Bei intensiven Ray-Trace-Inhalten
04:56bekommt das Transformer-Modell für Ray-Rechonstruktionen
04:59eine noch größere Aufhebung im Allgemeinen.
05:01Besonders für Szenen mit herausforderndem Licht.
05:04Alle gemeinsamen Artifakte aus typischen Denoiser
05:06werden signifikant reduziert.
05:08Mit der NVIDIA-App
05:09können GeForce RTX-User
05:11ihre DLSS-Spiele optionell updaten
05:13mit dem Transformer-Modell
05:14für Ray-Rechonstruktionen, Super-Resolution oder DLAA.
05:18In Bezug auf Spiele
05:19kommt DLSS4 zu vielen kreativen Apps,
05:22wie Unreal Engine 5,
05:24D5 Render und Chaos Vantage.
05:27DLSS erhöht signifikant die real-time-Viewport-Erfahrung,
05:30multipliziert den Frame-Rate in D5 Render,
05:33ermöglicht Designern,
05:34sich besser zu iterieren und an ihrer Arbeit zu kooperieren.
05:37Neural-Rendering
05:38kreiert immer mehr Off-Screen-Inhalte.
05:41Und diese generierten Pixeln sind höher qualitativ
05:43als das, was von traditionellem Native-Rendering ausgeliefert wird.
05:46Mit Super-Resolution oder Ray-Rechonstruktionen allein
05:49werden 3 aus jeder 4 Pixeln mit AI generiert.
05:52Wenn wir Frame-Generationen hinzufügen,
05:54werden 7 aus jeder 8 Pixeln mit AI generiert.
05:57Letztlich, mit der DLSS-4 Multi-Frame-Generation,
06:00werden 15 aus jeder 16 Pixeln mit AI generiert.
06:05Mit der RTX-50-Serie und DLSS-4
06:08haben wir eine neue Generation Neural-Grafiken vorgestellt,
06:11sodass Spiele schöner, schneller laufen und mehr antwortungsvoll sind.
06:15Die AI-bestehende Zukunft steht hier.
06:18Und DLSS-4 ist der beste Weg, um zu spielen.

Empfohlen