Notebookcheck Logo

CheckMag | DLSS 3 firmy Nvidia był największym przegranym targów CES 2024

Jakkolwiek kontrowersyjny może być ten artykuł, prawdopodobnie blednie on w porównaniu z Jeffem Fisherem wymawiającym "Ti" jako "Tie" w kolejnym keynote. (Zdjęcie: NVIDIA)
Jakkolwiek kontrowersyjny może być ten artykuł, prawdopodobnie blednie on w porównaniu z Jeffem Fisherem wymawiającym "Ti" jako "Tie" w kolejnym keynote. (Zdjęcie: NVIDIA)
NVIDIA pokazała wiele podczas swojej prezentacji na targach CES, która odbyła się 8 stycznia. Zaprezentowali swoją serię procesorów graficznych Super. Pokazali swoją odnowioną wiarę w mówienie "AI", aby zwiększyć swoje wyniki na giełdzie. Ale pokazali również, że ich osławiona technologia generowania klatek zwiększająca wydajność jest również dość wymagająca pod względem wydajności.
Nvidia AMD Gaming Geforce GPU Opinion / Kommentar
Opinion by Matthew Lee
Views, thoughts, and opinions expressed in the text belong solely to the author.

RTX 4080 Super został wprowadzony z twierdzeniem o 1,4-krotnym wzroście wydajności w porównaniu do RTX 3080 Tii ma litanię imponujących specyfikacji na poparcie tych twierdzeń dotyczących wydajności. Niedługo po tym, materiał z rozgrywki w grze Alan Wake 2 pokazał, że liczba klatek na sekundę z nadchodzącą kartą 4080 Super jest około dwukrotnie wyższa niż w przypadku 3080 Ti. Choć może się to wydawać imponującym wzrostem, jest on mniejszy, gdy pomyślimy o generowaniu klatek; uwzględnienie każdej klatki renderowanej przez 4080 Super, która jest uzupełniana przez kolejną z DLSS 3, oznacza, że obie karty graficzne uzyskują dokładnie taki sam niegenerowany framerate!

I nie jest to wynik odstający, który sprawia, że 4080 Super wygląda źle - choć obecność takiego w prezentacji NVIDII byłaby również dość straszna - ponieważ więcej materiałów marketingowych od zielonego zespołu pokazuje ten sam wynik. Po przeanalizowaniu ich wykresów można stwierdzić, że średni wzrost wydajności obu kart w grach bez funkcji generowania klatek wynosi 41%, co jest zgodne z twierdzeniami firmy NVIDIA, ale wzrost w grach z nią wynosi średnio 97%, co ponownie potwierdza, że po usunięciu generowanych klatek z równania 4080 Super dorównuje tylko 3080 Ti.

Kilka statystyk, które wyciągnąłem z wykresów wydajności NVIDIA, wykorzystując wysoce wyrafinowaną, najnowocześniejszą technikę znaną jako "liczenie długości słupków w pikselach". (Zdjęcie: NVIDIA, edytowane; własne)
Kilka statystyk, które wyciągnąłem z wykresów wydajności NVIDIA, wykorzystując wysoce wyrafinowaną, najnowocześniejszą technikę znaną jako "liczenie długości słupków w pikselach". (Zdjęcie: NVIDIA, edytowane; własne)

Na domiar złego, liczba ta jest wypaczona w górę przez najgorsze wyniki - jeśli chcą Państwo co najmniej 40 FPS "natywnej liczby klatek na sekundę", aby utrzymać opóźnienie wejściowe w ryzach, średnia poprawa spada do 81% (a dla tych, którzy mogą nazwać to wybieraniem czereśni, warto zauważyć, że AMD również sugeruje natywne 60 FPS dla swojej technologii) natywne 60 FPS dla swojej technologii, a dynamiczny duet z Hardware Unboxed zaleca podwoić !).

Wydaje się, że ujawnia to niewygodną prawdę, którą NVIDIA pozostawiła niedopowiedzianą - DLSS 3 jest dość kosztowny obliczeniowo. Patrząc na czas wyświetlania klatek zamiast na liczbę klatek na sekundę - czyli (milio)sekundy na klatkę, a nie klatki na sekundę - staje się to bardziej zrozumiałe. RTX 4080 Super zajmuje oczywiście mniej czasu na renderowanie klatek niż RTX 3080 Ti, ale po uwzględnieniu wygenerowanych klatek zajmuje to więcej czasu, niż gdybyśmy oczekiwali jednolitego wzrostu o 41% w stosunku do RTX 3080 Ti 3080 Ti. Różnica w tych czasach - o ile dłużej zajmuje to 4080 Super niż powinno - to właśnie czas, jaki DLSS 3 potrzebuje, aby zdziałać swoją magię.

Różnica ta wynosi... 5.32 ms.

Proszę nigdy nie mówić, że nie pokazuję, jak pracuję! (Zdjęcie: własne)
Proszę nigdy nie mówić, że nie pokazuję, jak pracuję! (Zdjęcie: własne)

Pięć milisekund może nie wydawać się dużo, ale jest dodawane dość równomiernie w każdej grze, którą NVIDIA wybrała do zaprezentowania RTX 4080 Super w najlepszym wydaniu. Jest to narzut, pasożytniczy opór, pułap wydajności, a w grach takich jak Starfield stanowi prawie połowę czasu, jaki 4080 Super spędza na renderowaniu klatki.

Wygląda na to, że generowanie klatek pozostanie tutaj i wydaje się, że czas przetwarzania poświęcony na to będzie kolejnym polem bitwy. Podczas prezentacji AMD zaprezentowano RX 7600 XT jako uzupełnienie istniejącego RX 7600 (który nadal jest świetnym zakupem na Amazonie), a na tych wykresach przeszedł od pokonania RTX 4060 o 31% renderując natywnie w Call of Duty: Modern Warfare 3 do ponad dwukrotnie więcej przy włączonym FSR 3 i DLSS 3, a robiąc to samo w Avatar: Frontiers of Pandora zmienił 9,1% przewagę karty NVIDIA w remis. Albo FSR 3 zyskiwał na popularności, albo DLSS 3 ją tracił, a to wskazuje na to, że jedno rozwiązanie jest nieco cięższe od drugiego.

Tak, są to własne testy porównawcze i nie należy ich traktować jako prawdy. Ale tak samo było z testami NVIDIA - i nadal zawierały one sporo przydatnych informacji. (Zdjęcie: AMD)
Tak, są to własne testy porównawcze i nie należy ich traktować jako prawdy. Ale tak samo było z testami NVIDIA - i nadal zawierały one sporo przydatnych informacji. (Zdjęcie: AMD)

Biorąc pod uwagę, że technologie FSR 3 i FMF czerwonego zespołu mają potencjalnie znacznie mniejszy narzut niż DLSS 3 - pomimo tego, że ten ostatni działa na dedykowanym krzemie akceleratora przepływu optycznego - a Intel również zaczyna wydawać odgłosy w przestrzeni framegen, NVIDIA bez wątpienia musi teraz dokonać trudnych wyborów. Gracze starający się wycisnąć więcej mocy z low-endowej karty graficznej prawdopodobnie wybiorą znacznie lepszą wydajność nad wyraźniejszą rozdzielczość, podczas gdy ci z już wysokimi prędkościami klatek nie są tak dotknięci artefaktami, gdy każda pojedyncza wygenerowana klatka jest na ekranie tylko przez krótki czas; dobrze wyglądające, ale powolne rozwiązanie nie wygrywa analizy kosztów i korzyści w żadnej z tych sytuacji.

A zatem, ile tak naprawdę warta jest jakość obrazu w przeliczeniu na pięć milisekund?

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 01 > DLSS 3 firmy Nvidia był największym przegranym targów CES 2024
Matthew Lee, 2024-01-24 (Update: 2024-01-24)