Skocz do zawartości

Upscaling WARS czyli kto nas bardziej robi w chuja i kiedy wyjdzie PC2

Featured Replies

Opublikowano
  • Autor
8 minut temu, KrYcHu_89 napisał:

Gotham Knights * jak coś Arkham Knight to był dawno i nie wspiera nic z tych rzeczy, masz przynajmniej RTX 4080 albo 3xxx? xDD co Ty ćpiesz, dlss 3 to jest dlss 2 + ficzery typu nvidia reflex, stwierdzenie "zupelnie inna technolgia" ma nowe oblicze xDD. Za dużo marketingu. Miał już być koniec offtopa, ale widzę kolega dobre zioło dzisiaj. 

Nie mam 4090, tylko 3080, ale nazywa się to dokladnie "frame generation" i jest z reguły w opcjach nad switchem z dlss perf/balanced/quality itp. 

  • Odpowiedzi 111
  • Wyświetleń 2 tys.
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Najpopularniejszy posty

  • Temat ma potencjał na jeden niepełny sezon

  • Brzmi jak komunikacja między delfinami.

  • O ludzie, no muszę, przepraszam z góry  modów ty tak na serio? chyba jasne, że chodziło mi o Gotham Knights, no ale spoko wyłapałeś. Punkt dla Ciebie.  Co DLSS3 proszę skończ już i przestań się

Opublikowano

O ludzie, no muszę, przepraszam z góry  modów ;) ty tak na serio? chyba jasne, że chodziło mi o Gotham Knights, no ale spoko wyłapałeś. Punkt dla Ciebie. 

Co DLSS3 proszę skończ już i przestań się dalej ośmieszać, tym bardziej, że podobno "pracujesz w branży". 

Już chyba trzeci raz, ale widzę nie dochodzi do Ciebie, więc powtórzę: 

1) DLSS2 zajmuje się upscallowaniem obrazu, czyli podnosi go za pomocą AI z rozdzielczości niższej do wyższej 

2) DLSS3 zajmuje się generowaniem dodatkowych klatek i nie ma nic wspólnego z upscallingiem, którym zajmuje się DLSS2.

 

Także, znowu się powtarzając, możesz grać w natywnym 4K z DLSS3 bez włączania DLSS2. Bądź odwrotnie. Bądź łącznie. Bądź bez żadnego z nich.

Dlatego też DLSS3 to NIE JEST żadne DLSS2 + dodatkowe ficzery. 

 

Serio, weź najpierw się zorientuj w temacie, bo po co się wygłupiać. 

 

12 minut temu, KrYcHu_89 napisał:

Nie mam 4090, tylko 3080, ale nazywa się to dokladnie "frame generation" i jest z reguły w opcjach nad switchem z dlss perf/balanced/quality itp. 

 

Wiem gdzie to jest i jak się nazywa, bo od premiery mam 4090 i korzystam w Plague Tale i Spidermanie.

Edytowane przez tjery

Opublikowano
  • Autor
32 minuty temu, tjery napisał:

O ludzie, no muszę, przepraszam z góry  modów ;) ty tak na serio? chyba jasne, że chodziło mi o Gotham Knights, no ale spoko wyłapałeś. Punkt dla Ciebie. 

Co DLSS3 proszę skończ już i przestań się dalej ośmieszać, tym bardziej, że podobno "pracujesz w branży". 

Już chyba trzeci raz, ale widzę nie dochodzi do Ciebie, więc powtórzę: 

1) DLSS2 zajmuje się upscallowaniem obrazu, czyli podnosi go za pomocą AI z rozdzielczości niższej do wyższej 

2) DLSS3 zajmuje się generowaniem dodatkowych klatek i nie ma nic wspólnego z upscallingiem, którym zajmuje się DLSS2.

 

Także, znowu się powtarzając, możesz grać w natywnym 4K z DLSS3 bez włączania DLSS2. Bądź odwrotnie. Bądź łącznie. Bądź bez żadnego z nich.

Dlatego też DLSS3 to NIE JEST żadne DLSS2 + dodatkowe ficzery. 

 

Serio, weź najpierw się zorientuj w temacie, bo po co się wygłupiać. 

 

 

Wiem gdzie to jest i jak się nazywa, bo od premiery mam 4090 i korzystam w Plague Tale i Spidermanie.

mylisz DLSS3 jako całóść z nazwą nowego ficzera do generowania klatek, dlss 3 obejmuje dlss2 + ten ficzer. Dlatego wszedzie piszesz, ze wlaczasz dlss 2 + dlss 3. Wlaczasz dlss 3 (dlss 2 + ficzer do generowania klatek)...

Kupileś 4090 i robisz z siebie architekta, bo nie znasz technikaliów, myslisz, ze dlaczego nie nazwali tego dlss 3? Bo to nie jest dlss 3, to tylko nazwa marketingowa, to jest dlss 2 + ficzer do generowania klatego, dlatego w opcjach gry widzisz obecne formy dlss + ficzer do generowania klatek, bardziej łopatologicznie nie można tego wyjasnic. 

image.png.10bee5978407795a55f8908afd0cb1da.png

Edytowane przez KrYcHu_89

Opublikowano
  • Autor

@tjery tutaj fajnie wytlumaczone image.png.f861292f715604d076532ee38cd320f7.png

inna nazwa na ten ficzer to "fake frames" :D  co świadczy o dobrym marketingu Nvidii, no offence, ale takie są opinie o "dlss 3". 

 

image.png.61497c50e23a744a6b168ced50460c4f.png

Opublikowano
  • Autor

Oczywiście jakoś trzeba sprzedać te 4090 ludziom za 12k, a najlepszy do tego jest upscaling :)>.

Opublikowano
27 minut temu, KrYcHu_89 napisał:

mylisz DLSS3 jako całóść z nazwą nowego ficzera do generowania klatek, dlss 3 obejmuje dlss2 + ten ficzer. Dlatego wszedzie piszesz, ze wlaczasz dlss 2 + dlss 3. Wlaczasz dlss 3 (dlss 2 + ficzer do generowania klatek)...

Kupileś 4090 i robisz z siebie debila, bo nie znasz technikaliów, myslisz, ze dlaczego nie nazwali tego dlss 3? Bo to nie jest dlss 3, to tylko nazwa marketingowa, to jest dlss 2 + ficzer do generowania klatego, dlatego w opcjach gry widzisz obecne formy dlss + ficzer do generowania klatek, bardziej łopatologicznie nie można tego wyjasnic. 

image.png.10bee5978407795a55f8908afd0cb1da.png

 

Jak już nas tutaj przeniosło to jeszcze Ci odpiszę, ale nie wiem czy to ma jakikolwiek sens, bo niezbyt łapiesz, a jak w końcu załapiesz to próbujesz jakoś wybrnąć, ale to też Ci nie wychodzi.

 

https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

 

Tak o swojej technologi pisze jej twórca, czyli Nvidia. Widać jasno i wyraźnie, że rozróżniają DLSS2 od DLSS3, więc spokojnie można się taką terminologią posługiwać. Ty natomiast nie miałeś o tym pojęcia i myślałeś, że dlss3 to to samo co 2 tylko ulepszone. Widać to po twoim wpisie, w którym napisałeś że DLSS3 jest w Ghotam Knights, ale razem z DLSS2, w sensie że na 4090 masz tylko opcje DLSS3. Nie masz zupełnie pojęcia jak to działa.

Nie ośmieszaj się. EOT

 

The Evolution of NVIDIA DLSS

When we first introduced NVIDIA DLSS, we set out to redefine real-time rendering through AI-based super resolution - rendering fewer pixels and then using AI to construct sharp, higher resolution images. Less than two years later, we introduced the world to NVIDIA DLSS 2, which further improved image quality and performance with a generalized neural network that could adapt to all games and scenes without specific training. DLSS 2 is now widely adopted in 216 games and apps, along with support in Unity and Unreal Engine. DLSS 2 continues to improve through ongoing training on NVIDIA’s AI supercomputer, with 4 major updates released to date, which have brought further enhancements to image quality.

 
how-nvidia-dlss-2-works.jpg
 
 
 
 

Introducing NVIDIA DLSS 3 - A Revolution in Neural Graphics

DLSS 3 is a revolutionary breakthrough in AI-powered graphics that massively boosts performance, while maintaining great image quality and responsiveness. Building upon DLSS Super Resolution, DLSS 3 adds Optical Multi Frame Generation to generate entirely new frames, and integrates NVIDIA Reflex low latency technology for optimal responsiveness. DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards.

The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.

Edytowane przez tjery

Opublikowano
  • Autor

Najlepsze są te filmiki promocyjne NVidii z Cyberpunkiem, gdzie wszystko z dlss chodzi miód malina, zapewne nawet na dlss nie odpalone, bo nie widać żadnych artefaktów, nigdy :D. :D 

 

Żeby nie było karty majądalej dobre, RTX 3080 jakoś chodzi, ale te ich reklamy dlss z tym ile to fpsów więcej wpada bez strat w jakości to jest wlasnie wprowadzanie usera w błąd. 

1 minutę temu, tjery napisał:

 

Jak już nas tutaj przeniosło to jeszcze Ci odpiszę, ale nie wiem czy to ma jakikolwiek sens, bo niezbyt łapiesz, a jak w końcu załapiesz to próbujesz jakoś wybrnąć, ale to też Ci nie wychodzi.

 

https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

 

Tak o swojej technologi pisze jej twórca, czyli Nvidia. Widać jasno i wyraźnie, że rozróżniają DLSS2 od DLSS3, więc spokojnie można się taką terminologią posługiwać. Ty natomiast nie miałeś o tym pojęcia i myślałeś, że dlss3 to to samo co 2 tylko ulepszone. Widać to po twoim wpisie, w którym napisałeś że DLSS3 jest w Ghotam Knights, ale razem z DLSS2. Nie masz zupełnie pojęcia jak to działa.

Nie ośmieszaj się. EOT

 

The Evolution of NVIDIA DLSS

When we first introduced NVIDIA DLSS, we set out to redefine real-time rendering through AI-based super resolution - rendering fewer pixels and then using AI to construct sharp, higher resolution images. Less than two years later, we introduced the world to NVIDIA DLSS 2, which further improved image quality and performance with a generalized neural network that could adapt to all games and scenes without specific training. DLSS 2 is now widely adopted in 216 games and apps, along with support in Unity and Unreal Engine. DLSS 2 continues to improve through ongoing training on NVIDIA’s AI supercomputer, with 4 major updates released to date, which have brought further enhancements to image quality.

 
how-nvidia-dlss-2-works.jpg
 
 
 
 

Introducing NVIDIA DLSS 3 - A Revolution in Neural Graphics

DLSS 3 is a revolutionary breakthrough in AI-powered graphics that massively boosts performance, while maintaining great image quality and responsiveness. Building upon DLSS Super Resolution, DLSS 3 adds Optical Multi Frame Generation to generate entirely new frames, and integrates NVIDIA Reflex low latency technology for optimal responsiveness. DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards.

The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.

Przecież to jest folder marketingowy... xDD. Rozumiem, nie chcę obrażać posiadaczy 4090, bo to super karta, wiadomka. 

 

Ok, widzę, że się nie dogadamy. W każdym razie NVidia Super Resolution jest jedna, wzbogacona o ficzer, a wlasciwie dwa (Fake Frames i reflex, zeby ograniczyc latency). 

 

image.png.95539f2a87f26656cc90a7e627eab5c0.png

Opublikowano
1 minutę temu, KrYcHu_89 napisał:

Najlepsze są te filmiki promocyjne NVidii z Cyberpunkiem, gdzie wszystko z dlss chodzi miód malina, zapewne nawet na dlss nie odpalone, bo nie widać żadnych artefaktów, nigdy :D. :D 

 

Żeby nie było karty majądalej dobre, RTX 3080 jakoś chodzi, ale te ich reklamy dlss z tym ile to fpsów więcej wpada bez strat w jakości to jest wlasnie wprowadzanie usera w błąd. 

 

Nie widać artefaktów, bo przy 120+ klatkach na sekundę ich nie widać. Grałem, sprawdzałem.

Opublikowano
  • Autor

https://www.techspot.com/article/2546-dlss-3/ kolejna fajna analiza 

 

image.png.10700db3fc67b502dca0a39ab90b0457.png

1 minutę temu, tjery napisał:

 

Nie widać artefaktów, bo przy 120+ klatkach na sekundę ich nie widać. Grałem, sprawdzałem.

To nie wiem, może jesteś szczęściarzem, u mnie widać w każdej grze, w CP2077 tak mocno, ze nie korzystam tam z dlss kosztem nawet Ray Tracingu przełączonego na SSR i wiem, że nie jestem jedynym niezadowolonych uzytkownikiem DLSS, bo nie tak to reklamowano...

Opublikowano
Teraz, KrYcHu_89 napisał:

https://www.techspot.com/article/2546-dlss-3/ kolejna fajna analiza 

 

image.png.10700db3fc67b502dca0a39ab90b0457.png

Przeczytaj ostatnie zdanie. Jak grasz w 120 klatkach nie widać żadnych artefaktów. 

3 minuty temu, KrYcHu_89 napisał:

https://www.techspot.com/article/2546-dlss-3/ kolejna fajna analiza 

 

image.png.10700db3fc67b502dca0a39ab90b0457.png

To nie wiem, może jesteś szczęściarzem, u mnie widać w każdej grze, w CP2077 tak mocno, ze nie korzystam tam z dlss kosztem nawet Ray Tracingu przełączonego na SSR i wiem, że nie jestem jedynym niezadowolonych uzytkownikiem DLSS, bo nie tak to reklamowano...

 

Gram teraz w quality w 4K i nie mam żadnych problemów, obraz podczas gry nie do rozróżnienia od natywnego w czasie gry. W 4k w żadnej grze żadnych problemów z DLSS quality nie miałem. 

Opublikowano
  • Autor
1 minutę temu, tjery napisał:

Przeczytaj ostatnie zdanie. Jak grasz w 120 klatkach nie widać żadnych artefaktów. 

na 4090 i tak chyba lepiej 60 fps natywnie z RT w CP2077 (chyba wystarczy klatek , dokładnie na wykresy nie patrzyłem co i jak natywnie na 4090, tzn. ja bym to wybrał, na 3080 na najnowszych sterach i tak zjebali mapę, cośtam poprawiłem w configu i dopiero działa, cały CDP, pewnie mapa była zahardkodowana :D). Ale cóż zawsze jest furtka do dlss. Niemniej jednak moja ocena dlss po 2 latach użytkownia  to takie mocne 3/10. :/ 

https://support.cdprojektred.com/en/cyberpunk/pc/gameplay/issue/2254/nvidia-gpus-in-game-map-looks-distorted-glitched-after-updating-graphics-drivers

Opublikowano

Tak jak już pisałem, jest masa testów, które pokazują, że DLSS jest świetny w tym co robi, nie dość, że poprawia wydajność, to często nie różni się od natywnej rozdzielczości albo nawet wygląda lepiej. I tyle.

Opublikowano
32 minuty temu, KrYcHu_89 napisał:

@tjery 

 

image.png.61497c50e23a744a6b168ced50460c4f.png

 

Już wiem skąd bierze się Twoja wiedza, czytasz posty jakichś randomów z netu i na tym potem budujesz swoje twierdzenia. Dziwne nie jest, że ma stuttering jak mu generuje więcej klatek niż ma ekran Hz. Amerykę odkrył. A żeby tego nie było wystarczy włączyć vsync na on w panelu nvidii, 5 sekund roboty i trochę rozeznania w temacie. Zanim by napisał tego użalającego posta dawno by miał zrobione jakby ogarniał.

Edytowane przez tjery

Opublikowano
  • Autor
14 minut temu, tjery napisał:

Tak jak już pisałem, jest masa testów, które pokazują, że DLSS jest świetny w tym co robi, nie dość, że poprawia wydajność, to często nie różni się od natywnej rozdzielczości albo nawet wygląda lepiej. I tyle.

"Często" niestety ja jeszcze na taką grę nie trafiłem, ale może jestem wybredny :D. Dla mnie DLSS to fajna rzecz do testowania i znajdowania błędów. Niestety, tak to wygląda, natywnie masz mniej klatek, ale za to mniej przekłamań graficznych i innych fajerwerków, co kto lubi. 

 

 

Dziwne, że takie duże portale jak Digital Foundry nigdy nie skupiają się na detalach... $$$ :)

5 minut temu, tjery napisał:

 

Już wiem skąd bierze się Twoja wiedza, czytasz posty jakichś randomów z netu i na tym potem budujesz swoje twierdzenia. Dziwne nie jest, że ma stuttering jak mu generuje więcej klatek niż ma ekran Hz. Amerykę odkrył. A żeby tego nie było wystarczy włączyć vsync na on w panelu nvidii, 5 sekund roboty i trochę rozeznania w temacie. Zanim by napisał tego użalającego posta dawno by miał zrobione jakby ogarniał.

Posiadacz 4090, nie widzi, ze nie dziala xDD. Ja mam dlss 2 lata, nigdy nie dzialal poprawnie, stad 3/10. Dziekuje, dobranoc. Pograsz, zobaczysz jak dziala marketing w tej branzy :D. 

Opinie użytkowników się z dupy nie biorą, moje rowniez. Mało jest userów z RTxami jeszcze. Stąd 30% w necie to opinie marketingowców a 30% to opinie niezadowolonych graczy. 40% dopiero kupiła i nie widzi problemu. 

Edytowane przez KrYcHu_89

Opublikowano

Piszesz takie rzeczy i w taki sposób, że z przykrością muszę stwierdzić, że formuła naszej wspólnej dyskusji się wyczerpała. 

Już 2x pisalem EOT, ale niech będzie do 3 razy sztuka, EOT.

Edytowane przez tjery

Opublikowano
  • Autor

DLSS jest w powijakach i nie działa jak na folderach reklamowych, a NVidia robi z ludzi baranów jak zwykle, potem pojawiają się tacy ludzie jak @tjery, co dopiero sprzęt kupili i nie widzą, że coś jest zjebane, dosłownie i w przeności i praisują te swoje nowiutkie karty :D. Jakość obrazu nie jest wcale lepsza, jest wyraźnie gorsza w znakomitej większości przypadków, przy znakomitej większości obiektów w ruchu. Owszem performance gain jest fenomenalny, tylko nie widze, po co w RTX 3080/4080/4090 tego używać, skoro można grać sobie w 60 fps bez tego w normalnej grafice, bez problemów, jakie dlss przynosi. 

 

Może za 5 lat to poprawią, jak każde AI, jeszcze długa droga, ale fora nvidii, reddity są pełne tych problemów i negowanie ich jest totalnie bez sensu. 

Opublikowano
9 minut temu, KrYcHu_89 napisał:

"Często" niestety ja jeszcze na taką grę nie trafiłem, ale może jestem wybredny :D. Dla mnie DLSS to fajna rzecz do testowania i znajdowania błędów. Niestety, tak to wygląda, natywnie masz mniej klatek, ale za to mniej przekłamań graficznych i innych fajerwerków, co kto lubi. 

 

 

40% dopiero kupiła i nie widzi problemu. 

 

Ps. przed 4090 miałem 3090 i 3080Ti, korzystam z DLSS już sporo czasu.

Opublikowano
  • Autor

Moje posty są po to, aby zwiększyć waszą świadomość, dordzy gracze PCtowcy (rownież @tjery) a nie żeby obrazić posiadaczy RTXów (sam nim jestem). 

 

DLSS to u mnie przygoda ciężka i bez happy endu po dziś dzień :).

Opublikowano
  • Autor

 

Mam nadzieję, że jeszcze mnie kiedyś zaskoczy. Niektórzy pewnie nawet nie zauważą różnic, ja je niestety widzę do tego stopnia, że jak widzę opcje DLSS to zanim odpalę nową grę na PC testuje 30 minut z dlss i bez, zawsze ostatecznie jak tylko widzę ten flickering i problemy z oświetleniem, to go wyłączam na rzecz natywnej rozdziałki z odjęciem RT (SSR dalej się bardzo dobrze trzyma) Stare ficzery, ale jare :D.

 

 

 

Apropo RT to chyba osobny temat trzebaby założyć, tez ficzer też pozostawia wiele do życzenia w wielu grach, a żre zaroby w porównaniu do SSR ultra diabelnie mocno. 

Tutaj pierwszy raz w grudniu 2020 zapaliła mi się czerwona lampka (dosłownie) Widzicie te czerwone neony, które mrugają, to właśnie dlss w pełnej krasie :D?  

 

Minuta 42

Spoiler

 

 

Edytowane przez KrYcHu_89

Opublikowano

To już nie do Krycha, bo temat już zakończony, ale jak on zrobił taką odezwę do narodu to ja też, a co ;)

 

Także jak ktoś się zastanawia nad RTXem i korzystaniem z DLSS to niech bierze w ciemno, bo to świetna technologia, a to co pisze mój tematowy przeciwnik to w 99% bzdury, które mogą kogoś serio zainteresowanego tematem wprowadzić w błąd.

Opublikowano
2 godziny temu, KrYcHu_89 napisał:

Oczywiście jakoś trzeba sprzedać te 4090 ludziom za 12k, a najlepszy do tego jest upscaling :)>.

Raczej jedyne wyjście, powoli dochodzimy do ściany jeśli chodzi o zauważalny wzrost jakości grafiki tylko dzięki dokładaniu mocniejszego hardware. Trzeba sposobem.

 

Co do Digital Foundry to o ile dobrze pamiętam wrzucali filmik z Deathloop, z DLSS,FSR itp no i było widać artefakty.

 

 

  • 1 miesiąc temu...
Opublikowano

Na tych najnowszych Portal w 20 klatkach działa, więc czekamy na serię 5xxx, może dobije do trzydziestu

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.

Gość
Dodaj odpowiedź do tematu...

Ostatnio przeglądający 0

  • Brak zarejestrowanych użytkowników przeglądających tę stronę.