Opublikowano 26 marca26 mar Niestety prawda, jako jedyni pchają ten wózek zwany grafiką. Każda ich zmiana architektury dodaje coś nowego i o dziwo większość się przyjmuje jako standard. Też jako jedyni pracują nad mocnym deskopowym prockiem na ARM tylko coś im długo schodzi albo mają już wywalone i pchają te technologię tylko w AI. Nie wiem nie wczytywałem się. No ale właśnie, przez to, że pchają masę zielonych w R&D powstały akceleratory AI xd
Opublikowano 26 marca26 mar Bronienie niewypału jakim był DLSS 1.0 Ładne zakrzywianie rzeczywistości, może ktoś tutaj wpadnie napisać że FSR1.0 też nie był taki zły bo przecież teraz mamy FSR4.
Opublikowano 26 marca26 mar Jakie bronienie? Potrafisz czytać? To był po prostu pierwszy krok do tego co mamy teraz. Analogicznie będzie z DLSS 5.
Opublikowano 26 marca26 mar Tak potrafię "Wszyscy hejtują tak jak hejtowali poprzednio DLSS 1.0, hairworks, reflex, cloud, g-sync, ray tracing, path tracing, a technologia jeszcze w powijakach i ostatecznie pewnie bedzie super. Czyli standard, psy szczekają, król Jensen jedzie dalej. Wejdzie tu kilku typa co dobrą grafikę widzieli najwyżej skompresowaną na jutub i będą się wypowiadać, że nie no tak nie wolno, AI, zabijamy kreatywność, hola hola, kolejne 50ms imput laga, chamy, nie wolno, wizja developera została zniszczona i inne smutne pierdolenie. Nie przypominam sobie, żeby Nvidia zrobiła coś źle, oprócz może złego rozpropagowania PhysX (która to technologia do dziś jest rewolucyjna)." Jak gówno zwane DLSS 1.0 nie było czymś zrobionym źle to masz strasznie niskie standardy. DLSS powinien zadebiutować wraz z wersją 2.0 tak samo jak FSR i PSSR aha i RT czy PT to technologia która jest od ponad 30 lat, nVidia tego nie wymyśliła tylko wprowadziła do gierek.
Opublikowano 26 marca26 mar W dniu 24.03.2026 o 19:54, tjery napisał(a):nie wiem skąd to przeświadczenie u ludzi, że jak powierzchnie odpowiednio reagują ze światłem to od razu już "prześwietlone".To nie tak, AI wszystko robi tak samo, powierzchnie się różnie zachowują różnie reagują na światło i nie zawsze niebo jest pod chmurką jak w modach do cyberpunka(w tych DLSS 5.0 jest tendencja do odbicia szarości), a dach z normalnej starej matowej dachówki nie odbija tak jak dach z blachy, albo nowoczesnych błyszczących, a tak się zachowało to w Creedzie. Tak samo to wyciągnie cieni to jest moda ciągnięcie sdr do HDR jaka była tak ze 20 lat temu w forografii, chociaż fakt faktem telefony po tych wszystkich zmianach algorytmu robią podobnie, starają się nie robić mocnych cieni tylko je ciągną w górę, dlatego się ludziom wydaje zę to jest realistyczne bo się przyzwyczaili do telefonowowgo looku.Ja jestem przekonany że kiedyś, to może być super.... tak szybko jak będzie integracja z silnikiem, przy tworzeniu gry sobie dev sobie zaakceptuje wstępny model nakładany na jego. Część rzeczy poleci bezpośrednio z silnika(typu info o materiałach), a dev będzie mógł używać promptów żeby zmienić jak coś nie będzie pasowało. Np model dostanie info jaka jest pogoda, jaki jest materiał dachówki, dodatkowe szczegóły do generowania twarzy(zrób mi 15 latka, a nie 30latka) itp. itd. a autor przyponie jeden model AI do jednej postaci tak żeby Grace nie była w jednej scenie zupełnie inną osobą niż w innej. To musi po prostu brać dużo więcej info niż po prostu jedna klatka i motion vectory żeby coś z tego było. Może to już będzie za rok-dwa, kto wie, rozwój takich narzędzi teraz szybko leci. Edytowane 26 marca26 mar przez Kangus
Opublikowano 26 marca26 mar 50 minut temu, Kangus napisał(a):To nie tak, AI wszystko robi tak samo, powierzchnie się różnie zachowują różnie reagują na światło i nie zawsze niebo jest pod chmurką jak w modach do cyberpunka(w tych DLSS 5.0 jest tendencja do odbicia szarości), a dach z normalnej starej matowej dachówki nie odbija tak jak dach z blachy, albo nowoczesnych błyszczących, a tak się zachowało to w Creedzie. Tak samo to wyciągnie cieni to jest moda ciągnięcie sdr do HDR jaka była tak ze 20 lat temu w forografii, chociaż fakt faktem telefony po tych wszystkich zmianach algorytmu robią podobnie, starają się nie robić mocnych cieni tylko je ciągną w górę, dlatego się ludziom wydaje zę to jest realistyczne bo się przyzwyczaili do telefonowowgo looku.Ja jestem przekonany że kiedyś, to może być super.... tak szybko jak będzie integracja z silnikiem, przy tworzeniu gry sobie dev sobie zaakceptuje wstępny model nakładany na jego. Część rzeczy poleci bezpośrednio z silnika(typu info o materiałach), a dev będzie mógł używać promptów żeby zmienić jak coś nie będzie pasowało. Np model dostanie info jaka jest pogoda, jaki jest materiał dachówki, dodatkowe szczegóły do generowania twarzy(zrób mi 15 latka, a nie 30latka) itp. itd. a autor przyponie jeden model AI do jednej postaci tak żeby Grace nie była w jednej scenie zupełnie inną osobą niż w innej. To musi po prostu brać dużo więcej info niż po prostu jedna klatka i motion vectory żeby coś z tego było. Może to już będzie za rok-dwa, kto wie, rozwój takich narzędzi teraz szybko leci.Nie pisałem tego odnośnie konkretnie DLSS5 i AI, tylko ogólnie, z RT i GI tak już było, że jak coś odbija światło, to prześwietlone.
Opublikowano 1 kwietnia1 kwi Macie opinie z drugiej strony, fanboya NV, ale kumatego, akurat z tym nosem ze starfielda to też w ruchu nie widziałem problemu, a to z piłką uznałem za artefakty FG, ale te zamykane oczy to byłem przekonany że halucynacje AI, a jednak nie do końca. To nie zmienia problemu z tym jaki look sobie to AI dobiera i innych akcji tego typu.
Opublikowano 2 kwietnia2 kwi A tam artefakty, chuja, nie artefaakty, pierdolisz jak potłuczony. Ja także jestem fanbojem NV i zauważam same pozytywy, rozwój i postęp. W sumie nie musiałem oglądać tego nawet towjego filmu. Zawsze będę na tak. Jensen Huang, usiądź mi na mordzie. Jak w 2029 nastąpi Dżadżment Dej to ufam, że Skynet będzie o mnie pamiętał, że chwaliłem i wspierałem.
Opublikowano 6 godzin temu6 godz. DS2 przetestowane przez DF. Nic ciekawego oprócz wniosku że skalowanie Pico, które nie potrzebuje do działania żadnych rdzeniuff AI jest lepsze od DLSS 4.0 dostarczając przy okazji ~10% więcej klatek.
Opublikowano 5 godzin temu5 godz. 32 minuty temu, łom napisał(a):DS2 przetestowane przez DF. Nic ciekawego oprócz wniosku że skalowanie Pico, które nie potrzebuje do działania żadnych rdzeniuff AI jest lepsze od DLSS 4.0 dostarczając przy okazji ~10% więcej klatek.Kwestia jak by się to sprawdziło w innych grach jako nakładka, tak jak to jest z DLSS. W sensie czy to przez to, że zostało idealnie dopasowane to tego silnika i gra była robiona w oparciu o to, czy można to wrzucić do każdej innej gry z takim samym efektem.
Opublikowano 5 godzin temu5 godz. 15 minut temu, tjery napisał(a):Kwestia jak by się to sprawdziło w innych grach jako nakładka, tak jak to jest z DLSS. W sensie czy to przez to, że zostało idealnie dopasowane to tego silnika i gra była robiona w oparciu o to, czy można to wrzucić do każdej innej gry z takim samym efektem.Obstawiam, że gdyby się dało, to pewnie dawno by sony to miało ogarnięte.
Opublikowano 5 godzin temu5 godz. Gdyby Sony wydawało więcej gier to kwestia była by jasna bo jakaś wymiana technologii na pewno by zaszła. Najważniejszy jest wniosek że można osiągnąć efekty porównywalne do DLSS/FSR4 bez korzystania z konkretnego sprzętu a dodatkowo przy mniejszym obciążeniu a wmawiane jest kompletnie co innego, tylko trzeba mieć kasę na R&D. Podobnie jak z loadingami w Tsushimie na PS4.Edit: i jeśli Guerilla Games ogarnęła to Epic tym bardziej powinien zrobić coś lepszego niż TSR dla UE5. Edytowane 5 godzin temu5 godz. przez łom
Opublikowano 5 godzin temu5 godz. Sony nie dzieli się swoimi silnikami z nikim, a szkoda, bo robią wybitne, a gier wiadomo od lat nie robią wiele...
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.