Treść opublikowana przez tjery
-
Cyberpunk 2077
Na PC to co pisał Izon to jest jakiś bug dotyczący zapewne określonej konfiguracji sprzętu (bo po ostatnim patchu grafika na PC zaliczyła spory upgrade, znacznie poprawili pop up, reszta się nie zmieniła, żadnego bluru itd.), to nie ma nic wspólnego z tym co się dzieje na XSX. @Elitesse ten filmik nie był o pogorszeniu grafiki po jednym z paczy, tylko o tym, że ludzie błędnie myśleli, że grafika się pogorszyła, bo im się po patchu ustawienia same zmieniły na niższe i tego nie zauważyli
-
Wrzuć screena
Nawet nie tyle HDR co polecam pobawić się gammą i kontrastem, bo sama regulacja HDR niewiele zmienia, bo gra jest mega "prześwietlona". Ja akurat na PC mam reshade, ale spokojnie na TV w opcjach obrazu możesz zmienić.
-
Wrzuć screena
Tylko (albo aż - bo na Pleju jest rozmazaństwo) rozdziałka. Zależy który zasięg rysowania akurat to o co pytał balon (roślinność) to nie bardzo, bo konsole mają Tree Quality na Low, a zasięg rysowania trawy na 2/10 Za to LOD geometrii mają na ultra.
-
Wrzuć screena
Quantum Break Za to właśnie uwielbiam PC, można po latach na lepszym sprzęcie uwolnić prawdziwy potencjał gier, które graficznie wyprzedzały możliwości sprzętu w momencie kiedy wychodziły. To jest 2016 rok, a wygląda lepiej niż większość dzisiejszych gier.
-
Gotham Knights
Gdyby ktoś jeszcze chciał w to zagrać na PC to już naprawili użycie CPU, działa normalnie, tak jak powinno, na 4090 w natywnym 4K z RT na max ustawieniach koło 120 fps i więcej (spadki do ok. 100 w czasie jazdy motorem przez miasto). Także na słabszych kartach też już powinno być git. Naprawili też compilation stutter.
- Cyberpunk 2077 - PC Master Race
- Atomic Heart
- Atomic Heart
-
Wiedźmin 3: Dziki Gon
Na PC przycisk home, nie wiem czy jest odpowiednik na konsoli.
-
Ogólne pecetowe pierdu-pierdu
No raczej 3080 Ti (ponad 2x wydajniejsza bez RT, z RT miażdży konsole) nie jest potrzebna, żeby grać w lepszej/porównywalnej jakości niż na konsolach do końca generacji. 3070 na luzie wystarczy. Ogólnie wszystko co piszesz to myślenie życzeniowe, że skoro tak było kiedyś, to teraz też tak będzie. A póki co minęły 2 lata, a wszystkie gry chodzą tak samo jak na PS5 na karcie ze średniej półki sprzed dwóch generacji (która kosztuje 1500zł).
-
Ogólne pecetowe pierdu-pierdu
Nawet jeśli wziąć pod uwagę, że czasem leci w okolice 50 fps to mówimy tu o rozdzielczości 1440p, a nie około 1200p jak na PS5. I co z tym Radeonem 6600XT, skąd masz to info, że Spider działa na nim ponad 50% gorzej niż na PS5? Skoro na słabszym GPU Nvidii działa lepiej niż na PS5 (a w najgorszym przypadku porównywalnie) . W tej generacji póki co takich różnic nie ma, wszystko co wychodzi na PS5 chodzi na takich samych ustawieniach na PC na kartach pokroju 2060/2060s (z RT), 2070/2070s (bez RT). Póki co tej magii optymalizacyjnej nie widać. Chyba, że to tylko na kartach Nvidii jest tak dobrze, a na Radeonach w ogóle nie ma optymalizacji, skoro gry z PS5 chodzą na takich samych ustawieniach 50% gorzej.
-
Ogólne pecetowe pierdu-pierdu
Chodziło mi o przełożenie TFLOPS na rzeczywistą wydajność w grach. Chociaż akurat w przypadku 4090 trochę zakłamuje w drugą stronę (bo bierze pod uwagę rozdzielczość 1080p. w której 4090 ma bottlenecka na CPU). Z tabelki wynika, że 4090 jest niecałe 1,8 raza mocniejsze niż 3080, a w 4K (czyli jedynej sensownej rozdzielczości do porównywania takiej karty, bo nawet w 1440p ma bottlenecka) jest ponad 2x mocniejsza (w zależności od testów nawet do 2,2x). Aż niemożliwe z tym Radeonem. Na ustawieniach takich samych jak na PS5 w trybie performance RT (a nawet wyższych, bo w stałej rozdziałce 1440p) RTX 2060super ma na luzie +60 fps (na Times Square 76 fps). A 2060super jest jakieś 20% słabszy niż 6600XT. I o ile da się zrozumieć czemu na karcie słabszej w rasterze niż PS5, czyli RTX 2060s gra chodzi lepiej, bo to karta Nvidii z o wiele lepszym RT i tym nadrabia, tak skąd taka przepaść pomiędzy PS5 a Radeonem skoro w PS5 siedzi karta AMD i wydajność w RT jest raczej porównywalna? Co do RT to większa wydajność to bardzo delikatnie powiedziane AMD z RT w tej generacji dogoniło poprzednią generację Nvidii.
-
Ogólne pecetowe pierdu-pierdu
Trochę namieszałeś z wartościami XSX ma 12 TFLOPS, RTX 3080 ma realnie (na podstawie wyników w grach) ponad 20 TFLOPS, a 4090 ma około 50 TFLOPS. To w rasteryzacji, bo z RT ta przewaga RTXów nad konsolami rośnie jeszcze kilkukrotnie. Hehe, tu się nie będę rozpisywał, uwierz na słowo, że jest dostrzegalne i to bardzo dobrze pograsz trochę w 120 to powrót do 60 jest dość bolesny, bo się jednak okazuje, że to 60 wcale takie płynne nie jest. Ale prawdą jest, że do osiągnięcia wrażenia takiej idealnej płynności wystarczy koło 100 fps, potem różnice w samej płynności obrazu są niewielkie i dodatkowe klatki ponad 100fps głównie wpływają na czas rekcji, a nie na zwiększenie płynności. Dokładnie tak, nie da się projektować gry pod np. 4090, która wyprzedza wydajnością najbardziej popularne sprzęty do grania (konsole i średnie PC) o kilometr, bo nie było by jak tego zeskalować w dół, żeby wciąż jako tako wyglądało i było grywalne. Dobrym przykładem jest CP2077, który był projektowany pod mocne PC i ledwo co działał na poprzedniej generacji konsol, a na obecnej generacji konsol różnica w grafice w stosunku do wersji na PC z RT jest ogromna.
-
Ogólne pecetowe pierdu-pierdu
To nie tak Trochę nie rozumiesz pojęcia "mocy" karty, czyli jej wydajności. Dajmy na to taki Plague Tale Requiem w takiej samej rozdzielczości i ustawieniach chodzi na PS5/XSX w 30 fps, na 4090 w ponad 120. Więc 4090 w rasteryzacji (bo tu nie ma RT) jest 4xmocniejszy. Taki Dying Light 2 chodzi na PS5/XSX w 1080p bez RT i w sporo niższych ustawieniach w 60 fps, na 4090 masz 60 fps, ale w natywnym 4K z full RT na max ustawieniach. A RT z PC to zupełnie inna bajka niż pocięte na maxa RT znane z konsol. To nie działa tak jak piszesz, że na konsolach jest prawilna wersja, a na mocnym PC jest tylko "trochę" lepiej, działa to w drugą stronę, na konsolach gry są pocięte z rozdziałki, klatek, ustawień, RT, a taka karta jak 4090 pozwala zagrać w nie w pełnej krasie. I do tego wykorzystywana jest jej dodatkowa moc. Ogólnie w tym co napisałeś pewnie odnosiłeś się do mojego posta z poprzedniej strony, w którym pisałem, że gry robione są głównie pod konsole, a potem skalowane w górę do mocnych PC, ale w sumie można równie dobrze napisać, że gry robione są pod mocarne GPU (na których chodzą 4K120fps max ustawienia bez RT i 4K60fps max ustawienia z max RT), a potem są skalowane w dół do konsol i słabszych PC.
-
Wiedźmin 3: Dziki Gon
Mi nie wierzysz to zobacz sobie gamepleje w necie, nikomu nic nie rwie. W odpowiednim temacie można kontynuować i sprawdzić co masz nie tak.
-
Wiedźmin 3: Dziki Gon
Nic się nie rwie masz coś nie tak w ustawieniach i dlatego masz screen tearing, to nie ma nic wspólnego z FG
-
Wiedźmin 3: Dziki Gon
Jest, Pipollinio pisał o DLSS2 bez FG, a DLSS2 nic nie daje w np. miastach, bo CPU ogranicza.
-
Wiedźmińskie Photo Mode
- "Beka z człowieka" i inne reakcje na posty.
@Soyokaze Czyli to co Ty do tej pory pisałeś na tym forum to było jednak na serio?- Wiedźmin 3: Dziki Gon
Pewnie jakiś bug nie związany z samym RT, a z tym trybem, bo na konsolach nie ma RT cieni.- Wiedźmin 3: Dziki Gon
Wesołych!- The Callisto Protocol
Dlatego lepiej nigdy nie sugerować się recenzjami, bo tak jak lubię AngryJoe'a tak 3/10 to jest czysty debilizm. Ta gra głównie robi klimatem, jak ktoś tego nie czuje ok, jego prawo. Ale dać tej grze biorąc pod uwagę jej gatunek 3/10 to jest zwykłe samoośmiesznie.- Ogólne pecetowe pierdu-pierdu
Tylko, że tak naprawdę wszystko co ostatnio było zjebane to przez złą optymalizację CPU, Callisto, Wiedźmin, Gotham Knights - wszystko leży na CPU mimo, że w 4K, karta się nudzi na 60-70% użycia, a fpsy poniżej 60.- Ogólne pecetowe pierdu-pierdu
Różnica pomiędzy 4080 a 4090 jest bardzo duża (biorąc pod uwagę różnicę jaka była np. pomiędzy 3080 a 3090), bo średnio to koło 30% w rasterze. Więc jeśli masz kasę i chcesz grać w 4K to polecam dołożyć do 4090, bo to jest bestia. I cenowo się raczej wszystko zgadza, bo płacisz jakieś 30% więcej za 30% więcej wydajności (w rasterze, z RT różnica jest jeszcze większa). Co do czasu na jaki 4090 wystarczy to w rasterze jest jakieś 4xmocniejsza niż obecne konsole, z RT 10xmocniejsza. Biorąc pod uwagę, że obecne konsole będą na rynku jeszcze z 5 lat i że gry głównie powstają z myślą o konsolach, a potem są skalowane w górę do mocnych PC, to raczej nie ma się o co martwić i spokojnie do końca generacji konsol będzie można wszystko ogrywać w o wiele lepszej jakości niż na konsolach (rozdzielczość, klatki, ustawienia, RT). Tym bardziej biorąc pod uwagę DLSS2 i DLSS3.- Ogólne pecetowe pierdu-pierdu
Więc jednak chciwa Nvidia Ja nic nie zmieniałem, tak jak miałem wpiętą 3080Ti tak samo wpiąłem 4090 ASUS TUF OC, tzn. oczywiście plus jedno złącze z drugiego kabla, które nie było wykorzystywane przy 3080Ti. I wszystko gra, ale oczywiście nie dam ręki, że u Ciebie będzie tak samo szczerze to nie spotkałem się nigdzie z tymi zaleceniami, o których mówisz. - "Beka z człowieka" i inne reakcje na posty.