PiPoLiNiO 784 Opublikowano 24 Lutego 2023 Udostępnij Opublikowano 24 Lutego 2023 (edytowane) 6 minut temu, mozi napisał: Może zasilacz? Teraz poci się bo cpu żre więcej. Tyle, że on nie żre więcej. Tamten brał po OC więcej niż ten w tej chwili w grach. Koło 150W idzie w gierkach. Karta 380-440W. To raczej nie zmęczy 1000W Platinum. Edytowane 24 Lutego 2023 przez PiPoLiNiO Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 24 Lutego 2023 Udostępnij Opublikowano 24 Lutego 2023 To kurna nie wiem Coś musi być na rzeczy bo tylko płyta jest inna z tego co może wyć. wlasnie - @tjeryczy masz podpięte wentyle do płyty czy używasz huba w budzie? Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 24 Lutego 2023 Udostępnij Opublikowano 24 Lutego 2023 3 minuty temu, mozi napisał: To kurna nie wiem Coś musi być na rzeczy bo tylko płyta jest inna z tego co może wyć. wlasnie - @tjeryczy masz podpięte wentyle do płyty czy używasz huba w budzie? Najgorsze, że wybór płyt z790 jest w Polsce malutki. Zostaje albo coś jak Tjery, albo ROG MAXIMUS Z790 HERO. Tyle że to już z 2700 robi się 3600. Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 24 Lutego 2023 Udostępnij Opublikowano 24 Lutego 2023 A nie chcesz rog strix z-790? Wprawdzie bios trzeba podnieść ale jest ok. Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 25 Lutego 2023 Udostępnij Opublikowano 25 Lutego 2023 Ogólnie to w ogóle nic nie chce. Nie pasuje mi totalnie, że na ROG pci 5.0 nvme jest na osobnej karcie podpinanej do PCI-E, co jest kuriozalne bo mając 4090 nie włożę jej do przedostatniego slotu gdzie zadziała jako 5.0. Czyli kupujesz top płytę za 3600 z obsługą dysków 5.0 ale ich nie użyjesz. A w Aorus mam normalnie górny slot nvme jako 5.0. Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 25 Lutego 2023 Udostępnij Opublikowano 25 Lutego 2023 Zanim zaczniemy używać tych dysków 5.0 to pewnie proc z płyta wylecą z budy. Ale racja to trochę durne ograniczenie. Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 25 Lutego 2023 Udostępnij Opublikowano 25 Lutego 2023 15 minut temu, mozi napisał: Zanim zaczniemy używać tych dysków 5.0 to pewnie proc z płyta wylecą z budy. Ale racja to trochę durne ograniczenie. Przecież to kwestia miesiąca-dwóch. A ceny są identyczne jak 4.0. Inna rzecz, że odcina to połowę lini PCI karcie graficznej. No ale wtedy działa z prędkością 4.0 więc to bez znaczenia. U mnie piszczał najprawdopodobniej przedłużacz. Powyjmowałem kable wszystkie z niego, wsadziłem jeszcze raz i póki co okej. No ale trzeba potestować dłużej. Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 25 Lutego 2023 Udostępnij Opublikowano 25 Lutego 2023 A ja myślałem ze ze mną się ciężko dyskutuje. 2 Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 25 Lutego 2023 Udostępnij Opublikowano 25 Lutego 2023 (edytowane) 24 minuty temu, mozi napisał: A ja myślałem ze ze mną się ciężko dyskutuje. ? Chodzi Ci o linie PCI? No płyta ma obsługę dysku 5.0 ale zabiera linie z procka, przez co PCI grafiki działa jako 8x,a nie 16x. Tyle, że 8x 5.0 to odpowiednik 16x 4.0. Karty są 4.0 więc nic się nie zmienia w kwestii wydajności. Edytowane 25 Lutego 2023 przez PiPoLiNiO Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 26 Lutego 2023 Udostępnij Opublikowano 26 Lutego 2023 Przy okazji dysków. Pierwszy test sensowny. Prędkość bez szału, 10tys mb/s. Do tego ten wentylator robi taki hałas że lol. Ale po odłączeniu nie ma tragedii z temperaturami, a na lepszych płytach z wielkim radiatorem to już w ogóle powinien być luz. Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 (edytowane) @mozi Jakiekolwiek ograniczenie limitów poniżej 300W u mnie kończy się zbijaniem zegarów. Więc ciężko tu pisać o braku wpływu na wydajność. Widzieliście testy nowych AMD z 3D cache? Prawie 2x mniejszy pobór mocy przy tej samej wydajności co 13900K. https://www.youtube.com/watch?v=TTOVR0XHd0g&t=1s Edytowane 28 Lutego 2023 przez PiPoLiNiO Cytuj Odnośnik do komentarza
krzysiek923 1 592 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 No ale to przecież AMD, a wy tutaj pisaliście już, że AMD gówno, stuttering i nigdy więcej AMD, więc i tak nie ma to znaczenia, póki Itel nie zmałpuje pomysłu. Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 Gówno czy nie, pobór robi wrażenie. Cytuj Odnośnik do komentarza
tjery 1 132 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 (edytowane) 20 minut temu, PiPoLiNiO napisał: Gówno czy nie, pobór robi wrażenie. Nie, dzięki, wole mieć w gierkach zużycie o kilkadziesiąt W większe, ale nie martwić się o to, w której zostawić 2CCD, w której wyłączyć ten z zegarami, a w której ten z Cache po tym jakie z tym cyrki były na 5950x, który miał 2 zwykłe CCD nawet nie chcę wiedzieć co tu się będzie działo Edytowane 28 Lutego 2023 przez tjery Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 Już teraz można dostać pierdolca z tymi ustawieniami. Włącz gsync w panelu nvidii, wyłącz vsync włącz dlss3 ale nie zapomnij o dlss2 quality a jak jest bez dlss3 to vsync na on. Masakra. Cytuj Odnośnik do komentarza
tjery 1 132 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 24 minuty temu, mozi napisał: Już teraz można dostać pierdolca z tymi ustawieniami. Włącz gsync w panelu nvidii, wyłącz vsync włącz dlss3 ale nie zapomnij o dlss2 quality a jak jest bez dlss3 to vsync na on. Masakra. Poza jakimiś wyjątkami nie trzeba w ogóle się bawić dajesz na stałe w panelu nvidii w ustawieniach ogólnych gsync on i vsync on, a w grach vsync zawsze wyłączasz i to wszystko. Zawsze śmiga bez różnicy czy z DLSS3 czy bez. A DLSS3 czyli frame generator można używać niezależnie od DLSS2. 1 Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 za AMD zawsze przemawiała tylko jedna 1 rzecz - skradałem kompa z 4 lata temu na AM4, kupiłem wtedy w dobrej cenie Ryzen'a 3600. W tym roku wymieniłem procka za 200 zł na Ryzena 5600, a w przyszłości nadal mogę wsadzić jeszcze lepszego procka, albo gamingowy hit z zeszłego roku - Ryzen 7 5800X3D. 2 generacje ciągnę na tej samej płycie - u Intela zawsze jest całkowicie na odwrót - przy jakimkolwiek upgradzie z reguły trzeba wymieniać całą płytę główną... Cytuj Odnośnik do komentarza
tjery 1 132 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 (edytowane) Jeszcze co do DLSS to polecam sprawdzić DLAA od Nvidii, już się nie będę rozpisywał jak to działa (taki DLSS, ale bez upscallingu), bo można sprawdzić w necie, w skrócie najlepsza forma antyaliasingu. Takie Death Stranding czy God of War w 4K z TAA po przestawieniu TAA na DLAA to jest taki przeskok w jakości obrazu jakby 4K z TAA to było 1440p, a 4K z DLAA to było dopiero 4K. Zrywająca tupecik ostrość, idealna stabilność obrazu w ruchu, zero jakiegokolwiek shimmeringu, migotania, o wiele lepiej odwzorowane szczegóły, jakość obrazu jest kosmosik. Porównałem sobie nawet w tych dwóch gierkach DLAA w 4K z downsamplingiem z 8K do 4K i jakościowo praktycznie nie do rozróżnienia, a DLAA zabiera kilka procent wydajnosci względem TAA, a downsampling z 8K kilkadziesiąt. Edytowane 28 Lutego 2023 przez tjery Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 Własnie zastanawiałem się ostatnio w Warzone co to jest to DLAA. Bo wydajności trochę zżera. Cytuj Odnośnik do komentarza
mozi 1 977 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 50 minut temu, tjery napisał: Poza jakimiś wyjątkami nie trzeba w ogóle się bawić dajesz na stałe w panelu nvidii w ustawieniach ogólnych gsync on i vsync on, a w grach vsync zawsze wyłączasz i to wszystko. Zawsze śmiga bez różnicy czy z DLSS3 czy bez. A DLSS3 czyli frame generator można używać niezależnie od DLSS2. Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 (edytowane) 11 minut temu, mozi napisał: Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze Już Ci to tłumaczyliśmy jakiś czas temu. Ustawiasz w panelu Nvidia vsync na włączony. Wtedy działa z FG nawet jak gra pokazuje, że jest wyłączony. Edytowane 28 Lutego 2023 przez PiPoLiNiO 1 Cytuj Odnośnik do komentarza
tjery 1 132 Opublikowano 28 Lutego 2023 Udostępnij Opublikowano 28 Lutego 2023 9 minut temu, mozi napisał: Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze Ten input lag to wymysł, jakieś kilka ms, których nikt nigdy nie poczuje. No wrapper jest do tych gier, które nie obsługują natywnie DLAA, ale mają DLSS, ale obsługuje się go banalnie. Tak, jak włączasz FG to Vsync w grze się wyłącza, ale wystarczy że masz vsync w panelu nvidii i jest git. Ale już nad tym pracują, żeby można było mieć vsync w grze z włączonym FG, o ile się nie mylę w MFS juz tak jest. 1 1 Cytuj Odnośnik do komentarza
teddy 6 854 Opublikowano 30 Marca 2023 Udostępnij Opublikowano 30 Marca 2023 Widzieliscie ze ktos ogarnal DLSS mod do RE4? Podobno poprawia jakosc obrazu i performacne w porownaniu do FSR Cytuj Odnośnik do komentarza
tjery 1 132 Opublikowano 30 Marca 2023 Udostępnij Opublikowano 30 Marca 2023 33 minuty temu, teddy napisał: Widzieliscie ze ktos ogarnal DLSS mod do RE4? Podobno poprawia jakosc obrazu i performacne w porownaniu do FSR Tak, mam i działa świetnie, instaluje się banalnie, jak co to piszcie, to napiszę jak. Ta gra nie jest aż taka wymagająca, więc jak komuś chodzi natywnie z TAA w zadowalającej ilości fps to oprócz opcji DLSS można wybrać DLAA, to działa jak DLSS tylko nie upscalluje z niższej rozdziałki do wyższej + AA, a upscalluje z naszej natywnej do wyższej i z powrotem do natywnej, czyli daje najlepszy możliwy antyaliasing bez upscallingu. W stosunku do natywnej z TAA jest trochę bardziej wymagające, traci się kilka procent fps, ale za to efekt miazga, TAA przy tym wygląda jakby gra w ogóle antyaliasingu nie miała, obraz jest tak ostry jak to tylko możliwe, zero shimmeringu, migotania w ruchu, nic. Polecam - tjery. Cytuj Odnośnik do komentarza
teddy 6 854 Opublikowano 30 Marca 2023 Udostępnij Opublikowano 30 Marca 2023 W ogole te remaki sa zajebiste jezeli chodzi o mody. W re2 czy re3 bez problemu sobie modele podgrywalem czy tweakowalem kolory zeby nie bylo mleka (RE2), gierki wygladaly duzo lepiej a same poprawki to byl banal w odpaleniu, skopiowanie paru dll xD Cytuj Odnośnik do komentarza
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.