Skocz do zawartości

Ogólne pecetowe pierdu-pierdu


Gość ako

Rekomendowane odpowiedzi

Ostatnie strony tego tematu to niezły hardware porn (plus nieco bólu dupy zawistników), podoba mi się. Tym bardziej, że krótko zanim dyskusja tutaj nabrała rozpędu, sam zacząłem się zastanawiać, czy zaś nie dogonić trochę tej marchewki na kiju i kupić sobie coś nowszego, tym razem już na pewno po raz ostatni, taaa... xd I głowię się trochę jako posiadacz MSI RTX 4090 GXT, czy 11700K + 32GB 3600 CL17 to wystarczające combo do tej karty. Rozdzielczość 4K na oledzie, jak sporo ludzi tutaj. Zastanawiam się czy zysk z inwestycji w 13. generację Intela + DD5 + nowa płyta główna to gra warta świeczki. Nie piszę o finansach (hipotetycznie po sprzedaży obecnej platformy muszę dołożyć 40-50% wartości ceny nowej), bardziej frapuje mnie to czy zauważę różnicę przy VRR z lockiem na 120Hz. Oglądałem różne testy wydajności 4090 na różnych cpu+ram i wyniki były bardziej i mniej zaskakujące, ale zawsze pojawi się scenariusz, gdzie nawet najmocniejsza platforma klęka, np. tutaj https://youtu.be/J_z-_RsxpS4?t=178 . FPS w stresowym momencie leci na 53 FPS, testowałem kilkukrotnie to samo miejsce u siebie i poleciało na 46 FPS minimum. Piszę tutaj o Moralesie, który siedzi na CPU, Moralesie w natywnym 4K, z absolutnym max wszystkich ustawień, bez DLSS, z full RT włącznie i z max zasięgiem wyświetlania wszystkiego w RT. To tylko jedna gra, więc wiadomo, że wynik nie jest miarodajny. Więcej nie sprawdzałem, bo albo nie mam kupionych odpowiednich gierek do tego, albo nie chce mi się ich ponownie ściągać i ślęczeć godninami testując w różnych miejscach (patrzę tutaj na ciebie CP2077). Wracając do sedna, przewiduję dla siebie jeden z czterech scenariuszy. Jak się na to zapatrujecie z widoku TPP:

1. Nic nie robić, grać na 4090 i przymykać oko na overall 10-20% gorszy framerate niż na absolutnie najnowszych platformach, trzymać kasę w kieszeni i czekać na kolejne generacje proców i DDR5 8000Mhz, ewentualnie kręcić trochę to co już jest;

2. Kupić sobie 13. gen Intela w zależności od budżetu 13600K lub 13700K (13900K nie biorę nawet pod uwagę, to akurat dla prawdziwych zagrajmerów kawał krzemu, ja aż taki zboczony nie jestem :D), do tego nowa fajna płyta główna Z790 bez wymiany ramów, 32 GB DD4 3600 CL17 zostają;

3. Kupić sobie 13. gen Intela w zależności od budżetu 13600K lub 13700K, do tego nowa fajna płyta główna Z790, zupełnie nowe wydajne kości 32 GB DDR5 6000-6400 CL niższe niższe niż pH pochwy waszych kobiet;

4. Czekać co w połowie lutego pokaże AMD z ich nowymi X3D procami, które z tymi gigantycznymi pokładami pamięci podręcznej do gier mają niby zaorać. Dodatkowym atutem tego argumentu jest fakt, że socket 1700 Intela jest już praktycznie martwy, natomiast AM5 nie jest i ten niesamowity milf, Lisa Su, dalej będzie rodzić kolejne dzieci z tym samym fagasem. Chodzą ploty o Raptor Lake refresh jeszcze pod koniec tego roku, ale śmierć LGA1700 to już fakt.

Mam nadzieję, że nie popełniłem tutaj żadnych logicznych błędów w rozumowaniu.

 

Druga, całkiem osobna sprawa, kupiłem sobie nowy zasilacz, żeby nie ryzykować z odpałami na zapotrzebowanie w energię nowych zabawek, obecnych i, przede wszystkim, przyszłych. Nie wiem czy do końca postąpiłem słusznie, ale je.bać, wjechał 1200W Thermaltake Toughpower GF3, PCIe 5, Fully Modular, 80PLUS Gold, Single Rail, 100A, 135mm Fan, ATX3.0 PSU. Chciałem coś od EVGA, ale braki na stockach wszędzie. Nie było przeciwwskazań, żeby mój obecny MSI MPG A850GF 80 GOLD nie ogarnął tego co mam zamiar kupić, ale kupuję zasilacz też z myślą o przyszłości, gdzie 850 wat zacznie być minimum… A nie, sorry, już tu kurwa jesteśmy… No i u mnie przejściówka do karty ma 3 gniazda 8 pin, nie 4, więc 4090 nie wieźmie sobie nigdy tych max 600 wat (to, że taki pobór jest absolutnie nierealny pomijam). A teraz będzie dużo więcej mocy i – podobno – bardzo dobrej jakości kabel 12VHPWR – raz, że poleci po nim te 600 wat bez problemu, dwa, co ważniejsze, pozbywam się plątaniny kabli idących z zasilacza do tej leciwej przejściówki od NV, kabelek jest ładny, minimalistyczny i estetyczny po prostu.

 

INB4 bóle dupsk po raz setny w tym temacie o kupowanie drogich bebechów, moje postrzeganie tej sprawy jest dość proste – na hobby nie oszczędzamy. Średnia wieku tego forum to ile…? Po 30 ludzie, faceci głównie, połmetek życia kurwa i odmawiać sobie 4K 120fps na ultra? xd Jak ktoś siedzi na tym forum to chyba raczej gra w gierki telewizyjne wideo dla dzieci i jeśli się to lubi to z automatu te 4K 120fps na ultra uważa się za perk. Awersję do PC potrafię zrozumieć, ale awersję do tego, że ktoś wydał dużo pieniążka żeby mieć fajne doznania już niezbyt. Poza tym, to hobby nie należy do najdroższych. Ludzie kolekcjonują drogie auta, motocykle, jeżdżą po świecie zwiedzając, wciągają koks, piją najbardziej ekskluzywne alkohole, ruchają córy Koryntu, skaczą ze spadochronem, wspinają się po górach, żeglują. Ciekawe jakim ułamkiem wartości dodanej tych rzeczy, uprawianych przez kawałek życia, jest nowy kawałek krzemu od Jensena, kupiony raz na kilka lat xd Wcale nie uważam, że to głupie i irracjonalne, że chcę nowego proca mając niby spoko 11700k, nawet jak średnia klatek nie wystrzeli, to fajnie nie odbiegać za bardzo od topowych zabawek. Na tym polega hobby ;> No i jaka satysfakcja z takiego sprzętu. Poźniej jak się takiego bydlaka samodzielnie składa to trzeba się ubrać w wyprasowaną i wykrochmaloną białą koszulę, marynarkę od garnituru, spodnie na kant, a w tle ma lecieć je.bany Szopen, Nokturn Es-dur, kur.wa. Konsolowcy mogą nie rozumieć.

  • Plusik 1
  • Lubię! 1
  • Dzięki 1
Odnośnik do komentarza

Kurczę, ludzie tutaj wrzucają setupy kosztujące grubo ponad 15k, tymczasem wrzucam jako ciekawostkę z mojego zestawu: 

 

Bez tytułu.jpg

 

R5 3600 + MSI RTX3060Ti + 16GB Ram 3200 mhz. Ustawienia gry na absolutny max co się tylko dało, DLSS wyłączony. Rozdzielczość 3440 x 1440. Procesor się nudzi zupełnie, grafika do zmiany u mnie :P

Edytowane przez Shago
  • Lubię! 1
Odnośnik do komentarza

@MarekCol Ja miałem jeszcze chwile temu i7 11700k którego zmieniłem na i9 11900k. Niewiele to dało w wydajności 4k. Kiedyś o tym pisałem, chciałem po prostu przekroczyć psychologiczne 5GHz bo jestem jebnięty. Szczerze powiem, że co kilka dni mi chodzi po głowie 13900k, ale potem odpalam filmy na YT i jak widzę w grach temperaturę skaczącą między 74-99 stopni na AIO 360, to myślę sobie... WTF. Też oglądałem X testów, i w 4k ta różnica jest totalnie marginalna. No i za 13900k + aorus master z790 + ddr5 32 6800 to lekko 7k. 7k za ile? 5 fps w 4k? No bezsensu nawet będąc jebniętym.

 

A co do LGA1700 to niby niekoniecznie. Podobno w tym roku jeszcze mają jednak być na 1700 nowe Intele. Już widziałem kilka info o tym.

Edytowane przez PiPoLiNiO
Odnośnik do komentarza
8 minut temu, Shago napisał:

(...) Procesor się nudzi zupełnie (...)

To jest jedno z większych misconceptions PC master race. On się nigdy nie nudzi tylko czeka kiedy ci dojebać stutterem.

 

4 minuty temu, PiPoLiNiO napisał:

@MarekCol Ja miałem jeszcze chwile temu i7 11700k którego zmieniłem na i9 11900k. Niewiele to dało w wydajności 4k. Kiedyś o tym pisałem, chciałem po prostu przekroczyć psychologiczne 5GHz bo jestem jebnięty. Szczerze powiem, że co kilka dni mi chodzi po głowie 13900k, ale potem odpalam filmy na YT i jak widzę w grach temperaturę skaczącą między 74-99 stopni, to myślę sobie... WTF. Też oglądałem X testów, i w 4k ta różnica jest totalnie marginalna. No i za 13900k + aorus master z790 + ddr5 32 6800 to lekko 7k. 7k za ile? 5 fps w 4k? No bezsensu nawet będąc jebniętym.

 

A co do LGA1700 to niby niekoniecznie. Podobno w tym roku jeszcze mają jednak być na 1700 nowe Intele. Już widziałem kilka info o tym.

 

Jakie masz chłodzenie? Ja mam Arctic Freezer II 360, niby jedno z lepszych. I po co od razu 13900K jak 13700K będzie to samo?

O tym LGA1700 właśnie wyżej pisałem. Jakiś refresh chyba tylko 13. gen zrobią, coś jak seria 10 i 11... Pewnie usprawnienie architektury delikatne, przyrosty marginalne.

Edytowane przez MarekCol
Odnośnik do komentarza
4 minuty temu, MarekCol napisał:

To jest jedno z większych misconceptions PC master race. On się nigdy nie nudzi tylko czeka kiedy ci dojebać stutterem.

 

 

Jakie masz chłodzenie? Ja mam Arctic Freezer II 360, niby jedno z lepszych. I po co od razu 13900K jak 13700K będzie to samo?

O tym LGA1700 właśnie wyżej pisałem. Jakiś refresh chyba tylko 13. gen zrobią, coś jak seria 10 i 11... Pewnie usprawnienie architektury delikatne, przyrosty marginalne.

Be Quiet! Silent Loop 2 240. Bo to i9. Proste :P

Odnośnik do komentarza
Teraz, MarekCol napisał:

Nie znam się w sumie, więc nie bierz moich wynurzeń jako prawdy objawionej, ale czytałem na forum PC laba, że 13900k ma spajki z pizdy do 400 wat niekiedy. 240 wiatraki z wodą nawet dobrej jakości nie uchronią chyba czasami od emergency reset systemu xd

Nie, tam nie będzie resetów. Jedynie zrzuci sobie zegary jak dojdzie do 100 stopni. No ciężki tematy ta 9 nowej generacji. Co poradzisz. Dlatego chyba sensowniej poczekać na następną podstawkę.

Odnośnik do komentarza

@MarekCol tu masz moje wrażenia po przesiadce z Ryzena 5950x na 13900K sprzed kilku stron (z tego co widzę Twój 11700 jest trochę słabszy w gierkach niż 5950x, więc przeskok byś miał podobny)

 

Spoiler

Pierwsze wrażenia takie, że jednak dopiero 13900K wyzwala pełną moc z 4090. Przykładowy screen z CP2077 na 5950x i 13900k, to samo miejsce, te same ustawienia (wszystko max z RT, 4K DLSS quality):

 

DZKMe6c.jpg

 

X3e7oo0.jpg

 

Dodatkowe fpsy spoko, ale co najważniejsze mega poprawiły się 1 i 0,1% lowy, stuttering czy odczuwalne chwilowe spowolnienia, który w niektórych grach występowały na Ryzenie zniknęły zupełnie (np. w RDR 2 podczas szybkiej jazdy na koniu przez Saint Denis). I tu jest chyba największy plus, w miejscach gdzie gra wisi na procku to jest miazga w stosunku do 5950x. Wczoraj jeszcze przed zmianą procka sobie załączyłem te gry, w których pamiętałem, że były problemy z klatkami przez CPU, żeby mieć porównanie. I tak, w CP2077 na rynku koło sklepu Misty klatki leciały mi nawet do ok. 45 w czasie sprintu między npcami, teraz minimalnie koło 65. Kingdome Come Deliverence w miejscach gdzie miałem spadki do 50-60 fps teraz koło 90-100. Wiedźmin 3 z DLSS3 w Novigradzie klatki koło 100, w najcięższych miejscach 80+ (wcześniej spadki do koło 55-60). Ale co najważniejsze nowy procek całkowicie wyeliminował problemy z frametime i podczas galopu przez Novigrad nie ma najmniejszych zwolnień/stutterów.

Swoje też pewnie robi DDR5 6400 CL32.

 

Dodatkowo w takim np. Spiderman Remastered fpsy leciały mi podczas bujania się na linie w niektórych miejscach do 50, na 13900k najniżej 80kilka, to samo M Flight Simulator, kilkadziesiąt procent wzrostu fps i zero stutteringu, który na 5950 był notoryczny. Także ja jestem mega zadowolony.

 

 

2 godziny temu, PiPoLiNiO napisał:

Szczerze powiem, że co kilka dni mi chodzi po głowie 13900k, ale potem odpalam filmy na YT i jak widzę w grach temperaturę skaczącą między 74-99 stopni na AIO 360, to myślę sobie... WTF

 

To chyba ktoś na ten procek dmucha, żeby go schłodzić. Na h150i Cappelix Elite mam  w grach koło 60 stopni, takie widełki 50-70, ale to 70 to tylko w czasie krótkich skoków, nie stale.

 

 

2 godziny temu, PiPoLiNiO napisał:

Też oglądałem X testów, i w 4k ta różnica jest totalnie marginalna.

 

Jeżeli mówimy o dobrze zoptymalizowanych grach to tak, ale gierki, które leżą na procku dostają mega boosta liczonego w kilkudziesięciu % przyrostu fps. Część już opisałem w tym poście ze spoilera, ale dodatkowo taki TW Warhammer 3 w benchmarkach (benchmark mapy kampanii Immortal Empires) poleciał mi z 50 kilku do 80+ fps, w bitwach to samo. Dodatkowo DLSS quality to już 1440p i tam przyrosty już są większe, jak np. u mnie w CP2077 - 11fps.

 

 

2 godziny temu, MarekCol napisał:

Nie znam się w sumie, więc nie bierz moich wynurzeń jako prawdy objawionej, ale czytałem na forum PC laba, że 13900k ma spajki z pizdy do 400 wat niekiedy. 240 wiatraki z wodą nawet dobrej jakości nie uchronią chyba czasami od emergency reset systemu xd

 

W grach bierze przeważnie poniżej 100W. Ogólnie te całe problemy z temperaturami i poborem prądu 13900k to w ogóle nie dotyczą wykorzystywania go do grania.

Edytowane przez tjery
  • Plusik 1
Odnośnik do komentarza
6 minut temu, tjery napisał:

Dodatkowo w takim np. Spiderman Remastered fpsy leciały mi podczas bujania się na linie w niektórych miejscach do 50, na 13900k najniżej 80kilka, to samo M Flight Simulator, kilkadziesiąt procent wzrostu fps i zero stutteringu, który na 5950 był notoryczny. Także ja jestem mega zadowolony.

 

Naturalnie, wierzę w to co piszesz, że ogólne odczucia z gierki są bardzo i to bardzo bardziej komfortowe na najsilniejszym procu, ale wkleiłem filmik, gdzie nawet 13900k klęka w Moralesie (jakiś skwer z drzewami między przecznicami) - klatki poleciały na 53 przy wykorzystaniu GPU 98%. U mnie ten sam scenariusz testowany kilkakrotnie - ponieważ to jedyna obcenie gierka, która żre CPU i do której mogę się odnieść - i pokazało mi 46 najmniej. Można napisać, że to 15% mniej, ale bardziej o tą overall stabilność animacji chodzi, bardzo szybkie ruchy kamery, mała amplituda między low i high. Ciężko te rzeczy uchwycić. Więkoszość kanałów (w tym np. Gamers Nexus) 1% i 0.1% low pokazuje programowo i można te ich wyniki o kant dupy rozbić. Fajnie właśnie takie rzeczy po prostu organoleptycznie sprawdzać. Chyba wezmę po prostu tego 13600K, w gierkach niby poziom 12900K i 4090 powinien się przy nim mniej nudzić też.

Odnośnik do komentarza
1 minutę temu, MarekCol napisał:

 

Naturalnie, wierzę w to co piszesz, że ogólne odczucia z gierki są bardzo i to bardzo bardziej komfortowe na najsilniejszym procu, ale wkleiłem filmik, gdzie nawet 13900k klęka w Moralesie (jakiś skwer z drzewami między przecznicami) - klatki poleciały na 53 przy wykorzystaniu GPU 98%. U mnie ten sam scenariusz testowany kilkakrotnie - ponieważ to jedyna obcenie gierka, która żre CPU i do której mogę się odnieść - i pokazało mi 46 najmniej. Można napisać, że to 15% mniej, ale bardziej o tą overall stabilność animacji chodzi, bardzo szybkie ruchy kamery, mała amplituda między low i high. Ciężko te rzeczy uchwycić. Więkoszość kanałów (w tym np. Gamers Nexus) 1% i 0.1% low pokazuje programowo i można te ich wyniki o kant dupy rozbić. Fajnie właśnie takie rzeczy po prostu organoleptycznie sprawdzać. Chyba wezmę po prostu tego 13600K, w gierkach niby poziom 12900K i 4090 powinien się przy nim mniej nudzić też.

 

No właśnie zdziwiony jestem tym Moralesem i właśnie ściągam, żeby sprawdzić. Bo to miejsce z tego filmiku to takie samo problematyczne miejsce jakie są w Remastered, czyli park z drzewami, tam właśnie na Ryzenie mi leciało do 50parę, a w tych samych miejscach na 13900k minimum 80. Także ciekawy jestem czemu w Moralesie jest tak hardkorowo nad tymi parkami nawet na 13900k, sprawdzę i dam znać jak to u mnie wygląda.

Odnośnik do komentarza

Tylko, że ciężko będzie ci to sprawdzić bo cholera wie na jakim etapie gry test był robiony. Chyba, że tam gdzieś jest to wyjaśnione, nie wiem, nie czytałem. Pora dnia po którejś z misji np. delikatnie zmieniona i już masz inne rezultaty na CPU. Tak jak pisałem, ciężko takie rezczy mierzyć. Najlepiej kupić najmocniejszy proc i mieć wszystko w dupie :) Właśnie sobie taką myśl sam zasiałem w głowie :devil:

Odnośnik do komentarza

@tjery Ale Ty dalej porównujesz wszystko do swojego AMD. Odpal filmy gdzie masz i9 11900k i i9 13900k. W 4k różnica jest prawie żadna. Zresztą, wrzucam zdjęcia testów w 4k. I nie czepiaj się, że to 3090. Na YT masz testy z 4090. Nie ma różnicy. 
a6b3d00bcab56200580e8cf0ef18cfdd.jpgbd35ea083a6b43ff0a3a6862088f98da.jpg98d7c0c62158655b78e87696d38ac1e7.jpg

Edytowane przez PiPoLiNiO
Odnośnik do komentarza
27 minut temu, PiPoLiNiO napisał:

@tjery Ale Ty dalej porównujesz wszystko do swojego AMD. Odpal filmy gdzie masz i9 11900k i i9 13900k. W 4k różnica jest prawie żadna. Zresztą, wrzucam zdjęcia testów w 4k. I nie czepiaj się, że to 3090. Na YT masz testy z 4090. Nie ma różnicy.

 

No z tych wykresów to tak samo mógłbym wywnioskować, że na 13900K różnica w 4K w stosunku do 5950x prawie żadna (bo 5950x jest na równi z 11900K), a jednak rzeczywistość w różnych scenariuszach okazała się całkowicie inna i jestem mega zadowolony z poprawy jaką przyniósł nowy procek.

Edytowane przez tjery
Odnośnik do komentarza

@MarekCol dobra, już wiem o co chodzi z Moralesem, tam jest jakiś wałek z rozdzielczością.

 

Ustawienia wszystkie max + max RT w 4K.

 

Tu natywne 4K, wykorzystanie grafy 90%, 58fps.

 

HEb6duk.jpg

 

Tu 4K z DLSS Quality, wykorzystanie GPU 97%, 92 fps.

 

LTmjeTL.jpg

 

Także coś zmaścili przy natywnym 4K, bo w natywnym 4K jest większy CPU bottleneck niż z DLSS Quality.

Co dziwne, w Spiderman Remastered tego nie ma, wszystko śmiga w natywnym 4K jak tutaj z DLSS Quality.

 

I po włączeniu DLSS Quality wszystko wraca w Moralesie do normy, pobujałem się na kilkoma parkami z drzewami i najniżej koło 80 fps, czyli podobnie jak w Remastered w natywnym 4K.

 

 

 

Edytowane przez tjery
  • Plusik 1
Odnośnik do komentarza

@tjery i @MarekCol nie będę się kłócić, ale logika mówi, że skoro średnia się zgadza to jednak jest jak trzeba. Bo skoro byłyby skoki tak wielkie to jak piszecie, to i średnia by się zmieniał. Nie mam spiderman więc nie mogę tego sprawdzić. Ale niedawno Tjery pisał, że miał tak w Novigrad, u mnie nic takiego nie ma. Może to kwestia tego, że ja mam po OC i wszystkie rdzenie na 5.1GHz. 

Odnośnik do komentarza
5 minut temu, PiPoLiNiO napisał:

nie będę się kłócić, ale logika mówi, że skoro średnia się zgadza to jednak jest jak trzeba

Ze średnią jest ten problem że możesz mieć półsekundową ścinkę raz na 30sek. którą na pewno zauważysz a na wykresie to będzie różnica 2 klatek (bo (29x120 + 60) / 30 = 118), przy takiej samej ścince co minutę średnia to już 119 (zamiast założonego 120) a przy wykresie dłuższym niż 2 minuty (a najczęściej obejmują o wiele większy okres czasu) średnia nawet tego nie odnotuje. Dla tego podawane są minimalne 0.1%. Zobacz sobie test np. Spidera na HDD, średnia jest niewiele niższa niż na SSD ale są co chwila przycinki które dobrze widać na real time graphie i w gameplayu.

Odnośnik do komentarza

@tjery, zwracam honor. Mi też po aktualizacji sterów zmieniło w nvidia vsync na off. Dałem na on, odpaliłem samoloty z Frame Generator i jest masełko. No ale nadal muszą ogarnąć artefakty na napisach.

 

Inna rzecz, że mogliby to zrobić zgodnie z logiką i pozwalać na zmiany v-sync w grze. Nie każdy musi ogarniać, że można zmienić w panelu. Ba, ja wiedziałem, a i tak nie zmianiałem wcześniej bo myślałem, że gra to odcina po prostu przez generator ramek. 

Odnośnik do komentarza

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...