Skocz do zawartości

Ogólne pecetowe pierdu-pierdu


Gość ako

Rekomendowane odpowiedzi

Moje doświadczenia z AMD wpasowują się w ten stereotyp dawnego grania na PC czyli zanim zagramy trzeba 2 godziny szukać w google rozwiązania problemów których nikt inny nie ma :ragus:

I zanim ktoś napisze "ale ja mam AMD i wszystko działa". No spoko, pewnie działa, dopóki nie będziesz chciał zagrać w nową grę w okolicach jej premiery albo używać więcej niż 1 monitora gdzie każdy ma inną rozdzielczość xd

Odnośnik do komentarza

No w 1080p średnio jakieś 3% szybszy niż 13900k, ale tańszy i bierze dużo mniej prądu. W wyższych rozdzielczościach bez różnicy. Tylko takie porównania w obecnych grach słabo się sprawdzają, bo co mi z tego, że w jakieś tam gierce w 1080p wyciąga 283 fpsy, a 13900k 275, to tylko papierkowe wyliczenia nic nie zmieniające w graniu. Teraz problemem gier są CPU bottlenecki, a takich rzeczy nie sprawdzają. Wiem jak to wyglądało u mnie na 5950x a jak na intelu, w takich sytuacjach nawet po kilkadziesiąt % więcej fps na 13900k, bez stutteringu, który występował na Ryzenie, mimo, że Benchamarki pokazywały, że w 4K między 5950x a 13900k różnica kilka procent co najwyżej.

 

Edit: oczywiście nie wiem, jak w takich sytuacjach radzi sobie 7800x3d, może dużo lepiej niż 5950x, wylałem tylko swoje gorzkie żale w kierunku AMD ;)

Edytowane przez tjery
Odnośnik do komentarza

Ja gram na laptoku z Ryzen 5600H, 16GB, RTX 3060 w 1440p podpiętym pod monitor UW w ustawieniach wysokich z włoskami, bez RT i z FSR w Performance. Ustawiłem locka na 60 klatek i niby jest spoko ale czasami łapie zadyszkę. Problemy bywają przy celowaniu ze snajperki. No ale to laptop.

Odnośnik do komentarza

Prawie kazdy teraz monitor ma 36m gwarancji, Samsung w technologii, która głownie jest narażona na wypalenia nie daje nawet roku, wiec opinie użytkowników nie zmieniłyby mojego zdania.

Ja pewnie tez bede upgradował platformę, ale zamiast AMD pewnie tym razem wybiorę Intela - np. takiego i5-13600K, i7-13700K i top pewnie znacznie szybciej niż na koniec roku, bo jednak 4080 z AM4 nie rozwija skrzydeł.

Odnośnik do komentarza

Nie rozumiem trochę tych polowań na ultra szerokie QD oledy. Są drogie i niczego szczególnego sobą nie reprezentują vs. LG C2 42, którego sam posiadam i który jest prawie 2x tańszy. Po kupnie tegoż już jakoś nie zagłębiałem się szczególnie w ten temat, więc może czegoś nie wiem, także proszę mnie oświecić. Rozważałem C2 42 i Alienware 3440x1440 34 oled, padło na LG ponieważ Alienware miał 3 wady - 1 - dziwny trójkątny układ subpikseli, więc mniej wyraźne czcionki podczas pracy, 2 - matryca, która słabo gasi światło, przez co w świetle dziennym czerń nie jest smolistą oledową czernią tylko szarówą i mlekiem, 3 - wiatrak, który słychać, monitor z wiatrakiem, jezu... Oczywiście były też zalety Alienware - zachowuje się defaultowo jak monitor a nie TV, posiada DP, wyższe odświeżanie, jest sporo jaśniejszy. Jak to się ma do tych QD-oledów całych? Nie wierzę, że za mniejszy ekran opłaca się płacić prawie 2 razy więcej pieniążka, a to i to jest oled. Tym bardziej, że na C2 jesli ktoś ma ochotę to w menu sobie może w każdej grze zrobić tryb 21:9, a nawet 32:9. Jest ciemniejszy, zgoda, tylko, że ma matryce która super pochłania światło i czerń nie jest szara w jasnym pomieszczeniu, ma pełne 4K, ma hdmi 2.1, ma g-sync, ma freesync, vrr, dolby vision, HDR10 i w ogóle z moją 4090 współpracują jakby byli dla siebie stworzeni. Dziwi mnie mega, że ludzie w ogóle rozważają mniejsze i droższe monitory niż to dzieło sztuki od LG.

Edytowane przez MarekCol
Odnośnik do komentarza

Ja będę dobrym przykładem, miałem tego oleda jako TV. Raz ,że wtedy jak kupowałem różnica w cenie to tylko 1000 zł. Moim skromnym zdaniem nie nadaje się na monitor, źle mi się przy nim siedziało. Zmiana proporcji wyświetlania magicznie nie zmienia matrycy i masz melko. No ni nie wyciągasz potencjału karty, 120Hz jest limitem. Jest też ciemniejszy i to sporo. Dlatego zwróciłem. 

 

Największa wada, nie jest monitorem 21:9 i nie działa jak monitor.

Odnośnik do komentarza
7 godzin temu, Ukukuki napisał:

Zmiana proporcji wyświetlania magicznie nie zmienia matrycy i masz melko.

 

Tego całkowicie nie rozumiem. Pisałem o odwrotnej sytuacji właśnie. TV od LG ma lepiej spolaryzowaną matrycę i nie ma mowy o mleku właśnie, podczas gry monitory w świetle dziennym tracą czerń i kontrast. Wielokrotnie mielone w recenzjach, np. tu https://www.rtings.com/monitor/reviews/dell/alienware-aw3423dw Do tego ten dziwny układ subpikseli i słyszalny wiatrak. Co do wyciągania potencjału karty, to kwestia oczekiwiań. 120 fps w 4K to mało? Ciężkie gry na max i tak tyle nie osiągną. A co do ciemniejszego obrazu to może to jedynie przeszkadzać w SDR, bo w HDR to nawet te 700 nitów z bliska wypala oczy. Ponadto wszelkie wartości jasności obrazu można łatwo zmienić przy użyciu color control lub LG tv companion. To samo jeśli chodzi o działanie jak monitor - kilka kliknięć w tych programach i C2 zachowuje się jak normalny monitor. Szczerze, dla mnie ten TV wygrywa z każdym monitorem. Jak bym miał się już czegoś czepiać i silić się szukanie dziury, to komuś może nie pasować duży rozmiar i ergonomia.

Odnośnik do komentarza

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...