Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 02.01.2015 o 23:35, lis_23 napisał:

Po pierwsze, pierwszy raz spotkałem się z czymś takim, że do poprawnego działania spatchowanej
gry potrzebne są najnowsze sterowniki graficzne, inaczej gra się nie uruchomi...

A ponoć Nvidia taka dobra i wszystkie gry zawsze dobrze chodzą na jej kartach ^_^ A AC:U jeszcze korzysta z Nvidia "The Way It''s Meant To Be Played" (a te migające tekstury to pewnie kluczowa część programu i błędy Animusa, miały być od początku) ;) Ach, będę mieć śliczny argument jak znowu mi ktoś zacznie gadać że to AMD wypuszcza szajs a karty Nvidii są najlepsiejsze.

Ale już poważniej - o tym że AC:U jest technologiczną kupą złomu to wiemy wszyscy. Podejrzewam że ich najnowszy patch dodał kolejne poważne błędy i tym razem doprowadził do tego że gra przestała chodzić na najnowszych GPU Nvidii. Jako że to samej Nvidii oberwałoby się za błędy Ubi które nie testuje swoich łatek to na szybko wydali hotfix żeby to się w ogóle mogło uruchomić.

Dnia 02.01.2015 o 23:35, lis_23 napisał:

I tu nurtuje mnie jedno pytanie:
sterowniki Nvidii ukazały się 23 grudnia ale sam patch do AC Unity ukazał się kilka
dni wcześniej. W jaki sposób posiadacze kart Invidii grali w spachowaną grę przed wyjściem
nowych sterowników?


To bardzo proste. Nie grali! Choć pewnie problem nie występował na wszystkich kartach naraz a np. tylko na GTX970/GTX980.

Dnia 02.01.2015 o 23:35, lis_23 napisał:

Bez nich gra przed wejściem do menu, minimalizowała się do paska
na pulpicie i wyłączała obsługę myszki.

Że też ludzie kupują produkty wybrakowane do tego stopnia, chyba nic mnie już nie zdziwi. Ja bym po prostu zrobił chargebacka w momencie gdy komputer który zdecydowanie spełnia wymagania danej gry wali mi takimi błędami.

Dnia 02.01.2015 o 23:35, lis_23 napisał:

Wydaje mi się, że namieszał i sam patch Ubi i sterowniki Nvidii ( już sam fakt wycofania
MFAA sprawia, że coś tu śmierdzi ).

A to akurat się zdarzało dotychczas wielokrotnie w historii gier - a to wsparcie Mantle pojawiało się dopiero w którymś z patchy, a to wywalano obsługę DirectX 10.1... ot, dodatkowa funkcja dobrze wspierana tylko przez karty jednej firmy oznacza dodatkowe elementy do utrzymania i testowania.

Dnia 02.01.2015 o 23:35, lis_23 napisał:

To wszystko po patchu nr. 4, więc w porównaniu z tym, mój problem to pikuś ;)

Ach, jaka fajna gierka, takiego pokazu bugów to nie miałem od czasów... Radeona 9200 z 2002 roku. Aż mnie dziwi że w USA jeszcze nie pozwali Ubi do sądu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 03.01.2015 o 08:46, ziptofaf napisał:

> MFAA sprawia, że coś tu śmierdzi ).
A to akurat się zdarzało dotychczas wielokrotnie w historii gier - a to wsparcie Mantle
pojawiało się dopiero w którymś z patchy, a to wywalano obsługę DirectX 10.1... ot, dodatkowa
funkcja dobrze wspierana tylko przez karty jednej firmy oznacza dodatkowe elementy do
utrzymania i testowania.


Wybacz że się tak wcinam, ale coś ciekawego od DX10 napiszę :) Niedawno męczyłem Stalkera Lost Alpha. Są tam 3 tryby renderowania do wyboru: zwykły, DirectX 9 i DirectX 10 + 10.1. Bardzo ciekawie gra zachowuje się na DX10 (włączenie 10.1 nic nie daje). Nie dość że gra lepiej wygląda od DX9, to na dodatek działa szybciej średnio o 5 klatek. Dodatkowo na DX9 włączenie promieni słonecznym (light shafts) bardzo spowalnia grę, a na DX10 nie ma żadnej różnicy w wydajności. Tak samo MSAA x4 nie zmniejsza wydajności na DX10.

A to wszystko na pupiastym GTX 750Ti - bardzo polubiłem tę kartę, działa zaskakująco dobrze, co pokazała przy Lordsach. Wymienię ją dopiero za pół roku. Tyle w ramach ciekawostek :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 03.01.2015 o 08:46, ziptofaf napisał:


A ponoć Nvidia taka dobra i wszystkie gry zawsze dobrze chodzą na jej kartach
^_^ A AC:U jeszcze korzysta z Nvidia "The Way It''s Meant To Be Played" (a te migające
tekstury to pewnie kluczowa część programu i błędy Animusa, miały być od początku) ;)
Ach, będę mieć śliczny argument jak znowu mi ktoś zacznie gadać że to AMD wypuszcza szajs
a karty Nvidii są najlepsiejsze.

Mimo wszystko, na żadnej z trzech dotychczasowych kart Invidii ( GTX 570, GTX 780 i GTX 980 ) nie miałem takich " kwiatków ", jak chociażby na HD 4870 ( artefakty, pokaz slajdów, itp. ), na GTX ach martwi mnie tylko, jak temperatura podczas przeglądania neta, itp. podskoczy ponad te 31 - 33 stopnie, bo jestem na to wyczulony po przebojach z temperaturą GTX 570 ;)

Dnia 03.01.2015 o 08:46, ziptofaf napisał:

Ach, jaka fajna gierka, takiego pokazu bugów to nie miałem od czasów... Radeona 9200
z 2002 roku. Aż mnie dziwi że w USA jeszcze nie pozwali Ubi do sądu.


Wiesz, jakiś typowych bugów, poza standardowym przenikaniem przez obiekty, itp. które były w każdej odsłonie serii, nie uświadczyłem, i to od dnia premiery gry. Ciekawe, czy na częstotliwość występowania bugów graficznych ( problem z włosami, znikające twarze, itp. ) ma wpływ ilość pamięci VRAM? Myślę, że tak, pamiętam problemy ze zmodowanym TES V Skyrim na GTX 570, który miał tylko 1GB VRAM - było śmieszno i straszno ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 03.01.2015 o 13:00, lis_23 napisał:

Wiesz, jakiś typowych bugów, poza standardowym przenikaniem przez obiekty, itp. które
były w każdej odsłonie serii, nie uświadczyłem, i to od dnia premiery gry. Ciekawe, czy
na częstotliwość występowania bugów graficznych ( problem z włosami, znikające twarze,
itp. ) ma wpływ ilość pamięci VRAM? Myślę, że tak, pamiętam problemy ze zmodowanym TES
V Skyrim na GTX 570, który miał tylko 1GB VRAM - było śmieszno i straszno ;)


Nope.
Ten problem bierze się z nieumiejętności programowania gier przez ludzi w Ubi. Otóż tworząc DX11 Microsoft podał pewne istotne wytyczne - np. ile może być wywołanych poleceń na sekundę. AC:U ma jednak specyfikację techniczną głęboko gdzieś i przekracza te wartości 3-4x. Co sprawia iż mnóstwo obiektów nie jest wyrenderowanych do końca.

Dlatego zresztą ta gra chodzi jak kupa złomu na tak dużej ilości komputerów - płynnie (choć bugi i tak są) jest tylko na maszynach które niczym potężny i majestatyczny lodołamacz mogą przebijać się przez siermiężny kod Unity. Ta gra powinna po prostu wyjść przynajmniej 3-4 miesiące później ale niestety dochodzi już do takiego absurdu że finansowo lepiej wydać swój tytuł, nawet jeśli jest niedopracowany jak diabli, przed świętami aniżeli go dokończyć. Ot, za dużo idiotów składających preordery. Dem też już nie ma z tego samego powodu - gdyby kupujący mógł PRZETESTOWAĆ coś przed zakupem to by dopiero było przerażające!

Jakby tak dla odmiany kupujący byli grupą myślącą którą interesują recenzje i którzy nie dają sobie wciskać szajsu a żądają zwrotu pieniędzy jeśli dana gra im nie działa a zgodnie z informacjami od producenta powinna to rynek gier wyglądałby o wiele lepiej aniżeli "najpierw wydać a potem, jeśli gównoburza zrobi się wystarczająca duża, zrobić parę łatek"...

Ale odbiegamy już znacznie od tematu tego wątku, poza tym dyskusja to zbyt ciekawa nie jest - że Unity jest kupą szajsu to wiemy wszyscy, tyle na ten temat.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Mam za dużo czasu i zaczynam kombinować, więc jeśli wpadam na jakiś głupi pomysł albo coś źle rozumiem, proszę mnie czymś ciężkim walnąć.

Jako że zaczyna mnie powoli nudzić czekanie na GeForce 960 (albo odpowiednika od ATI), zastanawiam się czy nie szarpnąć się teraz na 970, a za kilka miesięcy wymienić procesor/pamięć płytę. I tu dochodzę do dwóch wątpliwości:
1. Co z zasilaczem I. Czy ta 970 jest naprawdę tak energooszczędna ( http://www.benchmark.pl/produkt/ranking/gigabyte-geforce-gtx-970-g1-gaming) i jeśli zasilacz daje radę z obecną kartą ( http://www.benchmark.pl/produkt/ranking/asus-radeon-6950-directcu-ii), to spokojnie poradzi sobie z najnowszym GeForce''em?
2. Co z zasilaczem II. Czy różnica w zasilaniu 6+6 pin a 6+8 pin to coś ważnego? ;d

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

@Kadaj
Napisz jakiej firmy masz zasilacz i jaki model. Do GTX 970 wystarczy 500w, nawet z pewnym zapasem o ile nie masz procesora AMD. Nowa seria Geforców jest bardzo oszczędna. Radeon 6950 wymaga więcej energii więc praktycznie nie ma się czym martwić ale jeśli twoja zasiłka jest jakiejś podrzędnej firmy - lepiej ją wymienić przy okazji.
Czy opłaca się teraz brać 970? To mocna karta i naprawdę przystępna cena jak na wydajność, ale jest możliwość że 960 będzie niewiele słabszy. Nvidia długo przeciąga premierę, myślę ze przy takim odstępie czasu kiedy boom sprzedaży 970 powoli mija, zieloni mogą sobie pozwolić na dość mocnego "średniaka" żeby znów nakręcić sprzedaż. I jeszcze jedno - 970 też mógłby stanieć. Krótko mówiąc- jest szansa żeby oszczędzić.

6+6 pin i 6+8 pin to rodzaje wejść dodatkowego zasilania karty graficznej, kable wychodzą od zasilacza. GTX 970 wymaga jednego 6 i drugiego 8 pinowego złącza. Ale w pudełkach do kart GeForce są dorzucane przejściówki z molexów dla zasilaczy które mają tylko 6 pinowe wejścia. Jednak kiedy zasilacz ma tylko 6 pinowe wejścia lepiej się zastanowić nad jego jakością i czy poradzi sobie z kartą.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 03.01.2015 o 21:23, nurbi napisał:

Napisz jakiej firmy masz zasilacz i jaki model.

Chieftec BPS-500S. Przynajmniej tak rzecze pudełko. ;p

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Model ze średnio/niższej półki. Pod obciążeniem będzie na styk. Poza tym jest już trochę stary, zgaduję ze masz go parę lat. Poradzi sobie z tą kartą bez problemu ale myślę, że powinieneś się przy okazji szarpnąć na wymianę zasiłki - tym bardziej jak chcesz modernizować całego kompa. Procesory intela na nowej podstawce wymagają kompatybilnych zasilaczy, inaczej będziesz musiał grzebać w ustawieniach biosu.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Mialem dzis zamawiac juz czesci, ale oczywiscie pojawil sie "problem". Cena mobo wzrosla. Niewiele, ale jednak :P (jakies 20-30zl). Moge machnac reka i np. w weekend nie isc do knajpy, ale jesli jest ona juz nie oplacalna (przypomne- Gigabyte GA-Z97X-Gaming 3 obecnie za 489zl) to chetnie przyjme inne propozycje. Moze np. http://www.morele.net/plyta-glowna-asrock-z97-extreme3-z97-dualddr3-1600-sata3-raid-hdmi-dvi-d-sub-atx-z97-extreme3-645428/ ?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Witajcie!
Jako, że kiedy ostatnio pomagaliście mi dobrać dobry zestaw do gry - byłem bardzo zadowolony. W nagrodę mam kolejną prośbę o pomoc ;). Zadanie jest dosyć trudne. Potrzebny mi jest komputer dla starszej osoby, czyli jego przeznaczenie to głównie: przeglądarka, filmy, youtube, telewizja internetowa i naziemna i skype. Budżet to koło 1200 zł, z czego jedyne co może zostać ze starego komputera to obudowa (chociaż jej też przydałaby się emerytura ;)). Ja myślałem nad Intel Pentium G3420 + Radeon R7 250 + 4 GB RAM, jednak jestem mało zorientowany w rynku, więc może jest coś lepszego.
Z góry dziękuję i pozdrawiam.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Hmm...
MSI Z97 Gaming 3 jest już w tej samej cenie co ten Gigabyte a jest nieco lepsza.
AsRock Z97 Extreme3... nie będę ukrywać - nie znam tego modelu. Tym niemniej jeśli jakościowo stoi pomiędzy Pro4 a Extreme4 to powinien być idealny dla twoich potrzeb.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Ło panie, R7 250 dla kogoś kto nie gra? Toż to strata kasy. Zwłaszcza że z takim zestawem się nawet nie zmieściłbyś cenowo - 180 zł płyta główna, z 220 za procesor, 330 za GPU.

Może takie coś raczej:
http://www.morele.net/inventory/info/MpFT3x/
A8 7600 ma zaskakująco dobre zintegrowane GPU ( http://pclab.pl/art56011-9.html), poza tym dochodzi bardzo niski pobór mocy i cena. Do typowych zastosowań jak znalazł.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Co myślicie o połączeniu i3 4150 z R9 280? Ma to jakiś sens? Chodzi mi o to, czy procesor dla tej karty nie będzie wąskim gardłem i nie będzie jej ograniczał, a może lepszym rozwiązaniem byłby R9 270X lub GTX 760?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Gigabyte jest tańszy i ma nieco szybszy rdzeń. Obie karty mają tak samo wydajne chłodzenie. MSI ma poprostu więcej plastiku na radiatorze i jedynie lepiej wygląda.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 06.01.2015 o 17:09, Snafu napisał:

Co myślicie o połączeniu i3 4150 z R9 280? Ma to jakiś sens? Chodzi mi o to, czy procesor
dla tej karty nie będzie wąskim gardłem i nie będzie jej ograniczał, a może lepszym rozwiązaniem
byłby R9 270X lub GTX 760?

Procek nie może być wąskim gardłem w dosłownym znaczeniu. Zbyt słaby procesor może powodować spadki w sytuacjach kiedy potrzebna jest jego moc obliczeniowa na przykład kiedy jest dużo NPC lub potrzeba obliczeń fizyki (Mount&Blade Warband, Nowy Assassins Creed, Red Faction Guerilla) , jednak w większości gier przez grubą część czasu rozgrywki ilość fps jest bardziej zależna od mocy karty graficznej. Tak czy siak do tej karty graficznej aż się prosi jakiś mocniejszy procek, przynajmniej po to żeby komputer sobie dalej dobrze radził z coraz bardziej wymagającymi grami które się pojawiają. Na twoim miejscu bym zebrał jeszcze trochę kasy i postawił na i5.

@Gordon92
Gigabyte się lepiej opłaca. Jest tańszy i ma dłuższą gwarancję. Jeśli są w ogóle między nimi różnice taktowania to w praktyce różnice fps w grach byłyby na niezauważalnym poziomie.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Hmm, na YT widziałem filmik i generalnie testy i ten i3 spisywał się naprawdę nieźle. Wraz z R0 260 "ciągnął" BFa4 na maksymalnych w ok.50 FPSach z Assassinem też dawał radę i to na wysokich/ultra ustawieniach. Stąd pytanie, czy warto dopłacić te 300 zł to i5, czy lepiej po prostu dobrać R9 280.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Te i3 są dobre ale w grach pokroju Arma 3 różnica będzie widoczna na korzyść np. takiego i5-4460.
https://www.youtube.com/watch?v=P8Pp3j3VGz4 - gdzieniegdzie rozpiętość sięga 10 fps, w przypadku jakiejś bitwy w tej grze byłoby to bardziej zauważalne.
Powoli przybywa gier stawiających na coraz większą moc procesorów przez złożoność i wielkość świata, ilość NPC lub rozbudowany system zniszczeń. Co weźmiesz decyzja należy do Ciebie. Mimo tego że różnica może być w niektórych grach to nie ma mowy o jakiejś strasznej przepaści w wydajności.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się