Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 13.05.2014 o 21:39, pawbuk napisał:

Trójkę, trójkę wybierz Panie!!!


Panie, a numer dwa czy jeden? :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 13.05.2014 o 22:01, Bralo napisał:

Panie, a numer dwa czy jeden? :D


Wydaje mi się, że lepiej zawsze wypadał WD, ale głowy sobie nie dam uciąć :D Na pewno więc nr 3, do tego chyba też 2 :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 13.05.2014 o 22:01, Bralo napisał:

> Trójkę, trójkę wybierz Panie!!!

Panie, a numer dwa czy jeden? :D


Brałbym Westerna.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ech, buduję wyjątkowo ekonomicznego PC-ta dla znajomej za granicą do grania i na razie wyszło mi coś takiego:

Celeron G1820
MSI H81M-P33
Corsair VS350W
Samsung SH-118BB
Seagate Barracuda 1TB
Zalman ZM-T4
4GB RAM Crucial 1333 MHz CL9
Sapphire R7 250X

I na razie mam kilka zagwozdek:
a) Jak myślicie, co będzie szybsze:
- R7 250 1GB GDDR5: ok. 2000 punktów w Fire Strike
- R7 250X 1GB GDDR5: ok. 2700 punktów w Fire Strike
Problem jest taki że na kartę mam budżet w okolicach 70, max 75€. I wybór jest pomiędzy R7 250 z 1GB GDDR5 (za 74,90€) bądź R7 250X z 1GB DDR3 (za 69,90€). I tak się zastanawiam czy pamięci DDR3 wystarczająco zniwelują spowolnią kartę by spadła poniżej poziomu zwykłej 250tki. Jak myślicie?

b) MSI H81M-P33 co prawda wspiera Celerony G ale...
http://pl.msi.com/product/mb/H81MP33.html#/?div=CPUSupport
Niekoniecznie od pierwszej wersji BIOS''u. Myślę jakie mogą powstać problemy jeśli akurat trafi się starszy egzemplarz tej płyty - czy to będzie po prostu czarny ekran czy raczej jakieś problemy z kompatybilnością (które jednak będzie się dało rozwiązać aktualizacją BIOS''u bez konieczności uprzedniej podmiany CPU). W razie czego w grę wchodzi Pentium G3220 ale to mimo wszystko znacząco droższy procek a budżet mam niski lekko powiedziawszy i zmiana CPU = 2x mniejszy dysk.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Generalnie GDDR3 są nwolniejsze, natomaist przy takiej karcie graficznej i reszcie sprzętu, różnica nie będzie odczuwalna, a ten X na końcu nazwy może przechylić szalę zwycięstwa na swoją stronę. Także brałbym 250X z GDDR3 osobiście.

Jeżeli zaś chodzi o kompatybilność z celeronami. No w zasadzie oba scenariusze są możliwe. Albo się nie uruchomi w ogóle, albo się uruchomi, ale czasem może sypnąć BSODEM. W takiej sytuacji trzeba niestety pożyczyć/załatwić sobie na góra godzinę inny procesor, zrobić flasha biosu do najnowszej wersji oraz potem znowu korzystać z Celerona. Aczkolwiek jestem prawie pewny, że starej reqizji nie odstaniesz - te płyty są już dość długo w sprzedaży detalicznej, a jak to budżetówki - schodzą szybko.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jako że smartfony to też jakby komputery.... dlatego mam pytanie czy jeśli zakupie smartfona z androidem 4.4.2 czy jak wyjdzie android 4.4.3 to automatycznie pobierze mi aktualizacje ? czy to musi zrobic producent tak jak np przejscie z androida 4.0 na 4.2 ?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Witam, piszę w imieniu kolegi. Składa kompa, i tu jest jego zapytanie:

Czołem ;)

W wolnej chwili chciałbym poprosić kogoś bardziej obeznanego o skomentowanie poniższego zestawu + ewentualne skorygowanie.

Pula teoretycznie to 3k, jednak ta oferta niżej jak z resztą widać to 3351, więc tyle powiedzmy byłbym jeszcze skłonny wyłożyć. Temat w sumie niżej był podobny, miałem dylemat, czy zakładać nowy, czy się podpiąć, jednak nie chciałem mieszać się w czyjś temat. Główne zastosowanie to gry + praca, lecz dobry sprzet do gier z pewnością będzie odpowiedni tez do obsługi photoshopa, autocada itd, więc raczej zostańmy przy głównym zastosowaniu.

Zbudowany został taki zestaw:
http://www.morele.net/inventory/info/e9diu/

Odnośnie zestawu mam kilka "wariacji" przede wszystkim w kwestii:
- RAMu, w tej samej puli cenowej jest pamięć Kingstona, podobno wydajniejsza, lecz sprzedawca nie był pewien, czy będzie akceptowalny przez płytę główną, która rzekomo jest nowym modelem (nie jestem w stanie potwierdzić/zaprzeczyć).
- Procesora: mam dylemat, czy brać tą i5, czy może dołożyć i7, kosztem grafiki
- podobnie jak wyżej, czy zmniejszyć grafikę na np. GeForce GTX760 i przy tym zainwestować w i7.

Wszelkie dodatkowe korekty i uwagi są mile widziane.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.05.2014 o 00:03, Sztywny_pl napisał:


Moim zdaniem lepiej zostawić i5 i brać gtx 770, w większości karta ma więcej do powiedzenia w grach.
Możesz jeszcze rozważyć taki ram: http://www.morele.net/pamiec-crucial-ballistix-8gb-2x4gb-ddr3-1600mhz-cl-9-9-9-24-unbuffered-non-ecc-1-5v-bls2cp4g3d1609ds1s00ceu-472804/
Co do karty dźwiekowej, to róznicę poczułem dopiero po przesiadce z integry na Xonara DX, chociaż DG na audiofanatyk.pl widnieje jako najtansza z polecanych. Mimo wszystko wstrzymałbym się i dozbierł do chociażby tego DX.
Jeśli zrezygnowałbyś z tego Xonara DG, to mb. możeś rozważyć takie: http://www.morele.net/plyta-glowna-asrock-fatal1ty-h87-performance-h87-dualddr3-1600-sata3-gblan-raid-atx-h87-performance-582748/

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

A więc:
http://forum.gram.pl/forum_post.asp?tid=92&pid=68333
http://forum.gram.pl/forum_post.asp?tid=92&pid=63966

Dokładne omówienie różnic między Core i7 a Core i5.
W skrócie: 4 stówy więcej za 1-10% wydajności (w grach będzie bliżej 1%). Nie warto. To karta graficzna jest decydująca w grach i jeśli bierzesz procek droższy od karty to znaczy że albo budujesz maszynę do programowania albo masz inne bardzo specyficzne wymagania. Jeśli mimo to chcesz mieć mocy i7 to po prostu weź Xeona E3-1225 - działa na typowych płytach głównych, tak naprawdę jest to DOKŁADNIE Core i7, po prostu pozbawionym możliwości podkręcania i ze zmienioną nazwą. I dostaniesz je za ok. 700 zł zamiast 1200.

Ba, na twoim miejscu to ja bym wręcz z prockiem nieco zjechał, podobnie z płytą. I w zamian starał się upchnąć o to:
http://www.morele.net/karta-graficzna-msi-r9-290-4096mb-ddr5-512-d-h-pci-e-gaming-4g-r9-290-gaming-4g-621447/

Dlaczego? Dlatego:
http://www.purepc.pl/karty_graficzne/test_amd_radeon_r9_290_sapphire_trix_vs_asus_directcu_ii?page=0,4

Fabrycznie podkręcony R9 290 ze zmienionym chłodzeniem wyprzedza nie tylko GTX770 a nawet kosztującego 1900 zł GTX780 (co wprost przekłada się na różnice wydajności przekraczające 30%). Odświeżone Haswelle od obecnych różnią się tylko jednym - lepszym zintegrowanym układem graficznym. Którego jak sądzę i tak nie zamierzasz używać. Choć obawiam się że niestety nawet wtedy byś lekko przekroczył budżet.

Co do RAM''u - kolejny element bez znaczenia na wydajności CHYBA ŻE używasz zintegrowanej karty graficznej pozbawionej własnej pamięci. W praktyce czy masz 1600 MHz CL10 czy 1333 MHz CL9 - nie ma to szczególnego wpływu na wydajność (poniżej 1% w grach).


Z pozostałych części:
Ten SSD jest tragiczny. 130 MB zapisu było akceptowalne w 2010 roku. Teraz mamy 2014. W podobnej cenie dostaniesz A-Data SP900, 550 MB odczytu, 520 MB zapisu.

Ogólnie rzecz biorąc więc:
http://puu.sh/8X5ZN.png - niewielki tuning tego co sam sobie wybrałeś. Wydajnościowo wyjdzie na to samo (poza dużo lepszym SSD-kiem), za to jest taniej. Nie widzę szczególnego sensu na dzień dzisiejszy pakowania się w odświeżone Haswelle, dopłacasz 120 zł do 0% wydajności.

A gdyby pójść w stronę maksymalnej możliwej wydajności:
http://puu.sh/8X6b9.png - musiałem wyciąć Xonara żeby nie przekroczyć za bardzo budżetu (alternatywą jest rezygnacja z SSD). Czy warto? Zależy. Linka do recenzji dostałeś, sam oceń. Moim zdaniem... tak bo testy pokazują naprawdę sporą przewagę:

Battlefield 4:
Podkręcony GTX770: 48.7 fps
Podkręcony fabrycznie R9 290: 64.4

Tomb Raider:
GTX770: 37.5 fps
R9 290: 44.6 fps

Assassin''s Creed IV: Black Flag
R9 290: 30.3 fps
GTX770: poniżej 30...

Więc w naprawdę wymagających grach w max detalach GTX770 już nie wyrabia. A przy twoim budżecie możesz sobie pozwolić na lepszą kartę kosztem niewielkich wyrzeczeń (zwłaszcza że Xonar co prawda jest fajny ale wypada mieć do niego dobre słuchawki typu Sennheiser/Koss a nie gamingowy szajs pokroju Fatal1ty... no i zawsze możesz go dokupić w przyszłości jeśli uznasz że zależy ci na lepszej jakości dźwięku czego o karcie graficznej za półtora tysiąca powiedzieć się raczej nie da).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.05.2014 o 00:46, Sztywny_pl napisał:

Kolega jednak pyta, czy ewentualnie można dobrać coś z GeForce''ów, gdyż z Radeonami
ma przejścia i ich nie chce.


Tak, GTX780 za 1800 zł ;)
Nic pośredniego nie ma:
R9 280X (1000-1200 zł) = GTX770 (1000-1200 zł) < R9 290 (1500 zł) = GTX780 (1800-1900 zł) < R9 290X (2000 zł) < GTX780Ti (2500 zł) ;P

Nvidia i AMD tutaj widać się wyraźnie dogadały co do ulokowania cenowego swoich produktów :D

Samemu mam R9 290tkę u siebie więc spytam - o jakie przejścia z nimi chodzi i co miałoby działać nie tak? ;) Na chwilę obecną czy weźmiesz Radeona czy GeForce''a - nie ma to NAPRAWDĘ znaczenia. Obie karty mają dobre, dopracowane sterowniki (zresztą - stronę temu w temacie o kartach graficznych znajdziesz osobę której wyniki w testach spadły o 30% bo użył najnowszych driverów Nvidii więc ona też święta nie jest...).
http://www.techfanatyk.net/problematyczny-problem-z-problemem/ - daj kumplowi to do przeczytania bo w sumie ma sens aż do dziś.

Zwłaszcza że AMD też ma kilka fajnych bajerów o których warto pamiętać:
http://sites.amd.com/us/promo/never-settle/Pages/nsreloadedforever.aspx - wybierając R9 290tkę na morele dostajesz 3 gry z tej ślicznej listy. Niektóre dopiero co wyszły więc to tak z 200-300 zł ;)

http://pclab.pl/art55953-3.html - AMD Mantle. Jak widać, potrafi w grach które z tego korzystają (na dzień dzisiejszy nowy Thief i Battlefield 4) zdziałać cuda i drastycznie zmniejszyć zużycie CPU.

Zresztą, chętnie mogę wykorzystać swoją 290tkę jeśli kolega jest nieprzekonany i mu wrzucić screeny jak działają jakieś konkretne tytuły którymi jest zainteresowany. Bo problemów z nią nie mam żadnych (zresztą... ostatni raz gdy Radeony były naprawdę skopane były za czasów 2900XT aka okolice 2007 roku).

A z drugiej strony barykady:
http://www.techspot.com/news/38131-nvidia-19675-gpu-driver-burning-up-graphics-cards.html - Nvidia też święta nie jest i miała nieludzkie wtopy jak sterowniki które gotowały jej karty graficzne.

PS Tak przypomnę - sklepom zawsze zależy na sprzedzaniu tego co nie schodzi. A ten Crucial właśnie do takich części się zalicza, jest 3x wolniejszy niż typowy SSD być powinien.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.05.2014 o 01:08, RhastA napisał:

Według http://pclab.pl/art57842-20.html GTX 780 jest ok. 10% od R9 290x.


A według:
http://www.benchmark.pl/testy_i_recenzje/sapphire-radeon-r9-290x-tri-x-oc-test/strona/21495.html
http://www.techpowerup.com/reviews/MSI/R9_290X_Gaming/24.html
http://www.benchmark.pl/testy_i_recenzje/asus-geforce-gtx-780-ti-dcuii-oc-test/strona/21781.html

To R9 290X jest o 7-8% szybszy od GTX780.

Zależy od konkretnych gier, ogółem podsumowując wszystkie większe recenzje które widziałem to R9 290X jest szybszy od GTX780tki i dopiero Ti go zjada. A fabrycznie podkręcony R9 290 w sumie od 290X różni się tylko nazwą.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.05.2014 o 00:56, ziptofaf napisał:

Samemu mam R9 290tkę u siebie więc spytam - o jakie przejścia z nimi chodzi i co miałoby działać nie tak? ;)

Wiem z autopsji, że seria R9 200 ma poważne problemy z artefaktowaniem i nie jest to błaha kwestia pokroju przegrzewania systemu czy sterowników, a defekt GPU. R9 200 jest ''fabrycznie overclockowaną'' serią dlatego bywa bardzo niestabilna tak jak np. w moim przypadku i setek innych ludzi na setkach różnych for, które sam przeszukiwałem w poszukiwaniu rozwiązania. Wiele osób wysłało kartę na RMA i dostało tę samą tylko nową, która również okazywała się problematyczna. Przyczyna prawdopodobnie leży w napięciach domyślnie ustalonych na tych kartach (?), mimo że symptopmy wyglądają raczej na problemy z VRAM albo po prostu na przegrzewanie. Podobno też nie chodzi jedynie Radeony ASUS.

Zbiorowe narzekanie m.in tutaj:
rog.asus.com/forum/showthread.php?43057-R9-280x-DirectCU-II-Top-Artifacts!!/

Mój własny topic, który założyłem w poszukiwaniu pomocy na tomshardware.co.uk:
http://www.tomshardware.co.uk/answers/id-2148826/graphic-issues-artifacts.html

Symptomy (podobne we wszystkich przypadkach):
https://www.youtube.com/watch?v=DzpjO5d4izI

Nie wrzucam tego tylko jako przestroga, ale też po cichu liczę, że ktoś będzie wiedział jak się pozbyć tych artefaktów ;)


Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../
O, rzeczowa krytyka! Spójrzmy więc. 280X? Miałem takie trzy, problemów nie uświadczyłem (Club 3D R9 280X Royal Queen XTL i 2x Sapphire R9 280X Dual-X)... potencjalnymi sprawcami mogą być:

a) R9 280X to tak naprawdę HD7970 GHz Edition ze zmienioną nazwą. Więc tutaj spytam - Jaką masz rewizję karty - XTL czy XT2 (GPU-Z może coś powiedzieć na ten temat, ew. sam Asus)? Bo wyszły 2 - jedna (XT2) to po prostu 7970 GHz Edition. Ta druga jest nowsza. Podejrzewam że jeśli masz rację to właśnie ta seria kart może być trzaśnięta, wątpię by 290tki były za to tym narażone bo to rzeczywiście nowe układy a nie odświeżone.

b) Próbowałeś zmniejszyć taktowania karty? O ile kojarzę standardowe to 1 GHz na rdzeniu i 1500 MHZ (6000) na pamięciach. Możesz spróbować dosłownie wejść do panelu sterowania Catalyst i ustawić Power Tune na -15% i sprawdzić czy pomaga - jeśli problemy biorą się z napięć to może to pomóc bardziej niż po prostu zmniejszenie zegarów.

c) Problemem nie będzie przegrzewanie ani VRAM. Biorąc pod uwagę czemu poddawałem te karty u siebie (kopanie litecoinów) to miałem zużycie energii o połowę większe niż w Furmarku. I ilość błędów w takim procesie (który intensywnie zużywa 100% pamięci i 99% rdzeni) była w zasadzie zerowa.

Załóżmy na moment że problem nie leży ani fizycznie w samej karcie ani w jej sterownikach na Windowsie.
Do dyspozycji masz jakiś procesor z zintegrowaną kartą - uruchom ją w BIOS-ie (możesz też fizycznie odłączyć Radeona na tymczasem), przestaw ją na główną. Spróbuj uruchomić GW2 z poziomu Intel HD czy co tam masz w kompie. Sprawdź czy nie ma bugów.

Idziemy dalej:
e) Zmień przepustowość szyny PCI-E na 2.0 zamiast 3.0 (znowu - gdzieś w BIOS-ie powinna być taka opcja).

f) Aktualizacja firmware karty graficznej:
http://www.asus.com/Graphics_Cards/R9280XDC2T3GD5/HelpDesk_Download/

R9280X-DC2T-3GD5 VBIOS update
BIOS update to remove rare artifacting events during gaming, Please also update the Catalyst driver to 13.251 or above

Z tego co widzę to prawdopodobnie to on powoduje problemy u ciebie bo inaczej by czegoś takiego zdecydowanie nie wypuścilli.
Więc zacząłbym rozwiązywanie problemu właśnie od punktu F.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

g) Problem leży po stronie Asusa i nic z tym nie zrobisz. A przynajmniej takie rzeczy wyczytasz bezpośrednio z tematu który podałeś:

"You´re off the hook then... It seems that XFX and Powercolor (a brand that oddly no one considers :P) are safe ground. I´m using CCC 13.12 after trying every 14.x series - even the most recent from AMD, 14.4). Back to playing with "confidence" without having to worry about flickering/waffling/artifacting."

"I ended buying a Powercolor R9280X (base clock 870 - OC 1030; Memory 1500). Card went 7 hours running SimCity (wich is a great artifact hunter:P) flawlessly on Eyefinity. Then I Xfired with my 7970 (on PCIe2 - turns out to be much much quieter) and it went flawless all night! Played BF4 (DX11) and Call of Juarez:Gunslinger (DX10 I believe) on Eyefinity flawlessly as well."

W sumie... niestety całkiem możliwe, Asus jest jedną z firm które często piszą własne BIOS''y do kart i przetaktowują je do oporu. Więc istnieje szansa że o ile AMD jest niewinne o tyle już sam dystrybutor to co innego.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

>
Dla mnie to bez różnicy, czy nvidia czy amd, nie jestem fanbojem. Chciałbym tylko wiedzieć skąd takie rozbieżności wyników np. w takim Crysis 3? Wiadomo, że platformy testowe czy sterowniki mogą się różnić. Chodzi mi o miarodajność takich testów, bo skoro na jednym portalu GTX jest 10% szybszy, natomiast na drugim szybszy jest 290X, to w takim razie chyba lepiej pytać na forum bezpośrednio użytkowników danej karty, która lepiej się sprawuje w danych warunkach?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 23.05.2014 o 02:16, RhastA napisał:

Chodzi mi o miarodajność takich testów, bo skoro na jednym
portalu GTX jest 10% szybszy, natomiast na drugim szybszy jest 290X, to w takim razie
chyba lepiej pytać na forum bezpośrednio użytkowników danej karty, która lepiej się sprawuje
w danych warunkach?



A znasz chociaż jedną osobę która ma GTX780 i R9 290X żeby porównać? ;P
Zaś co do różnic - jak sam zauważyłeś, platforma testowa.
pclab testował obie karty na Core i5-4690 (3.5 GHz do 3.9 z turbo więc często będzie ok. 3.6 GHz). benchmark.pl na i7 2600k podkręconym do pełnych 4 GHz (a pewnie jeśli ma turbo to nawet z 4.1) który ogółem będzie znacząco szybszy.

To nie miałoby znaczenia w innych segmentach cenowych ale kiedy patrzymy na najdroższe karty to okazuje się że bez OC procesora powoli robi się ciężko je okiełznać...

Ale jak to, spytasz, więc dlaczego na słabszym procesorze wygrywa znacząco Nvidia a na lepszym AMD. Odpowiedź jest prosta - sterowniki AMD preferują 2 szybkie rdzenie. Sterowniki Nvidii preferują 4, nawet wolniejsze. Wychodzi na to że potrzebne jest więcej megaherców żeby po prostu w pełni okiełznać tego Radeona.

Zwłaszcza że narzut sterowników na wydajność karty graficznej potrafi być olbrzymi - jeśli spojrzysz na to co się dzieje kiedy użyjesz AMD Mantle w BF4:
http://pclab.pl/art55953-3.html

Bierzemy podkręconego Core i7 - GTX 780 zaczyna wygrywać w tej grze. Bierzemy low-endowy procesor, włącznie Mantle prawie podwaja ilość klatek. A co robi Mantle? Tak naprawdę jedynie zmniejsza narzut sterownika graficznego i DirectX na procesor. Innym dobrym przykładem jest np. to:
http://puu.sh/8XeBF.png

Obie te recenzje są więc wartościowe - jedna pokazuje ci co się stanie jeśli po prostu kupisz sobie i5-tkę, podłączysz kartę i tyle. Wtedy bierzesz GeForce''a bo najwyraźniej się lepiej skaluje z mid-endowym Quadem.
Ale jeśli możesz sobie pozwolić np. na i5-4670k którego potem podkręcisz to R9 290X wyprzedzi tego GTX-a 780.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się