Widek

Upgrade kompa / Modernizacja Komputera - pomoc, porady itp.

75448 postów w tym temacie

Dnia 01.06.2015 o 00:19, ruden napisał:

No niby tak, ale czemu w 3DMarku pokazuje ciągle 800 (czyli 1600 MHz)? No i w CPU-Z w
SPD przy wyborze slotów pamięci- Max Bandwidth 800.

Bo zakładka SPD potrafi kłamać.
Przykładowo u mnie potrafią się pokazywać takie cuda na kiju:
http://puu.sh/i89oU/70c041b993.png
Kości 1866 MHz CL10 (przy napięciu 1.65V), najwyższym ustawieniem które tutaj widnieje jest 1776 (888) CL13 przy 1.5V. Ot, nie każda kość jest przez tą aplikację poprawnie wykrywana.

Dnia 01.06.2015 o 00:19, ruden napisał:

Pamiętam, że gdzieś czytałem o maksymalnych temperaturach dla i5 2500K zalecanych przez
Intel, po przekroczeniu których następuje degradacja procesora. Nie mogę tego teraz znaleźć-
kojarzysz może?

Bezpiecznym maksem dla 2500K są okolice 85C. Wiec jeśli po OC będziesz w stanie się utrzymywać w okolicach 70C to jest to jak najbardziej okej.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 08:26, LaplaceNoMa napisał:

> No i w CPU-Z w SPD przy wyborze slotów pamięci- Max Bandwidth 800.
Zakładka memory.

Wiem, wiem, że zakładaka memory, ale w memory pokazuje 1064,2, ale np. w 3DMarku tylko 1600

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 10:04, ziptofaf napisał:

Bo zakładka SPD potrafi kłamać.
Przykładowo u mnie potrafią się pokazywać takie cuda na kiju:
http://puu.sh/i89oU/70c041b993.png
Kości 1866 MHz CL10 (przy napięciu 1.65V), najwyższym ustawieniem które tutaj widnieje
jest 1776 (888) CL13 przy 1.5V. Ot, nie każda kość jest przez tą aplikację poprawnie
wykrywana.

Kurcze tak sobie pomyślałem, że skoro mam taki problem z taktowaniem tych pamięci, że byćmoże mi nie wskoczą na 2133 (nie widzę żadnej różnicy w benchmarkach przy kościach 1333 i 2133)- to może je wymienię. Co powiesz na wymianę na te:
http://www.morele.net/pamiec-g-skill-ddr3-8-gb-1600mhz-dual-g-skill-ripjaws-x-cl8-for-sandy-bridge-f3-12800cl8d-8gbxm-423841/
zamiast tych:
http://www.morele.net/pamiec-g-skill-ripjawsx-ddr3-2x4gb-2133mhz-cl9-xmp-rev-2-f3-2133c9d-8gxl-597766/
Co Ty na to?
Ewentualnie czy gdybym miał problem z oddaniem- to czy mógłbym mieć obydwa zestawy kości wymienionych powyżej czy lepiej mieć te same typy?

Dnia 01.06.2015 o 10:04, ziptofaf napisał:


> Pamiętam, że gdzieś czytałem o maksymalnych temperaturach dla i5 2500K zalecanych
przez
> Intel, po przekroczeniu których następuje degradacja procesora. Nie mogę tego teraz
znaleźć-
> kojarzysz może?
Bezpiecznym maksem dla 2500K są okolice 85C. Wiec jeśli po OC będziesz w stanie się utrzymywać
w okolicach 70C to jest to jak najbardziej okej.

Dzięki, popróbuję :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 10:16, ruden napisał:


Ale... po co? Jeśli zakładka Memory w CPU-Z mówi że jest 2133 to jest 2133. To nie jest "problem". Możesz w BIOS-ie jeszcze sprawdzić jeśli chcesz.
Wymiana na wolniejsze kości wydaje mi się głupia.

Skądinąd - jak chcesz zobaczyć różnice w benchmarkach między 2133 a 1333 to musiałbyś dobrze wykonać ten test a nie sprawdzać w 3D Marku.
Niezłym narzędziem jest np. Winrar. Włączasz go i wciskasz Alt+B.
Passmark ewentualnie, też ma możliwość sprawdzenia samego RAM'u.

Zaś co do dwóch zestawów kości naraz - można ale będziesz się wtedy ręcznie bawić z taktowaniami. Tzn. kości 1600 MHz CL8 mają najwyższy automatyczny profil na 1600 MHz CL8. 2133 MHz CL9 mają najwyższy profil na 2133 MHz CL9 ale ich profil 1600 MHz to zapewne 1600 MHz CL9.

I tak oto w trybie automatycznym zamiast 1600 CL8/2133 CL9 łącznie dostaniesz 1600 CL9. Co można poprawić ręcznie ale wymaga to pewnego obeznania w temacie. Więc to upierdliwe zwłaszcza że nie masz problemów z kości.
I tak, 1064.2 w memory JEST poprawne. Tą wartość mnożysz przez 2. I wychodzi prawie 2133 MHz, plus minus kilka ostatnich megaherców (co jest normalne na nieprofesjonalnych płytach głównych, równiutkie 2133/2400 co do herca to ja widziałem dopiero na Maximusie VII za 700 zł).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 10:19, ziptofaf napisał:

Ale... po co? Jeśli zakładka Memory w CPU-Z mówi że jest 2133 to jest 2133. To nie jest
"problem". Możesz w BIOS-ie jeszcze sprawdzić jeśli chcesz.
Wymiana na wolniejsze kości wydaje mi się głupia.

Heh, myślałem że te CL8 zamist CL9 to zrównoważy taktowanie ;DD
Widziałem jeszcze RipjawsX z CL7

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 10:28, ruden napisał:

Widziałem jeszcze RipjawsX z CL7


CL7 w zasadzie równoważy. Tylko że znowu, na 99% z twoim sprzętem nie ma żadnych problemów. To że gdzieś tam wyświetla inne wartości nie powinno być istotne.

Jak mówiłem, zrób sobie jakieś testy między 2133 MHz a 1333 i zobacz jakie są różnice. Tu masz mały przykład, DDR3 1400 vs 1333 + Pentium G:

http://puu.sh/i8aVf/f118e169c9.png
WinRAR jest programem czułym na RAM i nawet tak niewielka różnica przy słabym procesorze powoduje pewien wzrost wydajności.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 10:40, ziptofaf napisał:

WinRAR jest programem czułym na RAM i nawet tak niewielka różnica przy słabym procesorze
powoduje pewien wzrost wydajności.

Ok, dzięki- podziałam ;)))

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dzięki wielki za porady i pomoc. Szkoda, że nie udało mi się przeczytać posta na czas. Wybrałem ten sprzęt, który ci podałem podczas pytań za 5900 zł. Ogólnie pytałem się o te kości Ram i wielu mówi, że opóźnienie nie wpływa na wydajność super extra znacząco i czy to będzie CL 11 czy CL 9 nie ma większego znaczenia. Jeden się kłócił z drugiem. Widocznie to kwestia gustu. Co do chłodzenia jest przeogromne na procesorze do tego dwa bardzo duże wiatraki w obudowie na przodzie i tyłu. Dają niesamowite chłodzenie. Właśnie gość, który mi to składał wspominał, że nowej generacji procesora nie włożę, ale z takim sprzętem i z takim procesorem długo nie będę zmieniał maszyny. Ewentualnie GPU tylko, jeśli coś wyjdzie. Polecił mi to mobo bo było tanie. kupiłem je za 365 zł a możliwości OC są ponoć ogromne :P Więc, mogę trochę zaszaleć z tą i7 :P Oczywiście na chłodzeniu powietrzem.

Chłodzenie azotem jest droższe, więc samo w sobie odpada a i jeszcze zwyższyło by mi to budżet, który przeznaczyłem na sprzęt a był on bardzo wysoki. Jestem z niego bardzo zadowolony. Wszystko mi tak śmiga, że aż łeska w oczku. W końcu płynnie się gra i pracuje. System ? Bajka. Chodzi szybko i nawet nie drgnie ;] A co z tą aktualizacją biosa ? Procesor jest i działa, więc o jakim wsparciu mówisz ? :P Ma SATA 3 i SATA 3 Express na płycie ;p

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

Co do RAM''u:
A bo zamiast kłótni należy poprosić o linki do testów które potwierdzają to co mówi dana osoba:
http://www.purepc.pl/pamieci_ram/jakie_pamieci_ram_wybrac_test_ddr3_13332400_mhz_w_grach?page=0,8

Ogólnie rzecz biorąc - 1 CL mniej = tak jakby kości były o 300 MHz szybsze.
Czyli 2133 MHz CL11 = 1866 MHZ CL10 = 1600 MHz CL9 = ogólnie takie przeciętniaki. Zresztą wyżej masz linka, możesz sobie popatrzeć i ocenić czy różnicy "nie ma". Tak na oko, względem 2133 MHz CL9 (zakładając że wziąłeś CL11) właśnie straciłeś 10% wydajności PC-ta w zamian za oszczędność 15 zł. Twój Core i7 jest smutny ;(

Co do aktualizacji BIOS''a - tu masz po prostu farta. Płyty na Z87 bardzo często NIE obsługują i7-4790K od razu. Dając ci piękny czarny ekran i jesteś nielicho udupiony bo żeby zaktualizować BIOS musisz od kogoś pożyczyć starszy procesor na to samo złącze.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ziptofaf - Obecnie nie ma chyba sensu sprzedawać GTX 980 i dopłacać do GTX 980 TI?
Cena tej drugiej karty ma oscylować w granicach 3300 zł, więc o 600 zł więcej, niż dałem za swoją 980 tkę, ale raczej tak korzystnie jej nie sprzedam? ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 14:49, lis_23 napisał:

Ziptofaf - Obecnie nie ma chyba sensu sprzedawać GTX 980 i dopłacać do GTX 980
TI?


Szczerze? Mnie poważnie zaskoczyła premiera tej karty już teraz bo zmniejszy sprzedaż Titan X''ów do zera, ta sama wydajność za 1000 zł mniej... Czyżby AMD Fiji nie spodobał się Nvidii? Bo innego wytłumaczenia na dzień dzisiejszy nie widzę.

Tym niemniej - tak prawdę mówiąc jeśli chcesz super high endowego PC-ta i grasz w powyżej FullHD to nawet warto. 20% różnicy w wydajności w FullHD nie jest warte dopłaty (bo i tak masz na GTX''ie 980 powyżej 50 fps w każdej grze) ale ponad 35% w 2560x1440/4k w niektórych grach typu Wiedźmin 3 ( http://pclab.pl/zdjecia/artykuly/chaostheory/2015/06/geforce_gtx980ti/charts/witcher3hw_2560.png) gdzie ta różnica decyduje o tym czy gra jest płynna czy nie to już inna sprawa.

Dnia 01.06.2015 o 14:49, lis_23 napisał:

Cena tej drugiej karty ma oscylować w granicach 3300 zł, więc o 600 zł więcej, niż dałem
za swoją 980 tkę, ale raczej tak korzystnie jej nie sprzedam? ;)


Za 1800 zł odkupię :P Choć poważnie to używane 980tki idą na Allegro za uczciwe 2000. Raczej jednak niewiele wyżej.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 01.06.2015 o 14:58, ziptofaf napisał:


Tym niemniej - tak prawdę mówiąc jeśli chcesz super high endowego PC-ta i grasz w powyżej
FullHD to nawet warto. 20% różnicy w wydajności w FullHD nie jest warte dopłaty (bo i
tak masz na GTX''ie 980 powyżej 50 fps w każdej grze) ale ponad 35% w 2560x1440/4k w
niektórych grach typu Wiedźmin 3 ( http://pclab.pl/zdjecia/artykuly/chaostheory/2015/06/geforce_gtx980ti/charts/witcher3hw_2560.png)
gdzie ta różnica decyduje o tym czy gra jest płynna czy nie to już inna sprawa.

Yhy, czyli do FHD nie warto? - Powyżej FHD nie będę grał, dopóki nie padnie mi nowy monitor, który ma jeszcze niemalże pięcioletnią gwarancje ;)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 15:04, lis_23 napisał:

Yhy, czyli do FHD nie warto? - Powyżej FHD nie będę grał, dopóki nie padnie mi nowy monitor,
który ma jeszcze niemalże pięcioletnią gwarancje ;)


Do FullHD zdecydowanie nie warto. Do tej rozdzielczości już nie będziesz potrzebować znacząco lepszej karty chyba że w dedykowanych PC-towi tytułach które w dodatku nie będą dobrze używać DX12 - wszystkie konwersje pokazują że do FullHD i wysokich/ultra do szczęścia wystarcza R9 290/GTX 970. A masz 980tkę która zapewnia nawet pewien nadmiar mocy w tym segmencie.

Ale jeśli szukasz wymówki by sobie sprawić taką karciochę - zamiast wymieniać monitor kup drugi taki sam! 3840x1080 łącznie :P Co prawda ramki pomiędzy monitorami odrobinę irytują zanim się przyzwyczaisz ale to jest wieeeeeelkie. Wtedy GTX980Ti zdecydowanie ma sens!

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 01.06.2015 o 15:09, ziptofaf napisał:

Ale jeśli szukasz wymówki by sobie sprawić taką karciochę - zamiast wymieniać monitor
kup drugi taki sam! 3840x1080 łącznie :P Co prawda ramki pomiędzy monitorami odrobinę
irytują zanim się przyzwyczaisz ale to jest wieeeeeelkie. Wtedy GTX980Ti zdecydowanie
ma sens!



Eeee ... aż takim ekscentrykiem nie jestem ;) ledwo ten jeden monitor mi się mieści na biurku.

Skąd przeświadczenie, że DX12 nie będzie dobrze działał?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 15:17, lis_23 napisał:

Eeee ... aż takim ekscentrykiem nie jestem ;) ledwo ten jeden monitor mi się mieści na
biurku.


To akurat nawet nie ekscentryzm. Typowe stanowiska np. programistów wyglądają bowiem tak:
http://img6.imageshack.us/img6/5485/newmonitors.jpg
http://i.stack.imgur.com/179Rs.jpg

Samemu korzystam z dwóch monitorów bo 1 to dla mnie mało. Jak to tak, mieć tylko grę włączoną i nic więcej? Na jednym monitorze gra a na drugim przeglądarka/skype itd! W sumie z konfiguracji dwumonitorowych korzysta też większość streamerów.

Dnia 01.06.2015 o 15:17, lis_23 napisał:

Skąd przeświadczenie, że DX12 nie będzie dobrze działał?


DX12 jest wynalazkiem typowo PC-towym i niezbędnym tylko PC-tom. Wszystkie konsole już mają własne rozwiązania które robią w sumie to samo. Teoretycznie - jeśli gra będzie dobrze korzystała z DX12 to tytuł który tu i teraz pod DX11 wymaga do płynnego działania Core i7 + GTX-a 980 w środowisku DX12 nadal będzie potrzebować GTX''a 980... ale procesorem może być już Core i3 albo AMD FX6300.

Tylko teraz pytanie co począć z tą nagle uwolnioną mocą CPU i kart graficznych (które już nie będą ograniczane przez procek).

Zwłaszcza że jest pewna rzecz o której się nie mówi - tak AMD jak i Nvidia się chwalą jaki to wspaniały support mają wszystkie ich obecne karty dla DX12 a to w sporej mierze bzdura. Otóż DirectX 12 podzielony jest na 3 "poziomy" (tiery) zgodności:

Tier 1 - wspierane przez prawie wszystkie karty Intela, AMD i Nvidii
Tier 2 - wspierane przez rodzinę GeForce 9xx
Tier 3 - wspierane na dzień dzisiejszy tylko przez Radeony 7xxx i wyżej

To zresztą tłumaczy dlaczego 290X w testach DX12 wyprzedza Titan X-a - wsparcie 3. poziomu jest bardziej zaawansowane niż 2.

Tylko teraz jedna uwaga - jak widać, na razie Tier 3 DX12 ma bardzo niskie wsparcie bo tylko w kartach zgodnych z CGN AMD. Nawet Tier 2 wcale nie jest taki popularny. Wiec twórcy gier będą w DX12 równali w dół jeszcze przez przynajmniej najbliższe 2 lata.

Przypomnę też że DX12 jest tylko dla Windows 10. A nawet " za darmo" użytkownikom migracja zajmie sporo czasu.

Na dowód:
http://www.reddit.com/r/pcmasterrace/comments/33tkva/direct_x_12_and_support_tiers/

Na konwersje nie ma co liczyć żeby zaoferowały nam sposoby na utylizację mocniejszego hardware''u, zasadniczo to co dostajemy na PC-tach to lekko podpakowana wersja konsolowa. Na DX11 potrafią obciążać nielicho PC-ta ale te lepsze maszyny już sobie radzą z Unity czy Wiedźminem 3. Teoretycznie mamy kilkukrotnie lepsze CPU niż konsole więc moglibyśmy dostać np. lepsze efekty fizyczne... ale tego nie będzie bo wymagałoby pisania dużej części silnika gry na nowo. To samo z grafiką.

Zresztą każdy chyba pamięta jak było w ostatnim roku przed premierą Xbox One/PS3. 90% gier chodziło płynnie w wysokich detalach na sprzęcie za 1900 zł.

Wniosek - tylko gry dedykowane PC-tom bądź naprawdę dobrze wykonane konwersje dadzą nam wzrost jakości grafiki w DX12 względem 11stki. Takich dużo nie ma a w pozostałych będzie po prostu płynniej na słabszym sprzęcie.

PS
Na pytanie - "a dlaczemu tak, a czemu Inwidia nie daje Tier 3? QQ" odpowiedź jest bardzo prosta. Spójrzcie jakie karty są montowane w Xbox One :P Microsoft po prostu za wymóg do Tier 3 dał takie wymagania które spełnia architektura CGN bo ma najprostszy dostęp tych kart, w końcu montuje ich miliony. Inna sprawa że tak naprawdę zastosowanie Tier 3 wcale nie jest aż tak istotne - Tier 2 oznacza limit 1 048 576 Shader Resource Views/Samplerów na scenę. To... dużo. Bardzo dużo. Tak 50-100x więcej niż DX11.
Tier 3 z kolei oznacza brak jakichkolwiek ograniczeń, tak długo jak w karcie jest dość pamięci.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 14:46, ziptofaf napisał:

Ogólnie rzecz biorąc - 1 CL mniej = tak jakby kości były o 300 MHz szybsze.
Czyli 2133 MHz CL11 = 1866 MHZ CL10 = 1600 MHz CL9 = ogólnie takie przeciętniaki. Zresztą
wyżej masz linka, możesz sobie popatrzeć i ocenić czy różnicy "nie ma". Tak na oko, względem
2133 MHz CL9 (zakładając że wziąłeś CL11) właśnie straciłeś 10% wydajności PC-ta w zamian
za oszczędność 15 zł.

Czy to ma jakiś związek, jeśli w biosie domyślnie te kości są taktowane 1600 Mhz ? Musiałem je podnieść, żeby chodziły z taką prędkością jakie wykazywały rzeczywiście.

Dnia 01.06.2015 o 14:46, ziptofaf napisał:

Twój Core i7 jest smutny ;(

Dlaczego ma być smutny ? :)

Dnia 01.06.2015 o 14:46, ziptofaf napisał:

Co do aktualizacji BIOS''a - tu masz po prostu farta. Płyty na Z87 bardzo często NIE
obsługują i7-4790K od razu. Dając ci piękny czarny ekran i jesteś nielicho udupiony bo
żeby zaktualizować BIOS musisz od kogoś pożyczyć starszy procesor na to samo złącze.

Możliwe, że tak miało być ale to sklep mi to składał, więc możliwym jest fakt, że po prostu aktualizację biosu przeprowadzili. Nie informowali mnie, że ten procesor miałby na tej płcie nie chodzić, więc pewnie tak zrobili. Inaczej by zaproponowali inny model mobo.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 01.06.2015 o 19:49, vegost napisał:

Czy to ma jakiś związek, jeśli w biosie domyślnie te kości są taktowane 1600 Mhz ? Musiałem
je podnieść, żeby chodziły z taką prędkością jakie wykazywały rzeczywiście.

Standardowo wszystkie RAM''y mają limit 1600 MHz niezależnie od rzeczywistych możliwości i albo:
a) jeśli wspierają XMP to wystarczy włączyć toto w BIOSie. Ten wtedy ustawi takie parametry jakie powinien.
b) bądź jeśli nie wspierają to odwiedzasz stronę producenta, spisujesz informacje o parametrach i ustawiasz je ręcznie - megaherce, timingi i napięcie.

Dnia 01.06.2015 o 19:49, vegost napisał:

Dlaczego ma być smutny ? :)

Bo go RAM nieco spowalnia! :P

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się