• 0
Zaloguj się, aby obserwować  
PretoGCC

Wiedźmin 2 a Lenovo y510p

Pytanie

Witam,

Od krótkiego czasu jestem posiadaczem Laptopa Lenovo y510p z Intel Core i7, 8 GB ramu, 2x nVidia GeForce GT 755M. Chciałem przetestować sprzęt który jest lepszy - w parametrach - od mojego starego, stacjonarnego - a na którym śmigał Wiesiek na Wysokich.

Instaluję. Włączam. Tnie się gorzej niż... Nic się nie cieło gorzej :D. Ustawiłem minimalne - to samo ?

Więc moje pytanie brzmi - Co się dzieję ?

Z góry dziękuję i pozdrawiam,
Preto

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

12 odpowiedzi na to pytanie

  • 0

/.../

A jeszcze zależy jakie był rzeczywiste parametry PC-ta. Bo GT7555M wydajnością odpowiada PC-towej karcie za ~300 zł, z kolei mobilny i7 rzadko kiedy wyprzedza desktopowego Core i3.

Obstawiam że przyczyną lagów może być SLI - wyłącz jedną z kart graficznych tak żeby używać tylko jednego GT755M zamiast dwóch i spróbuj wtedy. Zasadniczo dwie karty graficzne niskiej klasy połączone w SLI działają dużo gorzej niż jedna droższa i NAWET jeśli teoretycznie mają dużo klatek to często możesz odczuwać mikroprzycięcia.
Poza tym w ogóle upewnij się że używasz właśnie GT7555M a nie HD4600 zintegrowanego z procesorem (w moim przypadku wygląda to tak: http://puu.sh/9qj11/0c2f64c5e0.jpg)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0

Dzięuję za odpowiedź.

Niestety przy włączaniu gry nie mam nigdzie takiej opcji. Próbuję przeszukać komputer w celu jakiegoś zaznacznie/ustawienia korzystania z Kart nVida.

Jakieś pomysły jeszcze ? :D

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0

Jeśli dobrze pamiętam to Wiedźmin miał ogólnie problemy z laptopami. Nie pamiętam dlaczego ale on się gryzie z każdym lub prawie każdym laptopem. Nie ma na to chyba lekarstwa.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0

Zaktualizowałem sterowniki do karty i śmiga bardzo fajnie. Cienie na nisko ustawione, większośc pozostałych opcji włączona, tekstury najwyższe.

Dziękuję bardzo za wszystkie odpowiedzi i serdecznie pozdrawiam. Temat można zamknąć :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0
Dnia 13.06.2014 o 14:29, PretoGCC napisał:

Zaktualizowałem sterowniki do karty i śmiga bardzo fajnie. Cienie na nisko ustawione,
większośc pozostałych opcji włączona, tekstury najwyższe.

Dziękuję bardzo za wszystkie odpowiedzi i serdecznie pozdrawiam. Temat można zamknąć
:)

Kliknij prawym klawiszem myszy na ikone Gry i jak rozwinie się menu to masz tam wybór z jakiej karty można gre wystartować

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0
Dnia 12.06.2014 o 16:40, ziptofaf napisał:

A jeszcze zależy jakie był rzeczywiste parametry PC-ta. Bo GT7555M wydajnością odpowiada
PC-towej karcie za ~300 zł, z kolei mobilny i7 rzadko kiedy wyprzedza desktopowego Core
i3.


Haha, na na pewno -.- Nawet stare i7 2670QM, i7-3630QM wyprzedają większość desktopowe i5, a i3 już nawet nie wspominając.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0
Dnia 14.06.2014 o 15:53, SplitGrave napisał:

Haha, na na pewno -.- Nawet stare i7 2670QM, i7-3630QM wyprzedają większość desktopowe
i5, a i3 już nawet nie wspominając.


Dobrze więc, porównajmy. Najwyraźniej popełniłem błąd nie pokazując liczb i wykresów.
http://www.notebookcheck.pl/Intel-Core-i7-2670QM.60178.0.html
2200-3100 MHz.

Cinebench R10 64-bit:
single avg: 4823.3
multiple avg: 17966.8
A teraz:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/44339-intel-core-i3-2120-core-i5-2400-lga1155-processors-review-7.html

Core i5-2400:
3100-3400 MHz.
Cinebench R10 64-bit:
multiple: 19213
single: 5509

Idziemy dalej:
http://puu.sh/9tkKq/5594f6ba50.jpg - 3D Mark nie pozostawia wątpliwości - i5-2400 zjada i7-2670QM.
http://puu.sh/9tl4S/0cc9970dfc.png - wzięte z notebookchecka.

A jak ma się nowsza generacja?
http://cpuboss.com/cpus/Intel-Core-i7-4700MQ-vs-Intel-Core-i5-4670
Z tego co widzę to i5 4670 właśnie wygrał.
http://www.futuremark.com/hardware/cpu/Intel+Core+i7-4700MQ/compare

Wszystkie wyższe modele i5 od 4670 włącznie są szybsze według 3D marka który dość dobrze odwzorowuje sytuację w grach.

A teraz ta bardziej interesująca nas część - i3 vs i5.
Sprawdźmy jak kształtują się różnice:
http://ark.intel.com/pl/products/77486/Intel-Core-i3-4150-Processor-3M-Cache-3_50-GHz - podstawowy model Core i3.
http://ark.intel.com/pl/products/75117/Intel-Core-i7-4700MQ-Processor-6M-Cache-up-to-3_40-GHz

Główną cechą i3 która jest tutaj istotna to taktowanie które zawsze wynosi 3.5 GHz.
Najpierw jednak potrzebne nam jakieś ładne liczby:
http://cpuboss.com/cpus/Intel-Core-i7-4700MQ-vs-Intel-Core-i3-4130 a konkretniej:
http://puu.sh/9tmQv/4dc19a1a33.png

W teście single core, oczywiście, wygrywa Core w niewielkim stopniu i3 4130. W przypadku multicore, i7 4700MQ. I dalej szukać nie muszę, przyznam się do błędu - i7 jest szybszy w każdej sytuacji gdy będziemy wykorzystywać więcej niż 2 rdzenie. Co, choć wcale nie oznacza olbrzymiej ilości tytułów, jest więcej niż wystarczające.

Aby jednak doprowadzić testy do końca:
i7-4700MQ. Cinebench R11.5 single core: 1.54
i5-4570. Cinebench R11.5 single core: 1.61 ( http://www.purepc.pl/procesory/intel_core_i54690k_vs_core_i54670k_czyli_devils_canyon_w_akcji?page=0,4)
http://pclab.pl/art52758-2.html kontra http://pclab.pl/art56366-9.html
i7-4700MQ. Adobe Flash: 19.3 fps
i5-4690. Adobe Flash: 21.4 fps
i5-4460: Adobe Flash: 18.8 fps
Reszta testów z linków jest niestety niekompatybilna ze sobą.

Więc ogólnie rzecz biorąc, muszę zrewidować swoje poglądy:

Mobilne Core i7, co w sumie mnie dziwi prawdę mówiąc, wydajnością są zbliżone do desktopowych i5 w aplikacjach potrafiących wykorzystać duże ilości rdzeni i HT. Nie spodziewałem się że turbo tych procesorów potrafi je utrzymywać na ~3.2-3.4 GHz w takich warunkach. W przypadku gdy dana aplikacja jednak HT nie wspiera (w przypadku gier - wszystko poza Crysisem 3 i Watch Dogs) - i5 od 3570 włącznie powinien wyprzedzać dowolnego mobilnego i7. Podobnie przy wykorzystaniu mniejszej ilości rdzeni niż 4 - desktopowe i5 okazują się szybsze.

Oczywiście, jest to ogólna ocena dość oderwana od rzeczywistości - koszt samego i7-4700MQ to ok. 400$. Co oznacza że raczej nie znajdziemy go w sensownej konfiguracji z GPU w cenie niższej niż ok. 3000-4000 zł. W przypadku PC-tów i5 + R9 280 jest już jednak wykonalne przy budżecie ok. 2200-2300 zł. A o ile, przyznam, mobilne i7 są znacznie szybsze niż przypuszczałem, o tyle notebookowe karty graficzne to szajs więc jedyną konfiguracją która mogłaby przebić poziom jaki oferuje R9 280 są układy dwurdzeniowe:

http://www.notebookcheck.net/AMD-Radeon-R9-M290X.108643.0.html - na liście po prawej widać kilka kart graficznych z PC-tów ustawionych pomiędzy notebookowymi dla lepszego zrozumienia. Nawet R9 270X w zasadzie nie ma już konkurencji, tylko GTX880M go wyprzedza (który kosztuje coś koło 2000 zł).

W kontekście cena/wydajność zestawu "do grania" - notebooki nadal są złomem kosztującym 2x tyle co porównywalny PC. W kontekście czystej mocy obliczeniowej CPU - najtańszym laptopem wyposażonym w i7 4700MQ jest Lenovo IdeaPad G510 za 2253 zł. Który odpowiada mniej więcej desktopowemu i5 4570. Co jest zazwyczaj więcej niż wystarczające do pracy. Jeśli jednak składać PC-ta w którym znowu liczy się tylko CPU to starczy na i7-4790k:
http://ark.intel.com/pl/products/80807/Intel-Core-i7-4790K-Processor-8M-Cache-up-to-4_40-GHz - a ten z kolei zmiata wszystkie i5tki, i7ki itp. tak PC-towe jak i laptopowe i jest właśnie desktopowym odpowiednikiem cenowymi7-4700MQ. Czyli przy tej samej cenie w stosunku do PC-ta w którym liczy się tylko CPU tracimy, ponownie, ok. 40% wydajności.

Ale to już dygresja i odchodzenie od tematu więc wywód zakończę. Ot, zgadzam się że i3 są wolniejsze, nie zgadzam się że i5 również, zwłaszcza od "starego i7 2670QM, i7-3630QM".

PS Jeśli się nie zgadzasz to proszę o odpowiedź zawierającą linki do testów itp a nie subiektywną wypowiedź. Bo jak zawsze, mogę się mylić.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0
Dnia 14.06.2014 o 20:42, ziptofaf napisał:

W teście single core, oczywiście, wygrywa Core w niewielkim stopniu i3 4130. W przypadku
multicore, i7 4700MQ. I dalej szukać nie muszę, przyznam się do błędu - i7 jest szybszy
w każdej sytuacji gdy będziemy wykorzystywać więcej niż 2 rdzenie. Co, choć wcale nie
oznacza olbrzymiej ilości tytułów, jest więcej niż wystarczające.


Całość zamyka się w tym cytacie. Oczywiście, że mam na myśli wydajność procesora w aplikacjach, gdzie wykorzystywane są więcej niż 2 rdzenie, ponieważ nie ma się co oszukiwać, że od kilku dobrych lat każda większa gra wspiera 4-rdzeniowce. I tych gier wcale nie jest mało. Nawet stare GTA IV z 2008 roku na procesorze typu C2D/Athlon x2/i3 z wysoko taktowanym zegarem, chodzi znacznie gorzej, niż na obojętnie jakim 4 rdzeniowcu z zegarem o żałosnym taktowaniu 2.00GHz/2.20GHz. O znaczącej przewadze mobilnych i7 nad desktopowymi i3 przy konwertowaniu/rendrowaniu filmów nawet nie wspomnę, bo nie dość, że są o 2 rdzenie więcej, to jeszcze 2x więcej wątków.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
  • 0
Dnia 14.06.2014 o 21:06, SplitGrave napisał:

Całość zamyka się w tym cytacie. Oczywiście, że mam na myśli wydajność procesora w aplikacjach,
gdzie wykorzystywane są więcej niż 2 rdzenie, ponieważ nie ma się co oszukiwać, że od
kilku dobrych lat każda większa gra wspiera 4-rdzeniowce.

Ech, nie zgodzę się.
http://puu.sh/9tsGZ/a60f6daee5.png
Wzięte z pclaba, i3-3220 vs i5-3330 (wybrane z powodu zbliżonych zegarów).

Assassin''s Creed Revelations: nope
Skyrim: w bardzo ograniczonym stopniu
Flight Simulator X: nope
Total War 2: Shogun: nope
StarCraft 2: o dziwo, w zasadzie nie.
World of Tanks: działa lepiej na dwóch rdzeniach niż na 4.
Metro 2033: różnice w zasadzie zerowe.
Oczywiście, na liście są też tytuły które 4 rdzeni potrafią użyć (Crysis 3, Max Payne) ale nie ma co ukrywać, te różnice są często dużo mniejsze niż być powinny (i to mimo zastosowania w tamtym teście HD7970 czyli R9 280X więc karty która zalicza się już do high-endu). Więc w połączeniu z nieco słabszą kartą czy weźmiesz dwurdzeniowca czy cztero bardzo często nie ma znaczenia.

Zanim gry zaczną dobrze wykorzystywać 4 rdzenie niestety jeszcze trochę wody w Wiśle upłynie - multithreading jest naprawdę trudnym i wielkim zagadnieniem i nie bez powodu rocznie idą na jego rozwój miliony $. To wymagająca dziedzina programowania w której cholernie łatwo o pomyłkę, błędy, bardzo małe skoki wydajności, problemy z synchronizacją, zakleszczenia, zagłodzenia... Dopiero w tej generacji konsol coś może się zmienić bo obie mają 8-rdzeniowe procesory o bardzo niskiej wydajności pojedynczego wątku więc nie da się unikać problemu jakim jest wielordzeniowość. Jako programista uczciwie współczuję tym którzy muszą pisać dobrze działający współbieżnie kod bo to nie tyle graniczy z masochizmem co nim JEST.

Argument z "na Athlonie X2/C2D chodzi dużo gorzej niż na Quadzie" jest imho fatalnie dobrany - jaki konkretnie Quad? Bo jeśli porównujesz i5 2400 z 3 GHz Athlonem X2 6000+ to jest to raczej bezsensowne - przy NIŻSZYM zegarze w teście JEDNOwątkowym i5 2400 zje ci tego Athlona. Ale ilość rdzeni nie ma tu nic do rzeczy. Jeśli chcesz porównywać to porównuj w obrębie tej samej generacji bądź takiej która jest zbliżona wydajnością - porównywalny do Q6600 np. byłby niepodkręcony Phenom II X4 925. Bądź jego dwurdzeniowy brat X2 550.

Ba, bardzo fajną rzeczą w kontekście tej dyskusji jest AMD Mantle:
http://pclab.pl/art55953-3.html

To pokazuje bezpośrednio jedno - to nie GRA wykorzystuje tutaj dużo rdzeni. To same sterowniki kart graficznych, tak GeForce'ów jak i Radeonów, potrafią zeżreć z 30-40% mocy dla siebie. Dlatego nowy DirectX ma zmniejszać narzut sterownika karty graficznej na procesor, podobnie Nvidia i AMD optymalizują swoje sterowniki (jakiś czas temu łączenie GeForce'ów z dwurdzeniowcami było dobrym dowcipem, sterownik brał dla siebie z 45% mocy procesora... na szczęście teraz jest lepiej). Więc niby Quad ci tutaj pomaga ale wcale nie dlatego że "gry" wykorzystują 4 rdzenie. Gry biorą 1-2. Ale twój Geforce/Radeon zabiera 1 dla siebie bo w Nvidii/AMD/Microsofcie nie lubią pisać wydajnych sterowników.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się
Zaloguj się, aby obserwować