Zaloguj się, aby obserwować  
CermatoX

Laptop/Notebook/Netbook prosze o rzeczową informację użytkowników

5687 postów w tym temacie

Dnia 20.07.2013 o 23:50, rob006 napisał:

O_o Pierwsze słyszę, masz coś na potwierdzenie tej tezy?

Włącz sobie monitor zasobów oraz jakiś log kontrolera dysku. Najłatwiejsze jest to oczywiście jeżeli używa się zewnętrznego kontrolera, który ma takie możliwości.
Windows nie tylko cache''uje zawartość wczytanych plików, ale również stara się ładować niektóre dane z wyprzedzeniem. W niektórych wypadkach ciężko ustalić co i po co w ogóle robi jakieś operacje na dysku.

Dnia 20.07.2013 o 23:50, rob006 napisał:

Czy te operacje to nie jest zwykłe cacheowanie danych z dysku w RAM? Bo jeśli tak, to system i tak nie robi tego
"na zaś", dane lądują tam dopiero gdy użytkownik chce uzyskać do nich dostęp, więc w
gruncie rzeczy nie ma żadnych nadmiarowych operacji.

Gdyby to była prawda, to bym się z Tobą zgodził. :)
Zrób sobie prosty test. Zainstaluj dwa razy ten sam system operacyjny, ale w pierwszym wypadku z małą ilością RAM, a następnie ponownie zainstaluj (na innym czystym dysku) z maksymalną dostępną. Przekonasz się, że system instalowany przy dużej pamięci robi mnóstwo trudnych do wyjaśnienia rzeczy, których wcale nie robi przy małej pamięci.
Mapa pamięci takich dwóch systemów różni się zasadniczo już po czystym starcie systemu.
Na dodatek z moich testów wynika, że ten z dużą ilością RAMu uruchamia się nieco wolniej. Szczególnie łatwo to zmierzyć sztucznie spowalniając transfer twardego dysku, albo ładując system z powolnego nośnika takiego jak DVD-RAM. Oczywiście na szybkim dysku różnica jest na poziomie błędu pomiarowego, nie wspominając o SSD.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2013 o 00:02, necron1501 napisał:

To jest w rozważeniu, dlatego pytałem o tego Lenovo.

To nie jest zły wybór. Całkiem przyzwoity przy tej cenie.

Dnia 21.07.2013 o 00:02, necron1501 napisał:

Napęd mogę sobie podarować, w razie "wu" mam napęd który mogę podłączyć przez USB.

No to jest rozwiązanie bo DVD nieczęsto używa się w terenie.

Dnia 21.07.2013 o 00:02, necron1501 napisał:

Tego nie wiedziałem. Tak czy siak będę celował w 6-8 GB.

To tylko była ciekawostka. Przy systemie 64-bit 6 GB RAM, to realnie komfortowe minimum.

Dnia 21.07.2013 o 00:02, necron1501 napisał:

Czyli nawet i3 do pracy posłuży parę lat. Pewnie i tak wybiorę i5 ale warto wiedzieć.

Dokładnie. Prawdopodobnie w całej przyszłej historii nie zdarzy się sytuacja w której jakiś program będzie mógł się uruchomić na i5, a nie będzie w stanie ruszyć na i3. Różnica będzie co najwyżej w mikrosekundowej wydajności poszczególnych operacji. Rzecz nie do zauważenia nawet przez zaawansowanych użytkowników.
W przeszłości tak samo było z wszystkimi procesorami Pentium i Celeron, Athlon i Duron. Nawet jeżeli jakiś kawałek kodu wymagał rozszerzonej listy rozkazów, to nie była ona używana w kodzie aplikacji, lecz wyłącznie w bibliotekach, które pojawiały się w dwóch wariantach - z obsługą sprzętową takich rozkazów oraz z emulacją bez ich użycia (ta druga wersja była oczywiście wolniejsza).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

No cóż, nie będę się kłócił, ekspertem od Windowsa nie jestem, ale na swoim przykładzie mogę powiedzieć, że podwojenie pamięci operacyjnej (4GB -> 8GB) znacznie przyspieszyło mój komputer, choć programy i tak rzadko wykorzystywały więcej niż 60% 4GB, więc główny zysk jest na cache''u operacji dyskowych. Mam laptopa z wolnym dyskiem, dodatkowo programowo szyfrowanym, więc jest to zdecydowanie najwolniejszy element mojego komputera. Co prawa testy przeprowadzone na Linuksie, ale aż nie chce mi się wierzyć że Windows aż tak kiepsko radzi sobie z zarządzaniem pamięcią, jak to tutaj opisujesz.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Moge na 100% potwierdzic te czesc, ze Windowsy ''dostosowuja sie'' do ilosci pamieci i ten majacy wiecej pamieci wiecej jej bedzie zajmowal, bo sam to u siebie zaobserwowalem.

Co do dlugosci bootowania zaleznej od ilosci pamieci to sie nie wypowiem, bo nie sprawdzalem i az tak wazne to dla mnie nie jest (zazwyczaj uptime mam ok. kilkudziesieciu dni).

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dnia 21.07.2013 o 11:42, Olamagato napisał:

> Tego nie wiedziałem. Tak czy siak będę celował w 6-8 GB.
To tylko była ciekawostka. Przy systemie 64-bit 6 GB RAM, to realnie komfortowe minimum.


Komfortowe? Czyli jednak ilość RAMu ma wpływ na wygodne użytkowanie?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Doszedłem do wniosku, że czas by było zamienić mojego Samsunga R522 na coś bardziej kompaktowego i mocniejszego. Zastanawiam się nad MacBookiem Air 13'' i którymś z ultrabooków.

Jest w stanie ktoś przekazać mi swoje przemyślenia? Czy ktoś miał kontakt, powiedzmy, z MacBookiem i Zenbookami?

System tak naprawdę nie ma znaczenia, bo będzie chodził pod Windowsem 8.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2013 o 17:26, rob006 napisał:

na swoim przykładzie mogę powiedzieć, że podwojenie pamięci operacyjnej (4GB -> 8GB) znacznie przyspieszyło
mój komputer, choć programy i tak rzadko wykorzystywały więcej niż 60% 4GB, więc główny
zysk jest na cache''u operacji dyskowych.

A to trzeba było od razu powiedzieć, że używasz pingwina. W tym wypadku zależnie od konfiguracji systemu 64-bit pamięci może być po prostu za malo, aby wszystko co możliwe dobrze się mieściło.

Dnia 21.07.2013 o 17:26, rob006 napisał:

Mam laptopa z wolnym dyskiem, dodatkowo programowo szyfrowanym, więc jest to zdecydowanie najwolniejszy element mojego komputera.

No to wiele wyjaśnia. Deszyfrowanie w locie zabiera podwójną ilość pamięci i pewną ilość czasu CPU. Dodatkowa pamięć w takiej sytuacji może rzeczywiście przyspieszyć. Tak samo jak w Windzie dołożenie ramu kiedy system piłuje plik swapa zwiększa reaktywność systemu o kilkaset procent (czyli do normalnego stanu).

Dnia 21.07.2013 o 17:26, rob006 napisał:

Co prawa testy przeprowadzone na Linuksie, ale aż nie chce mi się wierzyć że Windows aż tak kiepsko
radzi sobie z zarządzaniem pamięcią, jak to tutaj opisujesz.

Windows może kiepsko zarządza pamięcią dyskową, ale akurat pamięcią RAM zarządza moim zdaniem bardzo dobrze. Właśnie dlatego dołożenie pamięci powyżej 4 GB (a tym bardziej powyżej 6 GB) w ogóle nie przyspiesza działania systemu, a w pewnych specyficznych warunkach może minimalnie go spowolnić. To spowolnienie jest w normalnych warunkach (zwykły HDD/SSD) zupełnie niemierzalne. Wykrywalne jest tylko w najpodlejszych warunkach gdy nośnikiem plików systemu jest jakiś koszmarny napęd.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2013 o 19:23, necron1501 napisał:

Komfortowe? Czyli jednak ilość RAMu ma wpływ na wygodne użytkowanie?

Jeżeli odpalasz tylko goły system i używasz głównie jego wbudowanych programów, to 64-bitowy Windows pracuje komfortowo na 2 GB RAM. Więcej po prostu nie potrzeba z tego powodu, że wszystkie załadowane programy mieszą się w tej granicy, a ilość pozostałego w pamięci miejsca na cache daje >90% trafień.
Natomiast jeżeli doinstalujesz sobie programów, w tym kilka z nich będzie odpalało różne dodatkowe usługi oraz będzie sobie siedziało w pamięci "na zaś", to ilość użytej pamięci przewyższy w szczytowych momentach te 4 GB i wtedy bez otwartego swapa system wykrzyczałby, że brakuje mu pamięci. Pamięć wirtualna systemu mapowana na plik swapa ma czas dostępu mniej więcej 100 razy gorszy niż czas dostępu pamięci mapowanej na kości RAM, więc właśnie dzięki temu można zaobserwować spowolnienie działania systemu (fizyczna pamięć RAM jest wtedy traktowana jak tymczasowy bufor).
Na dzień dzisiejszy nie znam żadnej konfiguracji systemu i zainstalowanych programów, które przewyższałyby 6 GB szczytowego zużycia pamięci. Natomiast da się takie znaleźć, które przekroczą 4 GB. Dlatego napisałem, że 6 GB jest obecnie (rok 2013) komfortowe. Pewnie za rok lub dwa komfortowe może się okazać już 8 GB, a nie 6. Oczywiście można też próbować sobie odpalić jakiś serwer czy bazę danych, która będzie pobierała sobie prawie 30 GB pamięci do działania, wtedy komfortowe będzie pewnie 32 GB RAM bo inaczej zaczęłoby się piłowanie po swapie (niektórzy potrafią tak zarżnąć serwer i zajechać dyski). :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2013 o 22:31, Olamagato napisał:

A to trzeba było od razu powiedzieć, że używasz pingwina. W tym wypadku zależnie od konfiguracji
systemu 64-bit pamięci może być po prostu za malo, aby wszystko co możliwe dobrze się
mieściło.

Rozwiń tę myśl. Co konkretnie miałoby się nie mieścić?

Dnia 21.07.2013 o 22:31, Olamagato napisał:

No to wiele wyjaśnia. Deszyfrowanie w locie zabiera podwójną ilość pamięci

Nie. Trzymanie w RAMie zaszyfrowanych danych nie ma sensu.
SWAP miałem wyłączony.

Dnia 21.07.2013 o 22:31, Olamagato napisał:

Windows może kiepsko zarządza pamięcią dyskową, ale akurat pamięcią RAM zarządza moim
zdaniem bardzo dobrze.

Zdajesz sobie sprawę że w tym momencie sam sobie przeczysz? Odczyt danych z dysku jest kilkaset razy wolniejszy niż odczyt danych z RAMu. Jeśli Windows nie cache''uje operacji dyskowych w RAMie, to dobrowolnie zgadza się na wolniejsze działanie systemu, i mówimy tutaj o drastycznym spadku wydajności. Udało mi się kiedyś zapchać ponad 90% RAMu przy wyłączonym SWAPie w systemie i wiem jak bardzo wolno potrafi działać gdy nie ma miejsca na cache. Jeśli w komputerze masz wolny RAM, a system go nie wykorzystuje, to znaczy że go marnuje => źle zarządza pamięcią.

Dnia 21.07.2013 o 22:31, Olamagato napisał:

Wykrywalne jest tylko w najpodlejszych warunkach gdy nośnikiem
plików systemu jest jakiś koszmarny napęd.

Wybacz, ale to co piszesz to jakaś totalna abstrakcja. W przypadku wolnych nośników zalety cache''u są jeszcze bardziej widoczne, bo różnica czasów odczytu danych z RAMu i wolnego nośnika jest jeszcze większa. Zależność powinna być zupełnie odwrotna do tego co tutaj piszesz.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 21.07.2013 o 22:51, rob006 napisał:

Rozwiń tę myśl. Co konkretnie miałoby się nie mieścić?

Odpalone procesy + buforowanie.

Dnia 21.07.2013 o 22:51, rob006 napisał:

> No to wiele wyjaśnia. Deszyfrowanie w locie zabiera podwójną ilość pamięci
Nie. Trzymanie w RAMie zaszyfrowanych danych nie ma sensu. SWAP miałem wyłączony.

Każdy odczyt sektora powoduje wczytanie danych zaszyfrowanych. Dopiero wtedy są one deszyfrowane bo w postaci zaszyfrowanej są bezużyteczne (to tylko zbitka bajtów bez żadnej wartości). Nie jest tak, że każdy odczytany sektor jest natychmiast deszyfrowany przed odczytem następnego bo są to niezależne od siebie rzeczy. Oznacza to, że szczytowe użycie pamięci może być w skrajnym wypadku dwa razy większe niż bufory wczytanych danych. Bez szyfrowania bufory zawierają zawsze dostępne do użycia dane.

Dnia 21.07.2013 o 22:51, rob006 napisał:

Zdajesz sobie sprawę że w tym momencie sam sobie przeczysz?

W czym?

Dnia 21.07.2013 o 22:51, rob006 napisał:

Odczyt danych z dysku jest kilkaset razy wolniejszy niż odczyt danych z RAMu. Jeśli Windows nie cache''uje operacji dyskowych w RAMie, to dobrowolnie zgadza się na wolniejsze działanie systemu, i mówimy
tutaj o drastycznym spadku wydajności.

Windows zawsze cache''uje dane z odczytu dysku, ale nie zawsze używa danych tego cache do zapisu. Na przykład dyski wymienne domyślnie mają cachowanie operacji odczytu, ale już nie zapisu. Tylko nieusuwalne dyski twarde mają cache domyślnie włączone dla operacji zapisu (chociaż można to wyłączyć). Dla przykładu usuwanie 8 plików oznacza 8 operacji zapisu tego samego sektora 512 B, a na nowych dyskach z sektorem 4KB oznacza to 64 zapisy tego samego sektora. Cache operacji zapisu pozwala na 64 modyfikacje sektora w pamięci oraz pojedynczy zapis sektora na dysku.

Oprócz tego w systemie jest jeszcze odczyt wyprzedzający, w którym system próbuje zgadnąć co będzie w najbliższym czasie odczytane. Nie zawsze jest to zgadywanie trafne. Czasem zupełnie błędne i wtedy system powtarza zupełnie zbędne odczyty dysku, które do niczego się nie nadają.

Dnia 21.07.2013 o 22:51, rob006 napisał:

Udało mi się kiedyś zapchać ponad 90% RAMu przy
wyłączonym SWAPie w systemie i wiem jak bardzo wolno potrafi działać gdy nie ma miejsca na cache.

Cache potrzebuje bardzo niewiele miejsca na odczytywane dane. Potrzebne jest tylko 10% pokrycia, aby uzyskiwać 90% trafień. Dlatego dyski twarde maj sprzętowe cache o wielkości tylko 32/64 MB dla tak wielkich pojemności jak 1/2 TB. Powyżej tej wielkości pokrycia polepszenie trafiania cache zwiększa się o ułamki procent, więc zapychanie ramu wszelkimi zgadniętymi śmieciami z dysku nie ma wcale aż tak wiele sensu jak się to wydaje.

Dnia 21.07.2013 o 22:51, rob006 napisał:

Jeśli w komputerze masz wolny RAM, a system go nie wykorzystuje, to znaczy
że go marnuje => źle zarządza pamięcią.

Zarządzanie pamięcią, to znacznie szersze pojęcie, które nie spłyca się do zapychania RAMu. Na przykład w Windows pamięcią swap jest każdy odczytany plik tylko do odczytu (np. plik z kodem wykonywalnym) ponieważ w razie deficytu pamięci system usuwa takie odczytane dane pozostawiając sobie tylko informację gdzie oryginalne dane są zlokalizowane. Kiedy deficyt pamięci minie lub trzeba skorzystać z usuniętych danych system ponownie wczytuje te same dane z tego pliku. To jest na przykład głównym powodem dla którego nie możesz usunąć z dysku, ani modyfikować plików z kodem, który został wczytany do pamięci i uruchomiony.

"Marnowanie" lub nie marnowanie pamięci na cache ma niewiele wspólnego z dobrym czy złym zarządzaniem pamięcią. Jeżeli zapychanie pamięci nie ma się przekładać na przyspieszenie operacji, albo przyspieszenie to jest na poziomie ok. 1%, to sens jej zapychania kolejnymi zbędnymi odczytami nie istnieje. (a czasem jest nawet bardzo szkodliwe - np. na laptopach pracujących na baterii. :)

Natomiast jeżeli tak jak napisałeś zapchasz ram tak mocno, że system Ci bardzo spowalnia, to wcale nie musi to być głównie spowodowane zmniejszonym cache dyskowym, ale znacznie bardziej prawdopodobne, że realną przyczyną spowolnienia jest również fragmentacja pamięci, która w takich wypadkach staje się problemem nie mniejszym niż trafianie w zmniejszone cache.
Nie wiem też czy zdajesz sobie sprawę, że jakieś 70% kodu programów i systemu Windows ma status discardable, co oznacza, że jeżeli system raportuje wykorzystanie 4 GB pamięci RAM, to w istocie używa ~6,8 GB pamięci wirtualnej (zakładając, że cała pamięć jest zapchana głównie kodem wykonywalnym).
I jeszcze co do terminologii, to w Windows występuje wyłącznie pamięć wirtualna. Jest ona mapowana na strony pamięci fizycznej lub strony pamięci dyskowej w plikach wymiany (swapie). Do swapa trafiają wyłącznie dane do zapisu bo jak już napisałem każdy plik wykonywalny w Windows jest również częścią pamięci wirtualnej (tej do odczytu).

Dnia 21.07.2013 o 22:51, rob006 napisał:

Wybacz, ale to co piszesz to jakaś totalna abstrakcja. W przypadku wolnych nośników zalety
cache''u są jeszcze bardziej widoczne, bo różnica czasów odczytu danych z RAMu i wolnego
nośnika jest jeszcze większa. Zależność powinna być zupełnie odwrotna do tego co tutaj piszesz.

Miałbyś rację gdybyśmy mówili wyłącznie od cache (buforuje raz wczytane dane do kolejnych wczytań lub zapisów), a nie również o wczytywaniu z wyprzedzeniem, które czasem w patologiczny sposób używa system (nie tylko Windows zresztą).
Pewnie, że cache najlepiej się sprawdza właśnie przy najwolniejszym nośniku, ale zapominasz o jednym fakcie - dysk nie potrafi przeprowadzać równoległych operacji dyskowych - on pracuje w kolejce (priorytetowej, ale jednak). Jeżeli program lub system potrzebuje coś czytać z pliku lub w nim zapisać, ale musi czekać ponieważ dysk jest w tym czasie zajęty operacjami wczytywania z wyprzedzeniem jakichś danych do cache (które zresztą wcale nie muszą się przydać), to tu masz realne spowolnienie działania systemu i jego programów. Tak więc czasem to nadgorliwe używanie pamięci i dysku wcale nie polepsza wydajności, a wręcz odwrotnie.
I przypomnę - spowolnienie tym spowodowane jest dla normalnych dysków twardych niemierzalne.
Oczywiście takie patologiczne sytuacje zdarzają się rzadko, więc trzeba je specjalnie preparować żeby móc je zaobserwować. W normalnych warunkach technologie takie jak cache wyprzedzające i np. prefetch/superfetch dają więcej korzyści niż strat.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.07.2013 o 00:18, Olamagato napisał:

Odpalone procesy + buforowanie.

Przecież Linux jest mniej zasobożerny niż Windows, skąd pomysł że miałoby się tam coś nie mieścić, skoro Windowsowi wystarczą 2 GB.

Dnia 22.07.2013 o 00:18, Olamagato napisał:

Każdy odczyt sektora powoduje wczytanie danych zaszyfrowanych. Dopiero wtedy są one deszyfrowane
bo w postaci zaszyfrowanej są bezużyteczne (to tylko zbitka bajtów bez żadnej wartości).
Nie jest tak, że każdy odczytany sektor jest natychmiast deszyfrowany przed odczytem
następnego bo są to niezależne od siebie rzeczy. Oznacza to, że szczytowe użycie pamięci
może być w skrajnym wypadku dwa razy większe niż bufory wczytanych danych. Bez szyfrowania
bufory zawierają zawsze dostępne do użycia dane.

Dane w zaszyfrowanej formie nie są trzymane w cache''u, w uproszczeniu na zaszyfrowanych danych operuje "program" do ich deszyfracji, ale po tej operacji wylatują z RAMu, jako coś zupełnie zbędnego. W takiej sytuacji narzut na szyfrowane dane jest rzędu kilku/kilkunastu MB, nie ma mowy o dwukrotnym zwiększeniu zapotrzebowania pamięci na cache, bo to jest kompletnie bez sensu.

Dnia 22.07.2013 o 00:18, Olamagato napisał:

> Zdajesz sobie sprawę że w tym momencie sam sobie przeczysz?
W czym?

W stwierdzeniu że system może słabo sobie radzić z zarządzaniem pamięcią dyskową, ale dobrze z wykorzystaniem RAMu. To jakby powiedzieć że pan Zdzisio może nie potrafi obsługiwać kierownicy w samochodzie, ale za to jest świetnym kierowcą.

Dnia 22.07.2013 o 00:18, Olamagato napisał:

Windows zawsze cache''uje dane z odczytu dysku, ale nie zawsze używa danych tego cache
do zapisu. /.../

Wszystko pięknie, tylko co to ma do rzeczy? Większość operacji dyskowych to odczyt, w dodatku z nośników zamontowanych na stałe, więc po co ta zmiana tematu? :)

Dnia 22.07.2013 o 00:18, Olamagato napisał:

Cache potrzebuje bardzo niewiele miejsca na odczytywane dane. Potrzebne jest tylko 10%
pokrycia, aby uzyskiwać 90% trafień. Dlatego dyski twarde maj sprzętowe cache o wielkości
tylko 32/64 MB dla tak wielkich pojemności jak 1/2 TB. Powyżej tej wielkości pokrycia
polepszenie trafiania cache zwiększa się o ułamki procent, więc zapychanie ramu wszelkimi
zgadniętymi śmieciami z dysku nie ma wcale aż tak wiele sensu jak się to wydaje.

Nie. I jest to stanowcze nie, potwierdzone teoretycznie, empiryczni i logicznie. Pamiętaj że niewykorzystany RAM nie daje ci kompletnie nic, więc w rezultacie się po prostu marnuje. Jeśli w to miejsce wrzucisz cache dysku, który przyspieszy odczyt tych plików kilkusetkrotnie zmniejszając tym samym obciążenie dysku (a więc przyspieszając też inne procesy i może też wydłużając żywotność dysku) to masz zysk. Jeśli system z tych możliwości nie korzysta, to po prostu kiepsko sobie z tym zagadnieniem radzi.
Pamięci podręcznej w dyskach jest tak mało, bo jest droga, a nie dlatego bo jej więcej nie potrzeba. Sam polecałeś dyski hybrydowe, a tam mamy podobny mechanizm, tylko na większą skalę, choć mniej wydajny.

Dnia 22.07.2013 o 00:18, Olamagato napisał:

Miałbyś rację gdybyśmy mówili wyłącznie od cache (buforuje raz wczytane dane do kolejnych
wczytań lub zapisów), a nie również o wczytywaniu z wyprzedzeniem, które czasem w patologiczny
sposób używa system (nie tylko Windows zresztą).

W Linuksie nie zauważyłem aby coś było wczytywane "na zaś" do RAMu, jeśli Windows generuje takie patologie o jakich mówisz, to tylko potwierdza to, że słabo zarządza pamięcią. :P A nawet jeśli, to wybieranie mniejszej ilości RAMu aby komputer działał szybciej, to podejście nieuzasadnione i strasznie krótkowzroczne - ten RAM się nie zmarnuje.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Czy ten laptop w cenie do 2 tysięcy złotych (taki budżet) jest dobrym wyborem?
http://allegro.pl/laptop-lenovo-z500-i3-4gb-1tb-gt645m-2gb-310zl-i3403200662.html

Czy może macie inne propozycje? Laptop wybieram typowo pod gry, bo wtedy wiadomo, że można zrobić na nim praktycznie wszystko :) Budżet wspomniane 2000 zł, koniecznie z systemem.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 22.07.2013 o 00:59, rob006 napisał:

> Odpalone procesy + buforowanie.
Przecież Linux jest mniej zasobożerny niż Windows, skąd pomysł że miałoby się tam coś
nie mieścić, skoro Windowsowi wystarczą 2 GB.

Ja mam odwrotne doświadczenia. Może głównie dlatego, że maszyny linuksowe nierzadko konfigurowali dyletanci.

Dnia 22.07.2013 o 00:59, rob006 napisał:

Dane w zaszyfrowanej formie nie są trzymane w cache''u, w uproszczeniu na zaszyfrowanych
danych operuje "program" do ich deszyfracji

Tylko te dane muszą siedzieć w RAM no bo CPU niestety nie operuje na sektorach dysku. :)

Dnia 22.07.2013 o 00:59, rob006 napisał:

ale po tej operacji wylatują z RAMu, jako coś zupełnie zbędnego.

W teorii tak powinno być.

Dnia 22.07.2013 o 00:59, rob006 napisał:

W takiej sytuacji narzut na szyfrowane dane jest rzędu kilku/kilkunastu
MB, nie ma mowy o dwukrotnym zwiększeniu zapotrzebowania pamięci na cache, bo to jest
kompletnie bez sensu.

To jest bez sensu, ale tylko jeżeli wszystko jest prawidłowo skonfigurowane. A różne już cuda widziałem, które teoretycznie nie powinny się prawie nigdy zdarzyć.

Dnia 22.07.2013 o 00:59, rob006 napisał:

> > Zdajesz sobie sprawę że w tym momencie sam sobie przeczysz?
> W czym?
W stwierdzeniu że system może słabo sobie radzić z zarządzaniem pamięcią dyskową, ale
dobrze z wykorzystaniem RAMu.

Nie, i całkowicie to podtrzymuję. Windows jest systemem, który dobrze zarządza pamięcią wirtualną, ale zupełnie do dupy zarządza pamięcią dyskową. Dyski ulegają strasznej fragmentacji przy najprostszych operacjach - a już szczególnie przy użyciu kompresji w locie. Dla odmiany systemu X-owe zarządzają swoim typem pamięci masowej zupełnie nieźle, za to nieco gorzej pamięcią RAM (zwykle te same aplikacje potrzebują jej więcej i działają minimalnie wolniej).

Dnia 22.07.2013 o 00:59, rob006 napisał:

To jakby powiedzieć że pan Zdzisio może nie potrafi obsługiwać
kierownicy w samochodzie, ale za to jest świetnym kierowcą.

Nie. Pamięć wirtualna/RAM jest zupełnie czym innym niż pamięć masowa i np. organizacja danych na partycjach NTFS. To są dwie zupełnie różne dziedziny, które nie mają ze sobą wiele wspólnego. Wystarczy zwrócić uwagę na różnice efektywności działania aplikacji, w operowaniu na różnych systemach plików.
A jeżeli już mamy analogię samochodową, to fakt że świetnie potrafi się operować gazem, nie oznacza, że ten sam kierowca równie świetnie potrafi się wchodzić w zakręty. :)

Dnia 22.07.2013 o 00:59, rob006 napisał:

Nie. I jest to stanowcze nie, potwierdzone teoretycznie, empiryczni i logicznie. Pamiętaj
że niewykorzystany RAM nie daje ci kompletnie nic, więc w rezultacie się po prostu marnuje.

A ja będę nonkonformistą i powiem Ci, że to bzdura.
Zapychanie RAMu śmieciami powoduje że z punktu widzenia systemu przydział nowych partii pamięci jest bardziej skomplikowaną operacją bo system musi zdecydować których danych się pozbyć. A jak już zdecyduje, że pozbędzie się tylko części, to zwykle w wielu małych kawałkach, które choć są wirtualizowane, to jednak są pofragmentowane. Aplikacje są różne i niektóre żądają spójnego obszaru pamięci, który ma ścisłe wymagania - na przykład strony nie mogą być mapowane na plik wymiany, ale na pamięć fizyczną. I w tym momencie system zaczyna mieć problem z fragmentacją pamięci bo przydział nowych bloków przestaje być po prostu trywialnym zapisem w strukturach systemowych o zajęciu pamięci od adresu do adresu.
Nie jest więc tak, że zapychanie pamięci do pełna śmieciami jest neutralne wydajnościowo bo nie jest i umiem to udowodnić. Najlepiej przekonać się o tym na przykładzie wiszącej w pamięci bazy znaczników antywirusa. Niektóre z nich alokuja sobie od systemu właśnie pamięć o takich wymaganiach i jest to na dodatek pamięć do zapisu. Robią to ze względów wydajnościowych oraz po to aby w locie uaktualniać bazę markerów. Oznacza to, że alokowany obszar systemowy ringu 0 zwiększa się o ok. 200-300 MB. A to już nie jest nic, którego nie da się zauważyć. System musi więc przemapować tą ilość pamięci gdzieś indziej, a Windows robi to najprościej jak może - jeżeli akurat nie ma tyle niezajętej pamięci RAM najpierw zwala wszystko do swapa. A operacje dyskowe trwają 100 razy dłużej zanim pamięć zostanie przemapowana, a wolne bloki zaalokowane. Zapchaj więc sobie RAM kompa i wtedy uruchom stoper oraz zainstaluj antywirusa i od razu pozwól mu odpalić usługi. A potem powtórz to samo bez zapychania pamięci. Odpowiedź pojawi Ci się sama.

Dnia 22.07.2013 o 00:59, rob006 napisał:

Jeśli w to miejsce wrzucisz cache dysku, który przyspieszy odczyt tych plików kilkusetkrotnie
zmniejszając tym samym obciążenie dysku (a więc przyspieszając też inne procesy i może
też wydłużając żywotność dysku) to masz zysk. Jeśli system z tych możliwości nie korzysta,
to po prostu kiepsko sobie z tym zagadnieniem radzi.

To niestety nieprawda. Gdyby tak było, to cache dysków twardych dążyłoby do nieskończoności (RAM - nawet ten pakowany do kontrolerów - jest przecież bardzo tani). Tak nie jest ponieważ zwiększanie cache ponad pewien próg daje ułamki procenta polepszenia trafiania. Krótko mówiąc nie ma to większego sensu.

Dnia 22.07.2013 o 00:59, rob006 napisał:

Pamięci podręcznej w dyskach jest tak mało, bo jest droga, a nie dlatego bo jej więcej
nie potrzeba. Sam polecałeś dyski hybrydowe, a tam mamy podobny mechanizm, tylko na większą
skalę, choć mniej wydajny.

Dyski hybrydowe działają niezupełnie jak cache. W pamięci flash trwale pozostają tylko małe pliki i struktury dyskowe. Mały plik pozostanie zawsze na flashu - choćby był rzadko używany. Dopóki będzie mały nigdy nie wyemigruje na talerz. W cache elementy rzadko używane są usuwane bez względu na ich wielkość.

Dnia 22.07.2013 o 00:59, rob006 napisał:

W Linuksie nie zauważyłem aby coś było wczytywane "na zaś" do RAMu, jeśli Windows generuje
takie patologie o jakich mówisz, to tylko potwierdza to, że słabo zarządza pamięcią.

Odczyt z wyprzedzeniem jest stosowany we wszystkich systemach jakie znam. Również w Linuksie.

Dnia 22.07.2013 o 00:59, rob006 napisał:

:P A nawet jeśli, to wybieranie mniejszej ilości RAMu aby komputer działał szybciej,
to podejście nieuzasadnione i strasznie krótkowzroczne - ten RAM się nie zmarnuje.

Obsługa pamięci to zawsze kompromis. Mówienie o tym w modnym dzisiaj trendzie, że pamięć nieużywana to pamięć zmarnowana, to tylko bieżąca "moda" mająca mało wspólnego z rzeczywistością. Generalnie dobrze jest gdy system dysponuje wszystkimi dostępnymi zasobami takimi jak RAM, ale zasobem jest również czas - w tym również czas obsługi.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 26.07.2013 o 20:44, Olamagato napisał:

W teorii tak powinno być.

Więc czemu zakładasz że jest inaczej? To że dane muszą trafić do RAMu, aby CPU mógł je odszyfrować, nie znaczy że muszą tam siedzieć przez cały czas.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

To jest bez sensu, ale tylko jeżeli wszystko jest prawidłowo skonfigurowane. A różne
już cuda widziałem, które teoretycznie nie powinny się prawie nigdy zdarzyć.

To już są dywagacje kalibru "gdyby babcia miała wąsy...". Ja korzystam ze standardowego szyfrowania dostępnego przy instalacji systemu (Ubuntu) i nie zauważyłem niczego, o czym tutaj piszesz. Szczerze wątpię też, aby użytkownik mógł nieświadomie coś w tej kwestii namieszać.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

Dla
odmiany systemu X-owe zarządzają swoim typem pamięci masowej zupełnie nieźle, za to nieco
gorzej pamięcią RAM (zwykle te same aplikacje potrzebują jej więcej i działają minimalnie
wolniej).

Coś na potwierdzenie tych słów? Ja wszędzie słyszałem opinie, że akurat Linux z zarządzaniem pamięcią operacyjną radzi sobie bardzo dobrze i Windows jest pod tym względem daleko w tyle.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

A ja będę nonkonformistą i powiem Ci, że to bzdura.
Zapychanie RAMu śmieciami powoduje że z punktu widzenia systemu przydział nowych partii
pamięci jest bardziej skomplikowaną operacją bo system musi zdecydować których danych
się pozbyć. /.../

Jakiego rzędu jest to nakład obliczeniowy? Sam tutaj pisałeś, że odrobinę gorszy procesor nie powinien standardowemu użytkownikowi robić większej różnicy, a teraz wytykasz marginalne nakłady obliczeniowe, choć mogą (i przeważnie się tak dzieje) znacząco przyspieszyć operacje z udziałem najwolniejszego elementu naszego komputera, ergo niwelują wąskie gardło.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

System musi więc przemapować tą ilość pamięci gdzieś indziej, a
Windows robi to najprościej jak może - jeżeli akurat nie ma tyle niezajętej pamięci RAM
najpierw zwala wszystko do swapa.

To już jest złe zarządzanie pamięcią operacyjną. Nie mówiąc też o tym, że takie sytuacje dzieją się w wypadku małej ilości RAMu.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

To niestety nieprawda. Gdyby tak było, to cache dysków twardych dążyłoby do nieskończoności
(RAM - nawet ten pakowany do kontrolerów - jest przecież bardzo tani). Tak nie jest ponieważ
zwiększanie cache ponad pewien próg daje ułamki procenta polepszenia trafiania. Krótko
mówiąc nie ma to większego sensu.

Gdyby cache nie miał sensu, żaden system operacyjny by tego nie robił. Ba, ja widzę że ma sens.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

Dyski hybrydowe działają niezupełnie jak cache. W pamięci flash trwale pozostają tylko
małe pliki i struktury dyskowe. Mały plik pozostanie zawsze na flashu - choćby był rzadko
używany. Dopóki będzie mały nigdy nie wyemigruje na talerz.

Nie będę się kłócił, ale jeśli masz rację, to jest to kolejne bezsensowne rozwiązanie. Jeśli edytuję wideo, albo operuję na dużych plikach, takie rozwiązanie nie daje kompletnie nic.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

Odczyt z wyprzedzeniem jest stosowany we wszystkich systemach jakie znam. Również w Linuksie.

Nie wątpię. Ale nigdy nie widziałem takich cudów, jakie sam opisujesz, więc może jest to rozwiązane trochę inteligentniej niż w Windowsie.

Dnia 26.07.2013 o 20:44, Olamagato napisał:

Obsługa pamięci to zawsze kompromis. Mówienie o tym w modnym dzisiaj trendzie, że pamięć
nieużywana to pamięć zmarnowana, to tylko bieżąca "moda" mająca mało wspólnego z rzeczywistością.

Nie. Pamięć nieużywana to pamięć zmarnowana. Jeśli coś można przyspieszyć wykorzystując wolne zasoby, to warto to robić. A to że jakiś system wczytuje sobie bez sensu jakieś dane z dysku do RAMu niewiele tutaj zmienia - to że jedna osoba nie potrafi chodzić, nie znaczy jeszcze że chodzenie nie ma sensu. :)

Dnia 26.07.2013 o 20:44, Olamagato napisał:

Generalnie dobrze jest gdy system dysponuje wszystkimi dostępnymi zasobami takimi jak
RAM, ale zasobem jest również czas - w tym również czas obsługi.

Ale wykorzystanie cache''u skraca czas obsługi!

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Planuję kupić sobie laptopa do grania i waham się pomiędzy dwoma opcjami:

Lenovo: http://allegro.pl/lenovo-y580-15-6-fhd-i7-3630qm-12g-1tb-gtx660-raty-i3405066335.html

HP: http://allegro.pl/hp-envy-dv7-17-3-fullhd-i7-12gb-750-gt650-2gb-win8-i3418603100.html

Warto zrezygnować z Lenovo 15" z kartą GTX 660M na rzecz HP z GT 650M, ale za to z przekątną 17"? Czy może różnic pomiędzy tymi dwoma kartami graficznymi jakichś ogromnych nie ma i bez wahania brać tego HP? Co wg Was lepiej opłaca się dla gracza?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bierz lenovo, sam kupiłem takiego miesiąc temu, tylko, że z 4GB RAM-u i sprawuje się naprawdę dobrze. HP ma matrycę FullHD i słabszą grafikę, więc lenovo powinno być w tym przypadku bardziej wydajne.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wiem, że lenovo jest bardziej wydajny, bo ma lepszą grafikę, ale czy różnice pomiędzy tymi dwoma kartami (GTX 660M i GT 650M) są duże? Bo jeśli nie, to przychyliłabym się do HP z większą matrycą.

Rebal dzięki, ale nie chciałabym już więcej 15-stek brać pod uwagę. Jeśli już to jakąś inną 17-stkę z Intelem i GeForce'm w środku.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

/.../

I niestety się mylisz. Albo raczej - nie mylisz się, HD7970M jest DUŻO szybszy od GT650M czy GTX660M. W połączeniu z dobrym procesorem. AMD A10 niestety się do takich nie zalicza. I potrafi spowolnić tę kartę o blisko 50% sprawiając że nagle takie combo nie jest już fajnym wyborem bo GTX660M potrafi ją ostro wyprzedzać w wielu tytułach które intensywnie korzystają z CPU. Jeśli już chcesz ten układ graficzny to KONIECZNIE z jakimś Core i5 bądź i7, wtedy rzeczywiście masz świetną wydajność taniej niż układy od Nvidii.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
Dnia 28.07.2013 o 09:47, Neysha napisał:

Wiem, że lenovo jest bardziej wydajny, bo ma lepszą grafikę, ale czy różnice pomiędzy
tymi dwoma kartami (GTX 660M i GT 650M) są duże? Bo jeśli nie, to przychyliłabym się
do HP z większą matrycą.


Całkiem spore - na poziomie ok. 30-35%. I moim zdaniem niezależnie od wybranego modelu, FullHD będzie tylko utrudniać granie - to nie są złe układy graficzne ale 1920x1200 + wysokich detali to nie udźwigną w najnowszych grach. 1366x768 już prędzej.

Zresztą:
http://www.notebookcheck.pl/NVIDIA-GeForce-GTX-660M.72057.0.html
http://www.notebookcheck.pl/NVIDIA-GeForce-GT-650M.72058.0.html
Na dole masz testy wydajności w grach, możesz sobie porównać i zdecydować która z nich ci wystarczy do szczęścia ;)
http://www.notebookcheck.net/AMD-Radeon-HD-7970M.72675.0.html - no i tak dla porównania, HD7970M. Wydajność na całkowicie INNYM POZIOMIE. I warto się nad nim zastanowić. Tylko że niestety CPU dostaniesz do niego u nas niewiele lepszy niż w tym:
http://www.notebookcheck.pl/Recenzja-MSI-GX60.86108.0.html

Więc nie jestem pewny czy nadal będzie szybszy.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Utwórz konto lub zaloguj się, aby skomentować

Musisz być użytkownikiem, aby dodać komentarz

Utwórz konto

Zarejestruj nowe konto na forum. To jest łatwe!


Zarejestruj nowe konto

Zaloguj się

Masz już konto? Zaloguj się.


Zaloguj się
Zaloguj się, aby obserwować